WO2014203901A1 - Ophthalmological imaging device and ophthalmological image display device - Google Patents
Ophthalmological imaging device and ophthalmological image display device Download PDFInfo
- Publication number
- WO2014203901A1 WO2014203901A1 PCT/JP2014/066046 JP2014066046W WO2014203901A1 WO 2014203901 A1 WO2014203901 A1 WO 2014203901A1 JP 2014066046 W JP2014066046 W JP 2014066046W WO 2014203901 A1 WO2014203901 A1 WO 2014203901A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- image
- region
- display
- eye
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
Definitions
- the present invention relates to an ophthalmologic imaging apparatus that acquires an image of an eye to be examined using optical coherence tomography (OCT), and an ophthalmic image display apparatus that displays an image of the eye to be examined acquired using OCT. .
- OCT optical coherence tomography
- OCT that forms an image representing the surface form and internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.
- Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional cross-sectional image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. This method is also called a spectral domain.
- Fourier Domain OCT Frourier Domain OCT
- a plurality of two-dimensional cross-sectional images in the horizontal direction are formed by scanning (scanning) the signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of cross-sectional images.
- a technique for acquiring and imaging three-dimensional cross-sectional information of a measurement range is disclosed.
- this three-dimensional imaging technology for example, a method of displaying a plurality of cross-sectional images side by side (referred to as stack data), volume data (voxel data) is generated based on the stack data, and rendering processing is performed on the volume data. And a method for forming a three-dimensional image.
- Patent Documents 3 and 4 disclose other types of OCT apparatuses.
- the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution.
- Is obtained, and an apparatus for imaging the form of the object to be measured by performing Fourier transform on the obtained image is described.
- Such an apparatus is called a swept source type.
- the swept source type is a kind of Fourier domain type.
- Patent Document 4 the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light.
- An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.
- Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field.
- fundus cameras Prior to the application of OCT, fundus cameras, slit lamps, SLO (Scanning Laser Ophthalmoscope), and the like were used as devices for observing the subject's eye (for example, Patent Document 6, Patent Document 7, Patent Document). 8).
- a fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light.
- a slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light.
- the SLO is an apparatus that images the fundus surface by scanning the fundus with laser light and detecting the reflected light with a highly sensitive element such as a photomultiplier tube.
- An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired and a cross-sectional image or a three-dimensional image can be acquired.
- an apparatus using OCT can be applied to observation of various parts of an eye to be examined and can acquire high-definition images, it has been applied to diagnosis of various ophthalmic diseases.
- vitreous observation using OCT has made progress.
- the vitreous body is a transparent jelly-like tissue filled in the lumen of the eyeball, and its form can be depicted by OCT.
- Examples of the vitreous body observation include running of the vitreous fibers, the shape and arrangement of the boundary surface of the vitreous body (for example, posterior vitreous detachment), the shape and arrangement of the cloak tube, and the distribution of traces of the vitreous blood vessels.
- the image quality changes in accordance with the position (depth position) in the depth direction (the direction in which the signal light travels), so measurement is performed with the main observation site in focus.
- the main observation sites are the retina, choroid, and vitreous
- the retina, choroid, and vitreous are respectively focused.
- the image quality of the image area corresponding to the out-of-focus area is lower than the image quality of the image area corresponding to the in-focus area, which hinders observation of a relatively low-quality image area. May occur. That is, the conventional OCT technique provides sufficient performance for local observation of the eye to be examined, but it has been difficult to suitably perform global observation.
- An object of the present invention is to provide a technique capable of suitably performing not only local observation of a subject eye but also global observation.
- the invention according to claim 1 divides the light from the light source into signal light and reference light, and the signal light passing through the eye to be examined and the reference light passing through the reference light path
- the invention according to claim 2 is the ophthalmologic photographing apparatus according to claim 1, wherein when the image formed by the forming unit includes a two-dimensional image, the dividing unit is formed by the forming unit.
- an image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined, and a two-dimensional image region having the image region specified by the image region specifying unit as a boundary, And a partial area specifying unit that specifies the partial area.
- the invention according to claim 3 is the ophthalmologic photographing apparatus according to claim 1, wherein when the image formed by the forming unit includes a three-dimensional image, the dividing unit is formed by the forming unit.
- an image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined, and a three-dimensional image region having the image region specified by the image region specifying unit as a boundary, And a partial area specifying unit that specifies the partial area.
- the invention according to claim 4 is the ophthalmologic imaging apparatus according to claim 2 or claim 3, wherein when the predetermined region includes an inner boundary film, the image region specifying unit is configured to determine the inner boundary of the eye to be examined.
- An inner boundary membrane region corresponding to a membrane is specified, and the partial region specifying unit, based on a result of specifying the inner boundary membrane region, a retinal region corresponding to a retina of a subject eye and a vitreous region corresponding to a vitreous body Is specified as the partial region.
- the invention according to claim 5 is the ophthalmologic imaging apparatus according to claim 2 or claim 3, wherein the Bruch film is included in the Bruch film of the eye to be examined when the Bruch film is included in the predetermined part.
- the corresponding Bruch's membrane region is specified, and the partial region specifying unit specifies, as the partial region, the retinal region corresponding to the retina of the eye to be examined and the choroid region corresponding to the choroid based on the specification result of the Bruch's membrane region. It is characterized by doing.
- the invention according to claim 6 is the ophthalmologic imaging apparatus according to claim 2 or 3, wherein when the predetermined site includes a choroid-sclera boundary, the image region specifying unit A choroid-sclera boundary region corresponding to the choroid-sclera boundary is specified, and the partial region specifying unit determines whether the choroid region corresponding to the choroid of the eye to be examined is strong based on the result of specifying the choroid-sclera boundary region. A scleral region corresponding to a film is specified as the partial region.
- a seventh aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to sixth aspects, wherein the setting unit includes each of the plurality of partial regions acquired by the dividing unit.
- the parameter value for changing the pixel values of a plurality of pixels included in the partial area is set as the display condition.
- the invention according to claim 8 is the ophthalmologic photographing apparatus according to claim 7, wherein the parameter is a first parameter for changing pixel values of the plurality of pixels to pseudo color values, and the plurality of pixels.
- a second parameter for changing the luminance value in the pixel value, a third parameter for changing the contrast based on the luminance value in the pixel value of the plurality of pixels, and for smoothing the pixel value of the plurality of pixels It includes at least one of a fourth parameter and a fifth parameter for emphasizing at least one of the plurality of pixels.
- the invention according to claim 9 is the ophthalmologic imaging apparatus according to claim 7 or claim 8, wherein the setting unit associates the value of the parameter with each of a plurality of parts of the eye.
- a correspondence information storage unit in which information is stored in advance, and a part selection unit that selects a part corresponding to the partial area from the plurality of parts for each of the plurality of partial areas acquired by the dividing unit;
- a parameter specifying unit that specifies a value of the parameter associated with the part selected by the part selecting unit for each of the plurality of partial regions based on the correspondence information, and is specified by the parameter specifying unit. Further, the parameter value is set as the display condition.
- a tenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to ninth aspects, wherein the setting unit includes the plurality of partial regions acquired by the dividing unit. A partial area to which predetermined image processing is applied is set as the display condition.
- An eleventh aspect of the present invention is the ophthalmologic photographing apparatus according to the tenth aspect, wherein the image processing includes a superimposition process in which two or more images are superimposed to form a single image, and the optical processing is performed.
- the system includes a scanning unit that scans substantially the same cross section of the eye to be inspected a plurality of times with the signal light, and the forming unit detects the interference light acquired by the optical system in accordance with the plurality of times of scanning.
- the dividing unit divides each of the plurality of images formed by the forming unit into the plurality of partial regions, and the display control unit
- the superimposing process for a plurality of images superimposing is performed for superimposing the plurality of images only on the partial area set as the application target of the superimposing process by the setting unit among the plurality of partial areas.
- the invention according to claim 12 is the ophthalmologic photographing apparatus according to claim 11, wherein the display control unit is configured to apply the plurality of partial areas to which the superimposition process is not applied among the plurality of partial areas.
- a thirteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects, wherein the optical system includes a scanning unit that scans an eye to be examined with the signal light, A timing unit that starts timing at a predetermined timing, and a control unit that controls the optical system to scan substantially the same cross section of the eye to be examined a plurality of times with the signal light after a predetermined time is measured by the timing unit And the forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans, and the display control unit includes: An overlay processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the display unit displays the single image formed by the overlay processing unit.
- a fourteenth aspect of the invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects of the invention, in which the optical system uses the signal light to cross substantially the same cross section of the eye to be examined.
- a scanning unit that repeatedly scans, and the forming unit sequentially forms an image of the cross section based on the detection result of the interference light acquired by the optical system with the repeated scanning, and the forming unit forms
- the movement state information indicating the movement state of the specific part of the eye to be examined depicted in the image is obtained, and the specific part is obtained based on the movement state information sequentially obtained.
- Said optical system to scan once A control unit that controls, the forming unit forms a plurality of images of the cross section based on a detection result of the interference light acquired by the optical system in association with the plurality of scans, and the display
- the control unit includes a superimposition processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the single image formed by the superimposition processing unit It is displayed on the display means.
- a fifteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to fourteenth aspects, in which the plurality of partial regions to which the display condition set by the setting unit is applied. It is characterized by having an analysis part which calculates the size of the partial area by analyzing any of them.
- the invention according to claim 16 is a reception unit that receives an image of an eye to be examined formed using optical coherence tomography, a division unit that divides the image received by the reception unit into a plurality of partial regions, A setting unit that sets display conditions for each of the plurality of partial areas acquired by the dividing unit, and a display unit that displays an image received by the receiving unit based on the display conditions set by the setting unit.
- An ophthalmologic image display device having a display control unit. This ophthalmologic image display apparatus may have an arbitrary function or configuration of the ophthalmologic photographing apparatus according to the embodiment.
- the ophthalmologic imaging apparatus forms a cross-sectional image or a three-dimensional image of the eye to be examined using OCT.
- images acquired by OCT may be collectively referred to as OCT images.
- a measurement operation for forming an OCT image may be referred to as OCT measurement.
- the configuration according to the embodiment is applied to an ophthalmologic imaging apparatus using another type (for example, a swept source type) of OCT.
- another type for example, a swept source type
- an apparatus combining an OCT apparatus and a fundus camera will be described in detail.
- an OCT having the configuration according to the embodiment is applied to an imaging apparatus other than the fundus camera, for example, an SLO, a slit lamp, an ophthalmic surgical microscope, or the like. It is also possible to combine devices.
- the configuration according to the embodiment can be incorporated into a single OCT apparatus.
- the configuration according to the embodiment can be applied to an ophthalmologic imaging apparatus including an OCT apparatus that can image an arbitrary part of an eye to be examined such as a cornea, an iris, and a crystalline lens.
- the ophthalmologic photographing apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
- the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
- the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
- the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
- the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
- the fundus image includes an observation image and a captured image.
- the observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light.
- the captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light.
- the fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
- the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30.
- the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
- the photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38).
- the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
- the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
- the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
- An LED Light Emitting Diode
- the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens.
- the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
- the photographing light source 15 is constituted by, for example, a xenon lamp.
- the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
- the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
- An image is formed on the light receiving surface.
- On the display device 3 an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.
- the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different.
- an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
- the LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index.
- the fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
- a part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic.
- the light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
- the fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39.
- As the fixation position of the eye E for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
- the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera.
- the alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E.
- the focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.
- the light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.
- the corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror
- the light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens.
- the light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
- the user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
- the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10.
- the light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
- the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
- a light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
- the arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
- the dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging.
- the dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing.
- a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.
- the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state.
- the optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
- the galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS.
- the galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.
- the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef.
- This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
- a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided.
- a known technique according to the type of optical coherence tomography can be arbitrarily applied.
- the light source unit 101 outputs broadband low-coherence light.
- Low-coherence light includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light.
- the light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
- SLD Super Luminescent Diode
- LED an LED
- SOA semiconductor Optical Amplifier
- the low coherence light output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the signal light LS and the reference light LR.
- the reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105.
- the optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique.
- the reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106.
- the polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape.
- the configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used.
- the reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.
- the signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
- the fiber coupler 109 causes the backscattered light of the signal light LS and the reference light LR that has passed through the optical fiber 104 to interfere with each other.
- the interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115.
- the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.
- the CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges.
- the CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
- a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
- any type of interferometer such as a Mach-Zehnder type can be appropriately used.
- another form of image sensor for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
- CMOS Complementary Metal Oxide Semiconductor
- the configuration of the arithmetic control unit 200 will be described.
- the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef.
- the arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
- the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.
- the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.
- the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.
- the arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer.
- a computer program for controlling the ophthalmologic photographing apparatus 1 is stored in a storage device such as a hard disk drive.
- the arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image.
- the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
- the fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.
- Control system The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIGS.
- the control system of the ophthalmologic photographing apparatus 1 is configured around the control unit 210.
- the control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
- the control unit 210 is provided with a main control unit 211 and a storage unit 212.
- the main control unit 211 performs the various controls described above.
- the main control unit 211 includes focusing drive units 31A and 43A of the fundus camera unit 2, an optical path length changing unit 41, a galvano scanner 42, a light source unit 101 of the OCT unit 100, an optical attenuator 105, and a polarization adjuster 106. To control.
- the focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed.
- the focusing drive unit 43A moves the focusing lens 43 provided in the optical path of the signal light LS in the optical axis direction. Thereby, the focus position of the signal light LS is changed.
- the main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.
- the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
- the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information.
- the eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
- the storage unit 212 stores various programs and data for operating the ophthalmologic photographing apparatus 1.
- the image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform) as in the conventional spectral domain type optical coherence tomography. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type. The image forming unit 220 functions as a “forming unit”.
- the image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified.
- the data processing unit 230 executes various data processing. For example, the data processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. As a specific example, the data processing unit 230 executes correction processing such as image luminance correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
- the data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between cross-sectional images to form image data of a three-dimensional image of the fundus oculi Ef.
- image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system.
- image data of a three-dimensional image there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
- the data processing unit 230 When displaying an image based on volume data, the data processing unit 230 performs a rendering process (such as volume rendering or MIP (Maximum Intensity Projection)) on the volume data to view it from a specific line-of-sight direction.
- a rendering process such as volume rendering or MIP (Maximum Intensity Projection)
- Image data of a pseudo three-dimensional image is formed.
- This pseudo three-dimensional image is displayed on a display device such as the display unit 241.
- the data processing unit 230 can form a two-dimensional cross-sectional image from the volume data.
- image processing for that purpose there is multi-planar reconstruction (MPR).
- MPR forms a two-dimensional cross-sectional image of the cross section based on the voxel group located in the cross section set for the volume data.
- stack data of a plurality of cross-sectional images is image data obtained by three-dimensionally arranging a plurality of cross-sectional images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of cross-sectional images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
- the data processing unit 230 includes an image dividing unit 231 and a display condition setting unit 232.
- the image dividing unit 231 divides the OCT image of the eye E to be examined into a plurality of partial areas.
- the image dividing unit 231 functions as a “dividing unit”. In this embodiment, the case where the image dividing unit 231 divides the two-dimensional image (cross-sectional image) of the eye E into a plurality of two-dimensional partial regions will be described. Examples of the two-dimensional image include a cross-sectional image formed by the image forming unit 220 and a cross-sectional image (MPR image) based on the three-dimensional image.
- a functional unit that forms a three-dimensional image (three-dimensional image forming unit) and a functional unit that forms a two-dimensional image from the three-dimensional image (two-dimensional image forming unit) Together with the forming unit 220, it functions as a “forming unit”.
- the image dividing unit 231 divides a three-dimensional image will be described later as a modified example.
- dividing an image means to classify an image into a plurality of partial areas, that is, to divide a set of a plurality of pixels constituting an image into a plurality of subsets (or to configure an image). A label corresponding to any partial region is assigned to each pixel).
- the plurality of pixels to be subjected to the classification process may be all the pixels constituting the image or some of the pixels.
- the process of “dividing the image” may include a process of extracting the partial area obtained by the classification process from the original image, that is, a process of extracting the partial area. In this case, in the subsequent display process, the plurality of extracted partial areas are combined again to form a display image.
- the image dividing unit 231 includes an image area specifying unit 2311 and a partial area specifying unit 2312.
- the image region specifying unit 2311 specifies a one-dimensional image region corresponding to a predetermined part of the eye E by analyzing a two-dimensional image of the eye E.
- This predetermined part may be an arbitrary part of the eye E to be examined.
- the predetermined part is a layer of the retina (retinal pigment epithelium layer, photoreceptor layer, outer boundary membrane, outer granule layer, outer reticulated layer, inner granular layer, inner reticulated layer, ganglion cell layer, nerve fiber layer, inner boundary Or a boundary thereof, a Bruch's membrane, a choroidal boundary, a scleral boundary, or a vitreous boundary.
- the predetermined part may be a boundary of a lesioned part.
- the boundary of the cornea, the layer of the cornea (corneal epithelium, Bowman's membrane, corneal stroma, Descemet's membrane, corneal endothelium) or its boundary, the boundary of the lens, the boundary of the iris It may be.
- the predetermined part is not limited to an anatomical tissue or a lesioned part, an area obtained by analyzing an image of the eye to be examined, an area manually set with reference to the image of the eye to be examined, etc.
- the concept may also include Examples of regions obtained by analyzing images include image regions (layer regions, layer boundary regions, etc.) obtained by the following segmentation.
- the image region specifying unit 2311 specifies a plurality of pixels included in the image region corresponding to the predetermined part based on the pixel value of the two-dimensional image of the eye E.
- the image area specifying unit 2311 obtains an approximate curve based on the specified plurality of pixels.
- This approximate curve can be obtained by an arbitrary method, and examples thereof include a linear approximate curve, a logarithmic approximate curve, a polynomial approximate curve, a power approximate curve, an exponential approximate curve, and a moving average approximate curve.
- the approximate curve acquired in this way can be used as a one-dimensional image region corresponding to a predetermined part of the eye E to be examined. Such processing is called “segmentation” or the like.
- the number of predetermined parts specified by the image area specifying unit 2311 is arbitrary.
- One or more predetermined parts to be specified are set in advance.
- the setting method there are a default setting, a selective setting according to an analysis method and an observation site, an arbitrary setting by a user, and the like.
- the number of partial areas obtained by the image dividing unit 231 is arbitrary.
- the partial region specifying unit 2312 specifies a two-dimensional image region having the one-dimensional image region specified by the image region specifying unit 2311 as a boundary as a partial region that is a specific target by the image dividing unit 231.
- Each partial area may be a predetermined tissue of the eye E or a part thereof, or may be two or more tissues or a part thereof.
- Each partial area may be a lesion or a part thereof.
- the image area specifying unit 2311 analyzes the cross-sectional image G to thereby obtain a one-dimensional image area (retina-vitreous boundary area) corresponding to the boundary between the retina and the vitreous body (inner boundary film).
- a one-dimensional image region (retina-choroid boundary region) g2 corresponding to the boundary between the retina and choroid (Bruch's membrane), and a one-dimensional image region corresponding to the boundary between the choroid and sclera (choroid-sclera boundary) Region (g3) is specified.
- the partial region specifying unit 2312 includes both the vitreous region G1 having the retina-vitreous boundary region g1 as a boundary, and the retina-vitreous boundary region g1 and the retina-choroidal boundary region g2. , A retina-choroid boundary region g2 and a choroid-sclera boundary g3 as a boundary, and a scleral region G4 with a choroid-sclera boundary g3 as a boundary.
- the display condition setting unit 232 sets the display conditions for each of the partial areas acquired by the image dividing unit 231.
- the display condition setting unit 232 functions as a “setting unit”.
- the display condition is a condition applied to display the OCT image of the eye E.
- the display condition includes a parameter for changing the pixel value of the OCT image.
- This parameter may include, for example, at least one of the following three parameters: (1) a parameter for changing the pixel value of the OCT image to a pseudo color value (pseudo color parameter); (2) OCT Parameters for changing the luminance values in the pixel values of the image (luminance parameters); (3) Parameters for changing the contrast based on the luminance values in the pixel values of the OCT image (contrast parameters).
- the display in the pseudo color is a display method in which the tissue is expressed by an arbitrarily assigned hue instead of the actual color of the tissue of the eye E.
- the luminance of the OCT image (grayscale image) is expressed in a predetermined gradation range (for example, 256 gradations from 0 to 255).
- the luminance is one of the components of the color space, and is a parameter that expresses the color together with the two color difference components.
- the contrast indicates a difference between the minimum value and the maximum value of the luminance in a predetermined image area (entire or part of the image).
- the display condition setting unit 232 includes a correspondence information storage unit 2321, a part selection unit 2322, and a parameter identification unit 2323.
- correspondence information storage unit 2321 correspondence information is stored in advance.
- the correspondence information is information in which the value of the parameter is associated with each of a plurality of parts of the eye.
- the correspondence information storage unit 2321 may be configured as a part of the storage unit 212.
- the correspondence information 2321a is table information that associates the eye region with the display conditions. That is, the correspondence information 2321a is a lookup table in which display parameters for each eye region are defined. In the item of the eye part, a retina, a choroid, a sclera, and a vitreous body are provided.
- the display condition item includes a pseudo color value, a luminance value, and a contrast.
- the pseudo color value indicates a coordinate value in a predetermined color space (for example, RGB color system), for example.
- a pseudo color value the value “A1” corresponds to the retina
- the value “A2” corresponds to the choroid
- the value “A3” corresponds to the sclera
- the value “A4” corresponds to the vitreous body. It is attached.
- each of the values A1 to A4 is set according to the gradation of the pixel value of the original OCT image. That is, each of the values A1 to A4 is not a single value, but associates the gradation range of the pixel value with the gradation range of the pseudo color display color.
- the luminance value indicates a value in a predetermined gradation range, for example.
- the value “B1” is associated with the retina
- the value “B2” is associated with the choroid
- the value “B3” is associated with the sclera
- the value “B4” is associated with the vitreous body. It has been.
- each of the values B1 to B4 is not a single value but associates the gradation range of the pixel value of the original OCT image with the gradation range of the pseudo color display color.
- at least one of the values B1 to B4 may correspond to a change amount of zero with respect to the luminance value of the original OCT image. That is, the display condition (luminance value) may not be changed for a certain partial area.
- Contrast indicates a value in a predetermined range, for example.
- the value “C1” is associated with the retina
- the value “C2” is associated with the choroid
- the value “C3” is associated with the sclera
- the value “C4” is associated with the vitreous body.
- at least one of the values C1 to C4 may correspond to a change amount of zero with respect to the contrast of the original OCT image. That is, the display condition (contrast) may not be changed for a certain partial area.
- Part selection part For each of the plurality of partial regions acquired by the image dividing unit 231, the region selection unit 2322 selects an eye region corresponding to the partial region from among the plurality of regions included in the item of the eye region of the correspondence information 2321 a. Select from. The part selection unit 2322 selects such an eye part by analyzing the OCT image or according to the content of the instruction from the user.
- an example of selecting an eye part by analyzing an OCT image will be described.
- a part corresponding to the specified image region can be recognized.
- the part selection unit 2322 analyzes each partial area of the OCT image, and compares the size, outline shape, characteristic part shape, pixel value distribution state, or other partial areas (parts specified by segmentation, etc.). Based on the information indicating the drawing state of the eye part, such as the positional relationship, the eye part corresponding to the partial region can be specified. Information indicating the drawing state of the eye part is created in advance by analyzing a plurality of OCT images, for example, and stored in the part selection unit 2322 (or storage unit 212).
- the main control unit 211 causes the display unit 241 to display the OCT image. At this time, the main control unit 211 can display the OCT image so as to clearly indicate the image region specified by the image region specifying unit 2311 or the partial region specified by the partial region specifying unit 2312.
- the user designates a partial area of the displayed OCT image and designates identification information (part name, etc.) of the eye part corresponding to the partial area.
- the specification of the identification information of the eye part is executed by, for example, displaying a list of identification information of the eye part by the main control unit 211 and selecting desired identification information from the list via the operation unit 242. .
- the part selection unit 2322 selects the part of the eye corresponding to the partial area by associating the partial area specified by the user with the identification information specified corresponding to the partial area.
- the parameter specifying unit 2323 specifies, for each partial area acquired by the image dividing unit 231, the parameter value associated with the part selected by the part selecting unit 2322 based on the correspondence information 2321 a.
- the correspondence information 2321a is information in which a plurality of parts of the eye are associated with parameter values.
- the parameter specifying process includes a process of searching for the value of the parameter associated with the part selected by the part selecting unit 2322 from the correspondence information 2321a.
- the vitreous region G1, the retina region G2, the choroid region G3, and the sclera region G4 shown in FIG. 5B are obtained by the image dividing unit 231 and the region of the eye corresponding to the image regions G1 to G4 (
- the parameter identifying unit 2323 obtains the following parameter values for the image areas G1 to G4: ⁇ vitreous area G1> pseudo color parameter A4, luminance parameter B4, contrast parameter C4; ⁇ retinal region G2> pseudo color parameter A1, luminance parameter B1, contrast parameter C1; ⁇ choroid region G3> pseudo color parameter A2, luminance parameter B2, contrast parameter C2; ⁇ sclera region G4> pseudo color Parameter A3, brightness parameter B3, contrast parameter Over data C3.
- the value of the parameter specified in this way is set as a display condition.
- the data processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like.
- a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
- the user interface 240 includes a display unit 241 and an operation unit 242.
- the display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above.
- the operation unit 242 includes the operation device of the arithmetic control unit 200 described above.
- the operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic photographing apparatus 1 or outside.
- the operation unit 242 may include a joystick, an operation panel, or the like provided on the housing.
- the display unit 241 may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.
- the display unit 241 and the operation unit 242 do not need to be configured as individual devices.
- a device in which a display function and an operation function are integrated such as a touch panel
- the operation unit 242 includes the touch panel and a computer program.
- the operation content for the operation unit 242 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the graphical user interface (GUI) displayed on the display unit 241 and the operation unit 242.
- GUI graphical user interface
- the scanning mode of the signal light LS by the ophthalmologic photographing apparatus 1 includes, for example, a line scan (horizontal scan, vertical scan), a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral (spiral) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (such as retinal thickness), the time required for scanning, the precision of scanning, and the like.
- the horizontal scan is to scan the signal light LS in the horizontal direction (x direction).
- the horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.
- the cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other.
- the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle.
- the cross scan is an example of a radiation scan.
- the circle scan scans the signal light LS along a circular locus.
- the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position.
- a circle scan is an example of a concentric scan.
- the signal light LS is scanned along a spiral (spiral) trajectory while gradually reducing (or increasing) the radius of rotation.
- the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.
- a cross-sectional image on a plane stretched by the direction along the scanning line (scanning locus) and the fundus depth direction (z direction) can be acquired.
- the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.
- the region on the fundus oculi Ef to be scanned with the signal light LS as described above, that is, the region on the fundus oculi Ef to be subjected to OCT measurement is called a scanning region.
- the scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged.
- the scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter.
- the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.
- FIG. 7 shows an example of the operation of the ophthalmologic photographing apparatus 1.
- the main control unit 211 causes the display unit 241 to display a screen for selecting a shooting mode.
- This screen is provided with a GUI for selecting a plurality of shooting modes.
- the imaging mode is provided, for example, for each part (particularly a part to be observed), for each injury and / or for each inspection technique.
- a vitreous imaging mode, a retinal imaging mode, and a choroidal imaging mode are provided will be described as a case where an imaging mode is provided for each part of the eye.
- the vitreous body, the retina, and the choroid differ in the position in the depth direction (z direction).
- a near-infrared moving image of the fundus oculi Ef is acquired by continuously illuminating the fundus oculi Ef with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the continuous illumination ends.
- An alignment index, a split index, and a fixation target are projected onto the eye E to be examined.
- An alignment index and a split index are drawn on the near-infrared moving image. Using these indexes, auto alignment and auto focus of an optical system for acquiring a fundus image are performed.
- the process shifts to auto focus of an optical system for acquiring an OCT image.
- This autofocus is executed as follows, for example.
- the line scan is repeatedly executed.
- cross-sectional images of substantially the same cross section of the fundus oculi Ef are sequentially obtained.
- the data processing unit 230 obtains an image quality evaluation value by analyzing an image region in the cross-sectional image corresponding to the imaging mode selected in step S2.
- the vitreous imaging mode is selected, analysis of the vitreous region G1 of FIG. 5B is performed, and when the retinal imaging mode is selected, analysis of the retinal region G2 is performed and the choroidal imaging mode is selected. In this case, the choroid region G3 is analyzed.
- the image quality evaluation method is arbitrary.
- a histogram can be created based on the pixel value of the target image area (or the OCT signal before the imaging process), and the image quality evaluation value can be obtained based on the histogram.
- the main control unit 211 adjusts the position of the focusing lens 43 so that the evaluation value of the image quality obtained sequentially is optimized.
- the optical system for acquiring an OCT image there is a method of applying a predetermined focus state corresponding to an imaging mode (eye part).
- the control state of the focusing lens 43 for each eye part (for each imaging mode) is stored in advance, and the focusing lens 43 can be controlled to a state corresponding to the selection result of the imaging mode.
- the focus state in the vitreous photography mode a state in which only 4 diopters are defocused from the focus state in the retinal photography mode can be applied.
- the main control unit 211 continuously executes sequential acquisition of cross-sectional images of the same cross-section and sequential calculation of image quality evaluation values. Further, the main control unit 211 causes the display unit 241 to display cross-sectional images and evaluation values acquired sequentially. At this time, the cross-sectional image is displayed as a moving image, and the evaluation value is switched and displayed in synchronization with the frame rate of the cross-sectional image. As a display mode of the evaluation value, there are a bar graph display and a numerical display.
- the user adjusts the position of the focusing lens 43 while referring to the moving image and the evaluation value displayed on the display unit 241. This manual adjustment is performed via the operation unit 242.
- the display unit 241 is a touch panel, a configuration in which the main control unit 211 moves the focusing lens 43 so as to focus on a position in the cross-sectional image touched by the user can be applied.
- step S5 Taking an image of the eye to be examined
- the main control unit 211 causes the ophthalmologic imaging apparatus 1 to perform OCT measurement in the focus state adjusted in step S4.
- the scanning mode (scan pattern) at this time is determined according to, for example, the photographing mode set in step S2.
- the main control unit 211 controls the fundus camera unit 2 to execute fundus photographing.
- the acquired OCT image and fundus image are stored in the storage unit 212.
- the OCT image is sent to the data processing unit 230.
- the image region specifying unit 2311 specifies a one-dimensional image region corresponding to a predetermined part of the eye E by executing segmentation of the OCT image.
- a predetermined part of the eye E by executing segmentation of the OCT image.
- the retina-vitreous boundary region g1, the retina-choroidal boundary region g2, and the choroid-sclera boundary region g3 in the cross-sectional image G are specified.
- the partial area specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S6 as a boundary. Thereby, a partial region which is a specific target by the image dividing unit 231 is obtained.
- a partial region which is a specific target by the image dividing unit 231 is obtained.
- FIG. 5B it is assumed that the vitreous region G1, the retina region G2, the choroid region G3, and the sclera region G4 are obtained.
- the part selection unit 2322 selects, for each partial area acquired in step S7, an eye part corresponding to the partial area from among a plurality of parts included in the eye part item of the correspondence information 2321a.
- “vitreous” is selected for the vitreous region G1
- “retinal” is selected for the retinal region G2
- “choroid” is selected for the choroid region G3
- “sclera” is selected for the scleral region G4.
- the parameter specifying unit 2323 specifies the value of the parameter associated with the part selected in step S8 for each partial region acquired in step S7 based on the correspondence information 2321a.
- the parameter specifying unit 2323 may be configured to specify only display conditions (parameters) according to, for example, a shooting mode or a user instruction.
- a case where only the parameters for pseudo color display are applied will be described.
- the parameter values for pseudo color display “A4” for the vitreous region G1, “A1” for the retinal region G2, “A2” for the choroid region G3, and for the sclera region G4. Assume that “A3” is specified.
- the main control unit 211 causes the display unit 241 to display the OCT image by applying the display condition specified in step S9.
- the cross-sectional image G shown in FIG. 5A is displayed in pseudo color.
- the vitreous body region G1 is displayed with the first display color of the gradation “A4”
- the retinal region G2 is displayed with the second display color of the gradation “A1”
- the choroid region G3 is displayed with the gradation “A”.
- the display is performed in the third display color of “A2” and the sclera region G4 is displayed in the fourth display color of gradation “A3”.
- the first to fourth display colors may all be different or a part of them may be the same.
- the first to fourth display colors may all be the same. The same applies to the case where arbitrary display conditions are applied.
- the ophthalmologic photographing apparatus includes an optical system, a forming unit, a dividing unit, a setting unit, and a display control unit.
- the optical system divides the light from the light source (light source unit 101) into signal light (LS) and reference light (LR), and the signal light passing through the eye to be examined (E) and the reference light passing through the reference light path. Interference light (LC) is detected.
- the optical system includes an element stored in the OCT unit 100 and an element that forms an optical path of signal light among the elements stored in the fundus camera unit 2.
- the forming unit forms an image of the eye to be examined based on the detection result of the interference light by the optical system.
- the forming unit includes an image forming unit 220 and may include a data processing unit 230.
- the dividing unit image dividing unit 231) divides the image (G) formed by the forming unit into a plurality of partial regions (G1 to G4).
- the setting unit sets display conditions for each of the plurality of partial areas acquired by the dividing unit.
- the display control unit main control unit 211) causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit.
- the display means may be included in the ophthalmologic photographing apparatus or an external device.
- each partial region of the OCT image (some image regions corresponding to unfocused regions) are appropriately used. Can be displayed under various display conditions. Therefore, it is possible to improve visibility over the entire OCT image, not just the focused portion. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
- the forming unit forms a two-dimensional image (two-dimensional cross-sectional image).
- the dividing unit may include an image region specifying unit and a partial region specifying unit.
- the image region specifying unit (2311) specifies the one-dimensional image region (g1 to g3) corresponding to the predetermined part of the eye to be examined by analyzing the two-dimensional image formed by the forming unit.
- the partial region specifying unit (2312) specifies two-dimensional image regions (G1 to G4) having the one-dimensional image region specified by the image region specifying unit as a boundary. These two-dimensional image regions are used as partial regions to be acquired by the dividing unit.
- the two-dimensional cross-sectional image may be any of a vertical cross-sectional image (B cross-sectional image, B-scan image), a horizontal cross-sectional image (front image, C cross-sectional image, C-scan image), and an arbitrary cross-sectional image (MPR image, etc.).
- the image region specifying unit can specify the inner boundary membrane region (g1) corresponding to the inner boundary membrane of the eye to be examined.
- the partial region specifying unit specifies the retina region (G2) corresponding to the retina of the eye to be examined and the vitreous region (G1) corresponding to the vitreous based on the result of specifying the inner boundary membrane region. be able to.
- the image area specifying unit can specify the Bruch film area (g2) corresponding to the Bruch film of the eye to be examined.
- the partial region specifying unit can specify the retina region (G2) corresponding to the retina of the eye to be examined and the choroid region (G3) corresponding to the choroid based on the result of specifying the Bruch's membrane region. .
- the image region specifying unit can specify a choroid-sclera boundary region corresponding to the choroid-sclera boundary of the eye to be examined.
- the partial region specifying unit determines a choroid region (G3) corresponding to the choroid of the eye to be examined and a sclera region (G4) corresponding to the sclera based on the result of specifying the choroid-sclera boundary region. Can be identified.
- the vitreous region (G1), retinal region (G2), choroid region (G3), and sclera region (G4) are typical observation targets in the diagnosis of the posterior segment. Therefore, these structures contribute to the diagnosis of the posterior eye segment.
- the image area specified by the image area specifying unit from the two-dimensional image need not be a one-dimensional image area.
- the image region specifying unit can specify a two-dimensional image region corresponding to a predetermined part of the eye to be examined in the two-dimensional image.
- This two-dimensional image region may be a predetermined part having a free curve as an outline, for example.
- the setting unit can set a parameter value for changing the pixel values of a plurality of pixels included in the partial area as a display condition for each partial area acquired by the dividing unit.
- This parameter may include any of the following: (1) a first parameter for changing pixel values of a plurality of pixels to pseudo color values; (2) changing a luminance value in the pixel values of the plurality of pixels. (3) A third parameter for changing the contrast based on the luminance value among the pixel values of a plurality of pixels.
- the parameters set as display conditions are not limited to the above.
- the setting unit can set parameters relating to arbitrary filtering, such as smoothing processing (smoothing) and enhancement processing (enhancement), as display conditions.
- Smoothing processing is image processing for smoothing pixel values of pixels in a certain image area, and is used for noise removal in the image area.
- the averaging process is executed using, for example, a moving average filter or a Gaussian filter.
- the setting unit sets parameters applied in the averaging process (for example, the kernel size in the moving average filter and the Gaussian filter, the rate value set in the kernel, and the like) as display conditions.
- Such a parameter relating to the smoothing process corresponds to a “fourth parameter”.
- the enhancement process is an image process that emphasizes part or all of a certain image area, and is used to make the target area clear.
- As the enhancement process there is an outline enhancement process (unsharp masking) for enhancing the outline of an image region.
- the contour enhancement process is performed, for example, by performing a smoothing process on the original image data, obtaining a difference between the original image data and the smoothed image data, and combining the difference with the original image data.
- edge enhancement processing parameters similar to the smoothing processing, Laplacian filter parameters, and the like are taken into consideration.
- the setting unit sets the above parameters applied in the averaging process, the kernel size of the Laplacian filter, the rate value set in the kernel, and the like as display conditions.
- Such a parameter relating to enhancement processing corresponds to a “fifth parameter”.
- the setting unit may include a correspondence information storage unit, a part selection unit, and a parameter identification unit.
- correspondence information storage unit (2321), correspondence information (2321a) in which parameter values are associated with each of a plurality of parts of the eye is stored in advance.
- the part selection unit (2322) selects a part corresponding to the partial region from the plurality of parts for each partial region acquired by the dividing unit.
- the parameter specifying unit (2323) specifies the value of the parameter associated with the part selected by the part selecting unit for each partial region based on the correspondence information.
- the setting unit can set the parameter value specified by the parameter specifying unit as a display condition.
- the forming unit includes an image forming unit 220 and a functional unit (three-dimensional image forming unit) that forms a three-dimensional image in the data processing unit 230.
- the dividing unit includes an image region specifying unit and a partial region specifying unit.
- the image region specifying unit (2311) specifies a two-dimensional image region corresponding to a predetermined part of the eye to be examined by analyzing the three-dimensional image formed by the forming unit.
- the predetermined portion may include any of the inner boundary membrane, the Bruch's membrane, and the choroid-sclera boundary.
- the partial area specifying unit (2312) specifies a three-dimensional image area having the two-dimensional image area specified by the image area specifying unit as a boundary as a partial area.
- the processing executed by the dividing unit is obtained by extending the processing executed on the two-dimensional image in the above embodiment to a three-dimensional image.
- the image region specifying unit specifies the inner boundary membrane region corresponding to the inner boundary membrane of the eye to be examined. Further, the partial region specifying unit specifies a retina region corresponding to the retina of the eye to be examined and a vitreous region corresponding to the vitreous body based on the result of specifying the inner boundary membrane region.
- the image area specifying unit specifies the Bruch film area corresponding to the Bruch film of the eye to be examined. Further, the partial region specifying unit specifies a retina region corresponding to the retina of the eye to be examined and a choroid region corresponding to the choroid based on the result of specifying the Bruch's membrane region.
- the image region specifying unit specifies the choroid-sclera boundary region corresponding to the choroid-sclera boundary of the eye to be examined. Further, the partial region specifying unit specifies the choroid region corresponding to the choroid and the sclera region corresponding to the sclera of the eye to be examined based on the result of specifying the choroid-sclera boundary region.
- the image region specified by the image region specifying unit from the three-dimensional image need not be a two-dimensional image region.
- the image region specifying unit can specify a three-dimensional image region corresponding to a predetermined part of the eye to be examined in the three-dimensional image.
- This three-dimensional image region may be a predetermined part having a free curved surface as an outline, for example.
- the setting unit sets display conditions for each of the plurality of partial areas acquired by the dividing unit. This process is the same as in the above embodiment. That is, the setting unit can set a parameter value similar to that in the above embodiment as a display condition. Further, this parameter includes at least one of a first parameter for changing to a pseudo color value, a second parameter for changing the luminance value, and a third parameter for changing the contrast. Good.
- the setting unit may include a correspondence information storage unit (2321), a site selection unit (2322), and a parameter identification unit (2323) similar to those in the above embodiment.
- the display control unit causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit.
- This display means may be an external device.
- the display control unit may include a main control unit 211 and a functional unit (a two-dimensional image forming unit) that forms a two-dimensional image from a three-dimensional image in the data processing unit 230.
- the two-dimensional image forming unit performs processing for forming an image for display from a three-dimensional image, such as MPR processing and volume rendering.
- FIG. 8 shows an example of the operation of the ophthalmologic photographing apparatus.
- step S24 OCT measurement and fundus imaging of the fundus oculi Ef are executed.
- OCT measurement and fundus imaging of the fundus oculi Ef are executed.
- three-dimensional scanning is applied in OCT measurement, and volume data is acquired.
- the image area specifying unit 2311 specifies a two-dimensional image area corresponding to a predetermined part of the eye E by performing segmentation of volume data.
- the two-dimensional image region is, for example, a retina-vitreous boundary region, a retina-choroid boundary region, a choroid-sclera boundary region, or the like in volume data. These two-dimensional image regions typically have a curved surface shape.
- the partial area specifying unit 2312 specifies a three-dimensional image area having the two-dimensional image area specified in step S26 as a boundary.
- the three-dimensional image region is, for example, a vitreous region, a retina region, a choroid region, or a sclera region in volume data.
- the part selection unit 2322 selects, for each partial area acquired in step S27, an eye part corresponding to the partial area from among a plurality of parts included in the eye part item of the correspondence information 2321a.
- “vitreous body” is selected as the vitreous region
- “retinal” is selected as the retina region
- “choroid” is selected as the choroid region
- “sclera” is selected as the scleral region.
- the parameter specifying unit 2323 specifies, for each partial region acquired in step S27, the parameter value associated with the part selected in step S28 based on the correspondence information 2321a. This process is executed, for example, in the same manner as in the first embodiment.
- the parameter values for pseudo color display are “A4” for the vitreous region, “A1” for the retina region, “A2” for the choroid region, and “A3” for the sclera region. Are identified.
- the main control unit 211 causes the display unit 241 to display the OCT image by applying the display condition specified in step S29.
- This processing includes processing for forming a display image by performing MPR processing or volume rendering on the volume data, and processing for displaying the display image by applying the display condition acquired in step S29. It is.
- the data processing unit 230 performs MPR processing on the volume data to form the cross-sectional image G shown in FIG. 5A, and the main control unit 211 displays the cross-sectional image G in a pseudo color display. In this pseudo color display, the vitreous body region G1 shown in FIG.
- 5B is displayed in the first display color of gradation “A4”
- the retina region G2 is displayed in the second display color of gradation “A1”
- the sclera region G4 is displayed in the fourth display color of gradation “A3”.
- each partial region of the three-dimensional image (some image regions correspond to regions that are not in focus). It can be displayed under appropriate display conditions. Therefore, it is possible to improve visibility over the entire three-dimensional image, not just the focused portion. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
- the pixel value of each partial region can be changed to a desired value.
- the size of the eye to be examined may be measured.
- the measurement target includes an arbitrary part of the eye to be examined and a lesioned part.
- the data processing unit 230 can obtain the size of the partial area by analyzing any of the plurality of partial areas to which the display condition set by the display condition setting unit 232 is applied. The portion of the data processing unit 230 that executes this processing corresponds to an “analysis unit”.
- the size of the partial area is a length.
- the size is a length (maximum width, minimum width, average width, etc.) or area.
- the size is a length (maximum width, minimum width, average width, etc.), area, and volume.
- predetermined image processing is applied to the OCT image.
- a typical example of this image processing is image overlay processing.
- This process is a process of superimposing a plurality of cross-sectional images acquired for substantially the same cross-section.
- the image superimposition processing includes, as in the conventional art, alignment processing (registration) of a plurality of cross-sectional images, and synthesis processing that combines a plurality of aligned cross-sectional images to form a single cross-sectional image. .
- the combining process is, for example, an averaging process. For example, when the measurement time is short enough to ignore the eye movement, it is not necessary to perform registration.
- image processing has been applied to the entire cross-sectional image.
- this embodiment it is possible to selectively perform image processing on a part of the cross-sectional image.
- the image processing can be performed by setting a parameter value for each partial region of the cross-sectional image. This embodiment also includes such a configuration.
- the ophthalmologic photographing apparatus has the same configuration as the first embodiment (particularly, the optical system and the forming unit).
- the first embodiment particularly, the optical system and the forming unit.
- FIG. 9 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment.
- the configuration shown in FIG. 9 can be applied instead of FIG. 4 of the first embodiment.
- the correspondence information storage unit 2321, the region selection unit 2322, and the parameter specifying unit 2323 shown in FIG. 4 can be added to the configuration shown in FIG. In that case, it is possible to execute a combination of the process described in the first embodiment and the process according to this embodiment described below.
- the data processing unit 230 of this embodiment includes an overlay processing unit 233 in addition to the image dividing unit 231 and the display condition setting unit 232.
- substantially the same cross section of the eye to be examined is scanned with the signal light a plurality of times. Further, the forming unit forms a plurality of cross-sectional images of the cross-section based on the detection result of the interference light acquired by the optical system with the plurality of scans.
- This cross-sectional image may be a two-dimensional image or a three-dimensional image.
- the image dividing unit 231 divides each cross-sectional image formed by the forming unit into a plurality of partial areas. This process is executed, for example, by performing the following two-stage process on each of the plurality of cross-sectional images formed by the forming unit.
- the image region specifying unit 2311 analyzes the cross-sectional image formed by the forming unit, thereby specifying an image region corresponding to a predetermined part of the eye to be examined.
- the partial area specifying unit 2312 specifies an image area having the image area specified by the image area specifying unit 2311 as a boundary as a partial area.
- the display condition setting unit 232 sets, as a display condition, a partial region to which predetermined image processing (image superimposition processing or the like) is applied among the plurality of partial regions acquired by the image dividing unit 231. That is, the display condition setting unit 232 classifies the plurality of partial areas of the cross-sectional image into partial areas to be subjected to image processing and partial areas to be applied.
- Such classification of the partial areas is performed according to the shooting mode, for example.
- the second correspondence information in which one or both of the type of the partial area to which the image processing is applied and the type of the non-application target partial area is associated with the shooting mode is the display condition setting unit. 232 (or storage unit 212) is stored in advance.
- Another example of processing for classifying partial areas is a method based on user instructions.
- the user classifies a plurality of partial areas of the cross-sectional image displayed on the display unit 241 via the operation unit 242.
- This operation includes, for example, an operation of clicking a partial area in the cross-sectional image, or an operation of selecting a type of partial area (such as an eye part name) from a drop-down list.
- the superimposition processing unit 233 performs a process of superimposing a plurality of tomographic images only on a partial region set as an application target of the image superimposition processing among the plurality of partial regions acquired by the image dividing unit 231.
- the overlay processing unit 233 includes an image position alignment unit 2331 and an image composition unit 2332.
- the image alignment unit 2331 performs registration of a plurality of cross-sectional images.
- the image composition unit 2332 extracts a partial region set as an application target of the image overlay process from each of the plurality of cross-sectional images that have been registered.
- the extracted partial area is classified according to the position in the frame (that is, classified according to the part of the eye to be examined). Furthermore, the image composition unit 2332 synthesizes each type of partial region (the number of cross-sectional images is the same).
- An image obtained by combining a plurality of partial areas corresponding to each class is referred to as a combined partial area.
- one or more of a plurality of partial regions extracted from a plurality of cross-sectional images are selected for the partial region to which the image superimposition process is not applied.
- the main control unit 211 displays a single cross-sectional image (composite cross-sectional image) on the same cross-section as the plurality of cross-sectional images on the display unit 241. Display.
- the partial area to which the image superimposition process is applied is composed of the combined partial areas.
- the partial area to be unapplied in the composite cross-sectional image is composed of one selected partial area (selected partial area).
- the retinal region G2, the choroid region G3, and the sclera region G4 are “partial regions to which the image overlay process is applied”.
- the vitreous region G1 can be set to “a partial region to which image overlay processing is not applied”. This is because if the vitreous body moves during a plurality of scans, the form of the image drawn in a plurality of partial areas corresponding to the vitreous body is different, and a desired composite image cannot be obtained.
- a composite partial region can be presented for the retinal region G2, choroid region G3, and sclera region G4 in the composite tomogram, and a selected partial region can be presented for the vitreous region G1.
- a combined cross-sectional image composed entirely of still images is displayed.
- a combined partial region can be presented, and for the vitreous region G1, two or more partial regions can be switched and presented.
- the moving image display can be performed on the vitreous area G1. According to this display mode, a combined cross-sectional image displayed as a moving image is displayed for a non-application target partial region, and a still image is displayed for other partial regions. Note that two or more partial areas as non-application target partial areas can be switched automatically or manually.
- FIG. 10 shows an example of the operation of the ophthalmologic photographing apparatus.
- step S45 Repeat OCT measurement
- the ophthalmologic photographing apparatus repeatedly performs OCT measurement (line scan, circle scan, etc.) of the fundus oculi Ef. Instead of repeating the line scan or the like, the three-dimensional scan may be repeatedly executed. Further, fundus imaging can be performed after repeated OCT measurement.
- the image area specifying unit 2311 specifies a one-dimensional image area corresponding to a predetermined part of the eye E by executing segmentation of each cross-sectional image formed sequentially in step S45.
- the one-dimensional image region specified for each cross-sectional image is, for example, a retina-vitreous boundary region g1, a retina-choroidal boundary region g2, and a choroid-sclera boundary region g3 as shown in FIG. 5A. Note that when the three-dimensional scan is repeatedly executed in step S45, a two-dimensional image region in each volume data is specified as in the modification of the first embodiment.
- the partial area specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S46 as a boundary.
- the two-dimensional image region is, for example, a vitreous region G1, a retina region G2, a choroid region G3, a sclera region G4, etc. as shown in FIG. 5B. Note that when the three-dimensional scan is repeatedly executed in step S45, the three-dimensional image region in each volume data is specified as in the modification of the first embodiment.
- the display condition setting unit 232 selects a partial area to which the image overlay process or the like is applied from among the plurality of partial areas acquired in step S47.
- display conditions are set so that image superposition processing is performed on the retina region G2, the choroid region G3, and the sclera region G4, and this is not performed on the vitreous region G1. To do.
- the image alignment unit 2331 performs registration of the plurality of cross-sectional images acquired in step S45.
- the image composition unit 2332 extracts the partial area selected in step S48 (that is, the partial area set as the application target of the image superimposition process) from each of the plurality of cross-sectional images that have been registered. Further, the image composition unit 2332 synthesizes the extracted partial areas for each type (the above-mentioned class), thereby forming each type of combined partial area. In this example, it is assumed that all of a plurality of cross-sectional images are selected for the partial area to which the image overlay process is not applied.
- the main control unit 211 causes the display unit 241 to display a combined cross-sectional image in the same cross section as the plurality of cross-sectional images.
- the main control unit 211 displays a still image of the combined partial region acquired in step S50 for the retinal region G2, the choroidal region G3, and the scleral region G4 in the combined tomogram, and the vitreous region For G1, a moving image display based on a plurality of cross-sectional images is performed.
- the ophthalmologic photographing apparatus includes an optical system, a forming unit, a dividing unit, a setting unit, and a display control unit.
- the optical system divides the light from the light source (light source unit 101) into signal light (LS) and reference light (LR), and the signal light passing through the eye to be examined (E) and the reference light passing through the reference light path. Interference light (LC) is detected.
- the forming unit forms an image of the eye to be examined based on the detection result of the interference light by the optical system.
- the dividing unit (image dividing unit 231) divides the image (G) formed by the forming unit into a plurality of partial regions (G1 to G4).
- the setting unit sets, as a display condition, a partial region to which a predetermined image processing is applied (a partial region to be applied) among a plurality of partial regions acquired by the dividing unit. .
- the display control unit causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit. That is, the display control unit causes the display unit 241 to display an OCT image obtained by applying image processing only to the “application target” partial region.
- the display means may be included in the ophthalmologic photographing apparatus or an external device.
- an ophthalmologic photographing apparatus it is possible to determine whether or not to apply an image region for each partial region of the OCT image, and display an OCT image obtained by spatially selective image processing. Therefore, it is possible to improve visibility over the entire OCT image. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
- the optical system scans a substantially identical cross section of the eye to be examined multiple times with signal light
- the formation unit includes a galvano scanner 42), and forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system in association with the plurality of scans.
- the dividing unit divides each of the plurality of images formed by the forming unit into a plurality of partial regions.
- the display control unit includes an overlay processing unit (233).
- the superimposition processing unit performs a process of superimposing a plurality of images only on a partial area set as an application target of the superimposition process by the setting unit among the plurality of partial areas as the superimposition process on the plurality of images.
- the display control unit causes the display unit to display a single image formed by the overlay processing unit.
- the partial area suitable for the superimposition processing is, for example, an image area in which a part that does not substantially move, that is, a part that is substantially stationary is drawn.
- partial areas corresponding to the retina, choroid and sclera are applied as the appropriate partial areas for the overlay process, and partial areas corresponding to the vitreous body as the inappropriate partial areas for the overlay process. Has been applied.
- the display control unit can perform moving image display based on a plurality of images for a partial region to which the overlay process is not applied among the plurality of partial regions. Thereby, the motion state of the partial area can be grasped. In the above example, it is possible to observe the motion state of the vitreous body.
- ⁇ Third Embodiment> Another embodiment in the case where the same image overlay processing as that of the second embodiment is applied will be described.
- the ophthalmologic imaging apparatus according to this embodiment is suitably used when a region that may move during OCT measurement, such as a vitreous body, is included in the imaging range.
- the configuration according to this embodiment can be added to the configuration according to another embodiment.
- the ophthalmologic photographing apparatus has the same configuration as that of the second embodiment.
- differences from the second embodiment will be described in detail with reference to the drawings of the first embodiment and the second embodiment as appropriate.
- FIG. 11 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment.
- the configuration shown in FIG. 11 is applied instead of FIG. 9 of the second embodiment.
- the control unit 210 is provided with a timer unit 213.
- the timer unit 213 starts timing at a predetermined timing.
- This timing start timing is arbitrary.
- the timing at which the eye E is brought into the examination position can be applied.
- This timing may be determined by, for example, a sensor that detects that the subject's face has contacted the chin rest or the forehead, a sensor that detects that the subject has sat on the chair, and the subject's face on the ophthalmic imaging apparatus. This is the input timing of a signal from a sensor (or camera and image analysis unit) that detects proximity.
- the timing at which the reflected light of the illumination light output from the fundus camera unit 2 starts to be detected, the timing at which the signal light LS output from the OCT unit 100 starts to be detected, or the like may be set as the timing start timing.
- the timing at which the user performs a predetermined operation via the operation unit 242 may be set as the timing start timing.
- the timer unit 213 starts timing at the timing as described above, and outputs a signal indicating that a predetermined time has been reached.
- This time measurement is for the part of the eye with passive motion, taking into account the time it takes for the part (subject eye) to become substantially stationary after the subject (subject eye) is substantially stationary.
- the time keeping time is set to 15 seconds, for example.
- the timed time may be set in consideration of the inspection throughput.
- the time measured is, for example, actually measured for a plurality of eyes from the state in which the part is moving until it substantially stops, and is statistically calculated from the measurement results (for example, the average value, the mode) Value, maximum value, etc.). It is also possible to selectively apply a plurality of timings prepared according to the characteristics of the subject or eye (age, gender, name of wound, disease degree, etc.).
- FIG. 12 illustrates an example of the operation of the ophthalmologic photographing apparatus.
- the eye to be examined is placed at the examination position
- the eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment. Any of the above-described sensors detects that the eye E has been placed at the examination position, and sends a signal to the control unit 210.
- the main control unit 211 receives a signal from the sensor, and starts time measurement by the time measurement unit 213.
- steps S63 and S64 and steps S65 to S67 are executed in parallel.
- Steps S63 and S64 are processing for shifting to an apparatus state in which OCT measurement can be performed (that is, processing for the purpose of waiting until the vitreous body or the like stops).
- steps S65 to S67 are preparation processes for executing the OCT measurement.
- the main control unit 211 performs control so that OCT measurement cannot be performed unless both processes are completed.
- the time measuring unit 213 measures time for a predetermined time and sends a signal to the main control unit 211.
- the main control unit 211 receives the signal output from the time measuring unit 213 in step S63, and shifts the apparatus state of the ophthalmologic photographing apparatus to an apparatus state in which OCT measurement can be performed.
- the apparatus state in which OCT measurement can be performed refers to an apparatus state in which an OCT measurement start instruction can be received and OCT measurement can be performed.
- an instruction to start OCT measurement (an instruction made manually or an automatic instruction corresponding to the arrival of another ready state) is made.
- the main control unit 211 rejects this start instruction.
- a predetermined message can be output.
- the main control unit 211 can cause the display unit 241 to display a message that prompts the user to wait until the apparatus state transitions.
- the progress status of timing by the timing unit 213 can be presented.
- the main control unit 211 can cause the display unit 241 to display a numerical value indicating the timekeeping time in a countdown display or a countup display.
- the user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
- the image alignment unit 2331 registers a plurality of images (cross-sectional images or volume data) acquired in step S68.
- the image composition unit 2332 forms a single image by compositing a plurality of registered images. This image synthesis process is performed on the entire image, unlike the second embodiment in which the partial areas are synthesized.
- the main control unit 211 causes the display unit 241 to display the image formed in step S70.
- a process of specifying a partial area (S27) and a process of selecting an eye part corresponding to the partial area (S28) The process for specifying the display condition (S29) and the process for displaying the image based on the display condition (S30) can be executed.
- the optical system includes a scanning unit (galvano scanner 42) that scans the eye to be examined with signal light. Further, the ophthalmologic photographing apparatus scans substantially the same cross section of the eye to be inspected with the signal light a plurality of times after a predetermined time is measured by the time measuring unit (213) that starts timing at a predetermined timing. And a control unit (main control unit 211) for controlling the optical system.
- the forming unit (the image forming unit 220 (and the data processing unit 230)) forms a plurality of images of this cross section based on the detection result of the interference light acquired by the optical system during a plurality of scans.
- the display control unit includes an overlay processing unit (233) that forms a single image by superimposing a plurality of images formed by the forming unit. Further, the display control unit (main control unit 211) causes the display unit to display a single image formed by the overlay processing unit.
- an ophthalmologic photographing apparatus even when a region with movement is included in the imaging range, it is obtained by performing repetitive OCT measurement after the region is substantially stationary. A plurality of images can be superimposed. Therefore, a suitable superimposed image can be obtained. Further, for example, by adding a configuration that applies display conditions for each partial region as in the first embodiment, it is possible to perform not only local observation of the subject eye but also global observation suitably. A combined image can be acquired.
- the fourth embodiment is suitably used when a region that may move during OCT measurement is included in the imaging range.
- OCT measurement is performed after the part is stationary.
- the movement of the part is monitored by an image acquired in real time, and OCT measurement is performed after substantially stopping.
- the configuration according to this embodiment can be added to the configuration according to another embodiment.
- the ophthalmologic photographing apparatus has the same configuration as that of the second embodiment.
- differences from the second embodiment will be described in detail with reference to the drawings of the first embodiment and the second embodiment as appropriate.
- FIG. 13 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment.
- the configuration shown in FIG. 13 is applied instead of FIG. 9 of the second embodiment.
- an exercise state determination unit 234 is provided in the data processing unit 230.
- the overlay processing unit 233 is provided with an image alignment unit 2331 and an image composition unit 2332 as in the second embodiment.
- the movement state determination unit 234 determines the movement state of a specific part of the eye E. In particular, the exercise state determination unit 234 can determine whether the specific part is substantially stationary.
- the exercise state determination unit 234 functions as a “determination unit”.
- the exercise state determination unit 234 includes an exercise state information acquisition unit 2341 and a determination processing unit 2342.
- part is a site
- the motion state information acquisition unit 2341 sequentially identifies an OCT image (a two-dimensional image or a three-dimensional image) acquired in real time by repetitive OCT measurement, thereby identifying the eye E to be examined depicted in the OCT image.
- Information indicating the exercise state of the part is acquired.
- the exercise state information acquisition unit 2341 executes, for example, the following process. First, the exercise state information acquisition unit 2341 analyzes the OCT image and specifies an image region corresponding to the specific part. Next, the exercise state information acquisition unit 2341 acquires position information of the specified image region. This position information is, for example, coordinates of the contour region corresponding to the contour of the image region. Further, a feature position (such as a gravity center position or a feature point position) in the image area may be obtained as position information.
- the exercise state information acquisition unit 2341 performs the above processing for each OCT image acquired by repetitive OCT measurement or for each OCT image obtained by thinning out the acquired OCT image.
- the position information sequentially acquired by the exercise state information acquisition unit 2341 is information representing a time-series change in the position of the specific part, and is an example of exercise state information.
- shape information indicating the shape of the image area may be obtained.
- the shape information sequentially acquired by the exercise state information acquisition unit 2341 is information representing a time-series change in the shape of the specific part, and is an example of exercise state information.
- the exercise state information includes arbitrary parameters that change with the movement of a specific part, and the exercise state information acquisition unit 2341 has a function of analyzing the OCT image and acquiring the parameters.
- the determination processing unit 2342 determines whether the specific part of the eye E is substantially stationary based on the motion state information sequentially acquired by the motion state information acquisition unit 2341.
- Determination processing unit 2342 executes the following processing, for example. First, the determination processing unit 2342 compares the position information obtained from the first OCT image with the position information obtained from the second OCT image (for example, calculates a coordinate difference). Note that the determination processing unit 2342 can perform registration between these OCT images prior to this processing. Different positions (coordinates) indicated by these position information means that the specific part has moved during the OCT measurement corresponding to these OCT images. Conversely, the fact that the positions indicated by these position information are (substantially) the same means that the specific part has not moved (substantially) during these OCT measurements. The difference in position information (coordinates) is called “displacement information”.
- Each displacement information represents the displacement of a specific part at a predetermined time interval (OCT measurement repetition rate or an integer multiple thereof). Further, the N ⁇ 1 pieces of displacement information as a whole represents a time-series change in the displacement of the specific part.
- the determination processing unit 2342 determines whether the sequentially acquired displacement information is equal to or less than a predetermined threshold value. When the displacement information exceeds the threshold value, the specific part is regarded as moving. On the other hand, when the displacement information is equal to or less than the threshold value, the specific part is considered to be substantially stationary. That is, the threshold value is set in advance as a value of displacement information that can be permitted when the specific part is in a stationary state. This threshold is arbitrarily set.
- the determination processing unit 2342 can determine whether the specific part is substantially stationary by executing the same processing.
- FIG. 14 illustrates an example of the operation of the ophthalmologic photographing apparatus.
- step S84 Perform OCT measurement
- the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern.
- the motion state information acquisition unit 2341 sequentially analyzes the OCT image acquired by the OCT measurement in step S85, thereby acquiring motion state information regarding the specific part of the eye E that is depicted in the OCT image.
- the determination processing unit 2342 determines whether or not the specific part of the eye E is substantially stationary based on the motion state information acquired in step S86. If it is determined that the specific part is not stationary (S87: No), the process returns to the OCT measurement in step S85. Steps S85 to S87 are repeated until it is determined that the specific part is stationary (S87: Yes).
- step S87 If it is determined in step S87 that the specific part is stationary (S87: Yes), the main control unit 211 causes the OCT unit to scan the substantially same cross section of the fundus oculi Ef a plurality of times with the signal light LS. 100 and the galvano scanner 42 are controlled.
- the scan pattern in this repetitive OCT measurement may be the same as or different from that in step S85. Further, fundus imaging may be performed after this repetitive OCT measurement.
- the image alignment unit 2331 performs registration of a plurality of images (cross-sectional images or volume data) acquired in step S88.
- the image composition unit 2332 forms a single image by compositing a plurality of registered images. This image composition processing is performed on the entire image, as in the third embodiment.
- the main control unit 211 causes the display unit 241 to display the image formed in step S90.
- a process of specifying a partial area (S27) and a process of selecting an eye part corresponding to the partial area (S28) The process for specifying the display condition (S29) and the process for displaying the image based on the display condition (S30) can be executed.
- the optical system includes a scanning unit (galvano scanner 42) that repeatedly scans substantially the same cross section of the eye to be examined with signal light.
- the forming unit (the image forming unit 220 (and the data processing unit 230)) sequentially forms an image of this cross section based on the detection result of the interference light acquired by the optical system with this repeated scanning.
- the ophthalmologic photographing apparatus includes a determination unit (motion state determination unit 234) and a control unit (main control unit 211). The determination unit sequentially analyzes the images formed by the forming unit, thereby acquiring motion state information indicating the motion state of the specific part of the eye to be examined depicted in the image.
- the determination unit determines whether the specific part of the eye to be examined is substantially stationary based on the motion state information acquired sequentially.
- the control unit controls the optical system to scan the substantially same cross section with the signal light a plurality of times in response to the determination that the specific part is determined to be substantially stationary by the determination unit.
- the forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system during the plurality of scans.
- the display control unit includes an overlay processing unit (233) that forms a single image by superimposing a plurality of images formed by the forming unit.
- the display control unit main control unit 211) causes the display unit (display unit 241) to display a single image formed by the overlay processing unit.
- the motion state of the region is monitored, and the OCT is repeated after the region is substantially stationary. Measurement can be performed and a plurality of images obtained thereby can be superimposed. Therefore, a suitable superimposed image can be obtained. Further, for example, by adding a configuration that applies display conditions for each partial region as in the first embodiment, it is possible to perform not only local observation of the subject eye but also global observation suitably. A combined image can be acquired.
- the ophthalmologic imaging apparatus performs OCT measurement a plurality of times at different focal positions, and forms an image by combining partial regions of the obtained plurality of OCT images.
- Each partial area used for the combination includes a position focused in the OCT measurement.
- a case where two partial regions based on two OCT images obtained by performing OCT measurement twice will be described.
- the number of times of OCT measurement and the number of partial regions to be combined are arbitrary.
- the ophthalmologic photographing apparatus has the same configuration as that of the first embodiment. Therefore, the drawings of the first embodiment are appropriately referred to.
- the ophthalmologic photographing apparatus includes a focal position changing unit for changing the focal position of the signal light LS.
- the focal position changing unit includes, for example, a focusing lens 43 (and a focusing driving unit 43A).
- the main control unit 211 moves the focusing lens 43 in the optical axis direction of the signal light LS by controlling the focusing driving unit 43A. Thereby, the focus position of the signal light LS is moved in the depth direction (z direction) of the eye E to be examined.
- FIG. 15 illustrates an example of the operation of the ophthalmologic photographing apparatus.
- the user selects a shooting mode.
- the image pasting mode is selected as the shooting mode.
- the image pasting mode is a mode for operating the ophthalmologic photographing apparatus so that the OCT measurement is performed a plurality of times at different focal positions and an image is formed by combining partial regions of the obtained plurality of OCT images.
- the process for selecting the shooting mode is executed, for example, as in the first embodiment.
- Step S104 Finely adjust the focus state to match the first focus position
- the user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
- the focus is set to an arbitrary position (first focal position) of the vitreous body of the eye E. This process can be performed automatically. Further, the focus may be adjusted to the first focus position by the auto focus in step S104.
- step S107 Perform second OCT measurement
- the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern. Thereby, a second image in a state where the focus is in the second focal position is obtained.
- the scan pattern applied in step S107 may be the same as or different from the scan pattern applied in step S105. However, it is assumed that at least a part of both scan areas overlap. Subsequent processing can be performed on this overlapping area.
- the image area specifying unit 2311 performs segmentation of each of the first image and the second image. This segmentation is performed on the same part of the eye E to be examined. Thereby, a one-dimensional image region (or two-dimensional image region) corresponding to a predetermined portion of the eye E in the first image is specified, and a one-dimensional image region (or two corresponding to the same predetermined portion in the second image). Dimensional image area) is identified.
- FIG. 16A schematically shows the first image H1
- FIG. 16B schematically shows the second image H2.
- Symbol V indicates the rear surface of the vitreous body
- symbol P indicates a vitreous pocket (shore pocket).
- FIG. 16A a portion corresponding to the vitreous body focused in the first OCT measurement is indicated by a solid line.
- FIG. 16B a portion corresponding to the retina or choroid that is focused in the second OCT measurement is indicated by a solid line.
- step S108 for example, the retina-vitreous boundary region h1 in the first image H1 and the retina-vitreous boundary region h2 in the second image H2 are specified.
- the partial area specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S108 as a boundary. Thereby, a partial region which is a specific target by the image dividing unit 231 is obtained.
- An image region (retinal region, choroid region, sclera region) below h2 (retina side) is obtained.
- the display condition setting unit 232 sets display conditions for the first partial region (vitreous region) of the first image (H1).
- the display condition setting unit 232 sets display conditions for a second partial region (retinal region) different from the first partial region among the partial regions of the second image (H2).
- This setting process is performed, for example, by a process of selecting an eye part corresponding to a partial region (step S8) and a process of specifying a display condition (step S9), as in the first embodiment.
- the main control unit 211 displays a single image including the first partial region of the first image and the second partial region of the second image on the display unit 241 by applying the display condition specified in step S110.
- the first partial area is extracted (trimmed) from the first image
- the second partial area is extracted (trimmed) from the second image
- the first partial area and the second partial area are further divided. This is performed by pasting at the boundary position (retina-vitreous boundary region).
- the display process of step S111 can be performed by superimposing the first layer on which the first image is displayed and the second layer on which the second image is displayed on the display unit 241.
- the first partial region (vitreous region) of the first image H1 and the second partial region (retinal region, choroid region, scleral region) of the second image H2 are combined.
- An image is obtained.
- This image is schematically shown in FIG. 16C.
- the image H was obtained by pasting the first partial region (vitreous region) K1 of the first image H1 and the second partial region (retinal region, choroid region, sclera region) K2 of the second image H2. It is an image.
- the focus is set at an arbitrary position in the first partial area K1 and an arbitrary position in the second partial area. Therefore, the image H is a clear image that is entirely focused as compared with the original images H1 and H2.
- the ophthalmologic photographing apparatus includes a focal position changing unit (the focusing lens 43 (and the focusing driving unit 43A)) for changing the focal position of the signal light.
- the optical system detects the first interference light based on the signal light at the first focal position and detects the second interference light based on the signal light at the second focal position.
- the forming unit (the image forming unit 220 (and the data processing unit 230)) forms the first image based on the detection result of the first interference light, and forms the second image based on the detection result of the second interference light.
- the dividing unit (image dividing unit 231) divides the first image and the second image into a plurality of substantially identical partial regions, respectively.
- the setting unit sets display conditions for the first partial region of the plurality of partial regions of the first image, and the first part of the plurality of partial regions of the second image. Display conditions are set for a second partial area different from the area.
- the display control unit main control unit 211 displays a single image including the first partial region of the first image and the second partial region of the second image based on the display conditions set by the setting unit. It is displayed on the means (display unit 241).
- a single image can be formed by synthesizing a focused portion among a plurality of images having different focal positions. An image can be acquired. Furthermore, since display conditions can be set for each partial area, not only local observation of the eye to be examined but also global observation can be suitably performed.
- ⁇ Ophthalmic image display device An embodiment of an ophthalmologic image display apparatus will be described. A configuration example of the ophthalmologic image display apparatus is shown in FIG.
- the ophthalmologic image display apparatus 1000 includes a control unit 1210, a data processing unit 1230, a user interface (UI) 1240, and a data receiving unit 1250.
- the control unit 1210 has the same function as the control unit 210 of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes a main control unit 1211 and a storage unit 1212.
- the main control unit 1211 and the storage unit 1212 have the same functions as the main control unit 211 and the storage unit 212, respectively.
- the data processing unit 230 has the same function as the data processing unit 230 of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes an image dividing unit 1231 and a display condition setting unit 1232.
- the image dividing unit 1231 and the display condition setting unit 1232 have the same functions as the image dividing unit 231 and the display condition setting unit 232, respectively.
- the user interface 1240 has a function similar to that of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes a display unit 1241 and an operation unit 1242.
- the display unit 1241 and the operation unit 1242 have the same functions as the display unit 241 and the operation unit 242, respectively.
- the data reception unit 1250 receives an image of the eye to be examined formed using OCT.
- the data receiving unit 1250 includes a configuration corresponding to a data receiving mode, such as a communication interface or a drive device.
- the data receiving unit 1250 functions as a “receiving unit”.
- FIG. 18 illustrates an example of the operation of the ophthalmologic image display apparatus.
- the data receiving unit 1250 receives an OCT image from an external device or a recording medium.
- the accepted OCT image is stored in the storage unit 1212.
- the OCT image is sent to the data processing unit 1230.
- the image dividing unit 1231 divides the OCT image received in step S121 into a plurality of partial areas. This process includes, for example, segmentation (step S6) and partial area specifying process (step S7) as in the first embodiment.
- the display condition setting unit 1232 sets a display condition for each of the plurality of partial areas acquired in step S122. This process includes, for example, a process of selecting an eye part corresponding to the partial region (step S8) and a process of specifying display conditions (step S9) as in the first embodiment.
- step S124 An image is displayed based on display conditions
- the main control unit 1211 applies the display condition specified in step S123 and causes the display unit 1241 to display the OCT image. This process is executed, for example, in the same manner as step S10 of the first embodiment.
- any one of the second to fifth embodiments or a modified example thereof is used. It is possible to apply the included processes.
- the ophthalmologic image display apparatus includes a reception unit, a division unit, a setting unit, and a display control unit.
- the reception unit receives an image of the eye to be examined formed using OCT.
- the dividing unit (image dividing unit 1231) divides the image received by the receiving unit into a plurality of partial areas.
- the setting unit sets display conditions for each of the plurality of partial areas acquired by the dividing unit.
- the display control unit main control unit 1211) causes the display unit (display unit 1241) to display the image received by the receiving unit based on the display conditions set by the setting unit.
- the display means may be included in the ophthalmic image display device or an external device.
- an ophthalmologic image display apparatus it is possible to improve visibility over the entire OCT image, not just the focused portion in the OCT image. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
- a wide-area eyeball image for example, a full-eye image
- display conditions should be set individually for each part depicted in the wide-area eyeball image. Is possible.
- a wide-area eyeball image that can suitably observe the entire plurality of regions of the eye to be examined.
- a composite image of a plurality of images obtained by individually executing OCT on a plurality of regions of the eye to be examined is displayed.
- the first display condition and setting the second display condition for the posterior segment OCT image it is possible to display the combined image.
- two or more display conditions are set for the anterior segment OCT image, and two or more display conditions are set for the posterior segment OCT image, and then a composite image thereof is displayed.
- a first display condition is set for a region where the cornea is depicted in the anterior segment OCT image
- a second display condition is set for the region where the crystalline lens is depicted in the anterior segment OCT image
- After setting the third display condition for the region in which the vitreous body is depicted in the posterior segment OCT image and after setting the fourth display condition for the region in which the fundus oculi is depicted in the posterior segment OCT image, It is possible to display a composite image of the anterior segment OCT image and the posterior segment OCT image.
- the posterior surface of the cornea is less likely to be depicted than the anterior surface of the cornea, and the crystalline lens is also less likely to be depicted. Therefore, it is possible to increase the contrast of the region where the posterior surface of the cornea and the crystalline lens are depicted in the anterior segment OCT image, and to highlight the region.
- eyelashes may appear in the anterior segment OCT image. In such a case, the area can be emphasized or conversely suppressed (blurred).
- display conditions can be individually set for each identified layer region (or for each layer boundary region).
- a lesioned part When a lesioned part is depicted in the OCT image, it is possible to set two or more display conditions for the lesioned part. For example, different display conditions can be set for the central region of the lesion and its peripheral region. Further, when a blood vessel is traveling in a lesioned part, different display conditions can be set for the lesioned part and the blood vessel. According to such a configuration, it is possible to preferably observe the structure of the lesion.
- an interface for changing at least one parameter among various parameters such as pseudo color value, luminance value, contrast, smoothing, and enhancement can be displayed together with the image.
- an interface for example, a pointing device such as a mouse
- the display condition of the partial area is changed in real time according to the changed content. The user can guide the display state of the partial area to a desired display state by appropriately changing the parameter while monitoring the display state of the partial area.
- the interface for displaying an image in which display conditions are set for each partial area may be different depending on the display mode of the image.
- Image display modes include still image display, moving image display (for example, live moving image display), slide show display, comparison display of two or more images, overlay display (superimposition display), and display of images used for analysis processing. .
- moving image display for example, live moving image display
- slide show display comparison display of two or more images
- overlay display superimposition display
- display of images used for analysis processing .
- a plurality of images relating to the same part or different parts of the eye to be examined are sequentially switched and displayed, such as a moving image display or a slide show display, it is applied to one of them (reference image, for example, the first image).
- reference image for example, the first image
- the displayed display conditions can be applied to other images.
- the original display condition of the reference image is compared with the current display condition of the other image, and a new display condition of the other image is set based on the comparison result and the current display condition of the reference image. It can also be configured to.
- comparison display of two or more images there are cases where two or more images acquired at different timings are displayed side by side (or switched), such as follow-up observation or pre- and post-operative observation.
- the superimposed display includes a superimposed display of an OCT image and an OCT image, a superimposed display of an OCT image and another type of image, and the like.
- the same (or similar) display conditions can be set for partial regions corresponding to the same part of the eye to be examined.
- display conditions for the image based on the analysis result. For example, it is possible to set display conditions for a partial region to be analyzed in the image based on the analysis result.
- this OCT image (or an image obtained therefrom or a combination thereof with another OCT image is obtained.
- the display color corresponding to the thickness can be assigned to each part of the partial area corresponding to the predetermined layer in the image.
- an OCT image including a partial image in which the thickness distribution of the predetermined layer is expressed in color is obtained.
- Display conditions for blood vessel regions in OCT images can be set.
- the OCT image is a front sectional image (C sectional image) or a three-dimensional image
- the blood vessel region is specified by arbitrary image processing such as region growing.
- the OCT image is a longitudinal cross-sectional image (B cross-sectional image) or an arbitrary cross-sectional image
- the blood vessel region is specified based on, for example, a phase image representing a time-series change in phase.
- the blood vessel region can be specified by the following processing: a blood vessel region (reference blood vessel region) in the fundus image of the eye to be examined separately acquired is specified; Registration between the front image obtained by processing the three-dimensional image and the fundus image is performed; based on the result of registration (for example, correspondence between coordinate positions in both images), the reference blood vessel region Is set as a blood vessel region.
- a front image based on a three-dimensional image a projection image obtained by projecting a three-dimensional image in the depth direction, or a partial region of the three-dimensional image (for example, an image region corresponding to a predetermined layer) has a depth.
- a shadowgram obtained by projecting in a direction, a flattened image obtained by flattening and displaying from the front an image region corresponding to a predetermined layer (for example, obtained by segmentation) in a three-dimensional image.
- Information indicating hemangiomas may be assigned to each blood vessel image. Examples of such information include identification information between arteries and veins, identification information between blood vessels associated with lesions and blood vessels not associated with lesions, and identification information according to blood vessel diameter.
- identification information is acquired by analyzing the OCT image itself or by analyzing another image (such as a fundus image or a fluorescence image that can be registered with the OCT image). Or it can also comprise so that a user may input such identification information manually. According to such a configuration, it is possible to easily recognize the blood vessel region and its type in the OCT image.
- Contrast can be increased or enhancement processing can be performed on such an image region having a low rendering ability.
- similar contrast processing and enhancement processing can be performed on a region hidden by a surgical instrument or treatment instrument.
- a technique for calculating an evaluation value of an image quality (image quality) of an OCT image is generally used.
- Display conditions can be set based on this evaluation value. For example, it is possible to calculate an evaluation value for any one of a plurality of partial regions of the OCT image and set display conditions so as to increase the evaluation value. Further, by alternately executing the calculation of the evaluation value and the change of the display condition, that is, by adjusting the display condition while monitoring the evaluation value, a suitable display condition (for example, the optimal display condition) is searched. It is also possible to configure.
- the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41.
- the method for changing the difference is not limited to this.
- it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light.
- the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS.
- the optical path length difference can be changed by moving the measured object in the depth direction (z direction).
- the computer program for realizing the above embodiment can be stored in an arbitrary recording medium readable by a computer.
- this recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Eye Examination Apparatus (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Provided is a technique with which not only local observation of a subject eye but also global observation can be performed suitably. An ophthalmological imaging device according to an embodiment comprises an optical system, a formation unit, a division unit, a setting unit, and a display control unit. The optical system divides light from a light source into signal light and reference light, and detects interference light between the signal light which has passed through a subject eye and the reference light which has passed through a reference light path. The formation unit forms an image of the subject eye on the basis of the result of detecting the interference light by the optical system. The division unit divides the image formed by the formation unit into a plurality of partial regions. The setting unit sets display conditions for the respective partial regions acquired by the division unit. The display control unit displays, on a display means, the image formed by the formation unit in accordance with the display conditions that have been set by the setting unit.
Description
この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いて被検眼の画像を取得する眼科撮影装置、および、OCTを用いて取得された被検眼の画像を表示する眼科画像表示装置に関する。
The present invention relates to an ophthalmologic imaging apparatus that acquires an image of an eye to be examined using optical coherence tomography (OCT), and an ophthalmic image display apparatus that displays an image of the eye to be examined acquired using OCT. .
近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。
In recent years, OCT that forms an image representing the surface form and internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.
特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断面像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。
Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional cross-sectional image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. This method is also called a spectral domain.
特許文献2には、信号光を水平方向(x方向)および垂直方向(y方向)に走査(スキャン)することにより水平方向の2次元断面像を複数形成し、これら複数の断面像に基づいて測定範囲の3次元の断面情報を取得して画像化する技術が開示されている。この3次元画像化技術としては、たとえば、複数の断面像を並べて表示させる方法や(スタックデータなどと呼ばれる)、スタックデータに基づきボリュームデータ(ボクセルデータ)を生成し、このボリュームデータにレンダリング処理を施して3次元画像を形成する方法などがある。
In Patent Document 2, a plurality of two-dimensional cross-sectional images in the horizontal direction are formed by scanning (scanning) the signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of cross-sectional images. A technique for acquiring and imaging three-dimensional cross-sectional information of a measurement range is disclosed. As this three-dimensional imaging technology, for example, a method of displaying a plurality of cross-sectional images side by side (referred to as stack data), volume data (voxel data) is generated based on the stack data, and rendering processing is performed on the volume data. And a method for forming a three-dimensional image.
特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する装置が記載されている。このような装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。
Patent Documents 3 and 4 disclose other types of OCT apparatuses. In Patent Document 3, the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution. Is obtained, and an apparatus for imaging the form of the object to be measured by performing Fourier transform on the obtained image is described. Such an apparatus is called a swept source type. The swept source type is a kind of Fourier domain type.
また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full-field)タイプ、或いはインファス(en-face)タイプなどと呼ばれる。
In Patent Document 4, the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light. An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.
特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラ、スリットランプ、SLO(Scanning Laser Ophthalmoscope)などが使用されていた(たとえば特許文献6、特許文献7、特許文献8を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。SLOは、レーザ光で眼底を走査し、その反射光を光電子増倍管等の高感度な素子で検出することにより眼底表面の形態を画像化する装置である。
Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field. Prior to the application of OCT, fundus cameras, slit lamps, SLO (Scanning Laser Ophthalmoscope), and the like were used as devices for observing the subject's eye (for example, Patent Document 6, Patent Document 7, Patent Document). 8). A fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light. A slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light. The SLO is an apparatus that images the fundus surface by scanning the fundus with laser light and detecting the reflected light with a highly sensitive element such as a photomultiplier tube.
OCTを用いた装置は、高精細の画像を取得できる点、更には断面像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。
An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired and a cross-sectional image or a three-dimensional image can be acquired.
このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。
Thus, since an apparatus using OCT can be applied to observation of various parts of an eye to be examined and can acquire high-definition images, it has been applied to diagnosis of various ophthalmic diseases.
近年、OCTを用いた硝子体観察が進展を見せている。硝子体は、眼球の内腔に充填された透明なゼリー状の組織であるが、OCTによってその形態を描出することが可能である。硝子体観察の対象としては、硝子体繊維の走行、硝子体の境界面の形状や配置(たとえば後部硝子体剥離)、クローケ管の形状や配置、硝子体血管の痕跡の分布などがある。
In recent years, vitreous observation using OCT has made progress. The vitreous body is a transparent jelly-like tissue filled in the lumen of the eyeball, and its form can be depicted by OCT. Examples of the vitreous body observation include running of the vitreous fibers, the shape and arrangement of the boundary surface of the vitreous body (for example, posterior vitreous detachment), the shape and arrangement of the cloak tube, and the distribution of traces of the vitreous blood vessels.
OCTにおいては、深さ方向(信号光の進行方向)の位置(深さ位置)に応じて画質が変化するので、主要な観察部位にフォーカスを合わせた状態で計測が行われる。たとえば、主要な観察部位が網膜・脈絡膜・硝子体である場合には、それぞれ、網膜・脈絡膜・硝子体にフォーカスが合わせられる。
In OCT, the image quality changes in accordance with the position (depth position) in the depth direction (the direction in which the signal light travels), so measurement is performed with the main observation site in focus. For example, when the main observation sites are the retina, choroid, and vitreous, the retina, choroid, and vitreous are respectively focused.
一方、主要な観察部位以外の部位を併せて観察したい場合もある。たとえば、網膜と脈絡膜との間の構造的な関係を把握したい場合には、網膜(または脈絡膜)にフォーカスを合わせて計測を行い、それにより取得された画像における網膜領域および脈絡膜領域を観察する。また、網膜と硝子体の間の構造的な関係を把握したい場合には、硝子体(または網膜)にフォーカスを合わせて計測を行い、それにより取得された画像における網膜領域および硝子体領域を観察する。
On the other hand, there is a case where it is desired to observe a part other than the main observation part. For example, when it is desired to grasp the structural relationship between the retina and the choroid, the retina (or choroid) is focused and measured, and the retinal region and choroid region in the acquired image are observed. If you want to understand the structural relationship between the retina and the vitreous body, focus on the vitreous body (or retina) and measure it, and observe the retinal region and vitreous region in the acquired image. To do.
このような場合、フォーカスが合っていない部位に相当する画像領域の画質が、フォーカスが合っている部位に相当する画像領域の画質よりも低くなるため、比較的低画質の画像領域の観察に支障が出る場合が起こりうる。つまり、従来のOCT技術は、被検眼の局所的な観察については十分な性能を提供するが、大域的な観察を好適に行うことは困難であった。
In such a case, the image quality of the image area corresponding to the out-of-focus area is lower than the image quality of the image area corresponding to the in-focus area, which hinders observation of a relatively low-quality image area. May occur. That is, the conventional OCT technique provides sufficient performance for local observation of the eye to be examined, but it has been difficult to suitably perform global observation.
また、硝子体を特に観察したい場合には、硝子体からの反射信号は極めて微弱であることを考慮し、焦点をずらした撮影により得られた画像における硝子体領域の画素を適宜に変換することによって硝子体領域を明瞭化するなど、煩雑な処理を行う必要があった。
Also, if you want to observe the vitreous body in particular, consider that the reflected signal from the vitreous body is extremely weak, and appropriately convert the pixels in the vitreous body area in the image obtained by shifting the focus. Therefore, it is necessary to perform complicated processing such as clarifying the vitreous region.
この発明の目的は、被検眼の局所的な観察だけでなく大域的な観察も好適に行える技術を提供することにある。
An object of the present invention is to provide a technique capable of suitably performing not only local observation of a subject eye but also global observation.
上記目的を達成するために、請求項1に記載の発明は、光源からの光を信号光と参照光とに分割し、被検眼を経由した前記信号光と参照光路を経由した前記参照光との干渉光を検出する光学系と、前記光学系による前記干渉光の検出結果に基づいて、被検眼の画像を形成する形成部と、前記形成部により形成された画像を複数の部分領域に分割する分割部と、前記分割部により取得された前記複数の部分領域のそれぞれの表示条件を設定する設定部と、前記設定部により設定された表示条件に基づいて、前記形成部により形成された画像を表示手段に表示させる表示制御部とを有する眼科撮影装置である。
請求項2に記載の発明は、請求項1に記載の眼科撮影装置であって、前記形成部により形成された画像が2次元画像を含む場合、前記分割部は、前記形成部により形成された2次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、前記画像領域特定部により特定された画像領域を境界とする2次元画像領域を、前記部分領域として特定する部分領域特定部とを含むことを特徴とする。
請求項3に記載の発明は、請求項1に記載の眼科撮影装置であって、前記形成部により形成された画像が3次元画像を含む場合、前記分割部は、前記形成部により形成された3次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、前記画像領域特定部により特定された画像領域を境界とする3次元画像領域を、前記部分領域として特定する部分領域特定部とを含むことを特徴とする。
請求項4に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位に内境界膜が含まれる場合、前記画像領域特定部は、被検眼の内境界膜に相当する内境界膜領域を特定し、前記部分領域特定部は、前記内境界膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と硝子体に相当する硝子体領域とを前記部分領域として特定することを特徴とする。
請求項5に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位にブルッフ膜が含まれる場合、前記画像領域特定部は、被検眼のブルッフ膜に相当するブルッフ膜領域を特定し、前記部分領域特定部は、前記ブルッフ膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と脈絡膜に相当する脈絡膜領域とを前記部分領域として特定することを特徴とする。
請求項6に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位に脈絡膜-強膜境界が含まれる場合、前記画像領域特定部は、被検眼の脈絡膜-強膜境界に相当する脈絡膜-強膜境界領域を特定し、前記部分領域特定部は、前記脈絡膜-強膜境界領域の特定結果に基づいて、被検眼の脈絡膜に相当する脈絡膜領域と強膜に相当する強膜領域とを前記部分領域として特定することを特徴とする。
請求項7に記載の発明は、請求項1~請求項6のいずれか一項に記載の眼科撮影装置であって、前記設定部は、前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に含まれる複数の画素の画素値を変更するためのパラメータの値を前記表示条件として設定することを特徴とする。
請求項8に記載の発明は、請求項7に記載の眼科撮影装置であって、前記パラメータは、前記複数の画素の画素値を疑似カラー値に変更するための第1パラメータ、前記複数の画素の画素値における輝度値を変更するための第2パラメータ、前記複数の画素の画素値における輝度値に基づくコントラストを変更するための第3パラメータ、前記複数の画素の画素値を平滑化するための第4パラメータ、および、前記複数の画素の少なくともいずれかを強調するための第5パラメータのうち、少なくとも1つを含むことを特徴とする。
請求項9に記載の発明は、請求項7または請求項8に記載の眼科撮影装置であって、前記設定部は、眼の複数の部位のそれぞれに対して前記パラメータの値を対応付けた対応情報があらかじめ記憶された対応情報記憶部と、前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に相当する部位を前記複数の部位のうちから選択する部位選択部と、前記複数の部分領域のそれぞれについて、前記部位選択部により選択された部位に対応付けられた前記パラメータの値を前記対応情報に基づいて特定するパラメータ特定部とを含み、前記パラメータ特定部により特定された前記パラメータの値を前記表示条件として設定することを特徴とする。
請求項10に記載の発明は、請求項1~請求項9のいずれか一項に記載の眼科撮影装置であって、前記設定部は、前記分割部により取得された前記複数の部分領域のうち、あらかじめ決められた画像処理が適用される部分領域を、前記表示条件として設定することを特徴とする。
請求項11に記載の発明は、請求項10に記載の眼科撮影装置であって、前記画像処理は、2以上の画像を重ね合わせて単一の画像を形成する重ね合わせ処理を含み、前記光学系は、被検眼の実質的に同一の断面を前記信号光で複数回走査する走査部を含み、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記分割部は、前記形成部により形成された当該複数の画像のそれぞれを前記複数の部分領域に分割し、前記表示制御部は、当該複数の画像に対する前記重ね合わせ処理として、前記複数の部分領域のうち前記設定部により前記重ね合わせ処理の適用対象に設定された部分領域についてのみ当該複数の画像を重ね合わせる処理を実行する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された単一の画像を前記表示手段に表示させることを特徴とする。
請求項12に記載の発明は、請求項11に記載の眼科撮影装置であって、前記表示制御部は、前記複数の部分領域のうち前記重ね合わせ処理の非適用対象の部分領域について、当該複数の画像に基づく動画表示を行うことを特徴とする。
請求項13に記載の発明は、請求項1~請求項12のいずれか一項に記載の眼科撮影装置であって、前記光学系は、前記信号光で被検眼を走査する走査部を含み、所定タイミングで計時を開始する計時部と、前記計時部により所定時間が計時された後に、被検眼の実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部とを有し、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記表示制御部は、前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させることを特徴とする。
請求項14に記載の発明は、請求項1~請求項12のいずれか一項に記載の眼科撮影装置であって、前記光学系は、被検眼の実質的に同一の断面を前記信号光で繰り返し走査する走査部を含み、前記形成部は、当該繰り返し走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の画像を逐次に形成し、前記形成部により形成される画像を逐次に解析することにより、当該画像に描出されている被検眼の特定部位の運動状態を示す運動状態情報を取得し、逐次に取得される前記運動状態情報に基づいて前記特定部位が実質的に静止しているか判定する判定部と、前記判定部により前記特定部位が実質的に静止していると判定されたことに対応し、実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部とを有し、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記表示制御部は、前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させることを特徴とする。
請求項15に記載の発明は、請求項1~請求項14のいずれか一項に記載の眼科撮影装置であって、前記設定部により設定された表示条件が適用された前記複数の部分領域のうちのいずれかを解析することにより、当該部分領域のサイズを求める解析部を有することを特徴とする。
請求項16に記載の発明は、光コヒーレンストモグラフィを用いて形成された被検眼の画像を受け付ける受付部と、前記受付部により受け付けられた画像を複数の部分領域に分割する分割部と、前記分割部により取得された前記複数の部分領域のそれぞれの表示条件を設定する設定部と、前記設定部により設定された表示条件に基づいて、前記受付部により受け付けられた画像を表示手段に表示させる表示制御部とを有する眼科画像表示装置である。この眼科画像表示装置は、実施形態に係る眼科撮影装置が有する任意の機能や構成を有していてよい。 In order to achieve the above object, the invention according to claim 1 divides the light from the light source into signal light and reference light, and the signal light passing through the eye to be examined and the reference light passing through the reference light path An optical system for detecting the interference light, a forming part for forming an image of the eye to be inspected based on a detection result of the interference light by the optical system, and an image formed by the forming part into a plurality of partial regions An image formed by the forming unit based on the display condition set by the setting unit, a setting unit that sets each display condition of the plurality of partial areas acquired by the dividing unit, Is an ophthalmologic photographing apparatus having a display control unit for displaying the image on the display means.
The invention according toclaim 2 is the ophthalmologic photographing apparatus according to claim 1, wherein when the image formed by the forming unit includes a two-dimensional image, the dividing unit is formed by the forming unit. By analyzing the two-dimensional image, an image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined, and a two-dimensional image region having the image region specified by the image region specifying unit as a boundary, And a partial area specifying unit that specifies the partial area.
The invention according toclaim 3 is the ophthalmologic photographing apparatus according to claim 1, wherein when the image formed by the forming unit includes a three-dimensional image, the dividing unit is formed by the forming unit. By analyzing the three-dimensional image, an image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined, and a three-dimensional image region having the image region specified by the image region specifying unit as a boundary, And a partial area specifying unit that specifies the partial area.
The invention according to claim 4 is the ophthalmologic imaging apparatus according toclaim 2 or claim 3, wherein when the predetermined region includes an inner boundary film, the image region specifying unit is configured to determine the inner boundary of the eye to be examined. An inner boundary membrane region corresponding to a membrane is specified, and the partial region specifying unit, based on a result of specifying the inner boundary membrane region, a retinal region corresponding to a retina of a subject eye and a vitreous region corresponding to a vitreous body Is specified as the partial region.
The invention according to claim 5 is the ophthalmologic imaging apparatus according toclaim 2 or claim 3, wherein the Bruch film is included in the Bruch film of the eye to be examined when the Bruch film is included in the predetermined part. The corresponding Bruch's membrane region is specified, and the partial region specifying unit specifies, as the partial region, the retinal region corresponding to the retina of the eye to be examined and the choroid region corresponding to the choroid based on the specification result of the Bruch's membrane region. It is characterized by doing.
The invention according to claim 6 is the ophthalmologic imaging apparatus according to claim 2 or 3, wherein when the predetermined site includes a choroid-sclera boundary, the image region specifying unit A choroid-sclera boundary region corresponding to the choroid-sclera boundary is specified, and the partial region specifying unit determines whether the choroid region corresponding to the choroid of the eye to be examined is strong based on the result of specifying the choroid-sclera boundary region. A scleral region corresponding to a film is specified as the partial region.
A seventh aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to sixth aspects, wherein the setting unit includes each of the plurality of partial regions acquired by the dividing unit. The parameter value for changing the pixel values of a plurality of pixels included in the partial area is set as the display condition.
The invention according to claim 8 is the ophthalmologic photographing apparatus according to claim 7, wherein the parameter is a first parameter for changing pixel values of the plurality of pixels to pseudo color values, and the plurality of pixels. A second parameter for changing the luminance value in the pixel value, a third parameter for changing the contrast based on the luminance value in the pixel value of the plurality of pixels, and for smoothing the pixel value of the plurality of pixels It includes at least one of a fourth parameter and a fifth parameter for emphasizing at least one of the plurality of pixels.
The invention according to claim 9 is the ophthalmologic imaging apparatus according to claim 7 or claim 8, wherein the setting unit associates the value of the parameter with each of a plurality of parts of the eye. A correspondence information storage unit in which information is stored in advance, and a part selection unit that selects a part corresponding to the partial area from the plurality of parts for each of the plurality of partial areas acquired by the dividing unit; A parameter specifying unit that specifies a value of the parameter associated with the part selected by the part selecting unit for each of the plurality of partial regions based on the correspondence information, and is specified by the parameter specifying unit. Further, the parameter value is set as the display condition.
A tenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to ninth aspects, wherein the setting unit includes the plurality of partial regions acquired by the dividing unit. A partial area to which predetermined image processing is applied is set as the display condition.
An eleventh aspect of the present invention is the ophthalmologic photographing apparatus according to the tenth aspect, wherein the image processing includes a superimposition process in which two or more images are superimposed to form a single image, and the optical processing is performed. The system includes a scanning unit that scans substantially the same cross section of the eye to be inspected a plurality of times with the signal light, and the forming unit detects the interference light acquired by the optical system in accordance with the plurality of times of scanning. Based on the result, a plurality of images of the cross section are formed, the dividing unit divides each of the plurality of images formed by the forming unit into the plurality of partial regions, and the display control unit As the superimposing process for a plurality of images, superimposing is performed for superimposing the plurality of images only on the partial area set as the application target of the superimposing process by the setting unit among the plurality of partial areas. It includes a processing unit, wherein the single image formed by the superimposition processing unit be displayed on the display means.
The invention according toclaim 12 is the ophthalmologic photographing apparatus according to claim 11, wherein the display control unit is configured to apply the plurality of partial areas to which the superimposition process is not applied among the plurality of partial areas. The moving image display based on the image is performed.
A thirteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects, wherein the optical system includes a scanning unit that scans an eye to be examined with the signal light, A timing unit that starts timing at a predetermined timing, and a control unit that controls the optical system to scan substantially the same cross section of the eye to be examined a plurality of times with the signal light after a predetermined time is measured by the timing unit And the forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans, and the display control unit includes: An overlay processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the display unit displays the single image formed by the overlay processing unit. It is characterized by displaying
A fourteenth aspect of the invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects of the invention, in which the optical system uses the signal light to cross substantially the same cross section of the eye to be examined. A scanning unit that repeatedly scans, and the forming unit sequentially forms an image of the cross section based on the detection result of the interference light acquired by the optical system with the repeated scanning, and the forming unit forms By sequentially analyzing the images to be obtained, the movement state information indicating the movement state of the specific part of the eye to be examined depicted in the image is obtained, and the specific part is obtained based on the movement state information sequentially obtained. A determination unit for determining whether the specific part is substantially stationary, and a plurality of substantially the same cross section with the signal light in response to the determination unit determining that the specific part is substantially stationary. Said optical system to scan once A control unit that controls, the forming unit forms a plurality of images of the cross section based on a detection result of the interference light acquired by the optical system in association with the plurality of scans, and the display The control unit includes a superimposition processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the single image formed by the superimposition processing unit It is displayed on the display means.
A fifteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to fourteenth aspects, in which the plurality of partial regions to which the display condition set by the setting unit is applied. It is characterized by having an analysis part which calculates the size of the partial area by analyzing any of them.
The invention according toclaim 16 is a reception unit that receives an image of an eye to be examined formed using optical coherence tomography, a division unit that divides the image received by the reception unit into a plurality of partial regions, A setting unit that sets display conditions for each of the plurality of partial areas acquired by the dividing unit, and a display unit that displays an image received by the receiving unit based on the display conditions set by the setting unit. An ophthalmologic image display device having a display control unit. This ophthalmologic image display apparatus may have an arbitrary function or configuration of the ophthalmologic photographing apparatus according to the embodiment.
請求項2に記載の発明は、請求項1に記載の眼科撮影装置であって、前記形成部により形成された画像が2次元画像を含む場合、前記分割部は、前記形成部により形成された2次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、前記画像領域特定部により特定された画像領域を境界とする2次元画像領域を、前記部分領域として特定する部分領域特定部とを含むことを特徴とする。
請求項3に記載の発明は、請求項1に記載の眼科撮影装置であって、前記形成部により形成された画像が3次元画像を含む場合、前記分割部は、前記形成部により形成された3次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、前記画像領域特定部により特定された画像領域を境界とする3次元画像領域を、前記部分領域として特定する部分領域特定部とを含むことを特徴とする。
請求項4に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位に内境界膜が含まれる場合、前記画像領域特定部は、被検眼の内境界膜に相当する内境界膜領域を特定し、前記部分領域特定部は、前記内境界膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と硝子体に相当する硝子体領域とを前記部分領域として特定することを特徴とする。
請求項5に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位にブルッフ膜が含まれる場合、前記画像領域特定部は、被検眼のブルッフ膜に相当するブルッフ膜領域を特定し、前記部分領域特定部は、前記ブルッフ膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と脈絡膜に相当する脈絡膜領域とを前記部分領域として特定することを特徴とする。
請求項6に記載の発明は、請求項2または請求項3に記載の眼科撮影装置であって、前記所定部位に脈絡膜-強膜境界が含まれる場合、前記画像領域特定部は、被検眼の脈絡膜-強膜境界に相当する脈絡膜-強膜境界領域を特定し、前記部分領域特定部は、前記脈絡膜-強膜境界領域の特定結果に基づいて、被検眼の脈絡膜に相当する脈絡膜領域と強膜に相当する強膜領域とを前記部分領域として特定することを特徴とする。
請求項7に記載の発明は、請求項1~請求項6のいずれか一項に記載の眼科撮影装置であって、前記設定部は、前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に含まれる複数の画素の画素値を変更するためのパラメータの値を前記表示条件として設定することを特徴とする。
請求項8に記載の発明は、請求項7に記載の眼科撮影装置であって、前記パラメータは、前記複数の画素の画素値を疑似カラー値に変更するための第1パラメータ、前記複数の画素の画素値における輝度値を変更するための第2パラメータ、前記複数の画素の画素値における輝度値に基づくコントラストを変更するための第3パラメータ、前記複数の画素の画素値を平滑化するための第4パラメータ、および、前記複数の画素の少なくともいずれかを強調するための第5パラメータのうち、少なくとも1つを含むことを特徴とする。
請求項9に記載の発明は、請求項7または請求項8に記載の眼科撮影装置であって、前記設定部は、眼の複数の部位のそれぞれに対して前記パラメータの値を対応付けた対応情報があらかじめ記憶された対応情報記憶部と、前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に相当する部位を前記複数の部位のうちから選択する部位選択部と、前記複数の部分領域のそれぞれについて、前記部位選択部により選択された部位に対応付けられた前記パラメータの値を前記対応情報に基づいて特定するパラメータ特定部とを含み、前記パラメータ特定部により特定された前記パラメータの値を前記表示条件として設定することを特徴とする。
請求項10に記載の発明は、請求項1~請求項9のいずれか一項に記載の眼科撮影装置であって、前記設定部は、前記分割部により取得された前記複数の部分領域のうち、あらかじめ決められた画像処理が適用される部分領域を、前記表示条件として設定することを特徴とする。
請求項11に記載の発明は、請求項10に記載の眼科撮影装置であって、前記画像処理は、2以上の画像を重ね合わせて単一の画像を形成する重ね合わせ処理を含み、前記光学系は、被検眼の実質的に同一の断面を前記信号光で複数回走査する走査部を含み、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記分割部は、前記形成部により形成された当該複数の画像のそれぞれを前記複数の部分領域に分割し、前記表示制御部は、当該複数の画像に対する前記重ね合わせ処理として、前記複数の部分領域のうち前記設定部により前記重ね合わせ処理の適用対象に設定された部分領域についてのみ当該複数の画像を重ね合わせる処理を実行する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された単一の画像を前記表示手段に表示させることを特徴とする。
請求項12に記載の発明は、請求項11に記載の眼科撮影装置であって、前記表示制御部は、前記複数の部分領域のうち前記重ね合わせ処理の非適用対象の部分領域について、当該複数の画像に基づく動画表示を行うことを特徴とする。
請求項13に記載の発明は、請求項1~請求項12のいずれか一項に記載の眼科撮影装置であって、前記光学系は、前記信号光で被検眼を走査する走査部を含み、所定タイミングで計時を開始する計時部と、前記計時部により所定時間が計時された後に、被検眼の実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部とを有し、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記表示制御部は、前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させることを特徴とする。
請求項14に記載の発明は、請求項1~請求項12のいずれか一項に記載の眼科撮影装置であって、前記光学系は、被検眼の実質的に同一の断面を前記信号光で繰り返し走査する走査部を含み、前記形成部は、当該繰り返し走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の画像を逐次に形成し、前記形成部により形成される画像を逐次に解析することにより、当該画像に描出されている被検眼の特定部位の運動状態を示す運動状態情報を取得し、逐次に取得される前記運動状態情報に基づいて前記特定部位が実質的に静止しているか判定する判定部と、前記判定部により前記特定部位が実質的に静止していると判定されたことに対応し、実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部とを有し、前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、前記表示制御部は、前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させることを特徴とする。
請求項15に記載の発明は、請求項1~請求項14のいずれか一項に記載の眼科撮影装置であって、前記設定部により設定された表示条件が適用された前記複数の部分領域のうちのいずれかを解析することにより、当該部分領域のサイズを求める解析部を有することを特徴とする。
請求項16に記載の発明は、光コヒーレンストモグラフィを用いて形成された被検眼の画像を受け付ける受付部と、前記受付部により受け付けられた画像を複数の部分領域に分割する分割部と、前記分割部により取得された前記複数の部分領域のそれぞれの表示条件を設定する設定部と、前記設定部により設定された表示条件に基づいて、前記受付部により受け付けられた画像を表示手段に表示させる表示制御部とを有する眼科画像表示装置である。この眼科画像表示装置は、実施形態に係る眼科撮影装置が有する任意の機能や構成を有していてよい。 In order to achieve the above object, the invention according to claim 1 divides the light from the light source into signal light and reference light, and the signal light passing through the eye to be examined and the reference light passing through the reference light path An optical system for detecting the interference light, a forming part for forming an image of the eye to be inspected based on a detection result of the interference light by the optical system, and an image formed by the forming part into a plurality of partial regions An image formed by the forming unit based on the display condition set by the setting unit, a setting unit that sets each display condition of the plurality of partial areas acquired by the dividing unit, Is an ophthalmologic photographing apparatus having a display control unit for displaying the image on the display means.
The invention according to
The invention according to
The invention according to claim 4 is the ophthalmologic imaging apparatus according to
The invention according to claim 5 is the ophthalmologic imaging apparatus according to
The invention according to claim 6 is the ophthalmologic imaging apparatus according to
A seventh aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to sixth aspects, wherein the setting unit includes each of the plurality of partial regions acquired by the dividing unit. The parameter value for changing the pixel values of a plurality of pixels included in the partial area is set as the display condition.
The invention according to claim 8 is the ophthalmologic photographing apparatus according to claim 7, wherein the parameter is a first parameter for changing pixel values of the plurality of pixels to pseudo color values, and the plurality of pixels. A second parameter for changing the luminance value in the pixel value, a third parameter for changing the contrast based on the luminance value in the pixel value of the plurality of pixels, and for smoothing the pixel value of the plurality of pixels It includes at least one of a fourth parameter and a fifth parameter for emphasizing at least one of the plurality of pixels.
The invention according to claim 9 is the ophthalmologic imaging apparatus according to claim 7 or claim 8, wherein the setting unit associates the value of the parameter with each of a plurality of parts of the eye. A correspondence information storage unit in which information is stored in advance, and a part selection unit that selects a part corresponding to the partial area from the plurality of parts for each of the plurality of partial areas acquired by the dividing unit; A parameter specifying unit that specifies a value of the parameter associated with the part selected by the part selecting unit for each of the plurality of partial regions based on the correspondence information, and is specified by the parameter specifying unit. Further, the parameter value is set as the display condition.
A tenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to ninth aspects, wherein the setting unit includes the plurality of partial regions acquired by the dividing unit. A partial area to which predetermined image processing is applied is set as the display condition.
An eleventh aspect of the present invention is the ophthalmologic photographing apparatus according to the tenth aspect, wherein the image processing includes a superimposition process in which two or more images are superimposed to form a single image, and the optical processing is performed. The system includes a scanning unit that scans substantially the same cross section of the eye to be inspected a plurality of times with the signal light, and the forming unit detects the interference light acquired by the optical system in accordance with the plurality of times of scanning. Based on the result, a plurality of images of the cross section are formed, the dividing unit divides each of the plurality of images formed by the forming unit into the plurality of partial regions, and the display control unit As the superimposing process for a plurality of images, superimposing is performed for superimposing the plurality of images only on the partial area set as the application target of the superimposing process by the setting unit among the plurality of partial areas. It includes a processing unit, wherein the single image formed by the superimposition processing unit be displayed on the display means.
The invention according to
A thirteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects, wherein the optical system includes a scanning unit that scans an eye to be examined with the signal light, A timing unit that starts timing at a predetermined timing, and a control unit that controls the optical system to scan substantially the same cross section of the eye to be examined a plurality of times with the signal light after a predetermined time is measured by the timing unit And the forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans, and the display control unit includes: An overlay processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the display unit displays the single image formed by the overlay processing unit. It is characterized by displaying
A fourteenth aspect of the invention is the ophthalmologic photographing apparatus according to any one of the first to twelfth aspects of the invention, in which the optical system uses the signal light to cross substantially the same cross section of the eye to be examined. A scanning unit that repeatedly scans, and the forming unit sequentially forms an image of the cross section based on the detection result of the interference light acquired by the optical system with the repeated scanning, and the forming unit forms By sequentially analyzing the images to be obtained, the movement state information indicating the movement state of the specific part of the eye to be examined depicted in the image is obtained, and the specific part is obtained based on the movement state information sequentially obtained. A determination unit for determining whether the specific part is substantially stationary, and a plurality of substantially the same cross section with the signal light in response to the determination unit determining that the specific part is substantially stationary. Said optical system to scan once A control unit that controls, the forming unit forms a plurality of images of the cross section based on a detection result of the interference light acquired by the optical system in association with the plurality of scans, and the display The control unit includes a superimposition processing unit that forms a single image by superimposing the plurality of images formed by the forming unit, and the single image formed by the superimposition processing unit It is displayed on the display means.
A fifteenth aspect of the present invention is the ophthalmologic photographing apparatus according to any one of the first to fourteenth aspects, in which the plurality of partial regions to which the display condition set by the setting unit is applied. It is characterized by having an analysis part which calculates the size of the partial area by analyzing any of them.
The invention according to
この発明によれば、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能である。
According to the present invention, not only local observation of the eye to be examined but also global observation can be suitably performed.
この発明に係る眼科撮影装置および眼科画像表示装置の実施形態の一例について、図面を参照しながら詳細に説明する。実施形態に係る眼科撮影装置は、OCTを用いて被検眼の断面像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。
An example of an embodiment of an ophthalmologic photographing apparatus and an ophthalmic image display apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic imaging apparatus according to the embodiment forms a cross-sectional image or a three-dimensional image of the eye to be examined using OCT. In this specification, images acquired by OCT may be collectively referred to as OCT images. In addition, a measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.
実施形態では、スペクトラルドメインタイプのOCTの手法を用いる場合について特に詳しく説明するが、他のタイプ(たとえばスウェプトソースタイプ)のOCTを用いる眼科撮影装置に対して、実施形態に係る構成を適用することも可能である。また、実施形態ではOCT装置と眼底カメラとを組み合わせた装置について特に詳しく説明するが、眼底カメラ以外の撮影装置、たとえばSLO、スリットランプ、眼科手術用顕微鏡などに、実施形態に係る構成を有するOCT装置を組み合わせることも可能である。或いは、実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。また、実施形態では眼底(網膜、脈絡膜、強膜)や硝子体を画像化する場合について特に詳しく説明するが、画像される部位はこれらに限定されない。たとえば、角膜、虹彩、水晶体など被検眼の任意の部位を画像化することが可能なOCT装置を含む眼科撮影装置に対して、実施形態に係る構成を適用することができる。
In the embodiment, the case where the spectral domain type OCT method is used will be described in detail. However, the configuration according to the embodiment is applied to an ophthalmologic imaging apparatus using another type (for example, a swept source type) of OCT. Is also possible. In the embodiment, an apparatus combining an OCT apparatus and a fundus camera will be described in detail. However, an OCT having the configuration according to the embodiment is applied to an imaging apparatus other than the fundus camera, for example, an SLO, a slit lamp, an ophthalmic surgical microscope, or the like. It is also possible to combine devices. Alternatively, the configuration according to the embodiment can be incorporated into a single OCT apparatus. In the embodiment, the case of imaging the fundus (retina, choroid, sclera) and vitreous body will be described in detail, but the imaged part is not limited to these. For example, the configuration according to the embodiment can be applied to an ophthalmologic imaging apparatus including an OCT apparatus that can image an arbitrary part of an eye to be examined such as a cornea, an iris, and a crystalline lens.
以下、複数の実施形態を説明するが、これら実施形態に記載された事項を任意に組み合わせることが可能である。
Hereinafter, a plurality of embodiments will be described, but the matters described in these embodiments can be arbitrarily combined.
〈第1の実施形態〉
[構成]
図1および図2に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。 <First Embodiment>
[Constitution]
As shown in FIGS. 1 and 2, the ophthalmologic photographing apparatus 1 includes afundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The retinal camera unit 2 has almost the same optical system as a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
[構成]
図1および図2に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。 <First Embodiment>
[Constitution]
As shown in FIGS. 1 and 2, the ophthalmologic photographing apparatus 1 includes a
〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。 [Fundus camera unit]
Thefundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined. The fundus image includes an observation image and a captured image. The observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light. The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。 [Fundus camera unit]
The
眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
The fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the fundus oculi Ef with illumination light. The photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38). The imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
The observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp. The light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef. An LED (Light Emitting Diode) can also be used as the observation light source.
観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
The fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens. The CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
The photographing light source 15 is constituted by, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light. The fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38. An image is formed on the light receiving surface. On the display device 3, an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed. Note that the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different. In addition, when similar imaging is performed by illuminating the eye E with infrared light, an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。
The LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic. The light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
The fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39. As the fixation position of the eye E, for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
Furthermore, the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera. The alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.
アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
The light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the perforated mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.
アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
The corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror The light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. The light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
When performing the focus adjustment, the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10. The light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
The fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light. A light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image. The arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging. The dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing. In this optical path for OCT measurement, a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
The galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.
〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。 [OCT unit]
An example of the configuration of theOCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。 [OCT unit]
An example of the configuration of the
なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。
In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided. In general, for the configuration of the OCT unit 100, a known technique according to the type of optical coherence tomography can be arbitrarily applied.
光源ユニット101は広帯域の低コヒーレンス光を出力する。低コヒーレンス光は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光として用いてもよい。
The light source unit 101 outputs broadband low-coherence light. Low-coherence light includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band that cannot be visually recognized by the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light.
光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
The light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
光源ユニット101から出力された低コヒーレンス光は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
The low coherence light output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the signal light LS and the reference light LR.
参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
The reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105. The optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106. The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape. The configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.
ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
The signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
The fiber coupler 109 causes the backscattered light of the signal light LS and the reference light LR that has passed through the optical fiber 104 to interfere with each other. The interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115. Although the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.
CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
The CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges. The CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
In this embodiment, a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used. Further, in place of the CCD image sensor, another form of image sensor, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。 [Calculation control unit]
The configuration of thearithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. The arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。 [Calculation control unit]
The configuration of the
また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
The arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.
また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。
As the control of the fundus camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.
また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。
Further, as control of the OCT unit 100, the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.
演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
The arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer. A computer program for controlling the ophthalmologic photographing apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. The arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
The fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.
〔制御系〕
眼科撮影装置1の制御系の構成について図3~図6を参照しつつ説明する。 [Control system]
The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIGS.
眼科撮影装置1の制御系の構成について図3~図6を参照しつつ説明する。 [Control system]
The configuration of the control system of the ophthalmologic photographing apparatus 1 will be described with reference to FIGS.
(制御部)
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。 (Control part)
The control system of the ophthalmologic photographing apparatus 1 is configured around thecontrol unit 210. The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 and a storage unit 212.
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。 (Control part)
The control system of the ophthalmologic photographing apparatus 1 is configured around the
(主制御部)
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31Aおよび43A、光路長変更部41、ガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105、偏波調整器106を制御する。 (Main control unit)
Themain control unit 211 performs the various controls described above. In particular, the main control unit 211 includes focusing drive units 31A and 43A of the fundus camera unit 2, an optical path length changing unit 41, a galvano scanner 42, a light source unit 101 of the OCT unit 100, an optical attenuator 105, and a polarization adjuster 106. To control.
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31Aおよび43A、光路長変更部41、ガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105、偏波調整器106を制御する。 (Main control unit)
The
合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。合焦駆動部43Aは、信号光LSの光路に設けられた合焦レンズ43を光軸方向に移動させる。それにより、信号光LSの合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
The focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed. The focusing drive unit 43A moves the focusing lens 43 provided in the optical path of the signal light LS in the optical axis direction. Thereby, the focus position of the signal light LS is changed. The main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.
また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
Further, the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。 (Memory part)
Thestorage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information. The eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information. The storage unit 212 stores various programs and data for operating the ophthalmologic photographing apparatus 1.
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。 (Memory part)
The
(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は「形成部」として機能する。 (Image forming part)
Theimage forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, dispersion compensation, and FFT (Fast Fourier Transform) as in the conventional spectral domain type optical coherence tomography. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type. The image forming unit 220 functions as a “forming unit”.
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、分散補償、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は「形成部」として機能する。 (Image forming part)
The
画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
The image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified.
(データ処理部)
データ処理部230は、各種のデータ処理を実行する。たとえば、データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。その具体例として、データ処理部230は、画像の輝度補正等の補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。 (Data processing part)
Thedata processing unit 230 executes various data processing. For example, the data processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. As a specific example, the data processing unit 230 executes correction processing such as image luminance correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
データ処理部230は、各種のデータ処理を実行する。たとえば、データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。その具体例として、データ処理部230は、画像の輝度補正等の補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。 (Data processing part)
The
データ処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241等の表示デバイスには、この擬似的な3次元画像が表示される。また、データ処理部230は、ボリュームデータから2次元断面像を形成することができる。そのための画像処理として、多断面再構成(Multi-planar Reconstruction、MPR)などがある。MPRは、ボリュームデータに対して設定された断面に位置するボクセル群に基づいて、当該断面の2次元断面像を形成するものである。
The data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between cross-sectional images to form image data of a three-dimensional image of the fundus oculi Ef. Note that the image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. As image data of a three-dimensional image, there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs a rendering process (such as volume rendering or MIP (Maximum Intensity Projection)) on the volume data to view it from a specific line-of-sight direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 241. In addition, the data processing unit 230 can form a two-dimensional cross-sectional image from the volume data. As image processing for that purpose, there is multi-planar reconstruction (MPR). The MPR forms a two-dimensional cross-sectional image of the cross section based on the voxel group located in the cross section set for the volume data.
また、3次元画像の画像データとして、複数の断面像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断面像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断面像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
It is also possible to form stack data of a plurality of cross-sectional images as 3D image data. The stack data is image data obtained by three-dimensionally arranging a plurality of cross-sectional images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of cross-sectional images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
データ処理部230は、画像分割部231と、表示条件設定部232とを含む。
The data processing unit 230 includes an image dividing unit 231 and a display condition setting unit 232.
(画像分割部)
画像分割部231は、被検眼EのOCT画像を複数の部分領域に分割する。画像分割部231は「分割部」として機能する。この実施形態では、画像分割部231が被検眼Eの2次元画像(断面像)を複数の2次元部分領域に分割する場合について説明する。この2次元画像としては、画像形成部220により形成された断面像や、3次元画像に基づく断面像(MPR画像)などがある。後者の場合、データ処理部230のうち、3次元画像を形成する機能部(3次元画像形成部)と、3次元画像から2次元画像を形成する機能部(2次元画像形成部)は、画像形成部220とともに、「形成部」として機能する。なお、画像分割部231が3次元画像を分割する場合については変形例として後述する。 (Image division)
Theimage dividing unit 231 divides the OCT image of the eye E to be examined into a plurality of partial areas. The image dividing unit 231 functions as a “dividing unit”. In this embodiment, the case where the image dividing unit 231 divides the two-dimensional image (cross-sectional image) of the eye E into a plurality of two-dimensional partial regions will be described. Examples of the two-dimensional image include a cross-sectional image formed by the image forming unit 220 and a cross-sectional image (MPR image) based on the three-dimensional image. In the latter case, among the data processing unit 230, a functional unit that forms a three-dimensional image (three-dimensional image forming unit) and a functional unit that forms a two-dimensional image from the three-dimensional image (two-dimensional image forming unit) Together with the forming unit 220, it functions as a “forming unit”. Note that a case where the image dividing unit 231 divides a three-dimensional image will be described later as a modified example.
画像分割部231は、被検眼EのOCT画像を複数の部分領域に分割する。画像分割部231は「分割部」として機能する。この実施形態では、画像分割部231が被検眼Eの2次元画像(断面像)を複数の2次元部分領域に分割する場合について説明する。この2次元画像としては、画像形成部220により形成された断面像や、3次元画像に基づく断面像(MPR画像)などがある。後者の場合、データ処理部230のうち、3次元画像を形成する機能部(3次元画像形成部)と、3次元画像から2次元画像を形成する機能部(2次元画像形成部)は、画像形成部220とともに、「形成部」として機能する。なお、画像分割部231が3次元画像を分割する場合については変形例として後述する。 (Image division)
The
ここで、「画像を分割する」とは、画像を複数の部分領域に分類すること、つまり、画像を構成する複数の画素からなる集合を複数の部分集合に分けること(或いは、画像を構成する各画素に対していずれかの部分領域に対応するラベルを付与すること)を少なくとも含む。なお、上記分類処理の対象となる複数の画素は、当該画像を構成する全ての画素であってもよいし、一部の画素であってもよい。さらに、「画像を分割する」処理は、上記分類処理により得られた部分領域を元の画像から取り出す処理、つまり、部分領域を抽出する処理を含んでいてもよい。この場合、後段の表示処理においては、抽出された複数の部分領域が再度組み合わされて表示画像を形成する。
Here, “dividing an image” means to classify an image into a plurality of partial areas, that is, to divide a set of a plurality of pixels constituting an image into a plurality of subsets (or to configure an image). A label corresponding to any partial region is assigned to each pixel). Note that the plurality of pixels to be subjected to the classification process may be all the pixels constituting the image or some of the pixels. Furthermore, the process of “dividing the image” may include a process of extracting the partial area obtained by the classification process from the original image, that is, a process of extracting the partial area. In this case, in the subsequent display process, the plurality of extracted partial areas are combined again to form a display image.
画像分割部231は、画像領域特定部2311と、部分領域特定部2312とを有する。
The image dividing unit 231 includes an image area specifying unit 2311 and a partial area specifying unit 2312.
(画像領域特定部)
画像領域特定部2311は、被検眼Eの2次元画像を解析することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。この所定部位は、被検眼Eの任意の部位であってよい。たとえば、所定部位は、網膜の層(網膜色素上皮層、視細胞層、外境界膜、外顆粒層、外網状層、内顆粒層、内網状層、神経節細胞層、神経線維層、内境界膜)またはその境界、ブルッフ膜、脈絡膜の境界、強膜の境界、硝子体の境界であってよい。また、所定部位は、病変部の境界であってよい。また、撮像範囲に前眼部が含まれている場合、角膜の境界、角膜の層(角膜上皮、ボーマン膜、角膜実質、デスメ膜、角膜内皮)またはその境界、水晶体の境界、虹彩の境界などであってよい。なお、所定部位は、解剖学的な組織や病変部などには限定されず、被検眼の画像を解析して得られた領域や、被検眼の画像を参照して手動で設定された領域なども含む概念であってよい。画像を解析して得られた領域の例として、下記のセグメンテーションにより得られた画像領域(層領域、層の境界領域等)がある。 (Image area identification part)
The imageregion specifying unit 2311 specifies a one-dimensional image region corresponding to a predetermined part of the eye E by analyzing a two-dimensional image of the eye E. This predetermined part may be an arbitrary part of the eye E to be examined. For example, the predetermined part is a layer of the retina (retinal pigment epithelium layer, photoreceptor layer, outer boundary membrane, outer granule layer, outer reticulated layer, inner granular layer, inner reticulated layer, ganglion cell layer, nerve fiber layer, inner boundary Or a boundary thereof, a Bruch's membrane, a choroidal boundary, a scleral boundary, or a vitreous boundary. Further, the predetermined part may be a boundary of a lesioned part. In addition, when the anterior segment is included in the imaging range, the boundary of the cornea, the layer of the cornea (corneal epithelium, Bowman's membrane, corneal stroma, Descemet's membrane, corneal endothelium) or its boundary, the boundary of the lens, the boundary of the iris It may be. The predetermined part is not limited to an anatomical tissue or a lesioned part, an area obtained by analyzing an image of the eye to be examined, an area manually set with reference to the image of the eye to be examined, etc. The concept may also include Examples of regions obtained by analyzing images include image regions (layer regions, layer boundary regions, etc.) obtained by the following segmentation.
画像領域特定部2311は、被検眼Eの2次元画像を解析することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。この所定部位は、被検眼Eの任意の部位であってよい。たとえば、所定部位は、網膜の層(網膜色素上皮層、視細胞層、外境界膜、外顆粒層、外網状層、内顆粒層、内網状層、神経節細胞層、神経線維層、内境界膜)またはその境界、ブルッフ膜、脈絡膜の境界、強膜の境界、硝子体の境界であってよい。また、所定部位は、病変部の境界であってよい。また、撮像範囲に前眼部が含まれている場合、角膜の境界、角膜の層(角膜上皮、ボーマン膜、角膜実質、デスメ膜、角膜内皮)またはその境界、水晶体の境界、虹彩の境界などであってよい。なお、所定部位は、解剖学的な組織や病変部などには限定されず、被検眼の画像を解析して得られた領域や、被検眼の画像を参照して手動で設定された領域なども含む概念であってよい。画像を解析して得られた領域の例として、下記のセグメンテーションにより得られた画像領域(層領域、層の境界領域等)がある。 (Image area identification part)
The image
画像領域特定部2311が実行する処理の例を説明する。画像領域特定部2311は、被検眼Eの2次元画像の画素値に基づいて、所定部位に相当する画像領域に含まれる複数の画素を特定する。次に、画像領域特定部2311は、特定された複数の画素に基づいて近似曲線を求める。この近似曲線は、任意の手法で求めることができ、その一例として、線形近似曲線、対数近似曲線、多項式近似曲線、累乗近似曲線、指数近似曲線、移動平均近似曲線などがある。このようにして取得された近似曲線を、被検眼Eの所定部位に相当する1次元画像領域として用いることが可能である。なお、このような処理は「セグメンテーション」などと呼ばれる。
An example of processing executed by the image area specifying unit 2311 will be described. The image region specifying unit 2311 specifies a plurality of pixels included in the image region corresponding to the predetermined part based on the pixel value of the two-dimensional image of the eye E. Next, the image area specifying unit 2311 obtains an approximate curve based on the specified plurality of pixels. This approximate curve can be obtained by an arbitrary method, and examples thereof include a linear approximate curve, a logarithmic approximate curve, a polynomial approximate curve, a power approximate curve, an exponential approximate curve, and a moving average approximate curve. The approximate curve acquired in this way can be used as a one-dimensional image region corresponding to a predetermined part of the eye E to be examined. Such processing is called “segmentation” or the like.
画像領域特定部2311により特定される所定部位の個数は任意である。特定対象となる1以上の所定部位はあらかじめ設定される。その設定方法としては、デフォルト設定、解析手法や観察部位に応じた選択的な設定、ユーザによる任意的な設定などがある。同様に、画像分割部231により得られる部分領域の個数も任意である。
The number of predetermined parts specified by the image area specifying unit 2311 is arbitrary. One or more predetermined parts to be specified are set in advance. As the setting method, there are a default setting, a selective setting according to an analysis method and an observation site, an arbitrary setting by a user, and the like. Similarly, the number of partial areas obtained by the image dividing unit 231 is arbitrary.
(部分領域特定部)
部分領域特定部2312は、画像領域特定部2311により特定された1次元画像領域を境界とする2次元画像領域を、画像分割部231による特定目標である部分領域として特定する。各部分領域は、被検眼Eの所定の組織またはその一部であってよく、2以上の組織またはその一部であってよい。また、各部分領域は、病変部またはその一部であってよい。 (Partial area identification part)
The partialregion specifying unit 2312 specifies a two-dimensional image region having the one-dimensional image region specified by the image region specifying unit 2311 as a boundary as a partial region that is a specific target by the image dividing unit 231. Each partial area may be a predetermined tissue of the eye E or a part thereof, or may be two or more tissues or a part thereof. Each partial area may be a lesion or a part thereof.
部分領域特定部2312は、画像領域特定部2311により特定された1次元画像領域を境界とする2次元画像領域を、画像分割部231による特定目標である部分領域として特定する。各部分領域は、被検眼Eの所定の組織またはその一部であってよく、2以上の組織またはその一部であってよい。また、各部分領域は、病変部またはその一部であってよい。 (Partial area identification part)
The partial
画像分割部231が実行する処理の例を、図5Aおよび図5Bを参照して説明する。図5Aに示すように、画像領域特定部2311は、断面像Gを解析することにより、網膜と硝子体との境界(内境界膜)に相当する1次元画像領域(網膜-硝子体境界領域)g1と、網膜と脈絡膜との境界(ブルッフ膜)に相当する1次元画像領域(網膜-脈絡膜境界領域)g2と、脈絡膜と強膜との境界に相当する1次元画像領域(脈絡膜-強膜境界領域)g3とを、それぞれ特定する。
An example of processing executed by the image dividing unit 231 will be described with reference to FIGS. 5A and 5B. As shown in FIG. 5A, the image area specifying unit 2311 analyzes the cross-sectional image G to thereby obtain a one-dimensional image area (retina-vitreous boundary area) corresponding to the boundary between the retina and the vitreous body (inner boundary film). g1, a one-dimensional image region (retina-choroid boundary region) g2 corresponding to the boundary between the retina and choroid (Bruch's membrane), and a one-dimensional image region corresponding to the boundary between the choroid and sclera (choroid-sclera boundary) Region (g3) is specified.
この場合、部分領域特定部2312は、図5Bに示すように、網膜-硝子体境界領域g1を境界とする硝子体領域G1と、網膜-硝子体境界領域g1および網膜-脈絡膜境界領域g2の双方を境界とする網膜領域G2と、網膜-脈絡膜境界領域g2と脈絡膜-強膜境界g3とを境界とする脈絡膜領域G3と、脈絡膜-強膜境界g3を境界とする強膜領域G4とを求める。
In this case, as shown in FIG. 5B, the partial region specifying unit 2312 includes both the vitreous region G1 having the retina-vitreous boundary region g1 as a boundary, and the retina-vitreous boundary region g1 and the retina-choroidal boundary region g2. , A retina-choroid boundary region g2 and a choroid-sclera boundary g3 as a boundary, and a scleral region G4 with a choroid-sclera boundary g3 as a boundary.
(表示条件設定部)
表示条件設定部232は、画像分割部231により取得された複数の部分領域のそれぞれの表示条件を設定する。表示条件設定部232は「設定部」として機能する。 (Display condition setting section)
The displaycondition setting unit 232 sets the display conditions for each of the partial areas acquired by the image dividing unit 231. The display condition setting unit 232 functions as a “setting unit”.
表示条件設定部232は、画像分割部231により取得された複数の部分領域のそれぞれの表示条件を設定する。表示条件設定部232は「設定部」として機能する。 (Display condition setting section)
The display
表示条件は、被検眼EのOCT画像を表示するために適用される条件である。この実施形態において、表示条件は、OCT画像の画素値を変更するためのパラメータを含む。このパラメータは、たとえば、次の3つのパラメータのうち少なくとも1つを含んでいてよい:(1)OCT画像の画素値を疑似カラー値に変更するためのパラメータ(疑似カラーパラメータ);(2)OCT画像の画素値における輝度値を変更するためのパラメータ(輝度パラメータ);(3)OCT画像の画素値における輝度値に基づくコントラストを変更するためのパラメータ(コントラストパラメータ)。疑似カラーでの表示とは、被検眼Eの組織の実際の色ではなく、任意に割り当てられた色相で組織を表現する表示方法である。OCT画像(グレースケール画像)の輝度は、所定の階調範囲(たとえば0~255の256階調)で表される。疑似カラー表示が適用される場合、輝度は、色空間の成分の1つであり、2つの色差成分とともに色を表現するパラメータである。コントラストは、所定の画像領域(画像の全体または一部)における輝度の最低値と最高値との差を示す。
The display condition is a condition applied to display the OCT image of the eye E. In this embodiment, the display condition includes a parameter for changing the pixel value of the OCT image. This parameter may include, for example, at least one of the following three parameters: (1) a parameter for changing the pixel value of the OCT image to a pseudo color value (pseudo color parameter); (2) OCT Parameters for changing the luminance values in the pixel values of the image (luminance parameters); (3) Parameters for changing the contrast based on the luminance values in the pixel values of the OCT image (contrast parameters). The display in the pseudo color is a display method in which the tissue is expressed by an arbitrarily assigned hue instead of the actual color of the tissue of the eye E. The luminance of the OCT image (grayscale image) is expressed in a predetermined gradation range (for example, 256 gradations from 0 to 255). When the pseudo color display is applied, the luminance is one of the components of the color space, and is a parameter that expresses the color together with the two color difference components. The contrast indicates a difference between the minimum value and the maximum value of the luminance in a predetermined image area (entire or part of the image).
表示条件設定部232は、対応情報記憶部2321と、部位選択部2322と、パラメータ特定部2323とを含む。
The display condition setting unit 232 includes a correspondence information storage unit 2321, a part selection unit 2322, and a parameter identification unit 2323.
(対応情報記憶部)
対応情報記憶部2321には、対応情報があらかじめ記憶されている。対応情報は、眼の複数の部位のそれぞれに対して上記パラメータの値を対応付けた情報である。対応情報記憶部2321は、記憶部212の一部として構成されていてよい。 (Corresponding information storage unit)
In the correspondenceinformation storage unit 2321, correspondence information is stored in advance. The correspondence information is information in which the value of the parameter is associated with each of a plurality of parts of the eye. The correspondence information storage unit 2321 may be configured as a part of the storage unit 212.
対応情報記憶部2321には、対応情報があらかじめ記憶されている。対応情報は、眼の複数の部位のそれぞれに対して上記パラメータの値を対応付けた情報である。対応情報記憶部2321は、記憶部212の一部として構成されていてよい。 (Corresponding information storage unit)
In the correspondence
対応情報の例を図6に示す。対応情報2321aは、眼の部位と表示条件とを対応付けるテーブル情報である。つまり、対応情報2321aは、眼の部位ごとの表示用パラメータが定義されたルックアップテーブルである。眼の部位の項目には、網膜と、脈絡膜と、強膜と、硝子体とが設けられている。表示条件の項目には、擬似カラー値と、輝度値と、コントラストとが設けられている。
An example of correspondence information is shown in FIG. The correspondence information 2321a is table information that associates the eye region with the display conditions. That is, the correspondence information 2321a is a lookup table in which display parameters for each eye region are defined. In the item of the eye part, a retina, a choroid, a sclera, and a vitreous body are provided. The display condition item includes a pseudo color value, a luminance value, and a contrast.
疑似カラー値は、たとえば、所定の色空間(たとえばRGB表色系)における座標値を示す。対応情報2321aでは、疑似カラー値として、網膜には値「A1」が、脈絡膜には値「A2」が、強膜には値「A3」が、硝子体には値「A4」が、それぞれ対応付けられている。ここで、各値A1~A4は、元のOCT画像の画素値の階調に応じて設定される。つまり、各値A1~A4は単一の値ではなく、画素値の階調範囲と、疑似カラーの表示色の階調範囲とを対応付けるものである。
The pseudo color value indicates a coordinate value in a predetermined color space (for example, RGB color system), for example. In the correspondence information 2321a, as a pseudo color value, the value “A1” corresponds to the retina, the value “A2” corresponds to the choroid, the value “A3” corresponds to the sclera, and the value “A4” corresponds to the vitreous body. It is attached. Here, each of the values A1 to A4 is set according to the gradation of the pixel value of the original OCT image. That is, each of the values A1 to A4 is not a single value, but associates the gradation range of the pixel value with the gradation range of the pseudo color display color.
輝度値は、たとえば、所定の階調範囲における値を示す。対応情報2321aでは、輝度値として、網膜には値「B1」が、脈絡膜には値「B2」が、強膜には値「B3」が、硝子体には値「B4」が、それぞれ対応付けられている。ここで、各値B1~B4は、単一の値ではなく、元のOCT画像の画素値の階調範囲と、疑似カラーの表示色の階調範囲とを対応付けるものである。また、値B1~B4のうち少なくとも1つは、元のOCT画像の輝度値に対する変更量ゼロに対応していてよい。つまり、或る部分領域について、表示条件(輝度値)の変更を行わない場合があってよい。
The luminance value indicates a value in a predetermined gradation range, for example. In the correspondence information 2321a, as the luminance value, the value “B1” is associated with the retina, the value “B2” is associated with the choroid, the value “B3” is associated with the sclera, and the value “B4” is associated with the vitreous body. It has been. Here, each of the values B1 to B4 is not a single value but associates the gradation range of the pixel value of the original OCT image with the gradation range of the pseudo color display color. Further, at least one of the values B1 to B4 may correspond to a change amount of zero with respect to the luminance value of the original OCT image. That is, the display condition (luminance value) may not be changed for a certain partial area.
コントラストは、たとえば、所定の範囲における値を示す。対応情報2321aでは、コントラストとして、網膜には値「C1」が、脈絡膜には値「C2」が、強膜には値「C3」が、硝子体には値「C4」が、それぞれ対応付けられている。また、値C1~C4のうち少なくとも1つは、元のOCT画像のコントラストに対する変更量ゼロに対応していてよい。つまり、或る部分領域について、表示条件(コントラスト)の変更を行わない場合があってよい。
Contrast indicates a value in a predetermined range, for example. In the correspondence information 2321a, as contrast, the value “C1” is associated with the retina, the value “C2” is associated with the choroid, the value “C3” is associated with the sclera, and the value “C4” is associated with the vitreous body. ing. Further, at least one of the values C1 to C4 may correspond to a change amount of zero with respect to the contrast of the original OCT image. That is, the display condition (contrast) may not be changed for a certain partial area.
(部位選択部)
部位選択部2322は、画像分割部231により取得された複数の部分領域のそれぞれについて、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。部位選択部2322は、OCT画像を解析することにより、またはユーザによる指示の内容により、このような眼の部位の選択を行う。 (Part selection part)
For each of the plurality of partial regions acquired by theimage dividing unit 231, the region selection unit 2322 selects an eye region corresponding to the partial region from among the plurality of regions included in the item of the eye region of the correspondence information 2321 a. Select from. The part selection unit 2322 selects such an eye part by analyzing the OCT image or according to the content of the instruction from the user.
部位選択部2322は、画像分割部231により取得された複数の部分領域のそれぞれについて、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。部位選択部2322は、OCT画像を解析することにより、またはユーザによる指示の内容により、このような眼の部位の選択を行う。 (Part selection part)
For each of the plurality of partial regions acquired by the
OCT画像を解析することによって眼の部位を選択する場合の例を説明する。画像分割部231が実行する上記セグメンテーションにおいて、特定される画像領域に相当する部位を認識できる場合がある。たとえば、眼底のOCT画像において、いくつかの層(境界)が高輝度で表現されることが知られている。そのような層については、セグメンテーションで特定された各層に相当する部位と、解剖学的に知られている眼底の組織の配置情報(あらかじめ記憶されている)とに基づいて、各部分領域に相当する部位(組織)を求めることが可能である。
An example of selecting an eye part by analyzing an OCT image will be described. In the segmentation executed by the image dividing unit 231, there may be a case where a part corresponding to the specified image region can be recognized. For example, it is known that several layers (boundaries) are expressed with high luminance in an OCT image of the fundus. For such a layer, it corresponds to each partial region based on the region corresponding to each layer identified by segmentation and the arrangement information (stored in advance) of the fundus tissue known anatomically. It is possible to obtain a site (tissue) to perform.
OCT画像の解析を行う場合の他の例を説明する。部位選択部2322は、OCT画像の各部分領域を解析し、そのサイズ、輪郭の形状、特徴部位の形状、画素値の分布状態、または他の部分領域(セグメンテーションで特定された部位など)との位置関係など、眼の部位の描画状態を示す情報に基づいて、その部分領域に相当する眼の部位を特定することができる。眼の部位の描画状態を示す情報は、たとえば、複数のOCT画像を解析することによって事前に作成され、部位選択部2322(または記憶部212)に格納される。
Another example of analyzing the OCT image will be described. The part selection unit 2322 analyzes each partial area of the OCT image, and compares the size, outline shape, characteristic part shape, pixel value distribution state, or other partial areas (parts specified by segmentation, etc.). Based on the information indicating the drawing state of the eye part, such as the positional relationship, the eye part corresponding to the partial region can be specified. Information indicating the drawing state of the eye part is created in advance by analyzing a plurality of OCT images, for example, and stored in the part selection unit 2322 (or storage unit 212).
ユーザによる指示内容によって眼の部位を選択する場合の例を説明する。主制御部211は、OCT画像を表示部241に表示させる。このとき、主制御部211は、画像領域特定部2311により特定された画像領域、または、部分領域特定部2312により特定された部分領域を明示するように、OCT画像を表示させることができる。ユーザは、表示されたOCT画像の部分領域を指定し、かつ、その部分領域に相当する眼の部位の識別情報(部位名など)を指定する。眼の部位の識別情報の指定は、たとえば、主制御部211により眼の部位の識別情報のリストを表示させ、このリストから所望の識別情報を操作部242を介して選択することによって実行される。部位選択部2322は、ユーザにより指定された部分領域と、この部分領域に対応して指定された識別情報とを関連付けることにより、この部分領域に相当する眼の部位の選択を行う。
An example of selecting an eye part according to the content of an instruction from the user will be described. The main control unit 211 causes the display unit 241 to display the OCT image. At this time, the main control unit 211 can display the OCT image so as to clearly indicate the image region specified by the image region specifying unit 2311 or the partial region specified by the partial region specifying unit 2312. The user designates a partial area of the displayed OCT image and designates identification information (part name, etc.) of the eye part corresponding to the partial area. The specification of the identification information of the eye part is executed by, for example, displaying a list of identification information of the eye part by the main control unit 211 and selecting desired identification information from the list via the operation unit 242. . The part selection unit 2322 selects the part of the eye corresponding to the partial area by associating the partial area specified by the user with the identification information specified corresponding to the partial area.
(パラメータ特定部)
パラメータ特定部2323は、画像分割部231により取得された各部分領域について、部位選択部2322により選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。前述したように、対応情報2321aは、眼の複数の部位と、パラメータの値とを対応付けた情報である。パラメータ特定処理は、部位選択部2322により選択された部位に対応付けられたパラメータの値を対応情報2321aから検索する処理を含む。 (Parameter identification part)
Theparameter specifying unit 2323 specifies, for each partial area acquired by the image dividing unit 231, the parameter value associated with the part selected by the part selecting unit 2322 based on the correspondence information 2321 a. As described above, the correspondence information 2321a is information in which a plurality of parts of the eye are associated with parameter values. The parameter specifying process includes a process of searching for the value of the parameter associated with the part selected by the part selecting unit 2322 from the correspondence information 2321a.
パラメータ特定部2323は、画像分割部231により取得された各部分領域について、部位選択部2322により選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。前述したように、対応情報2321aは、眼の複数の部位と、パラメータの値とを対応付けた情報である。パラメータ特定処理は、部位選択部2322により選択された部位に対応付けられたパラメータの値を対応情報2321aから検索する処理を含む。 (Parameter identification part)
The
パラメータ特定処理の具体例を説明する。画像分割部231により図5Bに示す硝子体領域G1、網膜領域G2、脈絡膜領域G3および強膜領域G4が得られ、かつ、部位選択部2322によりこれら画像領域G1~G4に相当する眼の部位(それぞれ硝子体、網膜、脈絡膜、強膜)が特定された場合、パラメータ特定部2323は、画像領域G1~G4について次のパラメータの値を得る:〈硝子体領域G1〉疑似カラーパラメータA4、輝度パラメータB4、コントラストパラメータC4;〈網膜領域G2〉疑似カラーパラメータA1、輝度パラメータB1、コントラストパラメータC1;〈脈絡膜領域G3〉疑似カラーパラメータA2、輝度パラメータB2、コントラストパラメータC2;〈強膜領域G4〉疑似カラーパラメータA3、輝度パラメータB3、コントラストパラメータC3。このようにして特定されたパラメータの値が表示条件として設定される。
A specific example of parameter identification processing will be described. The vitreous region G1, the retina region G2, the choroid region G3, and the sclera region G4 shown in FIG. 5B are obtained by the image dividing unit 231 and the region of the eye corresponding to the image regions G1 to G4 ( When the vitreous body, the retina, the choroid, and the sclera are identified, the parameter identifying unit 2323 obtains the following parameter values for the image areas G1 to G4: <vitreous area G1> pseudo color parameter A4, luminance parameter B4, contrast parameter C4; <retinal region G2> pseudo color parameter A1, luminance parameter B1, contrast parameter C1; <choroid region G3> pseudo color parameter A2, luminance parameter B2, contrast parameter C2; <sclera region G4> pseudo color Parameter A3, brightness parameter B3, contrast parameter Over data C3. The value of the parameter specified in this way is set as a display condition.
以上のように機能するデータ処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。
The data processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. In a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。 (User interface)
Theuser interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation unit 242 includes the operation device of the arithmetic control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing of the ophthalmologic photographing apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 242 may include a joystick, an operation panel, or the like provided on the housing. Further, the display unit 241 may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。 (User interface)
The
なお、表示部241と操作部242は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部242は、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部242に対する操作内容は、電気信号として制御部210に入力される。また、表示部241に表示されたグラフィカルユーザインターフェイス(GUI)と、操作部242とを用いて、操作や情報入力を行うようにしてもよい。
Note that the display unit 241 and the operation unit 242 do not need to be configured as individual devices. For example, a device in which a display function and an operation function are integrated, such as a touch panel, can be used. In that case, the operation unit 242 includes the touch panel and a computer program. The operation content for the operation unit 242 is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the graphical user interface (GUI) displayed on the display unit 241 and the operation unit 242.
〔信号光の走査およびOCT画像について〕
ここで、信号光LSの走査およびOCT画像について説明しておく。 [Signal light scanning and OCT images]
Here, the scanning of the signal light LS and the OCT image will be described.
ここで、信号光LSの走査およびOCT画像について説明しておく。 [Signal light scanning and OCT images]
Here, the scanning of the signal light LS and the OCT image will be described.
眼科撮影装置1による信号光LSの走査態様としては、たとえば、ラインスキャン(水平スキャン、垂直スキャン)、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
The scanning mode of the signal light LS by the ophthalmologic photographing apparatus 1 includes, for example, a line scan (horizontal scan, vertical scan), a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral (spiral) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (such as retinal thickness), the time required for scanning, the precision of scanning, and the like.
水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。
The horizontal scan is to scan the signal light LS in the horizontal direction (x direction). The horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.
十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。
The cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other. In the radiation scan, the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle. The cross scan is an example of a radiation scan.
円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(または大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。
The circle scan scans the signal light LS along a circular locus. In the concentric scan, the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position. A circle scan is an example of a concentric scan. In the helical scan, the signal light LS is scanned along a spiral (spiral) trajectory while gradually reducing (or increasing) the radius of rotation.
ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向およびy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。
Since the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.
上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断面像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。
By scanning the signal light LS in the above-described manner, a cross-sectional image on a plane stretched by the direction along the scanning line (scanning locus) and the fundus depth direction (z direction) can be acquired. In addition, the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.
上記のような信号光LSの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶ。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。
The region on the fundus oculi Ef to be scanned with the signal light LS as described above, that is, the region on the fundus oculi Ef to be subjected to OCT measurement is called a scanning region. The scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged. The scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter. In addition, the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.
[動作]
眼科撮影装置1の動作について説明する。図7は、眼科撮影装置1の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus 1 will be described. FIG. 7 shows an example of the operation of the ophthalmologic photographing apparatus 1.
眼科撮影装置1の動作について説明する。図7は、眼科撮影装置1の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus 1 will be described. FIG. 7 shows an example of the operation of the ophthalmologic photographing apparatus 1.
(S1:被検眼を検査位置に配置する)
まず、顎受けおよび額当てを用いて被検者の顔を保持する。それにより、被検眼Eが検査位置(対物レンズ22に対峙した位置)に配置される。 (S1: The eye to be examined is placed at the examination position)
First, the subject's face is held using a chin rest and a forehead rest. Thereby, the eye E to be examined is arranged at the examination position (position facing the objective lens 22).
まず、顎受けおよび額当てを用いて被検者の顔を保持する。それにより、被検眼Eが検査位置(対物レンズ22に対峙した位置)に配置される。 (S1: The eye to be examined is placed at the examination position)
First, the subject's face is held using a chin rest and a forehead rest. Thereby, the eye E to be examined is arranged at the examination position (position facing the objective lens 22).
(S2:撮影モードを選択する)
続いて、ユーザが撮影モードを選択する。この処理は、たとえば次のようにして行われる。(1)主制御部211が、撮影モードを選択するための画面を表示部241に表示させる。この画面には、複数の撮影モードを選択するためのGUIが設けられている。撮影モードは、たとえば、部位(特に観察したい部位)ごとに、傷病ごとに、および/または、検査手法ごとに、設けられている。この実施形態では、眼の部位ごとに撮影モードが設けられている場合として、硝子体撮影モード、網膜撮影モードおよび脈絡膜撮影モードが設けられている場合を説明する。なお、後眼部のOCT計測において、硝子体、網膜および脈絡膜は、深さ方向(z方向)の位置が異なっている。 (S2: Select a shooting mode)
Subsequently, the user selects a shooting mode. This process is performed as follows, for example. (1) Themain control unit 211 causes the display unit 241 to display a screen for selecting a shooting mode. This screen is provided with a GUI for selecting a plurality of shooting modes. The imaging mode is provided, for example, for each part (particularly a part to be observed), for each injury and / or for each inspection technique. In this embodiment, a case where a vitreous imaging mode, a retinal imaging mode, and a choroidal imaging mode are provided will be described as a case where an imaging mode is provided for each part of the eye. In the OCT measurement of the posterior eye part, the vitreous body, the retina, and the choroid differ in the position in the depth direction (z direction).
続いて、ユーザが撮影モードを選択する。この処理は、たとえば次のようにして行われる。(1)主制御部211が、撮影モードを選択するための画面を表示部241に表示させる。この画面には、複数の撮影モードを選択するためのGUIが設けられている。撮影モードは、たとえば、部位(特に観察したい部位)ごとに、傷病ごとに、および/または、検査手法ごとに、設けられている。この実施形態では、眼の部位ごとに撮影モードが設けられている場合として、硝子体撮影モード、網膜撮影モードおよび脈絡膜撮影モードが設けられている場合を説明する。なお、後眼部のOCT計測において、硝子体、網膜および脈絡膜は、深さ方向(z方向)の位置が異なっている。 (S2: Select a shooting mode)
Subsequently, the user selects a shooting mode. This process is performed as follows, for example. (1) The
(S3:オートアライメント・オートフォーカス)
次に、オートアライメントおよびオートフォーカスが実行される。そのために、まず、観察光源11からの照明光(可視カットフィルタ14により近赤外光となる)で眼底Efを連続照明することにより、眼底Efの近赤外動画像を取得する。この近赤外動画像は、連続照明が終了するまでリアルタイムで得られる。被検眼Eには、アライメント指標、スプリット指標および固視標が投影される。近赤外動画像にはアライメント指標とスプリット指標とが描画される。これら指標を用いて眼底像を取得するための光学系のオートアライメントとオートフォーカスが行われる。 (S3: Auto alignment and auto focus)
Next, auto alignment and auto focus are performed. For this purpose, first, a near-infrared moving image of the fundus oculi Ef is acquired by continuously illuminating the fundus oculi Ef with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the continuous illumination ends. An alignment index, a split index, and a fixation target are projected onto the eye E to be examined. An alignment index and a split index are drawn on the near-infrared moving image. Using these indexes, auto alignment and auto focus of an optical system for acquiring a fundus image are performed.
次に、オートアライメントおよびオートフォーカスが実行される。そのために、まず、観察光源11からの照明光(可視カットフィルタ14により近赤外光となる)で眼底Efを連続照明することにより、眼底Efの近赤外動画像を取得する。この近赤外動画像は、連続照明が終了するまでリアルタイムで得られる。被検眼Eには、アライメント指標、スプリット指標および固視標が投影される。近赤外動画像にはアライメント指標とスプリット指標とが描画される。これら指標を用いて眼底像を取得するための光学系のオートアライメントとオートフォーカスが行われる。 (S3: Auto alignment and auto focus)
Next, auto alignment and auto focus are performed. For this purpose, first, a near-infrared moving image of the fundus oculi Ef is acquired by continuously illuminating the fundus oculi Ef with illumination light from the observation light source 11 (which becomes near-infrared light by the visible cut filter 14). This near-infrared moving image is obtained in real time until the continuous illumination ends. An alignment index, a split index, and a fixation target are projected onto the eye E to be examined. An alignment index and a split index are drawn on the near-infrared moving image. Using these indexes, auto alignment and auto focus of an optical system for acquiring a fundus image are performed.
次に、OCT画像を取得するための光学系のオートフォーカスに移行する。このオートフォーカスは、たとえば次のようにして実行される。まず、ラインスキャンを繰り返し実行する。それにより、眼底Efの実質的に同一の断面の断面像が逐次に得られる。データ処理部230は、ステップS2で選択された撮影モードに応じた断面像中の画像領域を解析することにより、画質の評価値を求める。硝子体撮影モードが選択された場合には図5Bの硝子体領域G1の解析が行われ、網膜撮影モードが選択された場合には網膜領域G2の解析が行われ、脈絡膜撮影モードが選択された場合には脈絡膜領域G3の解析が行われる。また、画質の評価方法は任意である。たとえば、対象の画像領域の画素値(または画像化処理前のOCT信号)に基づきヒストグラムを作成し、このヒストグラムに基づいて画質の評価値を求めることができる。主制御部211は、逐次に求められる画質の評価値が最適化されるように、合焦レンズ43の位置を調整する。
Next, the process shifts to auto focus of an optical system for acquiring an OCT image. This autofocus is executed as follows, for example. First, the line scan is repeatedly executed. Thereby, cross-sectional images of substantially the same cross section of the fundus oculi Ef are sequentially obtained. The data processing unit 230 obtains an image quality evaluation value by analyzing an image region in the cross-sectional image corresponding to the imaging mode selected in step S2. When the vitreous imaging mode is selected, analysis of the vitreous region G1 of FIG. 5B is performed, and when the retinal imaging mode is selected, analysis of the retinal region G2 is performed and the choroidal imaging mode is selected. In this case, the choroid region G3 is analyzed. The image quality evaluation method is arbitrary. For example, a histogram can be created based on the pixel value of the target image area (or the OCT signal before the imaging process), and the image quality evaluation value can be obtained based on the histogram. The main control unit 211 adjusts the position of the focusing lens 43 so that the evaluation value of the image quality obtained sequentially is optimized.
OCT画像を取得するための光学系のオートフォーカスの他の方法として、撮影モード(眼の部位)に応じた所定のフォーカス状態を適用する方法がある。その具体例として、眼の部位ごと(撮影モードごと)の合焦レンズ43の制御状態をあらかじめ記憶しておき、撮影モードの選択結果に対応する状態に合焦レンズ43を制御することができる。たとえば、硝子体撮影モードのフォーカス状態として、網膜撮影モードでのフォーカス状態から4ディオプタだけデフォーカスした状態を適用することが可能である。
As another method of autofocusing the optical system for acquiring an OCT image, there is a method of applying a predetermined focus state corresponding to an imaging mode (eye part). As a specific example, the control state of the focusing lens 43 for each eye part (for each imaging mode) is stored in advance, and the focusing lens 43 can be controlled to a state corresponding to the selection result of the imaging mode. For example, as the focus state in the vitreous photography mode, a state in which only 4 diopters are defocused from the focus state in the retinal photography mode can be applied.
(S4:フォーカス状態を微調整する)
主制御部211は、同一断面の断面像の逐次取得と、画質の評価値の逐次算出とを継続的に実行させる。さらに、主制御部211は、それぞれ逐次に取得される断面像および評価値を表示部241に表示させる。このとき断面像は動画表示され、評価値は断面像のフレームレートに同期して切り替え表示される。評価値の表示態様としては、棒グラフ表示や数値表示などがある。 (S4: Finely adjust the focus state)
Themain control unit 211 continuously executes sequential acquisition of cross-sectional images of the same cross-section and sequential calculation of image quality evaluation values. Further, the main control unit 211 causes the display unit 241 to display cross-sectional images and evaluation values acquired sequentially. At this time, the cross-sectional image is displayed as a moving image, and the evaluation value is switched and displayed in synchronization with the frame rate of the cross-sectional image. As a display mode of the evaluation value, there are a bar graph display and a numerical display.
主制御部211は、同一断面の断面像の逐次取得と、画質の評価値の逐次算出とを継続的に実行させる。さらに、主制御部211は、それぞれ逐次に取得される断面像および評価値を表示部241に表示させる。このとき断面像は動画表示され、評価値は断面像のフレームレートに同期して切り替え表示される。評価値の表示態様としては、棒グラフ表示や数値表示などがある。 (S4: Finely adjust the focus state)
The
ユーザは、表示部241に表示される動画像および評価値を参照しながら合焦レンズ43の位置を調整する。この手動調整は操作部242を介して行われる。また、表示部241がタッチパネルである場合、ユーザがタッチした断面像中の位置にフォーカスを合わせるように、主制御部211が合焦レンズ43を移動させる構成を適用することができる。
The user adjusts the position of the focusing lens 43 while referring to the moving image and the evaluation value displayed on the display unit 241. This manual adjustment is performed via the operation unit 242. When the display unit 241 is a touch panel, a configuration in which the main control unit 211 moves the focusing lens 43 so as to focus on a position in the cross-sectional image touched by the user can be applied.
(S5:被検眼の撮影を行う)
ステップS4のフォーカスの微調整が完了したら、ユーザは、操作部242を介して所定の撮影開始操作を行う。主制御部211は、ステップS4で調整されたフォーカス状態でのOCT計測を眼科撮影装置1に実行させる。このときの走査態様(スキャンパターン)は、たとえばステップS2で設定された撮影モードに応じて決定される。また、主制御部211は、眼底カメラユニット2を制御して眼底撮影を実行させる。取得されたOCT画像および眼底像は、記憶部212に記憶される。また、OCT画像は、データ処理部230に送られる。 (S5: Taking an image of the eye to be examined)
When the focus fine adjustment in step S <b> 4 is completed, the user performs a predetermined photographing start operation via theoperation unit 242. The main control unit 211 causes the ophthalmologic imaging apparatus 1 to perform OCT measurement in the focus state adjusted in step S4. The scanning mode (scan pattern) at this time is determined according to, for example, the photographing mode set in step S2. Further, the main control unit 211 controls the fundus camera unit 2 to execute fundus photographing. The acquired OCT image and fundus image are stored in the storage unit 212. The OCT image is sent to the data processing unit 230.
ステップS4のフォーカスの微調整が完了したら、ユーザは、操作部242を介して所定の撮影開始操作を行う。主制御部211は、ステップS4で調整されたフォーカス状態でのOCT計測を眼科撮影装置1に実行させる。このときの走査態様(スキャンパターン)は、たとえばステップS2で設定された撮影モードに応じて決定される。また、主制御部211は、眼底カメラユニット2を制御して眼底撮影を実行させる。取得されたOCT画像および眼底像は、記憶部212に記憶される。また、OCT画像は、データ処理部230に送られる。 (S5: Taking an image of the eye to be examined)
When the focus fine adjustment in step S <b> 4 is completed, the user performs a predetermined photographing start operation via the
(S6:セグメンテーションを行う)
画像領域特定部2311は、OCT画像のセグメンテーションを実行することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。本例では、図5Aに示すように、断面像G中の網膜-硝子体境界領域g1、網膜-脈絡膜境界領域g2、および脈絡膜-強膜境界領域g3が特定されたものとする。 (S6: Perform segmentation)
The imageregion specifying unit 2311 specifies a one-dimensional image region corresponding to a predetermined part of the eye E by executing segmentation of the OCT image. In this example, as shown in FIG. 5A, it is assumed that the retina-vitreous boundary region g1, the retina-choroidal boundary region g2, and the choroid-sclera boundary region g3 in the cross-sectional image G are specified.
画像領域特定部2311は、OCT画像のセグメンテーションを実行することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。本例では、図5Aに示すように、断面像G中の網膜-硝子体境界領域g1、網膜-脈絡膜境界領域g2、および脈絡膜-強膜境界領域g3が特定されたものとする。 (S6: Perform segmentation)
The image
(S7:部分領域を特定する)
部分領域特定部2312は、ステップS6で特定された1次元画像領域を境界とする2次元画像領域を特定する。それにより、画像分割部231による特定目標である部分領域が得られる。本例では、図5Bに示すように、硝子体領域G1と、網膜領域G2と、脈絡膜領域G3と、強膜領域G4とが求められたとする。 (S7: Specify a partial area)
The partialarea specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S6 as a boundary. Thereby, a partial region which is a specific target by the image dividing unit 231 is obtained. In this example, as shown in FIG. 5B, it is assumed that the vitreous region G1, the retina region G2, the choroid region G3, and the sclera region G4 are obtained.
部分領域特定部2312は、ステップS6で特定された1次元画像領域を境界とする2次元画像領域を特定する。それにより、画像分割部231による特定目標である部分領域が得られる。本例では、図5Bに示すように、硝子体領域G1と、網膜領域G2と、脈絡膜領域G3と、強膜領域G4とが求められたとする。 (S7: Specify a partial area)
The partial
(S8:部分領域に相当する眼の部位を選択する)
部位選択部2322は、ステップS7で取得された各部分領域について、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。本例では、硝子体領域G1には「硝子体」が、網膜領域G2には「網膜」が、脈絡膜領域G3には「脈絡膜」が、強膜領域G4には「強膜」が、それぞれ選択されたとする。 (S8: Select the eye part corresponding to the partial area)
Thepart selection unit 2322 selects, for each partial area acquired in step S7, an eye part corresponding to the partial area from among a plurality of parts included in the eye part item of the correspondence information 2321a. In this example, “vitreous” is selected for the vitreous region G1, “retinal” is selected for the retinal region G2, “choroid” is selected for the choroid region G3, and “sclera” is selected for the scleral region G4. Suppose that
部位選択部2322は、ステップS7で取得された各部分領域について、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。本例では、硝子体領域G1には「硝子体」が、網膜領域G2には「網膜」が、脈絡膜領域G3には「脈絡膜」が、強膜領域G4には「強膜」が、それぞれ選択されたとする。 (S8: Select the eye part corresponding to the partial area)
The
(S9:表示条件を特定する)
パラメータ特定部2323は、ステップS7で取得された各部分領域について、ステップS8で選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。このとき、パラメータ特定部2323は、たとえば撮影モードやユーザの指示に応じた表示条件(パラメータ)のみを特定するように構成されていてよい。本例では、疑似カラー表示用のパラメータのみが適用される場合を説明する。その場合、疑似カラー表示用のパラメータの値として、硝子体領域G1については「A4」が、網膜領域G2については「A1」が、脈絡膜領域G3については「A2」が、強膜領域G4については「A3」が、それぞれ特定されたとする。 (S9: Specify display conditions)
Theparameter specifying unit 2323 specifies the value of the parameter associated with the part selected in step S8 for each partial region acquired in step S7 based on the correspondence information 2321a. At this time, the parameter specifying unit 2323 may be configured to specify only display conditions (parameters) according to, for example, a shooting mode or a user instruction. In this example, a case where only the parameters for pseudo color display are applied will be described. In that case, as the parameter values for pseudo color display, “A4” for the vitreous region G1, “A1” for the retinal region G2, “A2” for the choroid region G3, and for the sclera region G4. Assume that “A3” is specified.
パラメータ特定部2323は、ステップS7で取得された各部分領域について、ステップS8で選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。このとき、パラメータ特定部2323は、たとえば撮影モードやユーザの指示に応じた表示条件(パラメータ)のみを特定するように構成されていてよい。本例では、疑似カラー表示用のパラメータのみが適用される場合を説明する。その場合、疑似カラー表示用のパラメータの値として、硝子体領域G1については「A4」が、網膜領域G2については「A1」が、脈絡膜領域G3については「A2」が、強膜領域G4については「A3」が、それぞれ特定されたとする。 (S9: Specify display conditions)
The
(S10:表示条件に基づき画像を表示する)
主制御部211は、ステップS9で特定された表示条件を適用して、OCT画像を表示部241に表示させる。本例では、図5Aに示す断面像Gが疑似カラー表示される。この疑似カラー表示は、硝子体領域G1を階調「A4」の第1表示色で表示させ、網膜領域G2を階調「A1」の第2表示色で表示させ、脈絡膜領域G3を階調「A2」の第3表示色で表示させ、強膜領域G4を階調「A3」の第4表示色で表示させることにより行われる。ここで、第1~第4の表示色は全て異なってもよいし、一部が同一であってよい。なお、疑似カラーに加えて他の表示条件(輝度値、コントラスト等)も適用される場合、第1~第4表示色は全て同じであってよい。任意の表示条件が適用される場合についても同様である。 (S10: An image is displayed based on display conditions)
Themain control unit 211 causes the display unit 241 to display the OCT image by applying the display condition specified in step S9. In this example, the cross-sectional image G shown in FIG. 5A is displayed in pseudo color. In this pseudo color display, the vitreous body region G1 is displayed with the first display color of the gradation “A4”, the retinal region G2 is displayed with the second display color of the gradation “A1”, and the choroid region G3 is displayed with the gradation “A”. The display is performed in the third display color of “A2” and the sclera region G4 is displayed in the fourth display color of gradation “A3”. Here, the first to fourth display colors may all be different or a part of them may be the same. When other display conditions (luminance value, contrast, etc.) are applied in addition to the pseudo color, the first to fourth display colors may all be the same. The same applies to the case where arbitrary display conditions are applied.
主制御部211は、ステップS9で特定された表示条件を適用して、OCT画像を表示部241に表示させる。本例では、図5Aに示す断面像Gが疑似カラー表示される。この疑似カラー表示は、硝子体領域G1を階調「A4」の第1表示色で表示させ、網膜領域G2を階調「A1」の第2表示色で表示させ、脈絡膜領域G3を階調「A2」の第3表示色で表示させ、強膜領域G4を階調「A3」の第4表示色で表示させることにより行われる。ここで、第1~第4の表示色は全て異なってもよいし、一部が同一であってよい。なお、疑似カラーに加えて他の表示条件(輝度値、コントラスト等)も適用される場合、第1~第4表示色は全て同じであってよい。任意の表示条件が適用される場合についても同様である。 (S10: An image is displayed based on display conditions)
The
[効果]
実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to the embodiment will be described.
実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to the embodiment will be described.
眼科撮影装置は、光学系と、形成部と、分割部と、設定部と、表示制御部とを有する。光学系は、光源(光源ユニット101)からの光を信号光(LS)と参照光(LR)とに分割し、被検眼(E)を経由した信号光と参照光路を経由した参照光との干渉光(LC)を検出する。この実施形態において、光学系は、OCTユニット100に格納された要素と、眼底カメラユニット2に格納された要素のうち信号光の光路を形成する要素とを含む。形成部は、光学系による干渉光の検出結果に基づいて、被検眼の画像を形成する。この実施形態において、形成部は、画像形成部220を含み、データ処理部230を含んでいてよい。分割部(画像分割部231)は、形成部により形成された画像(G)を複数の部分領域(G1~G4)に分割する。設定部(表示条件設定部232)は、分割部により取得された複数の部分領域のそれぞれの表示条件を設定する。表示制御部(主制御部211)は、設定部により設定された表示条件に基づいて、形成部により形成された画像を表示手段(表示部241)に表示させる。表示手段は、眼科撮影装置に含まれていてもよいし、外部装置であってもよい。
The ophthalmologic photographing apparatus includes an optical system, a forming unit, a dividing unit, a setting unit, and a display control unit. The optical system divides the light from the light source (light source unit 101) into signal light (LS) and reference light (LR), and the signal light passing through the eye to be examined (E) and the reference light passing through the reference light path. Interference light (LC) is detected. In this embodiment, the optical system includes an element stored in the OCT unit 100 and an element that forms an optical path of signal light among the elements stored in the fundus camera unit 2. The forming unit forms an image of the eye to be examined based on the detection result of the interference light by the optical system. In this embodiment, the forming unit includes an image forming unit 220 and may include a data processing unit 230. The dividing unit (image dividing unit 231) divides the image (G) formed by the forming unit into a plurality of partial regions (G1 to G4). The setting unit (display condition setting unit 232) sets display conditions for each of the plurality of partial areas acquired by the dividing unit. The display control unit (main control unit 211) causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit. The display means may be included in the ophthalmologic photographing apparatus or an external device.
このような眼科撮影装置によれば、或る観察部位にフォーカスを合わせた状態でOCT計測を行いつつ、OCT画像の各部分領域(フォーカスが合っていない部位に相当する画像領域もある)を適当な表示条件にて表示させることができる。よって、フォーカスが合わせられた部分だけでなく、OCT画像全体にわたって視認性を向上させることが可能である。それにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能となる。
According to such an ophthalmologic photographing apparatus, while performing OCT measurement in a state where a certain observation region is focused, each partial region of the OCT image (some image regions corresponding to unfocused regions) are appropriately used. Can be displayed under various display conditions. Therefore, it is possible to improve visibility over the entire OCT image, not just the focused portion. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
この実施形態では、形成部は2次元画像(2次元断面像)を形成する。この場合、分割部は、画像領域特定部と、部分領域特定部とを含んでいてよい。画像領域特定部(2311)は、形成部により形成された2次元画像を解析することにより、被検眼の所定部位に相当する1次元画像領域(g1~g3)を特定する。部分領域特定部(2312)は、画像領域特定部により特定された1次元画像領域を境界とする2次元画像領域(G1~G4)を特定する。これら2次元画像領域が、分割部による取得対象の部分領域として用いられる。なお、2次元断面像は、縦断面像(B断面像、Bスキャン像)、横断面像(正面画像、C断面像、Cスキャン像)、任意断面像(MPR画像等)のいずれでもよい。
In this embodiment, the forming unit forms a two-dimensional image (two-dimensional cross-sectional image). In this case, the dividing unit may include an image region specifying unit and a partial region specifying unit. The image region specifying unit (2311) specifies the one-dimensional image region (g1 to g3) corresponding to the predetermined part of the eye to be examined by analyzing the two-dimensional image formed by the forming unit. The partial region specifying unit (2312) specifies two-dimensional image regions (G1 to G4) having the one-dimensional image region specified by the image region specifying unit as a boundary. These two-dimensional image regions are used as partial regions to be acquired by the dividing unit. The two-dimensional cross-sectional image may be any of a vertical cross-sectional image (B cross-sectional image, B-scan image), a horizontal cross-sectional image (front image, C cross-sectional image, C-scan image), and an arbitrary cross-sectional image (MPR image, etc.).
画像領域特定部は、被検眼の内境界膜に相当する内境界膜領域(g1)を特定することができる。その場合、部分領域特定部は、この内境界膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域(G2)と、硝子体に相当する硝子体領域(G1)とを特定することができる。
The image region specifying unit can specify the inner boundary membrane region (g1) corresponding to the inner boundary membrane of the eye to be examined. In that case, the partial region specifying unit specifies the retina region (G2) corresponding to the retina of the eye to be examined and the vitreous region (G1) corresponding to the vitreous based on the result of specifying the inner boundary membrane region. be able to.
画像領域特定部は、被検眼のブルッフ膜に相当するブルッフ膜領域(g2)を特定することができる。その場合、部分領域特定部は、このブルッフ膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域(G2)と、脈絡膜に相当する脈絡膜領域(G3)とを特定することができる。
The image area specifying unit can specify the Bruch film area (g2) corresponding to the Bruch film of the eye to be examined. In that case, the partial region specifying unit can specify the retina region (G2) corresponding to the retina of the eye to be examined and the choroid region (G3) corresponding to the choroid based on the result of specifying the Bruch's membrane region. .
画像領域特定部は、被検眼の脈絡膜-強膜境界に相当する脈絡膜-強膜境界領域を特定することができる。その場合、部分領域特定部は、この脈絡膜-強膜境界領域の特定結果に基づいて、被検眼の脈絡膜に相当する脈絡膜領域(G3)と、強膜に相当する強膜領域(G4)とを特定することができる。
The image region specifying unit can specify a choroid-sclera boundary region corresponding to the choroid-sclera boundary of the eye to be examined. In this case, the partial region specifying unit determines a choroid region (G3) corresponding to the choroid of the eye to be examined and a sclera region (G4) corresponding to the sclera based on the result of specifying the choroid-sclera boundary region. Can be identified.
硝子体領域(G1)、網膜領域(G2)、脈絡膜領域(G3)および強膜領域(G4)は、後眼部の診断における典型的な観察対象である。よって、これら構成は後眼部の診断に寄与する。
The vitreous region (G1), retinal region (G2), choroid region (G3), and sclera region (G4) are typical observation targets in the diagnosis of the posterior segment. Therefore, these structures contribute to the diagnosis of the posterior eye segment.
なお、画像領域特定部が2次元画像から特定する画像領域は1次元画像領域である必要はない。たとえば、画像領域特定部は、2次元画像において被検眼の所定部位に相当する2次元画像領域を特定することが可能である。この2次元画像領域は、たとえば自由曲線を輪郭とする所定部位であってよい。
Note that the image area specified by the image area specifying unit from the two-dimensional image need not be a one-dimensional image area. For example, the image region specifying unit can specify a two-dimensional image region corresponding to a predetermined part of the eye to be examined in the two-dimensional image. This two-dimensional image region may be a predetermined part having a free curve as an outline, for example.
設定部は、分割部により取得された各部分領域について、その部分領域に含まれる複数の画素の画素値を変更するためのパラメータの値を表示条件として設定することができる。このパラメータは次のいずれかを含んでいてよい:(1)複数の画素の画素値を疑似カラー値に変更するための第1パラメータ;(2)複数の画素の画素値における輝度値を変更するための第2パラメータ;(3)複数の画素の画素値における輝度値に基づくコントラストを変更するための第3パラメータ。これらは、OCT画像の視認性を向上させるための典型的なパラメータである。よって、これらパラメータのうち1つ以上を考慮することで、OCT画像の視認性向上を図ることが可能である。
The setting unit can set a parameter value for changing the pixel values of a plurality of pixels included in the partial area as a display condition for each partial area acquired by the dividing unit. This parameter may include any of the following: (1) a first parameter for changing pixel values of a plurality of pixels to pseudo color values; (2) changing a luminance value in the pixel values of the plurality of pixels. (3) A third parameter for changing the contrast based on the luminance value among the pixel values of a plurality of pixels. These are typical parameters for improving the visibility of the OCT image. Therefore, it is possible to improve the visibility of the OCT image by considering one or more of these parameters.
なお、表示条件として設定されるパラメータは、上記のものに限定されない。たとえば、設定部は、平滑化処理(スムージング)、強調処理(エンハンス)など、任意のフィルタリングに関するパラメータを表示条件として設定することが可能である。
Note that the parameters set as display conditions are not limited to the above. For example, the setting unit can set parameters relating to arbitrary filtering, such as smoothing processing (smoothing) and enhancement processing (enhancement), as display conditions.
平滑化処理は、或る画像領域内の画素の画素値を滑らかにする画像処理であり、当該画像領域内のノイズ除去などに用いられる。平均化処理は、たとえば移動平均フィルタやガウシアンフィルタを用いて実行される。設定部は、平均化処理で適用されるパラメータ(たとえば移動平均フィルタやガウシアンフィルタにおけるカーネルのサイズや、カーネルに設定されるレートの値など)を表示条件として設定する。このような平滑化処理に関するパラメータは「第4パラメータ」に相当する。
Smoothing processing is image processing for smoothing pixel values of pixels in a certain image area, and is used for noise removal in the image area. The averaging process is executed using, for example, a moving average filter or a Gaussian filter. The setting unit sets parameters applied in the averaging process (for example, the kernel size in the moving average filter and the Gaussian filter, the rate value set in the kernel, and the like) as display conditions. Such a parameter relating to the smoothing process corresponds to a “fourth parameter”.
強調処理は、或る画像領域の一部または全部を強調する画像処理であり、対象領域を鮮明にするためなどに用いられる。強調処理としては画像領域の輪郭を強調する輪郭強調処理(アンシャープマスキング)などがある。輪郭強調処理は、たとえば、元の画像データに平滑化処理を施し、元の画像データと平滑化された画像データとの差分を求め、この差分を元の画像データに合成することにより行われる。このような輪郭強調処理では、平滑化処理と同様のパラメータや、ラプラシアンフィルタのパラメータなどが考慮される。設定部は、平均化処理で適用される上記のパラメータや、ラプラシアンフィルタのカーネルのサイズ、このカーネルに設定されるレートの値などを、表示条件として設定する。このような強調処理に関するパラメータは「第5パラメータ」に相当する。
The enhancement process is an image process that emphasizes part or all of a certain image area, and is used to make the target area clear. As the enhancement process, there is an outline enhancement process (unsharp masking) for enhancing the outline of an image region. The contour enhancement process is performed, for example, by performing a smoothing process on the original image data, obtaining a difference between the original image data and the smoothed image data, and combining the difference with the original image data. In such edge enhancement processing, parameters similar to the smoothing processing, Laplacian filter parameters, and the like are taken into consideration. The setting unit sets the above parameters applied in the averaging process, the kernel size of the Laplacian filter, the rate value set in the kernel, and the like as display conditions. Such a parameter relating to enhancement processing corresponds to a “fifth parameter”.
このような構成において、設定部は、対応情報記憶部と、部位選択部と、パラメータ特定部とを含んでいてよい。対応情報記憶部(2321)には、眼の複数の部位のそれぞれに対してパラメータの値を対応付けた対応情報(2321a)があらかじめ記憶される。部位選択部(2322)は、分割部により取得された各部分領域について、その部分領域に相当する部位を上記複数の部位のうちから選択する。パラメータ特定部(2323)は、各部分領域について、部位選択部により選択された部位に対応付けられたパラメータの値を対応情報に基づいて特定する。設定部は、パラメータ特定部により特定されたパラメータの値を表示条件として設定することができる。
In such a configuration, the setting unit may include a correspondence information storage unit, a part selection unit, and a parameter identification unit. In the correspondence information storage unit (2321), correspondence information (2321a) in which parameter values are associated with each of a plurality of parts of the eye is stored in advance. The part selection unit (2322) selects a part corresponding to the partial region from the plurality of parts for each partial region acquired by the dividing unit. The parameter specifying unit (2323) specifies the value of the parameter associated with the part selected by the part selecting unit for each partial region based on the correspondence information. The setting unit can set the parameter value specified by the parameter specifying unit as a display condition.
[変形例1]
上記実施形態では、被検眼の2次元断面像に対して処理を行う場合について説明した。この変形例では、被検眼の3次元画像(ボリュームデータ)に対して処理を行う場合について説明する。なお、眼科撮影装置の構成は上記実施形態と同様である。以下、上記実施形態の図面を適宜参照する。 [Modification 1]
In the above-described embodiment, the case where processing is performed on a two-dimensional cross-sectional image of the eye to be examined has been described. In this modification, a case where processing is performed on a three-dimensional image (volume data) of an eye to be examined will be described. The configuration of the ophthalmologic photographing apparatus is the same as that in the above embodiment. Hereinafter, the drawings of the above embodiments will be referred to as appropriate.
上記実施形態では、被検眼の2次元断面像に対して処理を行う場合について説明した。この変形例では、被検眼の3次元画像(ボリュームデータ)に対して処理を行う場合について説明する。なお、眼科撮影装置の構成は上記実施形態と同様である。以下、上記実施形態の図面を適宜参照する。 [Modification 1]
In the above-described embodiment, the case where processing is performed on a two-dimensional cross-sectional image of the eye to be examined has been described. In this modification, a case where processing is performed on a three-dimensional image (volume data) of an eye to be examined will be described. The configuration of the ophthalmologic photographing apparatus is the same as that in the above embodiment. Hereinafter, the drawings of the above embodiments will be referred to as appropriate.
この変形例において、形成部は、画像形成部220と、データ処理部230のうち3次元画像を形成する機能部(3次元画像形成部)とを含む。分割部は、画像領域特定部と、部分領域特定部とを含む。画像領域特定部(2311)は、形成部により形成された3次元画像を解析することにより、被検眼の所定部位に相当する2次元画像領域を特定する。この所定部位は、内境界膜、ブルッフ膜および脈絡膜-強膜境界のいずれかを含んでいてよい。部分領域特定部(2312)は、画像領域特定部により特定された2次元画像領域を境界とする3次元画像領域を、部分領域として特定する。分割部が実行する処理は、上記実施形態で2次元画像に実行された処理を3次元画像に拡張したものである。
In this modification, the forming unit includes an image forming unit 220 and a functional unit (three-dimensional image forming unit) that forms a three-dimensional image in the data processing unit 230. The dividing unit includes an image region specifying unit and a partial region specifying unit. The image region specifying unit (2311) specifies a two-dimensional image region corresponding to a predetermined part of the eye to be examined by analyzing the three-dimensional image formed by the forming unit. The predetermined portion may include any of the inner boundary membrane, the Bruch's membrane, and the choroid-sclera boundary. The partial area specifying unit (2312) specifies a three-dimensional image area having the two-dimensional image area specified by the image area specifying unit as a boundary as a partial area. The processing executed by the dividing unit is obtained by extending the processing executed on the two-dimensional image in the above embodiment to a three-dimensional image.
所定部位に内境界膜が含まれる場合、画像領域特定部は、被検眼の内境界膜に相当する内境界膜領域を特定する。さらに、部分領域特定部は、この内境界膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と硝子体に相当する硝子体領域とを特定する。
When the inner boundary membrane is included in the predetermined part, the image region specifying unit specifies the inner boundary membrane region corresponding to the inner boundary membrane of the eye to be examined. Further, the partial region specifying unit specifies a retina region corresponding to the retina of the eye to be examined and a vitreous region corresponding to the vitreous body based on the result of specifying the inner boundary membrane region.
所定部位にブルッフ膜が含まれる場合、画像領域特定部は、被検眼のブルッフ膜に相当するブルッフ膜領域を特定する。さらに、部分領域特定部は、このブルッフ膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と脈絡膜に相当する脈絡膜領域とを特定する。
When the Bruch film is included in the predetermined part, the image area specifying unit specifies the Bruch film area corresponding to the Bruch film of the eye to be examined. Further, the partial region specifying unit specifies a retina region corresponding to the retina of the eye to be examined and a choroid region corresponding to the choroid based on the result of specifying the Bruch's membrane region.
所定部位に脈絡膜-強膜境界が含まれる場合、画像領域特定部は、被検眼の脈絡膜-強膜境界に相当する脈絡膜-強膜境界領域を特定する。さらに、部分領域特定部は、この脈絡膜-強膜境界領域の特定結果に基づいて、被検眼の脈絡膜に相当する脈絡膜領域と強膜に相当する強膜領域とを特定する。
When the choroid-sclera boundary is included in the predetermined part, the image region specifying unit specifies the choroid-sclera boundary region corresponding to the choroid-sclera boundary of the eye to be examined. Further, the partial region specifying unit specifies the choroid region corresponding to the choroid and the sclera region corresponding to the sclera of the eye to be examined based on the result of specifying the choroid-sclera boundary region.
なお、画像領域特定部が3次元画像から特定する画像領域は2次元画像領域である必要はない。たとえば、画像領域特定部は、3次元画像において被検眼の所定部位に相当する3次元画像領域を特定することが可能である。この3次元画像領域は、たとえば自由曲面を輪郭とする所定部位であってよい。
Note that the image region specified by the image region specifying unit from the three-dimensional image need not be a two-dimensional image region. For example, the image region specifying unit can specify a three-dimensional image region corresponding to a predetermined part of the eye to be examined in the three-dimensional image. This three-dimensional image region may be a predetermined part having a free curved surface as an outline, for example.
設定部(表示条件設定部232)は、分割部により取得された複数の部分領域のそれぞれの表示条件を設定する。この処理は、上記実施形態と同様である。つまり、設定部は、上記実施形態と同様のパラメータの値を表示条件として設定することができる。さらに、このパラメータは、疑似カラー値に変更するための第1パラメータ、輝度値を変更するための第2パラメータ、および、コントラストを変更するための第3パラメータのうち、少なくとも1つを含んでいてよい。これに加えて、設定部は、上記実施形態と同様の対応情報記憶部(2321)、部位選択部(2322)およびパラメータ特定部(2323)を含んでいてよい。
The setting unit (display condition setting unit 232) sets display conditions for each of the plurality of partial areas acquired by the dividing unit. This process is the same as in the above embodiment. That is, the setting unit can set a parameter value similar to that in the above embodiment as a display condition. Further, this parameter includes at least one of a first parameter for changing to a pseudo color value, a second parameter for changing the luminance value, and a third parameter for changing the contrast. Good. In addition, the setting unit may include a correspondence information storage unit (2321), a site selection unit (2322), and a parameter identification unit (2323) similar to those in the above embodiment.
表示制御部は、設定部により設定された表示条件に基づいて、形成部により形成された画像を表示手段(表示部241)に表示させる。この表示手段は、外部装置であってよい。この変形例において、表示制御部は、主制御部211と、データ処理部230のうち3次元画像から2次元画像を形成する機能部(2次元画像形成部)とを含んでいてよい。この2次元画像形成部は、MPR処理やボリュームレンダリングなど、3次元画像から表示用の画像を形成する処理を行う。
The display control unit causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit. This display means may be an external device. In this modification, the display control unit may include a main control unit 211 and a functional unit (a two-dimensional image forming unit) that forms a two-dimensional image from a three-dimensional image in the data processing unit 230. The two-dimensional image forming unit performs processing for forming an image for display from a three-dimensional image, such as MPR processing and volume rendering.
この変形例に係る眼科撮影装置の動作について説明する。図8は、眼科撮影装置の動作の一例を表す。
The operation of the ophthalmologic photographing apparatus according to this modification will be described. FIG. 8 shows an example of the operation of the ophthalmologic photographing apparatus.
(S21:被検眼を検査位置に配置する)
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S21: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S21: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
(S22:撮影モードを選択する)
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S22: Select a shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S22: Select a shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
(S23:オートアライメント・オートフォーカス)
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S23: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S23: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
(S24:フォーカス状態を微調整する)
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S24: Finely adjust the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S24: Finely adjust the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
(S25:ボリュームデータを取得する)
ステップS24のフォーカスの微調整が完了したら、眼底EfのOCT計測および眼底撮影が実行される。本例では、OCT計測において3次元スキャンが適用され、ボリュームデータが取得される。 (S25: Acquire volume data)
When the focus fine adjustment in step S24 is completed, OCT measurement and fundus imaging of the fundus oculi Ef are executed. In this example, three-dimensional scanning is applied in OCT measurement, and volume data is acquired.
ステップS24のフォーカスの微調整が完了したら、眼底EfのOCT計測および眼底撮影が実行される。本例では、OCT計測において3次元スキャンが適用され、ボリュームデータが取得される。 (S25: Acquire volume data)
When the focus fine adjustment in step S24 is completed, OCT measurement and fundus imaging of the fundus oculi Ef are executed. In this example, three-dimensional scanning is applied in OCT measurement, and volume data is acquired.
(S26:ボリュームデータのセグメンテーションを行う)
画像領域特定部2311は、ボリュームデータのセグメンテーションを実行することにより、被検眼Eの所定部位に相当する2次元画像領域を特定する。2次元画像領域は、たとえば、ボリュームデータにおける網膜-硝子体境界領域、網膜-脈絡膜境界領域、脈絡膜-強膜境界領域などである。これら2次元画像領域は、典型的には、曲面形状を有する。 (S26: Perform volume data segmentation)
The imagearea specifying unit 2311 specifies a two-dimensional image area corresponding to a predetermined part of the eye E by performing segmentation of volume data. The two-dimensional image region is, for example, a retina-vitreous boundary region, a retina-choroid boundary region, a choroid-sclera boundary region, or the like in volume data. These two-dimensional image regions typically have a curved surface shape.
画像領域特定部2311は、ボリュームデータのセグメンテーションを実行することにより、被検眼Eの所定部位に相当する2次元画像領域を特定する。2次元画像領域は、たとえば、ボリュームデータにおける網膜-硝子体境界領域、網膜-脈絡膜境界領域、脈絡膜-強膜境界領域などである。これら2次元画像領域は、典型的には、曲面形状を有する。 (S26: Perform volume data segmentation)
The image
(S27:3次元の部分領域を特定する)
部分領域特定部2312は、ステップS26で特定された2次元画像領域を境界とする3次元画像領域を特定する。3次元画像領域は、たとえば、ボリュームデータにおける硝子体領域、網膜領域、脈絡膜領域、強膜領域などである。 (S27: Specify a three-dimensional partial region)
The partialarea specifying unit 2312 specifies a three-dimensional image area having the two-dimensional image area specified in step S26 as a boundary. The three-dimensional image region is, for example, a vitreous region, a retina region, a choroid region, or a sclera region in volume data.
部分領域特定部2312は、ステップS26で特定された2次元画像領域を境界とする3次元画像領域を特定する。3次元画像領域は、たとえば、ボリュームデータにおける硝子体領域、網膜領域、脈絡膜領域、強膜領域などである。 (S27: Specify a three-dimensional partial region)
The partial
(S28:部分領域に相当する眼の部位を選択する)
部位選択部2322は、ステップS27で取得された各部分領域について、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。その具体例として、硝子体領域には「硝子体」が、網膜領域には「網膜」が、脈絡膜領域には「脈絡膜」が、強膜領域には「強膜」が、それぞれ選択される。 (S28: Select the eye part corresponding to the partial area)
Thepart selection unit 2322 selects, for each partial area acquired in step S27, an eye part corresponding to the partial area from among a plurality of parts included in the eye part item of the correspondence information 2321a. As a specific example, “vitreous body” is selected as the vitreous region, “retinal” is selected as the retina region, “choroid” is selected as the choroid region, and “sclera” is selected as the scleral region.
部位選択部2322は、ステップS27で取得された各部分領域について、その部分領域に相当する眼の部位を、対応情報2321aの眼の部位の項目に含まれる複数の部位のうちから選択する。その具体例として、硝子体領域には「硝子体」が、網膜領域には「網膜」が、脈絡膜領域には「脈絡膜」が、強膜領域には「強膜」が、それぞれ選択される。 (S28: Select the eye part corresponding to the partial area)
The
(S29:表示条件を特定する)
パラメータ特定部2323は、ステップS27で取得された各部分領域について、ステップS28で選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。この処理は、たとえば第1の実施形態と同様に実行される。本例では、疑似カラー表示用のパラメータの値として、硝子体領域には「A4」が、網膜領域には「A1」が、脈絡膜領域には「A2」が、強膜領域には「A3」が、それぞれ特定されたとする。 (S29: Specify display conditions)
Theparameter specifying unit 2323 specifies, for each partial region acquired in step S27, the parameter value associated with the part selected in step S28 based on the correspondence information 2321a. This process is executed, for example, in the same manner as in the first embodiment. In this example, the parameter values for pseudo color display are “A4” for the vitreous region, “A1” for the retina region, “A2” for the choroid region, and “A3” for the sclera region. Are identified.
パラメータ特定部2323は、ステップS27で取得された各部分領域について、ステップS28で選択された部位に対応付けられたパラメータの値を、対応情報2321aに基づいて特定する。この処理は、たとえば第1の実施形態と同様に実行される。本例では、疑似カラー表示用のパラメータの値として、硝子体領域には「A4」が、網膜領域には「A1」が、脈絡膜領域には「A2」が、強膜領域には「A3」が、それぞれ特定されたとする。 (S29: Specify display conditions)
The
(S30:表示条件に基づき画像を表示する)
主制御部211は、ステップS29で特定された表示条件を適用して、OCT画像を表示部241に表示させる。この処理には、ボリュームデータにMPR処理やボリュームレンダリングをして表示用画像を形成する処理と、この表示用画像に対してステップS29で取得された表示条件を適用して表示させる処理とが含まれる。具体例として、データ処理部230が、ボリュームデータにMPR処理を施すことにより、図5Aに示す断面像Gを形成し、さらに、主制御部211が、この断面像Gを疑似カラー表示させる。この疑似カラー表示は、図5Bに示す硝子体領域G1を階調「A4」の第1表示色で表示させ、網膜領域G2を階調「A1」の第2表示色で表示させ、脈絡膜領域G3を階調「A2」の第3表示色で表示させ、強膜領域G4を階調「A3」の第4表示色で表示させることにより行われる。 (S30: An image is displayed based on display conditions)
Themain control unit 211 causes the display unit 241 to display the OCT image by applying the display condition specified in step S29. This processing includes processing for forming a display image by performing MPR processing or volume rendering on the volume data, and processing for displaying the display image by applying the display condition acquired in step S29. It is. As a specific example, the data processing unit 230 performs MPR processing on the volume data to form the cross-sectional image G shown in FIG. 5A, and the main control unit 211 displays the cross-sectional image G in a pseudo color display. In this pseudo color display, the vitreous body region G1 shown in FIG. 5B is displayed in the first display color of gradation “A4”, the retina region G2 is displayed in the second display color of gradation “A1”, and the choroid region G3. Is displayed in the third display color of gradation “A2”, and the sclera region G4 is displayed in the fourth display color of gradation “A3”.
主制御部211は、ステップS29で特定された表示条件を適用して、OCT画像を表示部241に表示させる。この処理には、ボリュームデータにMPR処理やボリュームレンダリングをして表示用画像を形成する処理と、この表示用画像に対してステップS29で取得された表示条件を適用して表示させる処理とが含まれる。具体例として、データ処理部230が、ボリュームデータにMPR処理を施すことにより、図5Aに示す断面像Gを形成し、さらに、主制御部211が、この断面像Gを疑似カラー表示させる。この疑似カラー表示は、図5Bに示す硝子体領域G1を階調「A4」の第1表示色で表示させ、網膜領域G2を階調「A1」の第2表示色で表示させ、脈絡膜領域G3を階調「A2」の第3表示色で表示させ、強膜領域G4を階調「A3」の第4表示色で表示させることにより行われる。 (S30: An image is displayed based on display conditions)
The
このような眼科撮影装置によれば、或る観察部位にフォーカスを合わせた状態でOCT計測を行いつつ、3次元画像の各部分領域(フォーカスが合っていない部位に相当する画像領域もある)を適当な表示条件にて表示させることができる。よって、フォーカスが合わせられた部分だけでなく、3次元画像全体にわたって視認性を向上させることが可能である。それにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能となる。
According to such an ophthalmologic photographing apparatus, while performing OCT measurement in a state in which a certain observation region is focused, each partial region of the three-dimensional image (some image regions correspond to regions that are not in focus). It can be displayed under appropriate display conditions. Therefore, it is possible to improve visibility over the entire three-dimensional image, not just the focused portion. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
[変形例2]
実施形態や変形例に係る構成によれば、各部分領域の画素値を望ましい値に変更することができる。一方、眼科分野においては、被検眼のサイズ計測を行うことがある。計測対象としては、被検眼の任意の部位や病変部などがある。データ処理部230は、表示条件設定部232により設定された表示条件が適用された複数の部分領域のうちのいずれかを解析することにより、その部分領域のサイズを求めることができる。データ処理部230においてこの処理を実行する部分は「解析部」に相当する。 [Modification 2]
According to the configuration according to the embodiment or the modification, the pixel value of each partial region can be changed to a desired value. On the other hand, in the ophthalmology field, the size of the eye to be examined may be measured. The measurement target includes an arbitrary part of the eye to be examined and a lesioned part. Thedata processing unit 230 can obtain the size of the partial area by analyzing any of the plurality of partial areas to which the display condition set by the display condition setting unit 232 is applied. The portion of the data processing unit 230 that executes this processing corresponds to an “analysis unit”.
実施形態や変形例に係る構成によれば、各部分領域の画素値を望ましい値に変更することができる。一方、眼科分野においては、被検眼のサイズ計測を行うことがある。計測対象としては、被検眼の任意の部位や病変部などがある。データ処理部230は、表示条件設定部232により設定された表示条件が適用された複数の部分領域のうちのいずれかを解析することにより、その部分領域のサイズを求めることができる。データ処理部230においてこの処理を実行する部分は「解析部」に相当する。 [Modification 2]
According to the configuration according to the embodiment or the modification, the pixel value of each partial region can be changed to a desired value. On the other hand, in the ophthalmology field, the size of the eye to be examined may be measured. The measurement target includes an arbitrary part of the eye to be examined and a lesioned part. The
部分領域のサイズについて説明する。部分領域が1次元画像領域である場合、そのサイズは長さである。部分領域が2次元画像領域である場合、そのサイズは、長さ(最大幅、最小幅、平均幅など)や面積である。部分領域が3次元画像領域である場合、そのサイズは、長さ(最大幅、最小幅、平均幅など)、面積、体積である。
Describes the size of the partial area. When the partial area is a one-dimensional image area, the size is a length. When the partial region is a two-dimensional image region, the size is a length (maximum width, minimum width, average width, etc.) or area. When the partial region is a three-dimensional image region, the size is a length (maximum width, minimum width, average width, etc.), area, and volume.
この変形例によれば、画素値の変更により好適に可視化された部分領域のサイズを、従来よりも正確に計測することが可能である。
According to this modification, it is possible to measure the size of the partial area suitably visualized by changing the pixel value more accurately than in the past.
〈第2の実施形態〉
この実施形態では、第1の実施形態と異なる表示条件が適用される場合を説明する。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Second Embodiment>
In this embodiment, a case where display conditions different from those of the first embodiment are applied will be described. The configuration according to this embodiment can be added to the configuration according to another embodiment.
この実施形態では、第1の実施形態と異なる表示条件が適用される場合を説明する。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Second Embodiment>
In this embodiment, a case where display conditions different from those of the first embodiment are applied will be described. The configuration according to this embodiment can be added to the configuration according to another embodiment.
この実施形態では、OCT画像に対して所定の画像処理を適用する。この画像処理の典型例として画像重ね合わせ処理がある。この処理は、実質的に同一の断面について取得された複数の断面像を重ね合わせる処理である。画像重ね合わせ処理は、従来と同様に、複数の断面像の位置合わせ処理(レジストレーション)と、位置合わせされた複数の断面像を合成して1枚の断面像を形成する合成処理とを含む。合成処理はたとえば加算平均処理である。なお、たとえば眼球運動を無視できる程度に計測時間が十分短い場合などには、レジストレーションを行う必要はない。
In this embodiment, predetermined image processing is applied to the OCT image. A typical example of this image processing is image overlay processing. This process is a process of superimposing a plurality of cross-sectional images acquired for substantially the same cross-section. The image superimposition processing includes, as in the conventional art, alignment processing (registration) of a plurality of cross-sectional images, and synthesis processing that combines a plurality of aligned cross-sectional images to form a single cross-sectional image. . The combining process is, for example, an averaging process. For example, when the measurement time is short enough to ignore the eye movement, it is not necessary to perform registration.
従来技術においては、このような画像処理を断面像全体に適用していた。これに対し、この実施形態では、断面像の一部に対して選択的に画像処理を施すことが可能である。なお、画像処理がパラメータを含む場合、断面像の部分領域ごとにパラメータの値を設定して画像処理を行うように構成することが可能である。この実施形態には、このような構成も含まれる。
In the prior art, such image processing has been applied to the entire cross-sectional image. On the other hand, in this embodiment, it is possible to selectively perform image processing on a part of the cross-sectional image. When the image processing includes a parameter, the image processing can be performed by setting a parameter value for each partial region of the cross-sectional image. This embodiment also includes such a configuration.
[構成]
この実施形態に係る眼科撮影装置は、第1の実施形態と同様の構成(特に光学系および形成部)を有する。以下、第1の実施形態の図面を適宜参照しつつ、第1の実施形態との差異点について特に詳しく説明を行う。 [Constitution]
The ophthalmologic photographing apparatus according to this embodiment has the same configuration as the first embodiment (particularly, the optical system and the forming unit). Hereinafter, differences from the first embodiment will be described in detail with reference to the drawings of the first embodiment as appropriate.
この実施形態に係る眼科撮影装置は、第1の実施形態と同様の構成(特に光学系および形成部)を有する。以下、第1の実施形態の図面を適宜参照しつつ、第1の実施形態との差異点について特に詳しく説明を行う。 [Constitution]
The ophthalmologic photographing apparatus according to this embodiment has the same configuration as the first embodiment (particularly, the optical system and the forming unit). Hereinafter, differences from the first embodiment will be described in detail with reference to the drawings of the first embodiment as appropriate.
この実施形態に係る眼科撮影装置の構成例を図9に示す。図9に示す構成を、第1の実施形態の図4の代わりに適用することが可能である。また、図4に示す対応情報記憶部2321、部位選択部2322およびパラメータ特定部2323を、図9に示す構成に付加することも可能である。その場合、第1の実施形態で説明した処理と、以下に説明するこの実施形態に係る処理とを組み合わせて実行することが可能である。この実施形態のデータ処理部230は、画像分割部231および表示条件設定部232に加え、重ね合わせ処理部233を有する。
FIG. 9 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment. The configuration shown in FIG. 9 can be applied instead of FIG. 4 of the first embodiment. Further, the correspondence information storage unit 2321, the region selection unit 2322, and the parameter specifying unit 2323 shown in FIG. 4 can be added to the configuration shown in FIG. In that case, it is possible to execute a combination of the process described in the first embodiment and the process according to this embodiment described below. The data processing unit 230 of this embodiment includes an overlay processing unit 233 in addition to the image dividing unit 231 and the display condition setting unit 232.
この実施形態では、OCT計測において、被検眼の実質的に同一の断面を信号光で複数回走査する。さらに、形成部は、この複数回の走査に伴い光学系により取得される干渉光の検出結果に基づいて、この断面についての複数の断面像を形成する。この断面像は、2次元画像でも3次元画像でもよい。
In this embodiment, in the OCT measurement, substantially the same cross section of the eye to be examined is scanned with the signal light a plurality of times. Further, the forming unit forms a plurality of cross-sectional images of the cross-section based on the detection result of the interference light acquired by the optical system with the plurality of scans. This cross-sectional image may be a two-dimensional image or a three-dimensional image.
(画像分割部)
画像分割部231は、形成部により形成された各断面像を複数の部分領域に分割する。この処理は、たとえば、形成部により形成された複数の断面像のそれぞれについて、次の2段階の処理を行うことによって実行される。(1)画像領域特定部2311が、形成部により形成された断面像を解析することにより、被検眼の所定部位に相当する画像領域を特定する。(2)部分領域特定部2312が、画像領域特定部2311により特定された画像領域を境界とする画像領域を、部分領域として特定する。 (Image division)
Theimage dividing unit 231 divides each cross-sectional image formed by the forming unit into a plurality of partial areas. This process is executed, for example, by performing the following two-stage process on each of the plurality of cross-sectional images formed by the forming unit. (1) The image region specifying unit 2311 analyzes the cross-sectional image formed by the forming unit, thereby specifying an image region corresponding to a predetermined part of the eye to be examined. (2) The partial area specifying unit 2312 specifies an image area having the image area specified by the image area specifying unit 2311 as a boundary as a partial area.
画像分割部231は、形成部により形成された各断面像を複数の部分領域に分割する。この処理は、たとえば、形成部により形成された複数の断面像のそれぞれについて、次の2段階の処理を行うことによって実行される。(1)画像領域特定部2311が、形成部により形成された断面像を解析することにより、被検眼の所定部位に相当する画像領域を特定する。(2)部分領域特定部2312が、画像領域特定部2311により特定された画像領域を境界とする画像領域を、部分領域として特定する。 (Image division)
The
(表示条件設定部)
表示条件設定部232は、画像分割部231により取得された複数の部分領域のうち、あらかじめ決められた画像処理(画像重ね合わせ処理等)が適用される部分領域を、表示条件として設定する。つまり、表示条件設定部232は、断面像の複数の部分領域を、画像処理の適用対象の部分領域と、非適用対象の部分領域とに分類する。 (Display condition setting section)
The displaycondition setting unit 232 sets, as a display condition, a partial region to which predetermined image processing (image superimposition processing or the like) is applied among the plurality of partial regions acquired by the image dividing unit 231. That is, the display condition setting unit 232 classifies the plurality of partial areas of the cross-sectional image into partial areas to be subjected to image processing and partial areas to be applied.
表示条件設定部232は、画像分割部231により取得された複数の部分領域のうち、あらかじめ決められた画像処理(画像重ね合わせ処理等)が適用される部分領域を、表示条件として設定する。つまり、表示条件設定部232は、断面像の複数の部分領域を、画像処理の適用対象の部分領域と、非適用対象の部分領域とに分類する。 (Display condition setting section)
The display
このような部分領域の分類は、たとえば、撮影モードに応じてなされる。その場合、撮影モードに対して、画像処理の適用対象の部分領域の種別、および非適用対象の部分領域の種別のうち、一方または双方を対応付けた第2の対応情報が、表示条件設定部232(または記憶部212)にあらかじめ記憶される。
Such classification of the partial areas is performed according to the shooting mode, for example. In this case, the second correspondence information in which one or both of the type of the partial area to which the image processing is applied and the type of the non-application target partial area is associated with the shooting mode is the display condition setting unit. 232 (or storage unit 212) is stored in advance.
部分領域を分類する処理の他の例として、ユーザの指示に基づく方法がある。たとえば、表示部241に表示された断面像の複数の部分領域を、ユーザが操作部242を介して分類する。この操作は、たとえば、断面像中の部分領域をクリックする操作、または、部分領域の種別(眼の部位名など)をドロップダウンリストから選択する操作などを含む。
Another example of processing for classifying partial areas is a method based on user instructions. For example, the user classifies a plurality of partial areas of the cross-sectional image displayed on the display unit 241 via the operation unit 242. This operation includes, for example, an operation of clicking a partial area in the cross-sectional image, or an operation of selecting a type of partial area (such as an eye part name) from a drop-down list.
(重ね合わせ処理部)
重ね合わせ処理部233は、画像分割部231により取得された複数の部分領域のうち、画像重ね合わせ処理の適用対象に設定された部分領域についてのみ、複数の断層像を重ね合わせる処理を実行する。重ね合わせ処理部233は、画像位置合わせ部2331と、画像合成部2332とを有する。画像位置合わせ部2331は、複数の断面像のレジストレーションを行う。 (Overlay processing part)
Thesuperimposition processing unit 233 performs a process of superimposing a plurality of tomographic images only on a partial region set as an application target of the image superimposition processing among the plurality of partial regions acquired by the image dividing unit 231. The overlay processing unit 233 includes an image position alignment unit 2331 and an image composition unit 2332. The image alignment unit 2331 performs registration of a plurality of cross-sectional images.
重ね合わせ処理部233は、画像分割部231により取得された複数の部分領域のうち、画像重ね合わせ処理の適用対象に設定された部分領域についてのみ、複数の断層像を重ね合わせる処理を実行する。重ね合わせ処理部233は、画像位置合わせ部2331と、画像合成部2332とを有する。画像位置合わせ部2331は、複数の断面像のレジストレーションを行う。 (Overlay processing part)
The
画像合成部2332は、レジストレーションがなされた複数の断面像のそれぞれから、画像重ね合わせ処理の適用対象に設定された部分領域を抽出する。抽出された部分領域は、フレームにおける位置に応じて分類される(つまり、被検眼の部位に応じて分類される)。さらに、画像合成部2332は、各類の部分領域(断面像の枚数だけある)を合成する。各類に対応する複数の部分領域を合成して得られた画像を合成部分領域と呼ぶ。一方、画像重ね合わせ処理の非適用対象の部分領域については、複数の断面像から抽出された複数の部分領域のうちの1つ以上が選択される。
The image composition unit 2332 extracts a partial region set as an application target of the image overlay process from each of the plurality of cross-sectional images that have been registered. The extracted partial area is classified according to the position in the frame (that is, classified according to the part of the eye to be examined). Furthermore, the image composition unit 2332 synthesizes each type of partial region (the number of cross-sectional images is the same). An image obtained by combining a plurality of partial areas corresponding to each class is referred to as a combined partial area. On the other hand, one or more of a plurality of partial regions extracted from a plurality of cross-sectional images are selected for the partial region to which the image superimposition process is not applied.
(表示処理)
画像重ね合わせ処理の非適用対象の部分領域が1つだけ選択された場合、主制御部211は、複数の断面像と同一の断面における単一の断面像(合成断面像)を表示部241に表示させる。この合成断面像のうち画像重ね合わせ処理の適用対象の部分領域は、合成部分領域からなる。また、この合成断面像のうち非適用対象の部分領域は、選択された1つの部分領域(選択部分領域)からなる。 (Display processing)
When only one partial region to which the image overlay process is not applied is selected, themain control unit 211 displays a single cross-sectional image (composite cross-sectional image) on the same cross-section as the plurality of cross-sectional images on the display unit 241. Display. The partial area to which the image superimposition process is applied is composed of the combined partial areas. In addition, the partial area to be unapplied in the composite cross-sectional image is composed of one selected partial area (selected partial area).
画像重ね合わせ処理の非適用対象の部分領域が1つだけ選択された場合、主制御部211は、複数の断面像と同一の断面における単一の断面像(合成断面像)を表示部241に表示させる。この合成断面像のうち画像重ね合わせ処理の適用対象の部分領域は、合成部分領域からなる。また、この合成断面像のうち非適用対象の部分領域は、選択された1つの部分領域(選択部分領域)からなる。 (Display processing)
When only one partial region to which the image overlay process is not applied is selected, the
具体例として、図5Aに示す断面像Gが複数の断面像のうちの1枚である場合、網膜領域G2、脈絡膜領域G3および強膜領域G4を「画像重ね合わせ処理の適用対象の部分領域」に設定し、かつ、硝子体領域G1を「画像重ね合わせ処理の非適用対象の部分領域」に設定することができる。これは、複数回の走査を行っている間に硝子体が動くと、硝子体に相当する複数の部分領域に描画される像の形態が相違し、望ましい合成画像が得られないからである。
As a specific example, when the cross-sectional image G shown in FIG. 5A is one of a plurality of cross-sectional images, the retinal region G2, the choroid region G3, and the sclera region G4 are “partial regions to which the image overlay process is applied”. And the vitreous region G1 can be set to “a partial region to which image overlay processing is not applied”. This is because if the vitreous body moves during a plurality of scans, the form of the image drawn in a plurality of partial areas corresponding to the vitreous body is different, and a desired composite image cannot be obtained.
この場合において、合成断層像中の網膜領域G2、脈絡膜領域G3および強膜領域G4については合成部分領域を提示し、硝子体領域G1については選択部分領域を提示することができる。この表示態様によれば、全体が静止画像からなる合成断面像が表示される。
In this case, a composite partial region can be presented for the retinal region G2, choroid region G3, and sclera region G4 in the composite tomogram, and a selected partial region can be presented for the vitreous region G1. According to this display mode, a combined cross-sectional image composed entirely of still images is displayed.
また、画像重ね合わせ処理の非適用対象の部分領域(硝子体領域G1)として、複数の断面像から抽出された複数の部分領域のうちの2つ以上が選択された場合、合成断層像中の網膜領域G2、脈絡膜領域G3および強膜領域G4については合成部分領域を提示し、硝子体領域G1については2以上の部分領域を切り替えて提示することができる。たとえば、非適用対象の部分領域として抽出された全ての部分領域が選択された場合、硝子体領域G1について動画表示を行うことができる。この表示態様によれば、非適用対象の部分領域については動画表示され、それ以外の部分領域については静止画表示された合成断面像が表示される。なお、非適用対象の部分領域としての2以上の部分領域を自動でまたは手動で切り替え表示させることも可能である。
Further, when two or more of a plurality of partial regions extracted from a plurality of cross-sectional images are selected as a partial region (vitreous region G1) to which the image superimposition process is not applied, For the retinal region G2, the choroid region G3, and the sclera region G4, a combined partial region can be presented, and for the vitreous region G1, two or more partial regions can be switched and presented. For example, when all the partial areas extracted as the non-application target partial areas are selected, the moving image display can be performed on the vitreous area G1. According to this display mode, a combined cross-sectional image displayed as a moving image is displayed for a non-application target partial region, and a still image is displayed for other partial regions. Note that two or more partial areas as non-application target partial areas can be switched automatically or manually.
[動作]
この実施形態に係る眼科撮影装置の動作について説明する。図10は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 10 shows an example of the operation of the ophthalmologic photographing apparatus.
この実施形態に係る眼科撮影装置の動作について説明する。図10は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 10 shows an example of the operation of the ophthalmologic photographing apparatus.
(S41:被検眼を検査位置に配置する)
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S41: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S41: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
(S42:撮影モードを選択する)
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S42: Select a shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S42: Select a shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
(S43:オートアライメント・オートフォーカス)
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S43: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S43: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
(S44:フォーカス状態を微調整する)
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S44: Finely adjust the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S44: Finely adjust the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
(S45:OCT計測を反復して行う)
ステップS44のフォーカスの微調整が完了したら、眼科撮影装置は、眼底EfのOCT計測(ラインスキャン、円スキャンなど)を繰り返し実行する。なお、ラインスキャン等を繰り返す代わりに、3次元スキャンを繰り返し実行してもよい。また、反復的なOCT計測の後に、眼底撮影を行うことができる。 (S45: Repeat OCT measurement)
When the fine adjustment of the focus in step S44 is completed, the ophthalmologic photographing apparatus repeatedly performs OCT measurement (line scan, circle scan, etc.) of the fundus oculi Ef. Instead of repeating the line scan or the like, the three-dimensional scan may be repeatedly executed. Further, fundus imaging can be performed after repeated OCT measurement.
ステップS44のフォーカスの微調整が完了したら、眼科撮影装置は、眼底EfのOCT計測(ラインスキャン、円スキャンなど)を繰り返し実行する。なお、ラインスキャン等を繰り返す代わりに、3次元スキャンを繰り返し実行してもよい。また、反復的なOCT計測の後に、眼底撮影を行うことができる。 (S45: Repeat OCT measurement)
When the fine adjustment of the focus in step S44 is completed, the ophthalmologic photographing apparatus repeatedly performs OCT measurement (line scan, circle scan, etc.) of the fundus oculi Ef. Instead of repeating the line scan or the like, the three-dimensional scan may be repeatedly executed. Further, fundus imaging can be performed after repeated OCT measurement.
(S46:セグメンテーションを行う)
画像領域特定部2311は、ステップS45で逐次に形成される各断面像のセグメンテーションを実行することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。各断面像について特定される1次元画像領域は、たとえば、図5Aに示すような網膜-硝子体境界領域g1、網膜-脈絡膜境界領域g2、脈絡膜-強膜境界領域g3である。なお、ステップS45において3次元スキャンが繰り返し実行された場合には、第1の実施形態の変形例と同様に、各ボリュームデータ中の2次元画像領域が特定される。 (S46: Perform segmentation)
The imagearea specifying unit 2311 specifies a one-dimensional image area corresponding to a predetermined part of the eye E by executing segmentation of each cross-sectional image formed sequentially in step S45. The one-dimensional image region specified for each cross-sectional image is, for example, a retina-vitreous boundary region g1, a retina-choroidal boundary region g2, and a choroid-sclera boundary region g3 as shown in FIG. 5A. Note that when the three-dimensional scan is repeatedly executed in step S45, a two-dimensional image region in each volume data is specified as in the modification of the first embodiment.
画像領域特定部2311は、ステップS45で逐次に形成される各断面像のセグメンテーションを実行することにより、被検眼Eの所定部位に相当する1次元画像領域を特定する。各断面像について特定される1次元画像領域は、たとえば、図5Aに示すような網膜-硝子体境界領域g1、網膜-脈絡膜境界領域g2、脈絡膜-強膜境界領域g3である。なお、ステップS45において3次元スキャンが繰り返し実行された場合には、第1の実施形態の変形例と同様に、各ボリュームデータ中の2次元画像領域が特定される。 (S46: Perform segmentation)
The image
(S47:部分領域を特定する)
部分領域特定部2312は、ステップS46で特定された1次元画像領域を境界とする2次元画像領域を特定する。2次元画像領域は、たとえば、図5Bに示すような硝子体領域G1、網膜領域G2、脈絡膜領域G3、強膜領域G4などである。なお、ステップS45において3次元スキャンが繰り返し実行された場合には、第1の実施形態の変形例と同様に、各ボリュームデータ中の3次元画像領域が特定される。 (S47: Specify a partial area)
The partialarea specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S46 as a boundary. The two-dimensional image region is, for example, a vitreous region G1, a retina region G2, a choroid region G3, a sclera region G4, etc. as shown in FIG. 5B. Note that when the three-dimensional scan is repeatedly executed in step S45, the three-dimensional image region in each volume data is specified as in the modification of the first embodiment.
部分領域特定部2312は、ステップS46で特定された1次元画像領域を境界とする2次元画像領域を特定する。2次元画像領域は、たとえば、図5Bに示すような硝子体領域G1、網膜領域G2、脈絡膜領域G3、強膜領域G4などである。なお、ステップS45において3次元スキャンが繰り返し実行された場合には、第1の実施形態の変形例と同様に、各ボリュームデータ中の3次元画像領域が特定される。 (S47: Specify a partial area)
The partial
(S48:画像処理の適用対象の部分領域を選択する)
表示条件設定部232は、ステップS47で取得された複数の部分領域のうちから、画像重ね合わせ処理等が適用される部分領域を選択する。本例では、網膜領域G2、脈絡膜領域G3および強膜領域G4に対して画像重ね合わせ処理を施し、かつ、硝子体領域G1にはこれを施さないように、表示条件の設定がなされたものとする。 (S48: Select a partial area to which image processing is applied)
The displaycondition setting unit 232 selects a partial area to which the image overlay process or the like is applied from among the plurality of partial areas acquired in step S47. In this example, display conditions are set so that image superposition processing is performed on the retina region G2, the choroid region G3, and the sclera region G4, and this is not performed on the vitreous region G1. To do.
表示条件設定部232は、ステップS47で取得された複数の部分領域のうちから、画像重ね合わせ処理等が適用される部分領域を選択する。本例では、網膜領域G2、脈絡膜領域G3および強膜領域G4に対して画像重ね合わせ処理を施し、かつ、硝子体領域G1にはこれを施さないように、表示条件の設定がなされたものとする。 (S48: Select a partial area to which image processing is applied)
The display
(S49:レジストレーションを行う)
画像位置合わせ部2331は、ステップS45で取得された複数の断面像のレジストレーションを行う。 (S49: Registration is performed)
Theimage alignment unit 2331 performs registration of the plurality of cross-sectional images acquired in step S45.
画像位置合わせ部2331は、ステップS45で取得された複数の断面像のレジストレーションを行う。 (S49: Registration is performed)
The
(S50:画像重ね合わせ処理を行う)
画像合成部2332は、レジストレーションがなされた複数の断面像のそれぞれから、ステップS48で選択された部分領域(つまり画像重ね合わせ処理の適用対象に設定された部分領域)を抽出する。さらに、画像合成部2332は、抽出された部分領域をその種別(上記の類)ごとに合成することにより、各類の合成部分領域を形成する。なお、本例では、画像重ね合わせ処理の非適用対象の部分領域については、複数の断面像全てが選択されるものとする。 (S50: Perform image overlay processing)
Theimage composition unit 2332 extracts the partial area selected in step S48 (that is, the partial area set as the application target of the image superimposition process) from each of the plurality of cross-sectional images that have been registered. Further, the image composition unit 2332 synthesizes the extracted partial areas for each type (the above-mentioned class), thereby forming each type of combined partial area. In this example, it is assumed that all of a plurality of cross-sectional images are selected for the partial area to which the image overlay process is not applied.
画像合成部2332は、レジストレーションがなされた複数の断面像のそれぞれから、ステップS48で選択された部分領域(つまり画像重ね合わせ処理の適用対象に設定された部分領域)を抽出する。さらに、画像合成部2332は、抽出された部分領域をその種別(上記の類)ごとに合成することにより、各類の合成部分領域を形成する。なお、本例では、画像重ね合わせ処理の非適用対象の部分領域については、複数の断面像全てが選択されるものとする。 (S50: Perform image overlay processing)
The
(S51:画像を表示する(一部を動画表示する))
主制御部211は、複数の断面像と同一の断面における合成断面像を表示部241に表示させる。その具体例として、主制御部211は、合成断層像中の網膜領域G2、脈絡膜領域G3および強膜領域G4についてはステップS50で取得された合成部分領域を静止画表示させ、かつ、硝子体領域G1については複数の断面像に基づく動画表示を行う。 (S51: Display an image (display a part of a movie))
Themain control unit 211 causes the display unit 241 to display a combined cross-sectional image in the same cross section as the plurality of cross-sectional images. As a specific example, the main control unit 211 displays a still image of the combined partial region acquired in step S50 for the retinal region G2, the choroidal region G3, and the scleral region G4 in the combined tomogram, and the vitreous region For G1, a moving image display based on a plurality of cross-sectional images is performed.
主制御部211は、複数の断面像と同一の断面における合成断面像を表示部241に表示させる。その具体例として、主制御部211は、合成断層像中の網膜領域G2、脈絡膜領域G3および強膜領域G4についてはステップS50で取得された合成部分領域を静止画表示させ、かつ、硝子体領域G1については複数の断面像に基づく動画表示を行う。 (S51: Display an image (display a part of a movie))
The
[効果]
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置は、光学系と、形成部と、分割部と、設定部と、表示制御部とを有する。光学系は、光源(光源ユニット101)からの光を信号光(LS)と参照光(LR)とに分割し、被検眼(E)を経由した信号光と参照光路を経由した参照光との干渉光(LC)を検出する。形成部は、光学系による干渉光の検出結果に基づいて、被検眼の画像を形成する。分割部(画像分割部231)は、形成部により形成された画像(G)を複数の部分領域(G1~G4)に分割する。設定部(表示条件設定部232)は、分割部により取得された複数の部分領域のうち、あらかじめ決められた画像処理が適用される部分領域(適用対象の部分領域)を、表示条件として設定する。なお、部分領域には「適用対象」と「非適用対象」しか存在しないので、適用対象を設定すること、非適用対象を設定すること、および双方を設定することは、全て同一の概念である。表示制御部(主制御部211)は、設定部により設定された表示条件に基づいて、形成部により形成された画像を表示手段(表示部241)に表示させる。つまり、表示制御部は、「適用対象」の部分領域にのみ画像処理を適用して得られるOCT画像を表示部241に表示させる。表示手段は、眼科撮影装置に含まれていてもよいし、外部装置であってもよい。
The ophthalmologic photographing apparatus according to this embodiment includes an optical system, a forming unit, a dividing unit, a setting unit, and a display control unit. The optical system divides the light from the light source (light source unit 101) into signal light (LS) and reference light (LR), and the signal light passing through the eye to be examined (E) and the reference light passing through the reference light path. Interference light (LC) is detected. The forming unit forms an image of the eye to be examined based on the detection result of the interference light by the optical system. The dividing unit (image dividing unit 231) divides the image (G) formed by the forming unit into a plurality of partial regions (G1 to G4). The setting unit (display condition setting unit 232) sets, as a display condition, a partial region to which a predetermined image processing is applied (a partial region to be applied) among a plurality of partial regions acquired by the dividing unit. . In addition, since there are only “applicable target” and “non-applicable target” in the partial area, setting the applied target, setting the non-applicable target, and setting both are all the same concept. . The display control unit (main control unit 211) causes the display unit (display unit 241) to display the image formed by the forming unit based on the display conditions set by the setting unit. That is, the display control unit causes the display unit 241 to display an OCT image obtained by applying image processing only to the “application target” partial region. The display means may be included in the ophthalmologic photographing apparatus or an external device.
このような眼科撮影装置によれば、OCT画像の部分領域ごとに画像領域の適用の有無を決定し、空間的に選択的な画像処理によって得られたOCT画像を表示させることができる。したがって、OCT画像全体にわたって視認性を向上させることが可能である。それにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能となる。
According to such an ophthalmologic photographing apparatus, it is possible to determine whether or not to apply an image region for each partial region of the OCT image, and display an OCT image obtained by spatially selective image processing. Therefore, it is possible to improve visibility over the entire OCT image. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
画像処理が、2以上の画像を重ね合わせて単一の画像を形成する重ね合わせ処理を含む場合、光学系は、被検眼の実質的に同一の断面を信号光で複数回走査する走査部(ガルバノスキャナ42)を含み、かつ、形成部は、この複数回の走査に伴い光学系により取得される干渉光の検出結果に基づいて、この断面の複数の画像を形成する。分割部は、形成部により形成された複数の画像のそれぞれを複数の部分領域に分割する。表示制御部は、重ね合わせ処理部(233)を含む。重ね合わせ処理部は、複数の画像に対する重ね合わせ処理として、複数の部分領域のうち設定部により重ね合わせ処理の適用対象に設定された部分領域についてのみ複数の画像を重ね合わせる処理を実行する。表示制御部は、重ね合わせ処理部により形成された単一の画像を表示手段に表示させる。
When the image processing includes a superimposition process in which two or more images are superimposed to form a single image, the optical system scans a substantially identical cross section of the eye to be examined multiple times with signal light ( The formation unit includes a galvano scanner 42), and forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system in association with the plurality of scans. The dividing unit divides each of the plurality of images formed by the forming unit into a plurality of partial regions. The display control unit includes an overlay processing unit (233). The superimposition processing unit performs a process of superimposing a plurality of images only on a partial area set as an application target of the superimposition process by the setting unit among the plurality of partial areas as the superimposition process on the plurality of images. The display control unit causes the display unit to display a single image formed by the overlay processing unit.
この構成によれば、重ね合わせ処理に適当な部分領域についてのみそれを適用することができる。重ね合わせ処理に適当な部分領域とは、たとえば、実質的に運動を伴わない部位、つまり実質的に静止している部位が描画される画像領域である。上記の例では、重ね合わせ処理に適当な部分領域として、網膜、脈絡膜および強膜に相当する部分領域が適用されており、重ね合わせ処理に不適当な部分領域として硝子体に相当する部分領域が適用されている。
According to this configuration, it can be applied only to a partial area suitable for the overlay process. The partial area suitable for the superimposition processing is, for example, an image area in which a part that does not substantially move, that is, a part that is substantially stationary is drawn. In the above example, partial areas corresponding to the retina, choroid and sclera are applied as the appropriate partial areas for the overlay process, and partial areas corresponding to the vitreous body as the inappropriate partial areas for the overlay process. Has been applied.
表示制御部は、複数の部分領域のうち重ね合わせ処理の非適用対象の部分領域について、複数の画像に基づく動画表示を行うことができる。それにより、当該部分領域の運動状態を把握することができる。上記の例では、硝子体の運動状態を観察することが可能である。
The display control unit can perform moving image display based on a plurality of images for a partial region to which the overlay process is not applied among the plurality of partial regions. Thereby, the motion state of the partial area can be grasped. In the above example, it is possible to observe the motion state of the vitreous body.
〈第3の実施形態〉
第2の実施形態と同様の画像重ね合わせ処理が適用される場合の他の実施形態を説明する。この実施形態に係る眼科撮影装置は、たとえば硝子体のようにOCT計測中に動くおそれのある部位が撮像範囲に含まれる場合に好適に用いられる。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Third Embodiment>
Another embodiment in the case where the same image overlay processing as that of the second embodiment is applied will be described. The ophthalmologic imaging apparatus according to this embodiment is suitably used when a region that may move during OCT measurement, such as a vitreous body, is included in the imaging range. The configuration according to this embodiment can be added to the configuration according to another embodiment.
第2の実施形態と同様の画像重ね合わせ処理が適用される場合の他の実施形態を説明する。この実施形態に係る眼科撮影装置は、たとえば硝子体のようにOCT計測中に動くおそれのある部位が撮像範囲に含まれる場合に好適に用いられる。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Third Embodiment>
Another embodiment in the case where the same image overlay processing as that of the second embodiment is applied will be described. The ophthalmologic imaging apparatus according to this embodiment is suitably used when a region that may move during OCT measurement, such as a vitreous body, is included in the imaging range. The configuration according to this embodiment can be added to the configuration according to another embodiment.
この実施形態に係る眼科撮影装置は、第2の実施形態と同様の構成を有する。以下、第1の実施形態および第2の実施形態の図面を適宜参照しつつ、第2の実施形態との差異点について特に詳しく説明を行う。
The ophthalmologic photographing apparatus according to this embodiment has the same configuration as that of the second embodiment. Hereinafter, differences from the second embodiment will be described in detail with reference to the drawings of the first embodiment and the second embodiment as appropriate.
この実施形態に係る眼科撮影装置の構成例を図11に示す。図11に示す構成は、第2の実施形態の図9の代わりに適用される。この実施形態では、制御部210に計時部213が設けられる。
FIG. 11 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment. The configuration shown in FIG. 11 is applied instead of FIG. 9 of the second embodiment. In this embodiment, the control unit 210 is provided with a timer unit 213.
(計時部)
計時部213は、所定タイミングで計時を開始する。この計時開始タイミングは任意である。典型的には、被検眼Eが検査位置にされたタイミングを適用できる。このタイミングは、たとえば、被検者の顔が顎受けまたは額当てに接触したことを検知するセンサ、椅子に被検者が腰掛けたことを検知するセンサ、眼科撮影装置に被検者の顔が近接したことを検知するセンサ(またはカメラおよび画像解析部)などからの信号の入力タイミングである。また、眼底カメラユニット2から出力された照明光の反射光が検出され始めたタイミング、或いは、OCTユニット100から出力された信号光LSが検出され始めたタイミングなどと、計時開始タイミングとしてもよい。また、ユーザが操作部242を介して所定の操作を行ったタイミングを計時開始タイミングとしてもよい。 (Timekeeping Department)
Thetimer unit 213 starts timing at a predetermined timing. This timing start timing is arbitrary. Typically, the timing at which the eye E is brought into the examination position can be applied. This timing may be determined by, for example, a sensor that detects that the subject's face has contacted the chin rest or the forehead, a sensor that detects that the subject has sat on the chair, and the subject's face on the ophthalmic imaging apparatus. This is the input timing of a signal from a sensor (or camera and image analysis unit) that detects proximity. Further, the timing at which the reflected light of the illumination light output from the fundus camera unit 2 starts to be detected, the timing at which the signal light LS output from the OCT unit 100 starts to be detected, or the like may be set as the timing start timing. In addition, the timing at which the user performs a predetermined operation via the operation unit 242 may be set as the timing start timing.
計時部213は、所定タイミングで計時を開始する。この計時開始タイミングは任意である。典型的には、被検眼Eが検査位置にされたタイミングを適用できる。このタイミングは、たとえば、被検者の顔が顎受けまたは額当てに接触したことを検知するセンサ、椅子に被検者が腰掛けたことを検知するセンサ、眼科撮影装置に被検者の顔が近接したことを検知するセンサ(またはカメラおよび画像解析部)などからの信号の入力タイミングである。また、眼底カメラユニット2から出力された照明光の反射光が検出され始めたタイミング、或いは、OCTユニット100から出力された信号光LSが検出され始めたタイミングなどと、計時開始タイミングとしてもよい。また、ユーザが操作部242を介して所定の操作を行ったタイミングを計時開始タイミングとしてもよい。 (Timekeeping Department)
The
計時部213は、上記のようなタイミングで計時を開始し、あらかじめ決められた時間に到達したことを示す信号を出力する。この計時時間は、受動的な運動を伴う眼の部位について、被検者(被検眼)が実質的に静止状態になってから当該部位が実質的に静止するまでに掛かる時間を考慮して、あらかじめ設定される。この実施形態では、被検眼が検査位置についてから硝子体の動きが実質的に停止するまでに掛かる時間を考慮する場合について説明する。計時時間はたとえば15秒に設定される。なお、計時時間が長くなると検査時間も長くなるので、検査のスループットも考慮して計時時間を設定してもよい。
The timer unit 213 starts timing at the timing as described above, and outputs a signal indicating that a predetermined time has been reached. This time measurement is for the part of the eye with passive motion, taking into account the time it takes for the part (subject eye) to become substantially stationary after the subject (subject eye) is substantially stationary. Set in advance. In this embodiment, a case will be described in which the time taken for the eye to be inspected from the inspection position until the movement of the vitreous body substantially stops is considered. The time keeping time is set to 15 seconds, for example. In addition, since the inspection time becomes longer as the timed time becomes longer, the timed time may be set in consideration of the inspection throughput.
計時時間は、たとえば、当該部位が動いている状態から実質的に静止するまでに掛かる時間を複数の眼について実際に計測し、その計測結果から統計的に算出される(たとえば平均値、最頻値、最大値などが適用される)。また、被検者または被検眼の特徴(年齢、性別、傷病名、傷病の程度など)に応じて準備された複数の計時時間を選択的に適用することも可能である。
The time measured is, for example, actually measured for a plurality of eyes from the state in which the part is moving until it substantially stops, and is statistically calculated from the measurement results (for example, the average value, the mode) Value, maximum value, etc.). It is also possible to selectively apply a plurality of timings prepared according to the characteristics of the subject or eye (age, gender, name of wound, disease degree, etc.).
また、当該被検眼について過去に行われたOCT計測の結果に基づいて静止までの時間を算出し、この算出結果に基づいて計時時間を算出することも可能である。この場合において、過去にOCT計測が複数回行われており、静止までの時間を複数算出できるときには、これら複数の算出結果の推移(および検査日時に基づく検査間隔)に基づいて、新たな計時時間を推定することも可能である。
Also, it is possible to calculate the time to rest based on the result of OCT measurement performed in the past for the eye to be examined, and calculate the time measured based on this calculation result. In this case, when multiple OCT measurements have been performed in the past and a plurality of times until stationary can be calculated, a new time measurement is made based on the transition of these calculation results (and the inspection interval based on the inspection date and time). Can also be estimated.
[動作]
この実施形態に係る眼科撮影装置の動作について説明する。図12は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 12 illustrates an example of the operation of the ophthalmologic photographing apparatus.
この実施形態に係る眼科撮影装置の動作について説明する。図12は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 12 illustrates an example of the operation of the ophthalmologic photographing apparatus.
(S61:被検眼を検査位置に配置する)
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。前述のいずれかのセンサは、被検眼Eが検査位置に配置されたことを検知し、制御部210に信号を送る。 (S61: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment. Any of the above-described sensors detects that the eye E has been placed at the examination position, and sends a signal to thecontrol unit 210.
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。前述のいずれかのセンサは、被検眼Eが検査位置に配置されたことを検知し、制御部210に信号を送る。 (S61: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment. Any of the above-described sensors detects that the eye E has been placed at the examination position, and sends a signal to the
(S62:計時を開始する)
主制御部211は、センサからの信号を受けて、計時部213による計時を開始させる。 (S62: Start timing)
Themain control unit 211 receives a signal from the sensor, and starts time measurement by the time measurement unit 213.
主制御部211は、センサからの信号を受けて、計時部213による計時を開始させる。 (S62: Start timing)
The
ステップS62の後、ステップS63およびS64と、ステップS65~S67とは、並行して実行される。ステップS63およびS64は、OCT計測を実行可能な装置状態に移行させるための処理である(つまり、硝子体等が静止するまで待機させることを目的とする処理である)。一方、ステップS65~S67は、OCT計測を実行するための準備処理である。本例では、双方の処理が完了しない限り、OCT計測を実行できないように主制御部211が制御を行う。
After step S62, steps S63 and S64 and steps S65 to S67 are executed in parallel. Steps S63 and S64 are processing for shifting to an apparatus state in which OCT measurement can be performed (that is, processing for the purpose of waiting until the vitreous body or the like stops). On the other hand, steps S65 to S67 are preparation processes for executing the OCT measurement. In this example, the main control unit 211 performs control so that OCT measurement cannot be performed unless both processes are completed.
(S63:計時を終了する)
計時部213は、所定時間だけ計時を行い、主制御部211に信号を送る。 (S63: End timing)
Thetime measuring unit 213 measures time for a predetermined time and sends a signal to the main control unit 211.
計時部213は、所定時間だけ計時を行い、主制御部211に信号を送る。 (S63: End timing)
The
(S64:OCT計測を実行可能な装置状態にする)
主制御部211は、ステップS63で計時部213から出力された信号を受けて、眼科撮影装置の装置状態を、OCT計測を実行可能な装置状態に移行させる。OCT計測を実行可能な装置状態とは、OCT計測の開始指示を受け付けてOCT計測を実行させることが可能な装置状態をいう。 (S64: Set to a device state capable of performing OCT measurement)
Themain control unit 211 receives the signal output from the time measuring unit 213 in step S63, and shifts the apparatus state of the ophthalmologic photographing apparatus to an apparatus state in which OCT measurement can be performed. The apparatus state in which OCT measurement can be performed refers to an apparatus state in which an OCT measurement start instruction can be received and OCT measurement can be performed.
主制御部211は、ステップS63で計時部213から出力された信号を受けて、眼科撮影装置の装置状態を、OCT計測を実行可能な装置状態に移行させる。OCT計測を実行可能な装置状態とは、OCT計測の開始指示を受け付けてOCT計測を実行させることが可能な装置状態をいう。 (S64: Set to a device state capable of performing OCT measurement)
The
なお、ステップS64の装置状態の移行がなされる前においては、OCT計測の開始指示(手動でなされる指示、または他の準備が整った状態の到来に対応する自動的な指示)がなされても、主制御部211は、この開始指示を拒絶する。このとき、所定のメッセージを出力させることができる。たとえば、主制御部211は、装置状態の移行まで待機するよう促すメッセージを表示部241に表示させることができる。また、計時部213による計時の進行状況を提示することができる。たとえば、主制御部211は、計時時間を示す数値を表示部241にカウントダウン表示またはカウントアップ表示させることができる。
It should be noted that even before an apparatus state transition is made in step S64, an instruction to start OCT measurement (an instruction made manually or an automatic instruction corresponding to the arrival of another ready state) is made. The main control unit 211 rejects this start instruction. At this time, a predetermined message can be output. For example, the main control unit 211 can cause the display unit 241 to display a message that prompts the user to wait until the apparatus state transitions. In addition, the progress status of timing by the timing unit 213 can be presented. For example, the main control unit 211 can cause the display unit 241 to display a numerical value indicating the timekeeping time in a countdown display or a countup display.
(S65:撮影モードを選択する)
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S65: Select the shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S65: Select the shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
(S66:オートアライメント・オートフォーカス)
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S66: Auto alignment and auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S66: Auto alignment and auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
(S67:フォーカス状態を微調整する)
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S67: Fine adjustment of the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S67: Fine adjustment of the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
(S68:OCT計測を反復して行う)
ステップS64の装置状態の移行と、ステップS67のフォーカスの微調整の双方が完了した後、眼科撮影装置は、第2の実施形態と同様に、所定のスキャンパターンでのOCT計測を繰り返し実行する。 (S68: Repeat OCT measurement)
After both the transition of the apparatus state in step S64 and the fine adjustment of the focus in step S67 are completed, the ophthalmic imaging apparatus repeatedly performs OCT measurement with a predetermined scan pattern, as in the second embodiment.
ステップS64の装置状態の移行と、ステップS67のフォーカスの微調整の双方が完了した後、眼科撮影装置は、第2の実施形態と同様に、所定のスキャンパターンでのOCT計測を繰り返し実行する。 (S68: Repeat OCT measurement)
After both the transition of the apparatus state in step S64 and the fine adjustment of the focus in step S67 are completed, the ophthalmic imaging apparatus repeatedly performs OCT measurement with a predetermined scan pattern, as in the second embodiment.
(S69:レジストレーションを行う)
画像位置合わせ部2331は、第2の実施形態と同様に、ステップS68で取得された複数の画像(断面像またはボリュームデータ)のレジストレーションを行う。 (S69: Perform registration)
Similar to the second embodiment, theimage alignment unit 2331 registers a plurality of images (cross-sectional images or volume data) acquired in step S68.
画像位置合わせ部2331は、第2の実施形態と同様に、ステップS68で取得された複数の画像(断面像またはボリュームデータ)のレジストレーションを行う。 (S69: Perform registration)
Similar to the second embodiment, the
(S70:画像重ね合わせ処理を行う)
画像合成部2332は、レジストレーションがなされた複数の画像を合成することにより、単一の画像を形成する。この画像合成処理は、部分領域ごとに合成される第2の実施形態と異なり、画像全体に対して行われる。 (S70: Perform image overlay processing)
Theimage composition unit 2332 forms a single image by compositing a plurality of registered images. This image synthesis process is performed on the entire image, unlike the second embodiment in which the partial areas are synthesized.
画像合成部2332は、レジストレーションがなされた複数の画像を合成することにより、単一の画像を形成する。この画像合成処理は、部分領域ごとに合成される第2の実施形態と異なり、画像全体に対して行われる。 (S70: Perform image overlay processing)
The
(S71:画像を表示する)
主制御部211は、ステップS70で形成された画像を表示部241に表示させる。 (S71: display an image)
Themain control unit 211 causes the display unit 241 to display the image formed in step S70.
主制御部211は、ステップS70で形成された画像を表示部241に表示させる。 (S71: display an image)
The
なお、上記動作例においては説明を省略したが、たとえば第1の実施形態と同様に、部分領域を特定する処理(S27)と、部分領域に相当する眼の部位を選択する処理(S28)と、表示条件を特定する処理(S29)と、表示条件に基づき画像を表示する処理(S30)とを実行することが可能である。
Although description has been omitted in the above operation example, for example, as in the first embodiment, a process of specifying a partial area (S27) and a process of selecting an eye part corresponding to the partial area (S28) The process for specifying the display condition (S29) and the process for displaying the image based on the display condition (S30) can be executed.
[効果]
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置において、光学系は、信号光で被検眼を走査する走査部(ガルバノスキャナ42)を含む。さらに、この眼科撮影装置は、所定タイミングで計時を開始する計時部(213)と、計時部により所定時間が計時された後に、被検眼の実質的に同一の断面を信号光で複数回走査するよう光学系を制御する制御部(主制御部211)とを有する。形成部(画像形成部220(およびデータ処理部230))は、複数回の走査に伴い光学系により取得される干渉光の検出結果に基づいて、この断面の複数の画像を形成する。表示制御部は、形成部により形成された複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部(233)を含む。さらに、表示制御部(主制御部211)は、重ね合わせ処理部により形成された単一の画像を表示手段に表示させる。
In the ophthalmologic photographing apparatus according to this embodiment, the optical system includes a scanning unit (galvano scanner 42) that scans the eye to be examined with signal light. Further, the ophthalmologic photographing apparatus scans substantially the same cross section of the eye to be inspected with the signal light a plurality of times after a predetermined time is measured by the time measuring unit (213) that starts timing at a predetermined timing. And a control unit (main control unit 211) for controlling the optical system. The forming unit (the image forming unit 220 (and the data processing unit 230)) forms a plurality of images of this cross section based on the detection result of the interference light acquired by the optical system during a plurality of scans. The display control unit includes an overlay processing unit (233) that forms a single image by superimposing a plurality of images formed by the forming unit. Further, the display control unit (main control unit 211) causes the display unit to display a single image formed by the overlay processing unit.
このような眼科撮影装置によれば、動きを伴う部位が撮像範囲に含まれている場合であっても、その部位が実質的に静止した後に反復的なOCT計測を行い、それにより得られた複数の画像の重ね合わせ処理を行うことができる。したがって、好適な重ね合わせ画像を得ることができる。また、たとえば第1の実施形態のように部分領域ごとに表示条件を適用する構成を付加することにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能な重ね合わせ画像を取得することが可能となる。
According to such an ophthalmologic photographing apparatus, even when a region with movement is included in the imaging range, it is obtained by performing repetitive OCT measurement after the region is substantially stationary. A plurality of images can be superimposed. Therefore, a suitable superimposed image can be obtained. Further, for example, by adding a configuration that applies display conditions for each partial region as in the first embodiment, it is possible to perform not only local observation of the subject eye but also global observation suitably. A combined image can be acquired.
〈第4の実施形態〉
第4の実施形態は、第3の実施形態と同様に、OCT計測中に動くおそれのある部位が撮像範囲に含まれる場合に好適に用いられる。第3の実施形態では、当該部位の静止を待ってOCT計測を行なっている。これに対し、この実施形態では、リアルタイムで取得される画像によって当該部位の動きを監視し、実質的に静止した後にOCT計測を行う。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Fourth Embodiment>
As in the third embodiment, the fourth embodiment is suitably used when a region that may move during OCT measurement is included in the imaging range. In the third embodiment, OCT measurement is performed after the part is stationary. On the other hand, in this embodiment, the movement of the part is monitored by an image acquired in real time, and OCT measurement is performed after substantially stopping. The configuration according to this embodiment can be added to the configuration according to another embodiment.
第4の実施形態は、第3の実施形態と同様に、OCT計測中に動くおそれのある部位が撮像範囲に含まれる場合に好適に用いられる。第3の実施形態では、当該部位の静止を待ってOCT計測を行なっている。これに対し、この実施形態では、リアルタイムで取得される画像によって当該部位の動きを監視し、実質的に静止した後にOCT計測を行う。なお、この実施形態に係る構成を他の実施形態に係る構成に付加することが可能である。 <Fourth Embodiment>
As in the third embodiment, the fourth embodiment is suitably used when a region that may move during OCT measurement is included in the imaging range. In the third embodiment, OCT measurement is performed after the part is stationary. On the other hand, in this embodiment, the movement of the part is monitored by an image acquired in real time, and OCT measurement is performed after substantially stopping. The configuration according to this embodiment can be added to the configuration according to another embodiment.
この実施形態に係る眼科撮影装置は、第2の実施形態と同様の構成を有する。以下、第1の実施形態および第2の実施形態の図面を適宜参照しつつ、第2の実施形態との差異点について特に詳しく説明を行う。
The ophthalmologic photographing apparatus according to this embodiment has the same configuration as that of the second embodiment. Hereinafter, differences from the second embodiment will be described in detail with reference to the drawings of the first embodiment and the second embodiment as appropriate.
この実施形態に係る眼科撮影装置の構成例を図13に示す。図13に示す構成は、第2の実施形態の図9の代わりに適用される。この実施形態では、データ処理部230に運動状態判定部234が設けられる。なお、重ね合わせ処理部233には、第2の実施形態と同様に、画像位置合わせ部2331と画像合成部2332とが設けられている。
FIG. 13 shows a configuration example of the ophthalmologic photographing apparatus according to this embodiment. The configuration shown in FIG. 13 is applied instead of FIG. 9 of the second embodiment. In this embodiment, an exercise state determination unit 234 is provided in the data processing unit 230. Note that the overlay processing unit 233 is provided with an image alignment unit 2331 and an image composition unit 2332 as in the second embodiment.
(運動状態判定部)
運動状態判定部234は、被検眼Eの特定部位の運動状態を判定する。特に、運動状態判定部234は、特定部位が実質的に静止しているか判定することができる。運動状態判定部234は「判定部」として機能する。運動状態判定部234は、運動状態情報取得部2341と、判定処理部2342とを有する。特定部位は、たとえば硝子体のような動きを伴う可能性がある部位である。 (Exercise state determination unit)
The movementstate determination unit 234 determines the movement state of a specific part of the eye E. In particular, the exercise state determination unit 234 can determine whether the specific part is substantially stationary. The exercise state determination unit 234 functions as a “determination unit”. The exercise state determination unit 234 includes an exercise state information acquisition unit 2341 and a determination processing unit 2342. A specific site | part is a site | part which may be accompanied by a motion like a vitreous body, for example.
運動状態判定部234は、被検眼Eの特定部位の運動状態を判定する。特に、運動状態判定部234は、特定部位が実質的に静止しているか判定することができる。運動状態判定部234は「判定部」として機能する。運動状態判定部234は、運動状態情報取得部2341と、判定処理部2342とを有する。特定部位は、たとえば硝子体のような動きを伴う可能性がある部位である。 (Exercise state determination unit)
The movement
(運動状態情報取得部)
運動状態情報取得部2341は、反復的なOCT計測によりリアルタイムで取得されるOCT画像(2次元画像または3次元画像)を逐次に解析することにより、OCT画像に描出されている被検眼Eの特定部位の運動状態を示す情報(運動状態情報)を取得する。 (Exercise status information acquisition unit)
The motion stateinformation acquisition unit 2341 sequentially identifies an OCT image (a two-dimensional image or a three-dimensional image) acquired in real time by repetitive OCT measurement, thereby identifying the eye E to be examined depicted in the OCT image. Information indicating the exercise state of the part (exercise state information) is acquired.
運動状態情報取得部2341は、反復的なOCT計測によりリアルタイムで取得されるOCT画像(2次元画像または3次元画像)を逐次に解析することにより、OCT画像に描出されている被検眼Eの特定部位の運動状態を示す情報(運動状態情報)を取得する。 (Exercise status information acquisition unit)
The motion state
運動状態情報取得部2341は、たとえば次のような処理を実行する。まず、運動状態情報取得部2341は、OCT画像を解析して、特定部位に相当する画像領域を特定する。次に、運動状態情報取得部2341は、特定された画像領域の位置情報を取得する。この位置情報は、たとえば、当該画像領域の輪郭に相当する輪郭領域の座標である。また、当該画像領域における特徴位置(重心位置、特徴点の位置など)を位置情報として求めてもよい。
The exercise state information acquisition unit 2341 executes, for example, the following process. First, the exercise state information acquisition unit 2341 analyzes the OCT image and specifies an image region corresponding to the specific part. Next, the exercise state information acquisition unit 2341 acquires position information of the specified image region. This position information is, for example, coordinates of the contour region corresponding to the contour of the image region. Further, a feature position (such as a gravity center position or a feature point position) in the image area may be obtained as position information.
運動状態情報取得部2341は、反復的なOCT計測により取得されるOCT画像それぞれに対して、または取得されるOCT画像から間引きして得られるOCT画像それぞれに対して、以上の処理を実行する。運動状態情報取得部2341により逐次に取得される位置情報は、特定部位の位置の時系列変化を表す情報であり、運動状態情報の一例である。
The exercise state information acquisition unit 2341 performs the above processing for each OCT image acquired by repetitive OCT measurement or for each OCT image obtained by thinning out the acquired OCT image. The position information sequentially acquired by the exercise state information acquisition unit 2341 is information representing a time-series change in the position of the specific part, and is an example of exercise state information.
また、位置情報の代わりに、当該画像領域の形状を示す形状情報を求めてもよい。運動状態情報取得部2341により逐次に取得される形状情報は、特定部位の形状の時系列変化を表す情報であり、運動状態情報の一例である。一般に、運動状態情報は、特定部位の運動に伴って変化する任意のパラメータを含み、運動状態情報取得部2341は、OCT画像を解析して当該パラメータを取得する機能を有するものである。
Further, instead of the position information, shape information indicating the shape of the image area may be obtained. The shape information sequentially acquired by the exercise state information acquisition unit 2341 is information representing a time-series change in the shape of the specific part, and is an example of exercise state information. In general, the exercise state information includes arbitrary parameters that change with the movement of a specific part, and the exercise state information acquisition unit 2341 has a function of analyzing the OCT image and acquiring the parameters.
(判定処理部)
判定処理部2342は、運動状態情報取得部2341により逐次に取得される運動状態情報に基づいて、被検眼Eの特定部位が実質的に静止しているか判定する。 (Judgment processing part)
Thedetermination processing unit 2342 determines whether the specific part of the eye E is substantially stationary based on the motion state information sequentially acquired by the motion state information acquisition unit 2341.
判定処理部2342は、運動状態情報取得部2341により逐次に取得される運動状態情報に基づいて、被検眼Eの特定部位が実質的に静止しているか判定する。 (Judgment processing part)
The
判定処理部2342は、たとえば次のような処理を実行する。まず、判定処理部2342は、第1のOCT画像から得られた位置情報と、第2のOCT画像から得られた位置情報とを比較する(たとえば座標の差分を算出する)。なお、判定処理部2342は、この処理に先立ち、これらOCT画像の間のレジストレーションを行うことができる。これら位置情報が示す位置(座標)が異なることは、これらOCT画像に対応するOCT計測の間に特定部位が移動したことを意味する。逆に、これら位置情報が示す位置が(実質的に)同一であることは、これらOCT計測の間に特定部位が(実質的に)移動していないことを意味する。位置情報(座標)の差分を「変位情報」と呼ぶ。
Determination processing unit 2342 executes the following processing, for example. First, the determination processing unit 2342 compares the position information obtained from the first OCT image with the position information obtained from the second OCT image (for example, calculates a coordinate difference). Note that the determination processing unit 2342 can perform registration between these OCT images prior to this processing. Different positions (coordinates) indicated by these position information means that the specific part has moved during the OCT measurement corresponding to these OCT images. Conversely, the fact that the positions indicated by these position information are (substantially) the same means that the specific part has not moved (substantially) during these OCT measurements. The difference in position information (coordinates) is called “displacement information”.
判定処理部2342は、運動状態情報取得部2341から入力される運動状態情報に対して順次に施していく。すなわち、運動状態情報取得部2341から、第1の運動状態情報、第2の運動状態情報、第3の運動状態情報、・・・・、第Nの運動状態情報が順次に入力される場合、判定処理部2342は、各i=1~N-1について、第iの運動状態情報と第i+1の運動状態情報との組み合わせに対して上記処理を実行し、第iの変位情報を取得する。それにより、N-1個の変位情報が得られる。
The determination processing unit 2342 sequentially applies the exercise state information input from the exercise state information acquisition unit 2341. That is, when the first exercise state information, the second exercise state information, the third exercise state information, ..., the Nth exercise state information are sequentially input from the exercise state information acquisition unit 2341, For each i = 1 to N−1, the determination processing unit 2342 performs the above-described processing on the combination of the i-th motion state information and the i + 1-th motion state information, and acquires i-th displacement information. Thereby, N-1 pieces of displacement information are obtained.
各変位情報は、所定の時間間隔(OCT計測の反復レートまたはその整数倍)における特定部位の変位を表す。また、N-1個の変位情報は、全体として、特定部位の変位の時系列変化を表す。
Each displacement information represents the displacement of a specific part at a predetermined time interval (OCT measurement repetition rate or an integer multiple thereof). Further, the N−1 pieces of displacement information as a whole represents a time-series change in the displacement of the specific part.
判定処理部2342は、逐次に取得される変位情報が所定の閾値以下であるか判定する。変位情報が閾値を超える場合、特定部位は運動しているとみなされる。一方、変位情報が閾値以下である場合、特定部位は実質的に静止しているとみなされる。つまり、上記の閾値は、特定部位が静止状態であると許容できる変位情報の値として、あらかじめ設定される。この閾値は任意に設定される。
The determination processing unit 2342 determines whether the sequentially acquired displacement information is equal to or less than a predetermined threshold value. When the displacement information exceeds the threshold value, the specific part is regarded as moving. On the other hand, when the displacement information is equal to or less than the threshold value, the specific part is considered to be substantially stationary. That is, the threshold value is set in advance as a value of displacement information that can be permitted when the specific part is in a stationary state. This threshold is arbitrarily set.
運動状態情報として形状情報が用いられる場合においても、判定処理部2342は、同様の処理を実行することにより、特定部位が実質的に静止しているか判定することができる。
Even when shape information is used as the exercise state information, the determination processing unit 2342 can determine whether the specific part is substantially stationary by executing the same processing.
[動作]
この実施形態に係る眼科撮影装置の動作について説明する。図14は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 14 illustrates an example of the operation of the ophthalmologic photographing apparatus.
この実施形態に係る眼科撮影装置の動作について説明する。図14は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 14 illustrates an example of the operation of the ophthalmologic photographing apparatus.
(S81:被検眼を検査位置に配置する)
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S81: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S81: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
(S82:撮影モードを選択する)
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S82: Select shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
ユーザが撮影モードを選択する。この処理は、たとえば第1の実施形態と同様に実行される。 (S82: Select shooting mode)
The user selects a shooting mode. This process is executed, for example, in the same manner as in the first embodiment.
(S83:オートアライメント・オートフォーカス)
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S83: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S83: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
(S84:フォーカス状態を微調整する)
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S84: Fine adjustment of the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。 (S84: Fine adjustment of the focus state)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment.
(S85:OCT計測を行う)
ステップS84のフォーカスの微調整が完了したら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。 (S85: Perform OCT measurement)
When the fine adjustment of the focus in step S84 is completed, the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern.
ステップS84のフォーカスの微調整が完了したら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。 (S85: Perform OCT measurement)
When the fine adjustment of the focus in step S84 is completed, the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern.
(S86:運動状態情報を取得する)
運動状態情報取得部2341は、ステップS85のOCT計測で取得されたOCT画像を逐次に解析することにより、このOCT画像に描出されている被検眼Eの特定部位に関する運動状態情報を取得する。 (S86: Acquire exercise state information)
The motion stateinformation acquisition unit 2341 sequentially analyzes the OCT image acquired by the OCT measurement in step S85, thereby acquiring motion state information regarding the specific part of the eye E that is depicted in the OCT image.
運動状態情報取得部2341は、ステップS85のOCT計測で取得されたOCT画像を逐次に解析することにより、このOCT画像に描出されている被検眼Eの特定部位に関する運動状態情報を取得する。 (S86: Acquire exercise state information)
The motion state
(S87:特定部位が静止したか?)
判定処理部2342は、ステップS86で取得された運動状態情報に基づいて、被検眼Eの特定部位が実質的に静止しているか判定する。特定部位が静止していないと判定された場合(S87:No)、ステップS85のOCT計測に戻る。ステップS85~ステップS87は、特定部位が静止していると判定される(S87:Yes)まで繰り返される。 (S87: Was the specific part stationary?)
Thedetermination processing unit 2342 determines whether or not the specific part of the eye E is substantially stationary based on the motion state information acquired in step S86. If it is determined that the specific part is not stationary (S87: No), the process returns to the OCT measurement in step S85. Steps S85 to S87 are repeated until it is determined that the specific part is stationary (S87: Yes).
判定処理部2342は、ステップS86で取得された運動状態情報に基づいて、被検眼Eの特定部位が実質的に静止しているか判定する。特定部位が静止していないと判定された場合(S87:No)、ステップS85のOCT計測に戻る。ステップS85~ステップS87は、特定部位が静止していると判定される(S87:Yes)まで繰り返される。 (S87: Was the specific part stationary?)
The
(S88:OCT計測を反復して行う)
ステップS87において特定部位が静止していると判定されると(S87:Yes)、主制御部211は、眼底Efの実質的に同一の断面を信号光LSで複数回走査するように、OCTユニット100およびガルバノスキャナ42を制御する。この反復的なOCT計測におけるスキャンパターンは、ステップS85におけるそれと同じでも異なってもよい。また、この反復的なOCT計測の後に、眼底撮影を行なってもよい。 (S88: Perform OCT measurement repeatedly)
If it is determined in step S87 that the specific part is stationary (S87: Yes), themain control unit 211 causes the OCT unit to scan the substantially same cross section of the fundus oculi Ef a plurality of times with the signal light LS. 100 and the galvano scanner 42 are controlled. The scan pattern in this repetitive OCT measurement may be the same as or different from that in step S85. Further, fundus imaging may be performed after this repetitive OCT measurement.
ステップS87において特定部位が静止していると判定されると(S87:Yes)、主制御部211は、眼底Efの実質的に同一の断面を信号光LSで複数回走査するように、OCTユニット100およびガルバノスキャナ42を制御する。この反復的なOCT計測におけるスキャンパターンは、ステップS85におけるそれと同じでも異なってもよい。また、この反復的なOCT計測の後に、眼底撮影を行なってもよい。 (S88: Perform OCT measurement repeatedly)
If it is determined in step S87 that the specific part is stationary (S87: Yes), the
(S89:レジストレーションを行う)
画像位置合わせ部2331は、第2の実施形態と同様に、ステップS88で取得された複数の画像(断面像またはボリュームデータ)のレジストレーションを行う。 (S89: Registration is performed)
Similar to the second embodiment, theimage alignment unit 2331 performs registration of a plurality of images (cross-sectional images or volume data) acquired in step S88.
画像位置合わせ部2331は、第2の実施形態と同様に、ステップS88で取得された複数の画像(断面像またはボリュームデータ)のレジストレーションを行う。 (S89: Registration is performed)
Similar to the second embodiment, the
(S90:画像重ね合わせ処理を行う)
画像合成部2332は、レジストレーションがなされた複数の画像を合成することにより、単一の画像を形成する。この画像合成処理は、第3の実施形態と同様に、画像全体に対して行われる。 (S90: Perform image overlay processing)
Theimage composition unit 2332 forms a single image by compositing a plurality of registered images. This image composition processing is performed on the entire image, as in the third embodiment.
画像合成部2332は、レジストレーションがなされた複数の画像を合成することにより、単一の画像を形成する。この画像合成処理は、第3の実施形態と同様に、画像全体に対して行われる。 (S90: Perform image overlay processing)
The
(S91:画像を表示する)
主制御部211は、ステップS90で形成された画像を表示部241に表示させる。 (S91: display an image)
Themain control unit 211 causes the display unit 241 to display the image formed in step S90.
主制御部211は、ステップS90で形成された画像を表示部241に表示させる。 (S91: display an image)
The
なお、上記動作例においては説明を省略したが、たとえば第1の実施形態と同様に、部分領域を特定する処理(S27)と、部分領域に相当する眼の部位を選択する処理(S28)と、表示条件を特定する処理(S29)と、表示条件に基づき画像を表示する処理(S30)とを実行することが可能である。
Although description has been omitted in the above operation example, for example, as in the first embodiment, a process of specifying a partial area (S27) and a process of selecting an eye part corresponding to the partial area (S28) The process for specifying the display condition (S29) and the process for displaying the image based on the display condition (S30) can be executed.
[効果]
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置において、光学系は、被検眼の実質的に同一の断面を信号光で繰り返し走査する走査部(ガルバノスキャナ42)を含む。形成部(画像形成部220(およびデータ処理部230))は、この繰り返し走査に伴い光学系により取得される干渉光の検出結果に基づいて、この断面の画像を逐次に形成する。また、この眼科撮影装置は、判定部(運動状態判定部234)と、制御部(主制御部211)とを有する。判定部は、形成部により形成される画像を逐次に解析することにより、画像に描出されている被検眼の特定部位の運動状態を示す運動状態情報を取得する。さらに、判定部は、逐次に取得される運動状態情報に基づいて、被検眼の特定部位が実質的に静止しているか判定する。制御部は、判定部により特定部位が実質的に静止していると判定されたことに対応し、実質的に同一の断面を信号光で複数回走査するよう光学系を制御する。形成部は、この複数回の走査に伴い光学系により取得される干渉光の検出結果に基づいて、この断面の複数の画像を形成する。表示制御部は、形成部により形成された複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部(233)を含む。表示制御部(主制御部211)は、重ね合わせ処理部により形成された単一の画像を表示手段(表示部241)に表示させる。
In the ophthalmologic photographing apparatus according to this embodiment, the optical system includes a scanning unit (galvano scanner 42) that repeatedly scans substantially the same cross section of the eye to be examined with signal light. The forming unit (the image forming unit 220 (and the data processing unit 230)) sequentially forms an image of this cross section based on the detection result of the interference light acquired by the optical system with this repeated scanning. In addition, the ophthalmologic photographing apparatus includes a determination unit (motion state determination unit 234) and a control unit (main control unit 211). The determination unit sequentially analyzes the images formed by the forming unit, thereby acquiring motion state information indicating the motion state of the specific part of the eye to be examined depicted in the image. Furthermore, the determination unit determines whether the specific part of the eye to be examined is substantially stationary based on the motion state information acquired sequentially. The control unit controls the optical system to scan the substantially same cross section with the signal light a plurality of times in response to the determination that the specific part is determined to be substantially stationary by the determination unit. The forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system during the plurality of scans. The display control unit includes an overlay processing unit (233) that forms a single image by superimposing a plurality of images formed by the forming unit. The display control unit (main control unit 211) causes the display unit (display unit 241) to display a single image formed by the overlay processing unit.
このような眼科撮影装置によれば、動きを伴う部位が撮像範囲に含まれている場合であっても、その部位の運動状態を監視し、その部位が実質的に静止した後に反復的なOCT計測を行い、それにより得られた複数の画像の重ね合わせ処理を行うことができる。したがって、好適な重ね合わせ画像を得ることができる。また、たとえば第1の実施形態のように部分領域ごとに表示条件を適用する構成を付加することにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能な重ね合わせ画像を取得することが可能となる。
According to such an ophthalmologic photographing apparatus, even when a region with movement is included in the imaging range, the motion state of the region is monitored, and the OCT is repeated after the region is substantially stationary. Measurement can be performed and a plurality of images obtained thereby can be superimposed. Therefore, a suitable superimposed image can be obtained. Further, for example, by adding a configuration that applies display conditions for each partial region as in the first embodiment, it is possible to perform not only local observation of the subject eye but also global observation suitably. A combined image can be acquired.
〈第5の実施形態〉
第5の実施形態に係る眼科撮影装置は、異なる焦点位置で複数回のOCT計測を行い、得られた複数のOCT画像の部分領域を組み合わせて画像を形成する。組み合わせに用いられる各部分領域は、OCT計測において焦点が合わせられた位置を含む。以下、OCT計測を2回行って得られた2枚のOCT画像に基づく2つの部分領域を組み合わせる場合について説明するが、OCT計測の回数や、組み合わせられる部分領域の個数は、それぞれ任意である。 <Fifth Embodiment>
The ophthalmologic imaging apparatus according to the fifth embodiment performs OCT measurement a plurality of times at different focal positions, and forms an image by combining partial regions of the obtained plurality of OCT images. Each partial area used for the combination includes a position focused in the OCT measurement. Hereinafter, a case where two partial regions based on two OCT images obtained by performing OCT measurement twice will be described. However, the number of times of OCT measurement and the number of partial regions to be combined are arbitrary.
第5の実施形態に係る眼科撮影装置は、異なる焦点位置で複数回のOCT計測を行い、得られた複数のOCT画像の部分領域を組み合わせて画像を形成する。組み合わせに用いられる各部分領域は、OCT計測において焦点が合わせられた位置を含む。以下、OCT計測を2回行って得られた2枚のOCT画像に基づく2つの部分領域を組み合わせる場合について説明するが、OCT計測の回数や、組み合わせられる部分領域の個数は、それぞれ任意である。 <Fifth Embodiment>
The ophthalmologic imaging apparatus according to the fifth embodiment performs OCT measurement a plurality of times at different focal positions, and forms an image by combining partial regions of the obtained plurality of OCT images. Each partial area used for the combination includes a position focused in the OCT measurement. Hereinafter, a case where two partial regions based on two OCT images obtained by performing OCT measurement twice will be described. However, the number of times of OCT measurement and the number of partial regions to be combined are arbitrary.
この実施形態に係る眼科撮影装置は、第1の実施形態と同様の構成を有する。よって、第1の実施形態の図面を適宜に参照する。
The ophthalmologic photographing apparatus according to this embodiment has the same configuration as that of the first embodiment. Therefore, the drawings of the first embodiment are appropriately referred to.
この実施形態に係る眼科撮影装置は、信号光LSの焦点位置を変更するための焦点位置変更部を含む。焦点位置変更部は、たとえば合焦レンズ43(および合焦駆動部43A)を含む。主制御部211は、合焦駆動部43Aを制御することにより、合焦レンズ43を信号光LSの光軸方向に移動させる。それにより、信号光LSの合焦位置が、被検眼Eの深さ方向(z方向)に移動される。
The ophthalmologic photographing apparatus according to this embodiment includes a focal position changing unit for changing the focal position of the signal light LS. The focal position changing unit includes, for example, a focusing lens 43 (and a focusing driving unit 43A). The main control unit 211 moves the focusing lens 43 in the optical axis direction of the signal light LS by controlling the focusing driving unit 43A. Thereby, the focus position of the signal light LS is moved in the depth direction (z direction) of the eye E to be examined.
[動作]
この実施形態に係る眼科撮影装置の動作について説明する。図15は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 15 illustrates an example of the operation of the ophthalmologic photographing apparatus.
この実施形態に係る眼科撮影装置の動作について説明する。図15は、眼科撮影装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic photographing apparatus according to this embodiment will be described. FIG. 15 illustrates an example of the operation of the ophthalmologic photographing apparatus.
(S101:被検眼を検査位置に配置する)
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S101: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
被検眼Eが検査位置に配置される。この処理は、たとえば第1の実施形態と同様に実行される。 (S101: The eye to be examined is placed at the examination position)
The eye E to be examined is placed at the examination position. This process is executed, for example, in the same manner as in the first embodiment.
(S102:撮影モードを選択する)
ユーザが撮影モードを選択する。この実施形態では、撮影モードとして、画像貼り合わせモードが選択されるとする。画像貼り合わせモードは、異なる焦点位置で複数回のOCT計測を行い、得られた複数のOCT画像の部分領域を組み合わせて画像を形成するように眼科撮影装置を動作させるためのモードである。撮影モードを選択する処理は、たとえば第1の実施形態と同様に実行される。 (S102: Select shooting mode)
The user selects a shooting mode. In this embodiment, it is assumed that the image pasting mode is selected as the shooting mode. The image pasting mode is a mode for operating the ophthalmologic photographing apparatus so that the OCT measurement is performed a plurality of times at different focal positions and an image is formed by combining partial regions of the obtained plurality of OCT images. The process for selecting the shooting mode is executed, for example, as in the first embodiment.
ユーザが撮影モードを選択する。この実施形態では、撮影モードとして、画像貼り合わせモードが選択されるとする。画像貼り合わせモードは、異なる焦点位置で複数回のOCT計測を行い、得られた複数のOCT画像の部分領域を組み合わせて画像を形成するように眼科撮影装置を動作させるためのモードである。撮影モードを選択する処理は、たとえば第1の実施形態と同様に実行される。 (S102: Select shooting mode)
The user selects a shooting mode. In this embodiment, it is assumed that the image pasting mode is selected as the shooting mode. The image pasting mode is a mode for operating the ophthalmologic photographing apparatus so that the OCT measurement is performed a plurality of times at different focal positions and an image is formed by combining partial regions of the obtained plurality of OCT images. The process for selecting the shooting mode is executed, for example, as in the first embodiment.
(S103:オートアライメント・オートフォーカス)
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S103: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
オートアライメントおよびオートフォーカスが実行される。この処理は、たとえば第1の実施形態と同様に実行される。 (S103: Auto alignment / Auto focus)
Auto alignment and auto focus are executed. This process is executed, for example, in the same manner as in the first embodiment.
(S104:フォーカス状態を微調整して第1焦点位置に合わせる)
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。この段階では、被検眼Eの硝子体の任意の位置(第1焦点位置)にフォーカスが設定されるものとする。なお、この処理を自動で行うことができる。また、ステップS104のオートフォーカスによってフォーカスを第1焦点位置に合わせるようにしてもよい。 (S104: Finely adjust the focus state to match the first focus position)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment. At this stage, the focus is set to an arbitrary position (first focal position) of the vitreous body of the eye E. This process can be performed automatically. Further, the focus may be adjusted to the first focus position by the auto focus in step S104.
ユーザは、フォーカス状態を微調整する。この処理は、たとえば第1の実施形態と同様に実行される。この段階では、被検眼Eの硝子体の任意の位置(第1焦点位置)にフォーカスが設定されるものとする。なお、この処理を自動で行うことができる。また、ステップS104のオートフォーカスによってフォーカスを第1焦点位置に合わせるようにしてもよい。 (S104: Finely adjust the focus state to match the first focus position)
The user finely adjusts the focus state. This process is executed, for example, in the same manner as in the first embodiment. At this stage, the focus is set to an arbitrary position (first focal position) of the vitreous body of the eye E. This process can be performed automatically. Further, the focus may be adjusted to the first focus position by the auto focus in step S104.
(S105:第1のOCT計測を行う)
フォーカスが第1焦点位置に合わせられたら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。それにより、フォーカスが第1焦点位置に合った状態の第1画像が得られる。 (S105: Perform first OCT measurement)
When the focus is adjusted to the first focus position, the ophthalmologic imaging apparatus performs OCT measurement with a predetermined scan pattern. Thereby, a first image in a state where the focus is in the first focal position is obtained.
フォーカスが第1焦点位置に合わせられたら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。それにより、フォーカスが第1焦点位置に合った状態の第1画像が得られる。 (S105: Perform first OCT measurement)
When the focus is adjusted to the first focus position, the ophthalmologic imaging apparatus performs OCT measurement with a predetermined scan pattern. Thereby, a first image in a state where the focus is in the first focal position is obtained.
(S106:フォーカス状態を微調整して第2焦点位置に合わせる)
ユーザは、フォーカス状態の微調整を再度行う。この段階では、被検眼Eの網膜(または脈絡膜)の任意の位置(第2焦点位置)にフォーカスが設定されるものとする。なお、この処理を自動で行うことができる。 (S106: Finely adjust the focus state to match the second focus position)
The user performs fine adjustment of the focus state again. At this stage, the focus is set to an arbitrary position (second focal position) of the retina (or choroid) of the eye E. This process can be performed automatically.
ユーザは、フォーカス状態の微調整を再度行う。この段階では、被検眼Eの網膜(または脈絡膜)の任意の位置(第2焦点位置)にフォーカスが設定されるものとする。なお、この処理を自動で行うことができる。 (S106: Finely adjust the focus state to match the second focus position)
The user performs fine adjustment of the focus state again. At this stage, the focus is set to an arbitrary position (second focal position) of the retina (or choroid) of the eye E. This process can be performed automatically.
(S107:第2のOCT計測を行う)
フォーカスが第2焦点位置に合わせられたら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。それにより、フォーカスが第2焦点位置に合った状態の第2画像が得られる。なお、ステップS107で適用されるスキャンパターンは、ステップS105で適用されたスキャンパターンと同じであっても異なっていてもよい。ただし、双方のスキャン領域の少なくとも一部は重複しているものとする。これ以降の処理は、この重複領域に対して実行可能である。 (S107: Perform second OCT measurement)
When the focus is adjusted to the second focal position, the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern. Thereby, a second image in a state where the focus is in the second focal position is obtained. Note that the scan pattern applied in step S107 may be the same as or different from the scan pattern applied in step S105. However, it is assumed that at least a part of both scan areas overlap. Subsequent processing can be performed on this overlapping area.
フォーカスが第2焦点位置に合わせられたら、眼科撮影装置は、所定のスキャンパターンでOCT計測を実行する。それにより、フォーカスが第2焦点位置に合った状態の第2画像が得られる。なお、ステップS107で適用されるスキャンパターンは、ステップS105で適用されたスキャンパターンと同じであっても異なっていてもよい。ただし、双方のスキャン領域の少なくとも一部は重複しているものとする。これ以降の処理は、この重複領域に対して実行可能である。 (S107: Perform second OCT measurement)
When the focus is adjusted to the second focal position, the ophthalmologic photographing apparatus performs OCT measurement with a predetermined scan pattern. Thereby, a second image in a state where the focus is in the second focal position is obtained. Note that the scan pattern applied in step S107 may be the same as or different from the scan pattern applied in step S105. However, it is assumed that at least a part of both scan areas overlap. Subsequent processing can be performed on this overlapping area.
(S108:セグメンテーションを行う)
画像領域特定部2311は、第1画像および第2画像それぞれのセグメンテーションを実行する。このセグメンテーションは、被検眼Eの同じ部位について行われる。それにより、第1画像において被検眼Eの所定部位に相当する1次元画像領域(または2次元画像領域)が特定され、かつ、第2画像において同じ所定部位に相当する1次元画像領域(または2次元画像領域)が特定される。 (S108: Perform segmentation)
The imagearea specifying unit 2311 performs segmentation of each of the first image and the second image. This segmentation is performed on the same part of the eye E to be examined. Thereby, a one-dimensional image region (or two-dimensional image region) corresponding to a predetermined portion of the eye E in the first image is specified, and a one-dimensional image region (or two corresponding to the same predetermined portion in the second image). Dimensional image area) is identified.
画像領域特定部2311は、第1画像および第2画像それぞれのセグメンテーションを実行する。このセグメンテーションは、被検眼Eの同じ部位について行われる。それにより、第1画像において被検眼Eの所定部位に相当する1次元画像領域(または2次元画像領域)が特定され、かつ、第2画像において同じ所定部位に相当する1次元画像領域(または2次元画像領域)が特定される。 (S108: Perform segmentation)
The image
図16Aは第1画像H1を模式的に示し、図16Bは第2画像H2を模式的に示す。符号Vは硝子体の後面を示し、符号Pは硝子体ポケット(岸ポケット)を示す。図16Aにおいて、第1のOCT計測においてフォーカスが合わせられている硝子体に相当する部分が実線で示されている。一方、図16Bにおいて、第2のOCT計測においてフォーカスが合わせられている網膜や脈絡膜に相当する部分が実線で示されている。ステップS108では、たとえば、第1画像H1中の網膜-硝子体境界領域h1と、第2画像H2中の網膜-硝子体境界領域h2とが、それぞれ特定される。
FIG. 16A schematically shows the first image H1, and FIG. 16B schematically shows the second image H2. Symbol V indicates the rear surface of the vitreous body, and symbol P indicates a vitreous pocket (shore pocket). In FIG. 16A, a portion corresponding to the vitreous body focused in the first OCT measurement is indicated by a solid line. On the other hand, in FIG. 16B, a portion corresponding to the retina or choroid that is focused in the second OCT measurement is indicated by a solid line. In step S108, for example, the retina-vitreous boundary region h1 in the first image H1 and the retina-vitreous boundary region h2 in the second image H2 are specified.
(S109:部分領域を特定する)
部分領域特定部2312は、ステップS108で特定された1次元画像領域を境界とする2次元画像領域を特定する。それにより、画像分割部231による特定目標である部分領域が得られる。図16Aおよび図16Bに示す例では、第1画像H1において網膜-硝子体境界領域h1よりも上方(硝子体側)の画像領域(硝子体領域)と、第2画像H2において網膜-硝子体境界領域h2よりも下方(網膜側)の画像領域(網膜領域、脈絡膜領域、強膜領域)とが求められる。 (S109: Specify a partial area)
The partialarea specifying unit 2312 specifies a two-dimensional image area having the one-dimensional image area specified in step S108 as a boundary. Thereby, a partial region which is a specific target by the image dividing unit 231 is obtained. In the example shown in FIGS. 16A and 16B, an image region (vitreous region) above (the vitreous body side) above the retina-vitreous boundary region h1 in the first image H1, and a retina-vitreous boundary region in the second image H2. An image region (retinal region, choroid region, sclera region) below h2 (retina side) is obtained.
部分領域特定部2312は、ステップS108で特定された1次元画像領域を境界とする2次元画像領域を特定する。それにより、画像分割部231による特定目標である部分領域が得られる。図16Aおよび図16Bに示す例では、第1画像H1において網膜-硝子体境界領域h1よりも上方(硝子体側)の画像領域(硝子体領域)と、第2画像H2において網膜-硝子体境界領域h2よりも下方(網膜側)の画像領域(網膜領域、脈絡膜領域、強膜領域)とが求められる。 (S109: Specify a partial area)
The partial
(S110:表示条件を設定する)
表示条件設定部232は、第1画像(H1)の第1部分領域(硝子体領域)に対して表示条件を設定する。また、表示条件設定部232は、第2画像(H2)の部分領域のうち第1部分領域と異なる第2部分領域(網膜領域)に対して表示条件を設定する。この設定処理は、たとえば、第1の実施形態と同様に、部分領域に相当する眼の部位を選択する処理(ステップS8)と、表示条件を特定する処理(ステップS9)とによって行われる。 (S110: Set display conditions)
The displaycondition setting unit 232 sets display conditions for the first partial region (vitreous region) of the first image (H1). The display condition setting unit 232 sets display conditions for a second partial region (retinal region) different from the first partial region among the partial regions of the second image (H2). This setting process is performed, for example, by a process of selecting an eye part corresponding to a partial region (step S8) and a process of specifying a display condition (step S9), as in the first embodiment.
表示条件設定部232は、第1画像(H1)の第1部分領域(硝子体領域)に対して表示条件を設定する。また、表示条件設定部232は、第2画像(H2)の部分領域のうち第1部分領域と異なる第2部分領域(網膜領域)に対して表示条件を設定する。この設定処理は、たとえば、第1の実施形態と同様に、部分領域に相当する眼の部位を選択する処理(ステップS8)と、表示条件を特定する処理(ステップS9)とによって行われる。 (S110: Set display conditions)
The display
(S111:表示条件に基づき画像を表示する)
主制御部211は、ステップS110で特定された表示条件を適用して、第1画像の第1部分領域と、第2画像の第2部分領域とを含む単一の画像を表示部241に表示させる。 (S111: An image is displayed based on display conditions)
Themain control unit 211 displays a single image including the first partial region of the first image and the second partial region of the second image on the display unit 241 by applying the display condition specified in step S110. Let
主制御部211は、ステップS110で特定された表示条件を適用して、第1画像の第1部分領域と、第2画像の第2部分領域とを含む単一の画像を表示部241に表示させる。 (S111: An image is displayed based on display conditions)
The
この表示処理は、たとえば、第1画像から第1部分領域を抽出(トリミング)し、第2画像から第2部分領域を抽出(トリミング)し、さらに、第1部分領域と第2部分領域とを境界位置(網膜-硝子体境界領域)にて貼り合わせることによって行われる。
In this display process, for example, the first partial area is extracted (trimmed) from the first image, the second partial area is extracted (trimmed) from the second image, and the first partial area and the second partial area are further divided. This is performed by pasting at the boundary position (retina-vitreous boundary region).
また、第1画像が表示された第1レイヤーと、第2画像が表示された第2レイヤーとを重ね合わせて表示部241に提示することによって、ステップS111の表示処理を行うことができる。たとえば、第2レイヤー上に第1レイヤーが配置されている場合、つまり第1レイヤーが前側に配置されている場合、次のような表示制御を行うことができる:(1)第1レイヤーのうち第1画像の第1部分領域が表示されている第1の部分を不透明にする(たとえば不透明度=100%に設定する);(2)第1レイヤーにおける第1の部分以外の部分(第2の部分)を透明にする(たとえば不透明度=0%に設定する);(3)第2の部分の画素情報(輝度値など)をゼロにする。
Also, the display process of step S111 can be performed by superimposing the first layer on which the first image is displayed and the second layer on which the second image is displayed on the display unit 241. For example, when the first layer is arranged on the second layer, that is, when the first layer is arranged on the front side, the following display control can be performed: (1) Of the first layer Making the first part in which the first partial area of the first image is displayed opaque (for example, setting opacity = 100%); (2) a part other than the first part in the first layer (second (Part) is made transparent (for example, opacity = 0 is set); (3) pixel information (luminance value, etc.) in the second part is made zero.
図16Aおよび図16Bに示す例では、第1画像H1の第1部分領域(硝子体領域)と、第2画像H2の第2部分領域(網膜領域、脈絡膜領域、強膜領域)とを組み合わせた画像が得られる。この画像を図16Cに模式的に示す。画像Hは、第1画像H1の第1部分領域(硝子体領域)K1と、第2画像H2の第2部分領域(網膜領域、脈絡膜領域、強膜領域)K2とを貼り合わせて得られた画像である。画像Hにおいては、第1部分領域K1中の任意の位置と、第2部分領域中の任意の位置とに、それぞれフォーカスが合わせられている。よって、画像Hは、元の画像H1およびH2と比較して、全体的にフォーカスが合った明りょうな画像である。
In the example shown in FIGS. 16A and 16B, the first partial region (vitreous region) of the first image H1 and the second partial region (retinal region, choroid region, scleral region) of the second image H2 are combined. An image is obtained. This image is schematically shown in FIG. 16C. The image H was obtained by pasting the first partial region (vitreous region) K1 of the first image H1 and the second partial region (retinal region, choroid region, sclera region) K2 of the second image H2. It is an image. In the image H, the focus is set at an arbitrary position in the first partial area K1 and an arbitrary position in the second partial area. Therefore, the image H is a clear image that is entirely focused as compared with the original images H1 and H2.
[効果]
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置の効果について説明する。 [effect]
The effect of the ophthalmologic photographing apparatus according to this embodiment will be described.
この実施形態に係る眼科撮影装置は、信号光の焦点位置を変更するための焦点位置変更部(合焦レンズ43(および合焦駆動部43A))を有する。光学系は、第1焦点位置の信号光に基づく第1干渉光を検出し、かつ、第2焦点位置の信号光に基づく第2干渉光を検出する。形成部(画像形成部220(およびデータ処理部230))は、第1干渉光の検出結果に基づいて第1画像を形成し、かつ、第2干渉光の検出結果に基づいて第2画像を形成する。分割部(画像分割部231)は、第1画像および第2画像を実質的に同一の複数の部分領域にそれぞれ分割する。設定部(表示条件設定部232)は、第1画像の複数の部分領域のうちの第1部分領域に対して表示条件を設定し、かつ、第2画像の複数の部分領域のうち第1部分領域と異なる第2部分領域に対して表示条件を設定する。表示制御部(主制御部211)は、設定部により設定された表示条件に基づいて、第1画像の第1部分領域と第2画像の前記第2部分領域とを含む単一の画像を表示手段(表示部241)に表示させる。
The ophthalmologic photographing apparatus according to this embodiment includes a focal position changing unit (the focusing lens 43 (and the focusing driving unit 43A)) for changing the focal position of the signal light. The optical system detects the first interference light based on the signal light at the first focal position and detects the second interference light based on the signal light at the second focal position. The forming unit (the image forming unit 220 (and the data processing unit 230)) forms the first image based on the detection result of the first interference light, and forms the second image based on the detection result of the second interference light. Form. The dividing unit (image dividing unit 231) divides the first image and the second image into a plurality of substantially identical partial regions, respectively. The setting unit (display condition setting unit 232) sets display conditions for the first partial region of the plurality of partial regions of the first image, and the first part of the plurality of partial regions of the second image. Display conditions are set for a second partial area different from the area. The display control unit (main control unit 211) displays a single image including the first partial region of the first image and the second partial region of the second image based on the display conditions set by the setting unit. It is displayed on the means (display unit 241).
このような眼科撮影装置によれば、焦点位置が異なる複数の画像のうちフォーカスが合った部分を合成して単一の画像を形成することができるので、全体的にフォーカスが合った高画質の画像を取得することが可能である。さらに、部分領域ごとに表示条件を設定することができるので、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能である。
According to such an ophthalmologic photographing apparatus, a single image can be formed by synthesizing a focused portion among a plurality of images having different focal positions. An image can be acquired. Furthermore, since display conditions can be set for each partial area, not only local observation of the eye to be examined but also global observation can be suitably performed.
〈眼科画像表示装置〉
眼科画像表示装置の実施形態について説明する。眼科画像表示装置の構成例を図17に示す。 <Ophthalmic image display device>
An embodiment of an ophthalmologic image display apparatus will be described. A configuration example of the ophthalmologic image display apparatus is shown in FIG.
眼科画像表示装置の実施形態について説明する。眼科画像表示装置の構成例を図17に示す。 <Ophthalmic image display device>
An embodiment of an ophthalmologic image display apparatus will be described. A configuration example of the ophthalmologic image display apparatus is shown in FIG.
眼科画像表示装置1000は、制御部1210と、データ処理部1230と、ユーザインターフェイス(UI)1240と、データ受付部1250とを有する。
The ophthalmologic image display apparatus 1000 includes a control unit 1210, a data processing unit 1230, a user interface (UI) 1240, and a data receiving unit 1250.
制御部1210は、たとえば第1の実施形態に係る眼科撮影装置1の制御部210と同様の機能を有し、主制御部1211と記憶部1212とを含む。主制御部1211および記憶部1212は、それぞれ、主制御部211および記憶部212と同様の機能を有する。
The control unit 1210 has the same function as the control unit 210 of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes a main control unit 1211 and a storage unit 1212. The main control unit 1211 and the storage unit 1212 have the same functions as the main control unit 211 and the storage unit 212, respectively.
データ処理部230は、たとえば第1の実施形態に係る眼科撮影装置1のデータ処理部230と同様の機能を有し、画像分割部1231と表示条件設定部1232とを含む。画像分割部1231および表示条件設定部1232は、それぞれ、画像分割部231および表示条件設定部232と同様の機能を有する。
The data processing unit 230 has the same function as the data processing unit 230 of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes an image dividing unit 1231 and a display condition setting unit 1232. The image dividing unit 1231 and the display condition setting unit 1232 have the same functions as the image dividing unit 231 and the display condition setting unit 232, respectively.
ユーザインターフェイス1240は、たとえば第1の実施形態に係る眼科撮影装置1と同様の機能を有し、表示部1241と操作部1242とを含む。表示部1241および操作部1242は、それぞれ、表示部241と操作部242と同様の機能を有する。
The user interface 1240 has a function similar to that of the ophthalmologic photographing apparatus 1 according to the first embodiment, for example, and includes a display unit 1241 and an operation unit 1242. The display unit 1241 and the operation unit 1242 have the same functions as the display unit 241 and the operation unit 242, respectively.
データ受付部1250は、OCTを用いて形成された被検眼の画像を受け付ける。データ受付部1250は、たとえば通信インターフェイスやドライブ装置など、データの受け付け形態に応じた構成を含む。データ受付部1250は「受付部」として機能する。
The data reception unit 1250 receives an image of the eye to be examined formed using OCT. The data receiving unit 1250 includes a configuration corresponding to a data receiving mode, such as a communication interface or a drive device. The data receiving unit 1250 functions as a “receiving unit”.
[動作]
この実施形態に係る眼科画像表示装置の動作について説明する。図18は、眼科画像表示装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic image display apparatus according to this embodiment will be described. FIG. 18 illustrates an example of the operation of the ophthalmologic image display apparatus.
この実施形態に係る眼科画像表示装置の動作について説明する。図18は、眼科画像表示装置の動作の一例を表す。 [Operation]
The operation of the ophthalmologic image display apparatus according to this embodiment will be described. FIG. 18 illustrates an example of the operation of the ophthalmologic image display apparatus.
(S121:OCT画像を受け付ける)
データ受付部1250は、外部装置や記録媒体からOCT画像を受け付ける。受け付けられたOCT画像は、記憶部1212に記憶される。また、OCT画像は、データ処理部1230に送られる。 (S121: Accept OCT image)
Thedata receiving unit 1250 receives an OCT image from an external device or a recording medium. The accepted OCT image is stored in the storage unit 1212. The OCT image is sent to the data processing unit 1230.
データ受付部1250は、外部装置や記録媒体からOCT画像を受け付ける。受け付けられたOCT画像は、記憶部1212に記憶される。また、OCT画像は、データ処理部1230に送られる。 (S121: Accept OCT image)
The
(S122:OCT画像を部分領域に分割する)
画像分割部1231は、ステップS121で受け付けられたOCT画像を、複数の部分領域に分割する。この処理は、たとえば第1の実施形態のように、セグメンテーション(ステップS6)と、部分領域特定処理(ステップS7)とを含む。 (S122: The OCT image is divided into partial areas)
Theimage dividing unit 1231 divides the OCT image received in step S121 into a plurality of partial areas. This process includes, for example, segmentation (step S6) and partial area specifying process (step S7) as in the first embodiment.
画像分割部1231は、ステップS121で受け付けられたOCT画像を、複数の部分領域に分割する。この処理は、たとえば第1の実施形態のように、セグメンテーション(ステップS6)と、部分領域特定処理(ステップS7)とを含む。 (S122: The OCT image is divided into partial areas)
The
(S123:表示条件を設定する)
表示条件設定部1232は、ステップS122で取得された複数の部分領域のそれぞれについて、表示条件を設定する。この処理は、たとえば、第1の実施形態のように、部分領域に相当する眼の部位を選択する処理(ステップS8)と、表示条件を特定する処理(ステップS9)とを含む。 (S123: Set display conditions)
The displaycondition setting unit 1232 sets a display condition for each of the plurality of partial areas acquired in step S122. This process includes, for example, a process of selecting an eye part corresponding to the partial region (step S8) and a process of specifying display conditions (step S9) as in the first embodiment.
表示条件設定部1232は、ステップS122で取得された複数の部分領域のそれぞれについて、表示条件を設定する。この処理は、たとえば、第1の実施形態のように、部分領域に相当する眼の部位を選択する処理(ステップS8)と、表示条件を特定する処理(ステップS9)とを含む。 (S123: Set display conditions)
The display
(S124:表示条件に基づき画像を表示する)
主制御部1211は、ステップS123で特定された表示条件を適用して、OCT画像を表示部1241に表示させる。この処理は、たとえば、第1の実施形態のステップS10と同様にして実行される。 (S124: An image is displayed based on display conditions)
Themain control unit 1211 applies the display condition specified in step S123 and causes the display unit 1241 to display the OCT image. This process is executed, for example, in the same manner as step S10 of the first embodiment.
主制御部1211は、ステップS123で特定された表示条件を適用して、OCT画像を表示部1241に表示させる。この処理は、たとえば、第1の実施形態のステップS10と同様にして実行される。 (S124: An image is displayed based on display conditions)
The
なお、上記動作例において、第1の実施形態に含まれる処理に代えて、または第1の実施形態に含まれる処理に加えて、第2~第5の実施形態のいずれかまたはその変形例に含まれる処理を適用することが可能である。
In the above operation example, instead of the process included in the first embodiment or in addition to the process included in the first embodiment, any one of the second to fifth embodiments or a modified example thereof is used. It is possible to apply the included processes.
[効果]
実施形態に係る眼科画像表示装置の効果について説明する。 [effect]
The effect of the ophthalmologic image display apparatus according to the embodiment will be described.
実施形態に係る眼科画像表示装置の効果について説明する。 [effect]
The effect of the ophthalmologic image display apparatus according to the embodiment will be described.
実施形態に係る眼科画像表示装置は、受付部と、分割部と、設定部と、表示制御部とを有する。受付部(データ受付部1250)は、OCTを用いて形成された被検眼の画像を受け付ける。分割部(画像分割部1231)は、受付部により受け付けられた画像を複数の部分領域に分割する。設定部(表示条件設定部1232)は、分割部により取得された複数の部分領域のそれぞれの表示条件を設定する。表示制御部(主制御部1211)は、設定部により設定された表示条件に基づいて、受付部により受け付けられた画像を表示手段(表示部1241)に表示させる。表示手段は、眼科画像表示装置に含まれていてもよいし、外部装置であってもよい。
The ophthalmologic image display apparatus according to the embodiment includes a reception unit, a division unit, a setting unit, and a display control unit. The reception unit (data reception unit 1250) receives an image of the eye to be examined formed using OCT. The dividing unit (image dividing unit 1231) divides the image received by the receiving unit into a plurality of partial areas. The setting unit (display condition setting unit 1232) sets display conditions for each of the plurality of partial areas acquired by the dividing unit. The display control unit (main control unit 1211) causes the display unit (display unit 1241) to display the image received by the receiving unit based on the display conditions set by the setting unit. The display means may be included in the ophthalmic image display device or an external device.
このような眼科画像表示装置によれば、OCT画像においてフォーカスが合っている部分だけでなく、OCT画像全体にわたって視認性を向上させることが可能である。それにより、被検眼の局所的な観察だけでなく大域的な観察も好適に行うことが可能となる。
According to such an ophthalmologic image display apparatus, it is possible to improve visibility over the entire OCT image, not just the focused portion in the OCT image. Thereby, not only local observation of the eye to be examined but also global observation can be suitably performed.
〈変形例〉
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。 <Modification>
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。 <Modification>
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.
たとえば、被検眼の角膜、水晶体、硝子体、眼底などを含む広域眼球画像(たとえば全眼球画像)が得られた場合、広域眼球画像に描出されている部位ごとに個別に表示条件を設定することが可能である。それにより、描出されている被検眼の複数の領域の全体を好適に観察可能な広域眼球画像を表示することが可能となる。
For example, when a wide-area eyeball image (for example, a full-eye image) including the cornea, crystalline lens, vitreous body, fundus, etc. of the eye to be examined is obtained, display conditions should be set individually for each part depicted in the wide-area eyeball image. Is possible. As a result, it is possible to display a wide-area eyeball image that can suitably observe the entire plurality of regions of the eye to be examined.
被検眼の複数の領域に対して個別にOCTを実行して得られた複数の画像の合成画像を表示する場合がある。その場合において、複数のOCT画像に対して個別に表示条件を設定し、それらの合成画像を表示するよう構成することが可能である。たとえば、角膜および水晶体を含む領域が描出された前眼部OCT画像と、硝子体および眼底を含む領域が描出された後眼部OCT画像とを合成して表示する場合、前眼部OCT画像に対して第1の表示条件を設定し、かつ、後眼部OCT画像に対して第2の表示条件を設定した後に、それらの合成画像を表示することが可能である。或いは、前眼部OCT画像に対して2以上の表示条件を設定し、かつ、後眼部OCT画像に対して2以上の表示条件を設定した後に、それらの合成画像を表示するようにしてもよい。たとえば、前眼部OCT画像において角膜が描出された領域に対して第1の表示条件を設定し、前眼部OCT画像において水晶体が描出された領域に対して第2の表示条件を設定し、後眼部OCT画像において硝子体が描出された領域に対して第3の表示条件を設定し、後眼部OCT画像において眼底が描出された領域に対して第4の表示条件を設定した後に、前眼部OCT画像と後眼部OCT画像との合成画像を表示することが可能である。
In some cases, a composite image of a plurality of images obtained by individually executing OCT on a plurality of regions of the eye to be examined is displayed. In that case, it is possible to set display conditions individually for a plurality of OCT images and display a composite image thereof. For example, when the anterior segment OCT image in which the region including the cornea and the lens is rendered and the posterior segment OCT image in which the region including the vitreous body and the fundus are rendered and displayed, the anterior segment OCT image is displayed. On the other hand, after setting the first display condition and setting the second display condition for the posterior segment OCT image, it is possible to display the combined image. Alternatively, two or more display conditions are set for the anterior segment OCT image, and two or more display conditions are set for the posterior segment OCT image, and then a composite image thereof is displayed. Good. For example, a first display condition is set for a region where the cornea is depicted in the anterior segment OCT image, and a second display condition is set for the region where the crystalline lens is depicted in the anterior segment OCT image, After setting the third display condition for the region in which the vitreous body is depicted in the posterior segment OCT image, and after setting the fourth display condition for the region in which the fundus oculi is depicted in the posterior segment OCT image, It is possible to display a composite image of the anterior segment OCT image and the posterior segment OCT image.
前眼部OCT画像においては、一般に、角膜の前面よりも後面の方が描出されにくく、また、水晶体も描出されにくい。したがって、前眼部OCT画像において角膜の後面や水晶体が描出されている領域のコントラストを上げるなどして、そのような領域を強調表示するよう構成することが可能である。また、前眼部OCT画像に睫毛が写り込んでしまうことがある。そのような場合には、その領域を強調するか、或いは逆に抑制する(ぼかす)ように構成することが可能である。また、前眼部OCT画像のセグメンテーションを実行する場合において、特定された層領域ごとに(または層の境界領域ごとに)表示条件を個別に設定することが可能である。
In the anterior segment OCT image, generally, the posterior surface of the cornea is less likely to be depicted than the anterior surface of the cornea, and the crystalline lens is also less likely to be depicted. Therefore, it is possible to increase the contrast of the region where the posterior surface of the cornea and the crystalline lens are depicted in the anterior segment OCT image, and to highlight the region. In addition, eyelashes may appear in the anterior segment OCT image. In such a case, the area can be emphasized or conversely suppressed (blurred). In addition, when segmentation of the anterior segment OCT image is executed, display conditions can be individually set for each identified layer region (or for each layer boundary region).
OCT画像に病変部が描出されている場合において、その病変部に対して2以上の表示条件を設定することが可能である。たとえば、病変部の中心領域とその周辺領域とに異なる表示条件を設定するよう構成できる。また、病変部に血管が走行している場合において、病変部と血管とに異なる表示条件を設定するよう構成できる。このような構成によれば、病変部の構造を好適に観察することが可能となる。
When a lesioned part is depicted in the OCT image, it is possible to set two or more display conditions for the lesioned part. For example, different display conditions can be set for the central region of the lesion and its peripheral region. Further, when a blood vessel is traveling in a lesioned part, different display conditions can be set for the lesioned part and the blood vessel. According to such a configuration, it is possible to preferably observe the structure of the lesion.
自動で設定された表示条件の変更をユーザが望む場合が考えられる。そのために、自動で設定された表示条件に基づき表示されている画像について、その表示条件を手動で調整できるように構成することが可能である。その具体例として、疑似カラー値、輝度値、コントラスト、平滑化、強調などの各種パラメータのうち少なくとも1つのパラメータを変更するためのインターフェイス(GUI等)を、当該画像とともに表示することができる。また、表示条件の調整の対象となる部分領域を指定するためのインターフェイス(たとえばマウス等のポインティングデバイス)を設けることができる。このようなインターフェイスを介して部分領域のパラメータが変更されると、その変更内容に応じて当該部分領域の表示条件がリアルタイムで変更される。ユーザは、部分領域の表示状態を監視しつつパラメータを適宜に変更することにより、その部分領域の表示状態を所望の表示状態に導くことができる。
• There may be a case where the user wants to change the display conditions set automatically. Therefore, it is possible to configure so that the display condition of the image displayed based on the automatically set display condition can be adjusted manually. As a specific example, an interface (such as a GUI) for changing at least one parameter among various parameters such as pseudo color value, luminance value, contrast, smoothing, and enhancement can be displayed together with the image. In addition, an interface (for example, a pointing device such as a mouse) can be provided for designating a partial area to be adjusted for display conditions. When the parameter of the partial area is changed through such an interface, the display condition of the partial area is changed in real time according to the changed content. The user can guide the display state of the partial area to a desired display state by appropriately changing the parameter while monitoring the display state of the partial area.
部分領域ごとに表示条件が設定された画像を表示するためのインターフェイスは、画像の表示態様に応じて異なっていてよい。画像の表示態様としては、静止画表示、動画表示(たとえばライブ動画表示)、スライドショー表示、2以上の画像の比較表示、オーバーレイ表示(重畳表示)、解析処理に用いられた画像の表示などがある。動画表示やスライドショー表示のように、被検眼の同じ部位または異なる部位に関する複数の画像を順次に切り替えて表示する場合、それらのうちの1つの画像(基準画像。たとえば最初の画像)に対して適用された表示条件を、それ以外の画像にも適用するよう構成することができる。また、基準画像の元の表示条件と他の画像の現在の表示条件とを比較し、その比較結果と基準画像の現在の表示条件とに基づいて、当該他の画像の新たな表示条件を設定するように構成することもできる。2以上の画像の比較表示する場合の例として、経過観察や術前術後観察のように、異なるタイミングで取得された2以上の画像を並べて(または切り替えて)表示する場合がある。このような比較表示において、たとえば、被検眼の同一の部位に相当する部分領域に対して同じ(または類似の)表示条件を設定し、2以上の画像を表示することが可能である。その具体例として、被検眼の同一部位に相当する画像領域に対して同色の疑似カラーを割り当てることが可能である。それにより、2以上の画像において同一部位に相当する領域を容易に識別することが可能となる。重畳表示には、OCT画像とOCT画像との重畳表示や、OCT画像と他種別の画像との重畳表示などがある。このような重畳表示において、たとえば、被検眼の同一の部位に相当する部分領域に対して同じ(または類似の)表示条件を設定することができる。解析処理に用いられた画像を表示する場合、解析結果に基づいて画像の表示条件を設定することが可能である。たとえば、画像のうち解析対象となった部分領域の表示条件を解析結果に基づいて設定することが可能である。その具体例として、眼底のOCT画像を解析することにより網膜の所定層の厚さ分布が得られた場合、このOCT画像(または、それから得られる画像、若しくはそれと他のOCT画像とを組み合わせて得られる画像など)中の所定層に相当する部分領域の各部に、厚さに対応する表示色を割り当てることができる。それにより、所定層の厚さ分布が色で表現された部分画像を含むOCT画像が得られる。
The interface for displaying an image in which display conditions are set for each partial area may be different depending on the display mode of the image. Image display modes include still image display, moving image display (for example, live moving image display), slide show display, comparison display of two or more images, overlay display (superimposition display), and display of images used for analysis processing. . When a plurality of images relating to the same part or different parts of the eye to be examined are sequentially switched and displayed, such as a moving image display or a slide show display, it is applied to one of them (reference image, for example, the first image). The displayed display conditions can be applied to other images. Also, the original display condition of the reference image is compared with the current display condition of the other image, and a new display condition of the other image is set based on the comparison result and the current display condition of the reference image. It can also be configured to. As an example of comparison display of two or more images, there are cases where two or more images acquired at different timings are displayed side by side (or switched), such as follow-up observation or pre- and post-operative observation. In such comparative display, for example, it is possible to set the same (or similar) display condition for partial regions corresponding to the same part of the eye to be examined and display two or more images. As a specific example, it is possible to assign a pseudo color of the same color to an image region corresponding to the same part of the eye to be examined. This makes it possible to easily identify regions corresponding to the same part in two or more images. The superimposed display includes a superimposed display of an OCT image and an OCT image, a superimposed display of an OCT image and another type of image, and the like. In such superimposed display, for example, the same (or similar) display conditions can be set for partial regions corresponding to the same part of the eye to be examined. When displaying an image used for analysis processing, it is possible to set display conditions for the image based on the analysis result. For example, it is possible to set display conditions for a partial region to be analyzed in the image based on the analysis result. As a specific example, when a thickness distribution of a predetermined layer of the retina is obtained by analyzing an OCT image of the fundus, this OCT image (or an image obtained therefrom or a combination thereof with another OCT image is obtained. The display color corresponding to the thickness can be assigned to each part of the partial area corresponding to the predetermined layer in the image. Thereby, an OCT image including a partial image in which the thickness distribution of the predetermined layer is expressed in color is obtained.
OCT画像中の血管領域の表示条件を設定することができる。OCT画像が正面断面像(C断面像)や3次元画像である場合、血管領域の特定は、リージョングローイング等の任意の画像処理により行われる。また、OCT画像が縦断面像(B断面像)や任意断面像である場合、血管領域の特定は、たとえば、位相の時系列変化を表す位相画像に基づいて行われる。また、OCT画像が3次元画像である場合、たとえば次の処理により血管領域を特定することができる:別途に取得された当該被検眼の眼底像における血管領域(基準血管領域)を特定する;この3次元画像を加工して得られる正面画像と、この眼底像とのレジストレーションを実行する;レジストレーションの結果(たとえば双方の画像中の座標位置の間の対応関係)に基づいて、基準血管領域に相当する正面画像中の画像領域を血管領域として設定する。なお、3次元画像に基づく正面画像としては、3次元画像を深さ方向に投影して得られるプロジェクション画像や、3次元画像の一部の領域(たとえば所定層に相当する画像領域)を深さ方向に投影して得られるシャドウグラムや、3次元画像において所定層に対応する画像領域(たとえばセグメンテーションにより得られる)を平坦化して正面から表示することにより得られる平坦化画像などがある。各血管画像に対して血管腫別を示す情報が割り当てられている場合がある。このような情報の例として、動脈と静脈との識別情報や、病変に関連する血管と関連しない血管との識別情報や、血管径に応じた識別情報などがある。このような識別情報は、OCT画像自身を解析することにより、または他の画像(OCT画像とのレジストレーションが可能な眼底像や蛍光画像等)を解析することにより取得される。或いは、このような識別情報をユーザが手入力するよう構成することもできる。このような構成によれば、OCT画像中の血管領域やその種別を容易に認識することができる。
• Display conditions for blood vessel regions in OCT images can be set. When the OCT image is a front sectional image (C sectional image) or a three-dimensional image, the blood vessel region is specified by arbitrary image processing such as region growing. Further, when the OCT image is a longitudinal cross-sectional image (B cross-sectional image) or an arbitrary cross-sectional image, the blood vessel region is specified based on, for example, a phase image representing a time-series change in phase. When the OCT image is a three-dimensional image, for example, the blood vessel region can be specified by the following processing: a blood vessel region (reference blood vessel region) in the fundus image of the eye to be examined separately acquired is specified; Registration between the front image obtained by processing the three-dimensional image and the fundus image is performed; based on the result of registration (for example, correspondence between coordinate positions in both images), the reference blood vessel region Is set as a blood vessel region. As a front image based on a three-dimensional image, a projection image obtained by projecting a three-dimensional image in the depth direction, or a partial region of the three-dimensional image (for example, an image region corresponding to a predetermined layer) has a depth. There are a shadowgram obtained by projecting in a direction, a flattened image obtained by flattening and displaying from the front an image region corresponding to a predetermined layer (for example, obtained by segmentation) in a three-dimensional image. Information indicating hemangiomas may be assigned to each blood vessel image. Examples of such information include identification information between arteries and veins, identification information between blood vessels associated with lesions and blood vessels not associated with lesions, and identification information according to blood vessel diameter. Such identification information is acquired by analyzing the OCT image itself or by analyzing another image (such as a fundus image or a fluorescence image that can be registered with the OCT image). Or it can also comprise so that a user may input such identification information manually. According to such a configuration, it is possible to easily recognize the blood vessel region and its type in the OCT image.
OCT画像においては、血管領域のように水分の多い部位の後方領域の描出能が低下することが知られている。このような描出能の低い画像領域について、コントラストを高めたり、強調処理を施したりすることができる。また、手術や治療においてOCT計測を実行する場合、手術器具や治療器具等により隠された領域についても、同様のコントラスト処理や強調処理を施すことができる。
In the OCT image, it is known that the ability to draw a posterior region of a part with a lot of water like a blood vessel region is lowered. Contrast can be increased or enhancement processing can be performed on such an image region having a low rendering ability. In addition, when performing OCT measurement in surgery or treatment, similar contrast processing and enhancement processing can be performed on a region hidden by a surgical instrument or treatment instrument.
OCT画像の画質(イメージクオリティ)の評価値を算出する技術が一般に用いられている。この評価値に基づいて表示条件を設定することができる。たとえば、OCT画像の複数の部分領域のいずれかについて評価値を算出し、この評価値を高めるように表示条件を設定することが可能である。また、評価値の算出と表示条件の変更とを交互に実行することにより、つまり評価値を監視しつつ表示条件を調整することにより、好適な表示条件(たとえば最適な表示条件)を探索するよう構成することも可能である。
A technique for calculating an evaluation value of an image quality (image quality) of an OCT image is generally used. Display conditions can be set based on this evaluation value. For example, it is possible to calculate an evaluation value for any one of a plurality of partial regions of the OCT image and set display conditions so as to increase the evaluation value. Further, by alternately executing the calculation of the evaluation value and the change of the display condition, that is, by adjusting the display condition while monitoring the evaluation value, a suitable display condition (for example, the optimal display condition) is searched. It is also possible to configure.
被検眼の2次元断面像と、3次元画像に基づくレンダリング画像とを表示する場合が考えられる。このような場合において、被検眼の同一部位に相当する画像領域の表示条件を対応させて、これら画像を表示することが可能である。たとえば、レンダリング画像を表示しつつ、2次元断面のライブ画像を動画表示することが考えられる。より具体的には、ライブ画像で硝子体の動きや血流状態をリアルタイムで観察しつつ、この2次元断面の位置を示す情報をレンダリング画像に重畳表示することが考えられる。この場合、ライブ画像中の硝子体領域と、レンダリング画像中の硝子体領域とに同色を割り当てるよう構成することが可能である。
It is conceivable to display a two-dimensional cross-sectional image of the eye to be examined and a rendering image based on the three-dimensional image. In such a case, it is possible to display these images in correspondence with the display conditions of the image region corresponding to the same part of the eye to be examined. For example, it is conceivable to display a live image of a two-dimensional cross section while displaying a rendering image. More specifically, it may be possible to superimpose and display information indicating the position of the two-dimensional cross section on the rendered image while observing the movement of the vitreous body and the blood flow state in real time on the live image. In this case, the same color can be assigned to the vitreous region in the live image and the vitreous region in the rendering image.
上記した眼科撮影装置の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。
In the above-described embodiment of the ophthalmologic photographing apparatus, the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41. The method for changing the difference is not limited to this. For example, it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light. Is possible. Further, the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS. In particular, when the measured object is not a living body part, the optical path length difference can be changed by moving the measured object in the depth direction (z direction).
上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。
The computer program for realizing the above embodiment can be stored in an arbitrary recording medium readable by a computer. As this recording medium, for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used.
また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
It is also possible to send and receive this program through a network such as the Internet or a LAN.
1 眼科撮影装置
41 光路長変更部
42 ガルバノスキャナ
43A 合焦駆動部
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
213 計時部
220 画像形成部
230 データ処理部
231 画像分割部
2311 画像領域特定部
2312 部分領域特定部
232 表示条件設定部
2321 対応情報記憶部
2321a 対応情報
2322 部位選択部
2323 パラメータ特定部
233 重ね合わせ処理部
2331 画像位置合わせ部
2332 画像合成部
234 運動状態判定部
2341 運動状態情報取得部
2342 判定処理部
241 表示部
242 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光 DESCRIPTION OF SYMBOLS 1Ophthalmic imaging device 41 Optical path length change part 42 Galvano scanner 43A Focus drive part 50 Alignment optical system 60 Focus optical system 100 OCT unit 101 Light source unit 200 Arithmetic control unit 210 Control part 211 Main control part 212 Storage part 213 Timekeeping part 220 Image Forming unit 230 Data processing unit 231 Image dividing unit 2311 Image region specifying unit 2312 Partial region specifying unit 232 Display condition setting unit 2321 Corresponding information storage unit 2321a Corresponding information 2322 Site selecting unit 2323 Parameter specifying unit 233 Overlay processing unit 2331 Image registration Unit 2332 image composition unit 234 motion state determination unit 2341 motion state information acquisition unit 2342 determination processing unit 241 display unit 242 operation unit E eye to be examined Ef fundus LS signal light LR reference light LC interference light
41 光路長変更部
42 ガルバノスキャナ
43A 合焦駆動部
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
213 計時部
220 画像形成部
230 データ処理部
231 画像分割部
2311 画像領域特定部
2312 部分領域特定部
232 表示条件設定部
2321 対応情報記憶部
2321a 対応情報
2322 部位選択部
2323 パラメータ特定部
233 重ね合わせ処理部
2331 画像位置合わせ部
2332 画像合成部
234 運動状態判定部
2341 運動状態情報取得部
2342 判定処理部
241 表示部
242 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光 DESCRIPTION OF SYMBOLS 1
Claims (16)
- 光源からの光を信号光と参照光とに分割し、被検眼を経由した前記信号光と参照光路を経由した前記参照光との干渉光を検出する光学系と、
前記光学系による前記干渉光の検出結果に基づいて、被検眼の画像を形成する形成部と、
前記形成部により形成された画像を複数の部分領域に分割する分割部と、
前記分割部により取得された前記複数の部分領域のそれぞれの表示条件を設定する設定部と、
前記設定部により設定された表示条件に基づいて、前記形成部により形成された画像を表示手段に表示させる表示制御部と
を有する眼科撮影装置。 An optical system that divides light from a light source into signal light and reference light, and detects interference light between the signal light passing through an eye to be examined and the reference light passing through a reference optical path;
Based on the detection result of the interference light by the optical system, a forming unit that forms an image of the eye to be examined;
A dividing unit that divides the image formed by the forming unit into a plurality of partial regions;
A setting unit for setting each display condition of the plurality of partial areas acquired by the dividing unit;
An ophthalmologic photographing apparatus comprising: a display control unit that causes a display unit to display an image formed by the forming unit based on display conditions set by the setting unit. - 前記形成部により形成された画像が2次元画像を含む場合、
前記分割部は、
前記形成部により形成された2次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、
前記画像領域特定部により特定された画像領域を境界とする2次元画像領域を、前記部分領域として特定する部分領域特定部と
を含む
ことを特徴とする請求項1に記載の眼科撮影装置。 When the image formed by the forming unit includes a two-dimensional image,
The dividing unit is
By analyzing the two-dimensional image formed by the forming unit, an image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined;
The ophthalmologic photographing apparatus according to claim 1, further comprising: a partial region specifying unit that specifies a two-dimensional image region having the image region specified by the image region specifying unit as the boundary. - 前記形成部により形成された画像が3次元画像を含む場合、
前記分割部は、
前記形成部により形成された3次元画像を解析することにより、被検眼の所定部位に相当する画像領域を特定する画像領域特定部と、
前記画像領域特定部により特定された画像領域を境界とする3次元画像領域を、前記部分領域として特定する部分領域特定部と
を含む
ことを特徴とする請求項1に記載の眼科撮影装置。 When the image formed by the forming unit includes a three-dimensional image,
The dividing unit is
An image region specifying unit that specifies an image region corresponding to a predetermined part of the eye to be examined by analyzing the three-dimensional image formed by the forming unit;
The ophthalmologic photographing apparatus according to claim 1, further comprising: a partial region specifying unit that specifies a three-dimensional image region having the image region specified by the image region specifying unit as the boundary. - 前記所定部位に内境界膜が含まれる場合、
前記画像領域特定部は、被検眼の内境界膜に相当する内境界膜領域を特定し、
前記部分領域特定部は、前記内境界膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と硝子体に相当する硝子体領域とを前記部分領域として特定する
ことを特徴とする請求項2または請求項3に記載の眼科撮影装置。 When the inner boundary membrane is included in the predetermined site,
The image region specifying unit specifies an inner boundary membrane region corresponding to the inner boundary membrane of the eye to be examined,
The partial region specifying unit specifies, as the partial region, a retinal region corresponding to the retina of the eye to be examined and a vitreous region corresponding to the vitreous body based on the specification result of the inner boundary membrane region. The ophthalmologic photographing apparatus according to claim 2 or 3. - 前記所定部位にブルッフ膜が含まれる場合、
前記画像領域特定部は、被検眼のブルッフ膜に相当するブルッフ膜領域を特定し、
前記部分領域特定部は、前記ブルッフ膜領域の特定結果に基づいて、被検眼の網膜に相当する網膜領域と脈絡膜に相当する脈絡膜領域とを前記部分領域として特定する
ことを特徴とする請求項2または請求項3に記載の眼科撮影装置。 When a Bruch membrane is included in the predetermined part,
The image area specifying unit specifies a Bruch film area corresponding to the Bruch film of the eye to be examined,
The partial area specifying unit specifies, as the partial areas, a retinal area corresponding to a retina of a subject eye and a choroid area corresponding to a choroid based on a result of specifying the Bruch's membrane area. Or the ophthalmologic imaging apparatus of Claim 3. - 前記所定部位に脈絡膜-強膜境界が含まれる場合、
前記画像領域特定部は、被検眼の脈絡膜-強膜境界に相当する脈絡膜-強膜境界領域を特定し、
前記部分領域特定部は、前記脈絡膜-強膜境界領域の特定結果に基づいて、被検眼の脈絡膜に相当する脈絡膜領域と強膜に相当する強膜領域とを前記部分領域として特定する
ことを特徴とする請求項2または請求項3に記載の眼科撮影装置。 When the predetermined site includes a choroid-sclera boundary,
The image region specifying unit specifies a choroid-sclera boundary region corresponding to the choroid-sclera boundary of the eye to be examined,
The partial region specifying unit specifies, as the partial region, a choroid region corresponding to the choroid of the eye to be examined and a sclera region corresponding to the sclera based on the result of specifying the choroid-sclera boundary region. The ophthalmologic photographing apparatus according to claim 2 or 3. - 前記設定部は、前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に含まれる複数の画素の画素値を変更するためのパラメータの値を前記表示条件として設定することを特徴とする請求項1~請求項6のいずれか一項に記載の眼科撮影装置。 The setting unit sets, for each of the plurality of partial regions acquired by the dividing unit, a parameter value for changing pixel values of a plurality of pixels included in the partial region as the display condition. The ophthalmologic photographing apparatus according to any one of claims 1 to 6, characterized in that:
- 前記パラメータは、前記複数の画素の画素値を疑似カラー値に変更するための第1パラメータ、前記複数の画素の画素値における輝度値を変更するための第2パラメータ、前記複数の画素の画素値における輝度値に基づくコントラストを変更するための第3パラメータ、前記複数の画素の画素値を平滑化するための第4パラメータ、および、前記複数の画素の少なくともいずれかを強調するための第5パラメータのうち、少なくとも1つを含むことを特徴とする請求項7に記載の眼科撮影装置。 The parameters include a first parameter for changing pixel values of the plurality of pixels to pseudo color values, a second parameter for changing luminance values in pixel values of the plurality of pixels, and pixel values of the plurality of pixels. A third parameter for changing a contrast based on a luminance value in the image, a fourth parameter for smoothing pixel values of the plurality of pixels, and a fifth parameter for enhancing at least one of the plurality of pixels The ophthalmologic photographing apparatus according to claim 7, comprising at least one of them.
- 前記設定部は、
眼の複数の部位のそれぞれに対して前記パラメータの値を対応付けた対応情報があらかじめ記憶された対応情報記憶部と、
前記分割部により取得された前記複数の部分領域のそれぞれについて、当該部分領域に相当する部位を前記複数の部位のうちから選択する部位選択部と、
前記複数の部分領域のそれぞれについて、前記部位選択部により選択された部位に対応付けられた前記パラメータの値を前記対応情報に基づいて特定するパラメータ特定部と
を含み、
前記パラメータ特定部により特定された前記パラメータの値を前記表示条件として設定する
ことを特徴とする請求項7または請求項8に記載の眼科撮影装置。 The setting unit
A correspondence information storage unit in which correspondence information in which the value of the parameter is associated with each of a plurality of parts of the eye is stored in advance;
For each of the plurality of partial areas acquired by the dividing unit, a part selection unit that selects a part corresponding to the partial area from the plurality of parts;
A parameter specifying unit that specifies the value of the parameter associated with the part selected by the part selection unit for each of the plurality of partial regions based on the correspondence information;
The ophthalmologic imaging apparatus according to claim 7 or 8, wherein the parameter value specified by the parameter specifying unit is set as the display condition. - 前記設定部は、前記分割部により取得された前記複数の部分領域のうち、あらかじめ決められた画像処理が適用される部分領域を、前記表示条件として設定することを特徴とする請求項1~請求項9のいずれか一項に記載の眼科撮影装置。 The setting unit sets a partial region to which a predetermined image processing is applied among the plurality of partial regions acquired by the dividing unit as the display condition. The ophthalmologic photographing apparatus according to any one of Items 9.
- 前記画像処理は、2以上の画像を重ね合わせて単一の画像を形成する重ね合わせ処理を含み、
前記光学系は、被検眼の実質的に同一の断面を前記信号光で複数回走査する走査部を含み、
前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、
前記分割部は、前記形成部により形成された当該複数の画像のそれぞれを前記複数の部分領域に分割し、
前記表示制御部は、
当該複数の画像に対する前記重ね合わせ処理として、前記複数の部分領域のうち前記設定部により前記重ね合わせ処理の適用対象に設定された部分領域についてのみ当該複数の画像を重ね合わせる処理を実行する重ね合わせ処理部を含み、
前記重ね合わせ処理部により形成された単一の画像を前記表示手段に表示させる
ことを特徴とする請求項10に記載の眼科撮影装置。 The image processing includes a superimposition process for superposing two or more images to form a single image,
The optical system includes a scanning unit that scans substantially the same cross section of the eye to be examined a plurality of times with the signal light,
The forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans,
The dividing unit divides each of the plurality of images formed by the forming unit into the plurality of partial regions,
The display control unit
As the superimposition processing for the plurality of images, superposition is performed to perform processing for superimposing the plurality of images only on the partial areas set as the application targets of the superimposition processing by the setting unit among the plurality of partial areas. Including a processing unit,
The ophthalmologic photographing apparatus according to claim 10, wherein the display unit displays a single image formed by the superimposition processing unit. - 前記表示制御部は、前記複数の部分領域のうち前記重ね合わせ処理の非適用対象の部分領域について、当該複数の画像に基づく動画表示を行うことを特徴とする請求項11に記載の眼科撮影装置。 The ophthalmologic photographing apparatus according to claim 11, wherein the display control unit displays a moving image based on the plurality of images for a partial region to which the superimposition process is not applied among the plurality of partial regions. .
- 前記光学系は、前記信号光で被検眼を走査する走査部を含み、
所定タイミングで計時を開始する計時部と、
前記計時部により所定時間が計時された後に、被検眼の実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部と
を有し、
前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、
前記表示制御部は、
前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、
前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させる
ことを特徴とする請求項1~請求項12のいずれか一項に記載の眼科撮影装置。 The optical system includes a scanning unit that scans an eye to be examined with the signal light,
A timing unit that starts timing at a predetermined timing;
A control unit that controls the optical system to scan a substantially identical cross section of the eye to be examined multiple times with the signal light after a predetermined time is measured by the time measuring unit,
The forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans,
The display control unit
An overlay processing unit that forms a single image by superimposing the plurality of images formed by the forming unit;
The ophthalmologic photographing apparatus according to any one of claims 1 to 12, wherein the display unit displays the single image formed by the superimposition processing unit. - 前記光学系は、被検眼の実質的に同一の断面を前記信号光で繰り返し走査する走査部を含み、
前記形成部は、当該繰り返し走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の画像を逐次に形成し、
前記形成部により形成される画像を逐次に解析することにより、当該画像に描出されている被検眼の特定部位の運動状態を示す運動状態情報を取得し、逐次に取得される前記運動状態情報に基づいて前記特定部位が実質的に静止しているか判定する判定部と、
前記判定部により前記特定部位が実質的に静止していると判定されたことに対応し、実質的に同一の断面を前記信号光で複数回走査するよう前記光学系を制御する制御部と
を有し、
前記形成部は、当該複数回の走査に伴い前記光学系により取得される前記干渉光の検出結果に基づいて、当該断面の複数の画像を形成し、
前記表示制御部は、
前記形成部により形成された当該複数の画像を重ね合わせることにより、単一の画像を形成する重ね合わせ処理部を含み、
前記重ね合わせ処理部により形成された前記単一の画像を前記表示手段に表示させる
ことを特徴とする請求項1~請求項12のいずれか一項に記載の眼科撮影装置。 The optical system includes a scanning unit that repeatedly scans substantially the same cross section of the eye to be examined with the signal light,
The forming unit sequentially forms an image of the cross section based on the detection result of the interference light acquired by the optical system with the repeated scanning,
By sequentially analyzing the images formed by the forming unit, the motion state information indicating the motion state of the specific part of the eye to be examined depicted in the image is acquired, and the motion state information acquired sequentially A determination unit for determining whether the specific part is substantially stationary based on;
A controller that controls the optical system to scan the substantially same cross section a plurality of times with the signal light in response to the determination that the specific part is determined to be substantially stationary by the determination unit; Have
The forming unit forms a plurality of images of the cross section based on the detection result of the interference light acquired by the optical system with the plurality of scans,
The display control unit
An overlay processing unit that forms a single image by superimposing the plurality of images formed by the forming unit;
The ophthalmologic photographing apparatus according to any one of claims 1 to 12, wherein the display unit displays the single image formed by the superimposition processing unit. - 前記設定部により設定された表示条件が適用された前記複数の部分領域のうちのいずれかを解析することにより、当該部分領域のサイズを求める解析部を有する
ことを特徴とする請求項1~請求項14のいずれか一項に記載の眼科撮影装置。 2. An analysis unit for obtaining a size of the partial region by analyzing any of the plurality of partial regions to which the display condition set by the setting unit is applied. Item 15. The ophthalmologic photographing apparatus according to any one of Items 14. - 光コヒーレンストモグラフィを用いて形成された被検眼の画像を受け付ける受付部と、
前記受付部により受け付けられた画像を複数の部分領域に分割する分割部と、
前記分割部により取得された前記複数の部分領域のそれぞれの表示条件を設定する設定部と、
前記設定部により設定された表示条件に基づいて、前記受付部により受け付けられた画像を表示手段に表示させる表示制御部と
を有する眼科画像表示装置。 A reception unit that receives an image of the eye to be examined formed using optical coherence tomography;
A dividing unit that divides the image received by the receiving unit into a plurality of partial regions;
A setting unit for setting each display condition of the plurality of partial areas acquired by the dividing unit;
An ophthalmologic image display device comprising: a display control unit that causes a display unit to display an image received by the receiving unit based on display conditions set by the setting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015522939A JP6046250B2 (en) | 2013-06-19 | 2014-06-17 | Ophthalmic photographing apparatus and ophthalmic image display apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-128102 | 2013-06-19 | ||
JP2013128102 | 2013-06-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014203901A1 true WO2014203901A1 (en) | 2014-12-24 |
Family
ID=52104633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/066046 WO2014203901A1 (en) | 2013-06-19 | 2014-06-17 | Ophthalmological imaging device and ophthalmological image display device |
Country Status (2)
Country | Link |
---|---|
JP (3) | JP6046250B2 (en) |
WO (1) | WO2014203901A1 (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015098912A1 (en) * | 2013-12-25 | 2015-07-02 | 興和株式会社 | Tomography device |
JP2016049368A (en) * | 2014-09-01 | 2016-04-11 | 株式会社ニデック | Ophthalmological photographing apparatus |
JP2016202249A (en) * | 2015-04-15 | 2016-12-08 | 株式会社ニデック | Fundus imaging apparatus and fundus imaging program |
KR20170008172A (en) * | 2015-07-13 | 2017-01-23 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and optical coherence tomography apparatus |
JP2017093854A (en) * | 2015-11-25 | 2017-06-01 | 株式会社トプコン | Ophthalmology imaging apparatus and ophthalmologic image display device |
JP2017127397A (en) * | 2016-01-18 | 2017-07-27 | キヤノン株式会社 | Image processing device, estimation method, system and program |
JP2017185057A (en) * | 2016-04-06 | 2017-10-12 | キヤノン株式会社 | Ophthalmic imaging apparatus and control method therefor, and program |
JP2018504994A (en) * | 2015-02-16 | 2018-02-22 | ノバルティス アーゲー | System and method for dual imaging of the vitreous and retina |
JP2018057828A (en) * | 2016-10-05 | 2018-04-12 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2018094056A (en) * | 2016-12-13 | 2018-06-21 | キヤノン株式会社 | Ophthalmologic apparatus, ophthalmologic imaging method, and program |
JP2018140049A (en) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | Imaging device, imaging method, and program |
JPWO2017135278A1 (en) * | 2016-02-02 | 2018-11-29 | 株式会社ニデック | Tomographic imaging system |
WO2019146582A1 (en) * | 2018-01-25 | 2019-08-01 | 国立研究開発法人産業技術総合研究所 | Image capture device, image capture system, and image capture method |
WO2019156139A1 (en) * | 2018-02-08 | 2019-08-15 | 興和株式会社 | Image processing device, image processing method, and image processing program |
US10916012B2 (en) | 2016-10-05 | 2021-02-09 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2021097790A (en) * | 2019-12-20 | 2021-07-01 | 株式会社トプコン | Ophthalmologic information processing device, ophthalmologic apparatus, ophthalmologic information processing method and program |
WO2021153087A1 (en) * | 2020-01-30 | 2021-08-05 | 株式会社トプコン | Ophthalmic device, control method thereof, and storage medium |
JP2021183280A (en) * | 2017-02-28 | 2021-12-02 | キヤノン株式会社 | Imaging device, and operation method and program of the imaging device |
EP4074244A1 (en) * | 2021-04-13 | 2022-10-19 | Leica Instruments (Singapore) Pte. Ltd. | Feature recognition and depth guidance using intraoperative oct |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6768624B2 (en) * | 2017-01-11 | 2020-10-14 | キヤノン株式会社 | Image processing equipment, optical coherence tomographic imaging equipment, image processing methods, and programs |
JP6740177B2 (en) | 2017-06-14 | 2020-08-12 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
WO2019172043A1 (en) * | 2018-03-05 | 2019-09-12 | キヤノン株式会社 | Image processing device and control method thereof |
JP7086683B2 (en) * | 2018-04-06 | 2022-06-20 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
BR112021005139A2 (en) * | 2018-09-25 | 2021-06-15 | Sony Corporation | image processing apparatus and method, and, program for causing an image processing apparatus to perform an image process |
JP7250653B2 (en) | 2018-10-10 | 2023-04-03 | キヤノン株式会社 | Image processing device, image processing method and program |
JP7439419B2 (en) | 2019-09-04 | 2024-02-28 | 株式会社ニデック | Ophthalmology image processing program and ophthalmology image processing device |
JP7517903B2 (en) | 2020-08-20 | 2024-07-17 | 株式会社トプコン | Slit Lamp Microscope System |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024930A (en) * | 2009-07-29 | 2011-02-10 | Topcon Corp | Ophthalmological observation device |
JP2012045299A (en) * | 2010-08-30 | 2012-03-08 | Canon Inc | Image processing apparatus, image processing method, and program recording medium |
JP2012071113A (en) * | 2010-08-31 | 2012-04-12 | Canon Inc | Image processing apparatus, method for controlling the same, and program |
JP2012228544A (en) * | 2012-07-23 | 2012-11-22 | Canon Inc | Optical tomographic imaging apparatus |
WO2013085042A1 (en) * | 2011-12-09 | 2013-06-13 | 株式会社トプコン | Fundus observation device |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4068369B2 (en) * | 2002-03-15 | 2008-03-26 | 株式会社東芝 | X-ray diagnostic imaging equipment |
JP5095167B2 (en) * | 2006-09-19 | 2012-12-12 | 株式会社トプコン | Fundus observation apparatus, fundus image display apparatus, and fundus observation program |
JP4971872B2 (en) * | 2007-05-23 | 2012-07-11 | 株式会社トプコン | Fundus observation apparatus and program for controlling the same |
JP5790002B2 (en) * | 2011-02-04 | 2015-10-07 | 株式会社ニデック | Ophthalmic imaging equipment |
JP5921068B2 (en) * | 2010-03-02 | 2016-05-24 | キヤノン株式会社 | Image processing apparatus, control method, and optical coherence tomography system |
JP5801577B2 (en) * | 2010-03-25 | 2015-10-28 | キヤノン株式会社 | Optical tomographic imaging apparatus and control method for optical tomographic imaging apparatus |
JP6039156B2 (en) * | 2010-06-08 | 2016-12-07 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP5822485B2 (en) * | 2011-02-25 | 2015-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing system, SLO apparatus, and program |
JP5733565B2 (en) * | 2011-03-18 | 2015-06-10 | ソニー株式会社 | Image processing apparatus and method, and program |
JP6023406B2 (en) * | 2011-06-29 | 2016-11-09 | キヤノン株式会社 | Ophthalmic apparatus, evaluation method, and program for executing the method |
JP6157818B2 (en) * | 2011-10-07 | 2017-07-05 | 東芝メディカルシステムズ株式会社 | X-ray diagnostic equipment |
-
2014
- 2014-06-17 WO PCT/JP2014/066046 patent/WO2014203901A1/en active Application Filing
- 2014-06-17 JP JP2015522939A patent/JP6046250B2/en active Active
-
2016
- 2016-08-24 JP JP2016163178A patent/JP6378724B2/en active Active
-
2018
- 2018-06-01 JP JP2018105761A patent/JP6586196B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024930A (en) * | 2009-07-29 | 2011-02-10 | Topcon Corp | Ophthalmological observation device |
JP2012045299A (en) * | 2010-08-30 | 2012-03-08 | Canon Inc | Image processing apparatus, image processing method, and program recording medium |
JP2012071113A (en) * | 2010-08-31 | 2012-04-12 | Canon Inc | Image processing apparatus, method for controlling the same, and program |
WO2013085042A1 (en) * | 2011-12-09 | 2013-06-13 | 株式会社トプコン | Fundus observation device |
JP2012228544A (en) * | 2012-07-23 | 2012-11-22 | Canon Inc | Optical tomographic imaging apparatus |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015098912A1 (en) * | 2013-12-25 | 2017-03-23 | 興和株式会社 | Tomography system |
WO2015098912A1 (en) * | 2013-12-25 | 2015-07-02 | 興和株式会社 | Tomography device |
JP2016049368A (en) * | 2014-09-01 | 2016-04-11 | 株式会社ニデック | Ophthalmological photographing apparatus |
JP2018504994A (en) * | 2015-02-16 | 2018-02-22 | ノバルティス アーゲー | System and method for dual imaging of the vitreous and retina |
JP2016202249A (en) * | 2015-04-15 | 2016-12-08 | 株式会社ニデック | Fundus imaging apparatus and fundus imaging program |
KR20170008172A (en) * | 2015-07-13 | 2017-01-23 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and optical coherence tomography apparatus |
JP2017018435A (en) * | 2015-07-13 | 2017-01-26 | キヤノン株式会社 | Image processing device, image processing method and light interference tomographic imaging device |
US10299675B2 (en) | 2015-07-13 | 2019-05-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and optical coherence tomography apparatus |
KR102049242B1 (en) * | 2015-07-13 | 2019-11-28 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and optical coherence tomography apparatus |
JP2017093854A (en) * | 2015-11-25 | 2017-06-01 | 株式会社トプコン | Ophthalmology imaging apparatus and ophthalmologic image display device |
WO2017090549A1 (en) * | 2015-11-25 | 2017-06-01 | 株式会社トプコン | Ophthalmological image pickup device and ophthalmological image display device |
JP2017127397A (en) * | 2016-01-18 | 2017-07-27 | キヤノン株式会社 | Image processing device, estimation method, system and program |
JP7104516B2 (en) | 2016-02-02 | 2022-07-21 | 株式会社ニデック | Tomographic imaging device |
JPWO2017135278A1 (en) * | 2016-02-02 | 2018-11-29 | 株式会社ニデック | Tomographic imaging system |
JP2017185057A (en) * | 2016-04-06 | 2017-10-12 | キヤノン株式会社 | Ophthalmic imaging apparatus and control method therefor, and program |
US10916012B2 (en) | 2016-10-05 | 2021-02-09 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2018057828A (en) * | 2016-10-05 | 2018-04-12 | キヤノン株式会社 | Image processing apparatus and image processing method |
US10653309B2 (en) | 2016-12-13 | 2020-05-19 | Canon Kabushiki Kaisha | Ophthalmologic apparatus, and ophthalmologic imaging method |
JP2018094056A (en) * | 2016-12-13 | 2018-06-21 | キヤノン株式会社 | Ophthalmologic apparatus, ophthalmologic imaging method, and program |
EP3335622A3 (en) * | 2016-12-13 | 2018-06-27 | Canon Kabushiki Kaisha | Ophthalmologic apparatus, ophthalmologic imaging method, and program |
JP2021183280A (en) * | 2017-02-28 | 2021-12-02 | キヤノン株式会社 | Imaging device, and operation method and program of the imaging device |
JP2018140049A (en) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | Imaging device, imaging method, and program |
WO2019146582A1 (en) * | 2018-01-25 | 2019-08-01 | 国立研究開発法人産業技術総合研究所 | Image capture device, image capture system, and image capture method |
WO2019156139A1 (en) * | 2018-02-08 | 2019-08-15 | 興和株式会社 | Image processing device, image processing method, and image processing program |
JP2021097790A (en) * | 2019-12-20 | 2021-07-01 | 株式会社トプコン | Ophthalmologic information processing device, ophthalmologic apparatus, ophthalmologic information processing method and program |
JP7384656B2 (en) | 2019-12-20 | 2023-11-21 | 株式会社トプコン | Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program |
WO2021153087A1 (en) * | 2020-01-30 | 2021-08-05 | 株式会社トプコン | Ophthalmic device, control method thereof, and storage medium |
JP2021118770A (en) * | 2020-01-30 | 2021-08-12 | 株式会社トプコン | Ophthalmologic apparatus, method for controlling the same, program, and recording medium |
JP7534094B2 (en) | 2020-01-30 | 2024-08-14 | 株式会社トプコン | Ophthalmic device, control method thereof, program, and recording medium |
EP4074244A1 (en) * | 2021-04-13 | 2022-10-19 | Leica Instruments (Singapore) Pte. Ltd. | Feature recognition and depth guidance using intraoperative oct |
WO2022219006A1 (en) * | 2021-04-13 | 2022-10-20 | Leica Instruments (Singapore) Pte. Ltd. | Feature recognition and depth guidance using intraoperative oct |
Also Published As
Publication number | Publication date |
---|---|
JP2016195878A (en) | 2016-11-24 |
JP6046250B2 (en) | 2016-12-14 |
JP2018130595A (en) | 2018-08-23 |
JPWO2014203901A1 (en) | 2017-02-23 |
JP6586196B2 (en) | 2019-10-02 |
JP6378724B2 (en) | 2018-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6586196B2 (en) | Ophthalmic photographing apparatus and ophthalmic image display apparatus | |
JP5867719B2 (en) | Optical image measuring device | |
EP3730035B1 (en) | Ophthalmologic apparatus | |
JP5937163B2 (en) | Fundus analysis apparatus and fundus observation apparatus | |
JP6045895B2 (en) | Ophthalmic observation device | |
JP5936254B2 (en) | Fundus observation apparatus and fundus image analysis apparatus | |
JP5941761B2 (en) | Ophthalmic photographing apparatus and ophthalmic image processing apparatus | |
JP2016041221A (en) | Ophthalmological photographing device and control method thereof | |
JP6392275B2 (en) | Ophthalmic photographing apparatus, ophthalmic image display apparatus, and ophthalmic image processing apparatus | |
JP6411728B2 (en) | Ophthalmic observation device | |
JP6101475B2 (en) | Ophthalmic observation device | |
JP6159454B2 (en) | Ophthalmic observation device | |
JP6099782B2 (en) | Ophthalmic imaging equipment | |
JP2018023818A (en) | Ophthalmological observation device | |
JP6158535B2 (en) | Fundus analyzer | |
JP6503040B2 (en) | Ophthalmic observation device | |
JP6942627B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP6021289B2 (en) | Blood flow information generation device, blood flow information generation method, and program | |
WO2016039188A1 (en) | Ocular fundus analyzing device and ocular fundus observation device | |
JP6404431B2 (en) | Ophthalmic observation device | |
JP6954831B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2018023815A (en) | Ophthalmological observation device | |
JP2018023819A (en) | Ophthalmological observation device | |
JP2017140401A (en) | Ophthalmologic imaging apparatus | |
JP2016104305A (en) | Ophthalmological imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14813520 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2015522939 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 14813520 Country of ref document: EP Kind code of ref document: A1 |