[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018135175A1 - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
WO2018135175A1
WO2018135175A1 PCT/JP2017/044184 JP2017044184W WO2018135175A1 WO 2018135175 A1 WO2018135175 A1 WO 2018135175A1 JP 2017044184 W JP2017044184 W JP 2017044184W WO 2018135175 A1 WO2018135175 A1 WO 2018135175A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
light
fundus
fixation
Prior art date
Application number
PCT/JP2017/044184
Other languages
English (en)
French (fr)
Inventor
佑介 小野
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP17892116.9A priority Critical patent/EP3571978A4/en
Priority to US16/470,989 priority patent/US11122973B2/en
Publication of WO2018135175A1 publication Critical patent/WO2018135175A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes

Definitions

  • This invention relates to an ophthalmologic apparatus.
  • the ophthalmologic apparatus includes an ophthalmologic photographing apparatus for obtaining an image of the eye to be examined, an ophthalmologic measuring apparatus for measuring the characteristics of the eye to be examined, and an ophthalmic treatment apparatus for treating the eye to be examined.
  • an optical coherence tomography using optical coherence tomography OCT
  • an optical coherence tomography that obtains a tomographic image a fundus camera that photographs a fundus, or an image of the fundus by laser scanning using a confocal optical system Scanning laser ophthalmoscope (SLO), slit lamp microscope, surgical microscope, etc.
  • OCT optical coherence tomography
  • SLO scanning laser ophthalmoscope
  • ophthalmic measuring devices include an ocular refraction examination device (refractometer, keratometer) that measures the refractive properties of the eye to be examined, a tonometer, a specular microscope that obtains the properties of the cornea (corneal thickness, cell distribution, etc.)
  • a wavefront analyzer that obtains aberration information of the eye to be examined using a Hartmann-Shack sensor, a perimeter and a microperimeter that measures the visual field state.
  • ophthalmologic treatment devices include laser treatment devices that project laser light onto a site to be treated such as a diseased part, surgical devices for specific purposes (cataract surgery, corneal refraction correction surgery, etc.), surgical microscopes, etc. .
  • the fixation target has a function of guiding a line of sight in order to acquire data of a desired part of the eye to be examined, a function of fixing the eye to be examined while acquiring data, and the like.
  • fixation loss Even if a fixation target is presented, data of a desired part may not be acquired. For example, when there is a problem with the visual acuity of the eye to be examined, or when the subject is an elderly person or a child, the above-described function of the fixation target may not be sufficiently exhibited. In addition, voluntary or involuntary movement of the eye to be examined may interfere with fixation. Such a phenomenon is called fixation loss.
  • An object of the present invention is to provide an ophthalmologic apparatus that can suitably cope with fixation failure.
  • the ophthalmologic apparatus of the 1st aspect of embodiment contains a light beam projection part, a fixation system, an imaging
  • the light beam projection unit includes an optical scanner and is configured to project a light beam onto the fundus of the eye to be examined.
  • the fixation system is configured to project fixation light onto the fundus.
  • the imaging unit is configured to capture a moving image of the fundus on which the fixation light is projected to obtain a front observation image.
  • the analysis unit is configured to analyze the front observation image and specify the position of a predetermined part of the fundus.
  • the control unit is configured to control at least one of the fixation system and the optical scanner based on the positional relationship between the position of the predetermined part specified by the analysis unit and the projection target range of the light beam by the light beam projection unit. .
  • the control unit uses the light beam projection unit based on the positional relationship between the position of the predetermined part specified by the analysis unit and the projection target range of the light beam by the light beam projection unit.
  • the optical scanner is configured to change the projection target range of the light beam.
  • the control unit uses a fixation system based on the positional relationship between the position of the predetermined part specified by the analysis unit and the projection target range of the light beam by the light beam projection unit.
  • the fixation system is configured to change the fixation position.
  • the control unit displays the front observation image on the display unit, and displays the image indicating the projection target range of the light beam by the light beam projection unit on the front observation image. Configured.
  • the control unit is configured to superimpose and display an image representing the position of the predetermined part specified by the analysis unit on the front observation image.
  • control unit compares the deviation of the position of the predetermined part specified by the analysis unit with respect to the projection target range of the light beam by the light beam projection unit with a predetermined threshold, and this deviation. Only when the position exceeds a predetermined threshold, control of at least one of the fixation system and the optical scanner is executed.
  • Schematic showing the example of a structure of the ophthalmologic apparatus which concerns on embodiment Schematic showing the example of a structure of the ophthalmologic apparatus which concerns on embodiment. Schematic showing the example of a structure of the ophthalmologic apparatus which concerns on embodiment. Schematic showing the example of a structure of the ophthalmologic apparatus which concerns on embodiment. The flowchart showing the example of operation
  • the ophthalmologic apparatus of the embodiment includes at least a configuration for acquiring a frontal observation image of the fundus (imaging unit) and a configuration for projecting a light beam on the fundus (light beam projection unit).
  • the fundus frontal observation image is an image representing the form of the fundus when the fundus is viewed from the front (corneal side), and is a moving image composed of a plurality of image frames.
  • Examples of the ophthalmologic apparatus capable of acquiring such a front observation image include a fundus camera, a scanning laser ophthalmoscope, a surgical microscope, a slit lamp microscope, and an optical coherence tomometer.
  • an optical coherence tomography for example, a three-dimensional image of the fundus is repeatedly scanned to obtain a plurality of three-dimensional images, and a front-view image is obtained by rendering these three-dimensional images.
  • the front observation image may be simply referred to as an observation image.
  • the configuration for projecting the light flux on the fundus is provided, for example, in any of an ophthalmologic photographing apparatus, an ophthalmic measurement apparatus, and an ophthalmic treatment apparatus.
  • the configuration for projecting a light beam on the fundus includes an optical scanner for deflecting the light beam.
  • Examples of an ophthalmologic photographing apparatus including an optical scanner include an optical coherence tomometer and a scanning laser ophthalmoscope.
  • Examples of ophthalmic measuring devices including an optical scanner include a microperimeter, an axial length measuring device, and a retinal characteristic measuring device.
  • An example of an ophthalmic treatment apparatus that includes an optical scanner is a laser treatment apparatus.
  • the ophthalmologic apparatus of the embodiment may include other configurations in addition to the configuration for acquiring the frontal observation image of the fundus and the configuration for projecting the light flux on the fundus.
  • An exemplary embodiment ophthalmic apparatus described below includes a fundus camera and an optical coherence tomometer. Swept source OCT is applied to this optical coherence tomography, but the type of OCT is not limited to this, and even if other types of OCT (spectral domain OCT, time domain OCT, and unfaced OCT, etc.) are applied. Good.
  • the ophthalmologic apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the fundus camera unit 2 is provided with an optical system and mechanism for acquiring a front image of the eye E.
  • the OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. Another part of the optical system and mechanism for performing OCT is provided in the fundus camera unit 2.
  • the arithmetic control unit 200 includes one or more processors that execute various types of arithmetic operations and controls.
  • a member for supporting the subject's face chin rest, forehead rest, etc.
  • a lens unit for switching the OCT target site for example, anterior segment OCT attachment
  • a unit may be provided in the ophthalmic apparatus 1.
  • the “processor” is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (eg, SPLD (Simple ProGLD). It means a circuit such as Programmable Logic Device (FPGA) or Field Programmable Gate Array (FPGA).
  • the processor implements the functions according to the embodiment by reading and executing a program stored in a storage circuit or a storage device.
  • the fundus camera unit 2 is provided with an optical system for photographing the fundus oculi Ef of the eye E to be examined.
  • the acquired image of the fundus oculi Ef (referred to as a fundus oculi image, a fundus oculi photo or the like) is a front image such as an observation image or a captured image.
  • the observation image is obtained by moving image shooting using near infrared light.
  • the photographed image is a still image using flash light.
  • the fundus camera unit 2 can acquire a front image (anterior eye part image) by photographing the anterior eye part of the eye E to be examined.
  • the fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the eye E with illumination light.
  • the imaging optical system 30 detects the return light of the illumination light from the eye E.
  • the measurement light from the OCT unit 100 is guided to the eye E through the optical path in the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.
  • the light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the reflection mirror 12 having a curved reflecting surface, passes through the condensing lens 13 and passes through the visible cut filter 14. Near infrared light. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. The observation illumination light is reflected by the peripheral part of the perforated mirror 21 (area around the perforated part), passes through the dichroic mirror 46, and is refracted by the objective lens 22 to be examined eye E (fundus Ef or anterior eye). Part).
  • the return light of the observation illumination light from the eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, and passes through the dichroic mirror 55.
  • the light is reflected by the mirror 32 via the photographing focusing lens 31. Further, the return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the image sensor 35 by the condenser lens.
  • the image sensor 35 detects return light at a predetermined frame rate. Note that the focus of the photographing optical system 30 is adjusted to match the fundus oculi Ef or the anterior eye segment.
  • the light (imaging illumination light) output from the imaging light source 15 is irradiated onto the fundus oculi Ef through the same path as the observation illumination light.
  • the return light of the imaging illumination light from the eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37.
  • An image is formed on the light receiving surface of the image sensor 38.
  • LCD 39 displays a fixation target and a visual target for visual acuity measurement.
  • a part of the light beam output from the LCD 39 is reflected by the half mirror 33 ⁇ / b> A, reflected by the mirror 32, passes through the hole of the perforated mirror 21 through the photographing focusing lens 31 and the dichroic mirror 55.
  • the light beam that has passed through the aperture of the aperture mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39.
  • fixation positions include a fixation position for acquiring an image centered on the macula, a fixation position for acquiring an image centered on the optic disc, and the fundus center between the macula and the optic disc
  • a GUI Graphic User Interface
  • a GUI or the like for manually moving the fixation position (display position of the fixation target) can be provided.
  • the configuration for presenting the movable fixation target to the eye E is not limited to a display device such as an LCD.
  • a movable fixation target can be generated by selectively lighting a plurality of light sources in a light source array (light emitting diode (LED) array or the like).
  • a movable fixation target can be generated by one or more movable light sources.
  • the alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E.
  • the alignment light output from the LED 51 passes through the apertures 52 and 53 and the relay lens 54, is reflected by the dichroic mirror 55, and passes through the hole of the perforated mirror 21.
  • the light that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46 and is projected onto the eye E by the objective lens 22.
  • the corneal reflection light of the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light.
  • Manual alignment and auto-alignment can be executed based on the received light image (alignment index image).
  • the focus optical system 60 generates a split index used for focus adjustment on the eye E.
  • the focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (imaging optical path) of the imaging optical system 30.
  • the reflection bar 67 can be inserted into and removed from the illumination optical path.
  • the reflecting surface of the reflecting bar 67 is inclinedly arranged in the illumination optical path.
  • the focus light output from the LED 61 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, is reflected by the mirror 65, and is reflected by the condenser lens 66 as a reflecting rod 67.
  • the light is once imaged and reflected on the reflection surface. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the cornea reflected light of the alignment light. Manual focus and autofocus can be executed based on the received light image (split index image).
  • the diopter correction lenses 70 and 71 can be selectively inserted into the photographing optical path between the perforated mirror 21 and the dichroic mirror 55.
  • the diopter correction lens 70 is a plus lens (convex lens) for correcting the intensity hyperopia.
  • the diopter correction lens 71 is a minus lens (concave lens) for correcting intensity myopia.
  • the dichroic mirror 46 combines the fundus photographing optical path and the OCT optical path.
  • the dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photographing.
  • the OCT optical path measurement light optical path
  • a relay lens 45 is provided in order from the OCT unit 100 side to the dichroic mirror 46 side.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the length of the OCT optical path. This change in optical path length is used for optical path length correction according to the axial length, adjustment of the interference state, and the like.
  • the optical path length changing unit 41 includes a corner cube and a mechanism for moving the corner cube.
  • the optical scanner 42 is disposed at a position optically conjugate with the pupil of the eye E to be examined.
  • the optical scanner 42 deflects the measurement light LS passing through the OCT optical path.
  • the optical scanner 42 is, for example, a galvano scanner capable of two-dimensional scanning.
  • the OCT focusing lens 43 is moved along the optical path of the measurement light LS in order to adjust the focus of the optical system for OCT.
  • the movement of the photographing focusing lens 31, the movement of the focus optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.
  • the OCT unit 100 is provided with an optical system for executing the swept source OCT.
  • This optical system includes an interference optical system.
  • This interference optical system has a function of dividing light from a wavelength tunable light source (wavelength sweep type light source) into measurement light and reference light, return light of measurement light from the eye E and reference light via a reference light path, and Are provided with a function of generating interference light by superimposing and a function of detecting the interference light.
  • the detection result (detection signal) of the interference light obtained by the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200.
  • the light source unit 101 includes, for example, a near-infrared wavelength tunable laser that changes the wavelength of emitted light at high speed.
  • the light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102 and its polarization state is adjusted. Further, the light L0 is guided to the fiber coupler 105 by the optical fiber 104 and is divided into the measurement light LS and the reference light LR.
  • the reference light LR is guided to the collimator 111 by the optical fiber 110, converted into a parallel light beam, and guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113.
  • the optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS.
  • the dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS.
  • the corner cube 114 is movable in the incident direction of the reference light LR, and thereby the optical path length of the reference light LR is changed.
  • the reference light LR that has passed through the corner cube 114 is converted from a parallel light beam into a converged light beam by the collimator 116 via the dispersion compensation member 113 and the optical path length correction member 112, and enters the optical fiber 117.
  • the reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 and its polarization state is adjusted.
  • the reference light LR is guided to the attenuator 120 by the optical fiber 119 and the amount of light is adjusted, and is guided to the fiber coupler 122 by the optical fiber 121. It is burned.
  • the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40, and the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, and the mirror 44. Then, the light passes through the relay lens 45, is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and enters the eye E to be examined.
  • the measurement light LS is scattered and reflected at various depth positions of the eye E.
  • the return light of the measurement light LS from the eye E travels in the reverse direction on the same path as the forward path, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.
  • the fiber coupler 122 combines (interferences) the measurement light LS incident through the optical fiber 128 and the reference light LR incident through the optical fiber 121 to generate interference light.
  • the fiber coupler 122 generates a pair of interference light LC by branching the interference light at a predetermined branching ratio (for example, 1: 1).
  • the pair of interference lights LC are guided to the detector 125 through optical fibers 123 and 124, respectively.
  • the detector 125 is, for example, a balanced photodiode.
  • the balanced photodiode includes a pair of photodetectors that respectively detect the pair of interference lights LC, and outputs a difference between a pair of detection results obtained by these photodetectors.
  • the detector 125 sends this output (detection signal) to a DAQ (Data Acquisition System) 130.
  • DAQ Data Acquisition System
  • the clock KC is supplied from the light source unit 101 to the DAQ 130.
  • the clock KC is generated in synchronization with the output timing of each wavelength that is swept within a predetermined wavelength range by the wavelength variable light source in the light source unit 101.
  • the light source unit 101 optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then generates a clock KC based on the result of detecting these combined lights.
  • the DAQ 130 samples the detection signal input from the detector 125 based on the clock KC.
  • the DAQ 130 sends the sampling result of the detection signal from the detector 125 to the arithmetic control unit 200.
  • the optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and the length of the optical path (reference optical path, reference arm) of the reference light LR are changed.
  • only one of the optical path length changing unit 41 and the corner cube 114 may be provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length using optical members other than these.
  • FIGS. 3A and 3B A configuration example of the control system of the ophthalmologic apparatus 1 is shown in FIGS. 3A and 3B. 3A and 3B, some of the components included in the ophthalmologic apparatus 1 are omitted.
  • the control unit 210, the image forming unit 220, and the data processing unit 230 are provided in the arithmetic control unit 200, for example.
  • the control unit 210 executes various controls.
  • the control unit 210 includes a main control unit 211 and a storage unit 212.
  • the main control unit 211 includes a processor and controls each unit of the ophthalmologic apparatus 1 (including each element shown in FIGS. 1 to 3B). For example, the main control unit 211 moves the photographing focusing lens 31 by controlling a driving mechanism (not shown). Further, the main control unit 211 moves the OCT focusing lens 43 by controlling a driving mechanism (not shown). The main control unit 211 moves the corner cube 114 by controlling the reference driving unit 114A.
  • the moving mechanism 150 moves, for example, at least the fundus camera unit 2 three-dimensionally.
  • the moving mechanism 150 includes at least a mechanism for moving the fundus camera unit 2 in the x direction (left and right direction), a mechanism for moving in the y direction (up and down direction), and a z direction (depth direction). And a mechanism for moving in the front-rear direction).
  • the mechanism for moving in the x direction includes, for example, an x stage that can move in the x direction and an x moving mechanism that moves the x stage.
  • the mechanism for moving in the y direction includes, for example, a y stage that can move in the y direction and a y moving mechanism that moves the y stage.
  • the mechanism for moving in the z direction includes, for example, a z stage movable in the z direction and a z moving mechanism for moving the z stage.
  • Each moving mechanism includes an actuator such as a pulse motor and operates under the control of the main control unit 211.
  • the main control unit 211 controls the LCD 39.
  • the main control unit 211 displays a fixation target at a position on the screen of the LCD 39 corresponding to the fixation position set manually or automatically.
  • the main control unit 211 can change the display position of the fixation target displayed on the LCD 39 (continuously or stepwise). Thereby, the fixation target can be moved (that is, the fixation position can be changed).
  • the display position and movement mode of the fixation target are set manually or automatically.
  • the manual setting is performed using a GUI, for example.
  • the automatic setting is performed by the data processing unit 230, for example.
  • the storage unit 212 stores various data.
  • the data stored in the storage unit 212 includes an OCT image, a fundus image, an anterior eye image, eye information to be examined, and the like.
  • the eye information includes subject information such as patient ID and name, left / right eye identification information, electronic medical record information, and the like.
  • the image forming unit 220 includes a processor and forms an image based on an output from the DAQ 130 (a sampling result of the detection signal). For example, like the conventional swept source OCT, the image forming unit 220 performs signal processing on the spectrum distribution based on the sampling result for each A line to form a reflection intensity profile for each A line, and converts these A line profiles into images. And arrange them along the scan line.
  • the signal processing includes noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like.
  • the data processing unit 230 includes a processor and performs image processing and analysis processing on the image formed by the image forming unit 220.
  • the data processing unit 230 includes a three-dimensional image forming unit 231, an image projection unit 232, a registration unit 233, an analysis unit 234, and a deviation comparison unit 235.
  • the three-dimensional image forming unit 231 operates when an OCT scan of the three-dimensional region of the eye E (in other words, a scan for acquiring a three-dimensional image) is performed.
  • the three-dimensional image forming unit 231, the image projecting unit 232, and the alignment unit 233 do not operate.
  • Examples of scan modes (scan patterns) for scanning a three-dimensional area include raster scan (three-dimensional scan), radial scan, and multi-cross scan.
  • the raster scan is a mode in which a plurality of parallel lines are sequentially scanned.
  • the radial scan is a mode that sequentially scans a plurality of radially arranged lines.
  • the multi-cross scan is a mode in which a first line group composed of a predetermined number of lines parallel to each other and a second line group composed of a predetermined number of lines orthogonal to the first line group are sequentially scanned.
  • the type of the 3D image formed by the 3D image forming unit 231 is arbitrary.
  • a three-dimensional image typically means an image in which pixel positions are defined by a three-dimensional coordinate system.
  • the three-dimensional image forming unit 231 forms stack data or volume data as a three-dimensional image.
  • Stack data consists of a plurality of cross-sectional images (B-scan images, for example, xz cross-sectional images) formed by the image forming unit 220 based on data collected by scanning a three-dimensional region in one three-dimensional coordinate system (three-dimensional space). It is formed by embedding. That is, the stack data is obtained by three-dimensionally arranging a plurality of B scan images obtained along a plurality of scan lines based on the positional relationship between these scan lines.
  • B-scan images for example, xz cross-sectional images
  • the volume data is formed by interpolating pixels between a plurality of B scan images included in the stack data to voxel. Volume data is called voxel data.
  • the data processing unit 230 can perform rendering processing.
  • the rendering process include volume rendering and maximum value projection (Maximum Intensity Projection, MIP).
  • the data processing unit 230 can form a two-dimensional cross-sectional image from a three-dimensional image.
  • An example of this process is multi-planar reconstruction (MPR).
  • the image projection unit 232 forms a front projection image from the 3D image formed by the 3D image forming unit 231.
  • a front projection image is a two-dimensional image formed by projecting a three-dimensional image in a predetermined direction.
  • the process of projecting a three-dimensional image includes a process of adding the values of a plurality of pixels arranged along a predetermined direction.
  • a typical example of a front projection image is a projection image and a shadowgram.
  • the projection image is formed by projecting a three-dimensional image in a predetermined direction (z direction, depth direction, A scan direction). Similar to the fundus image obtained by the fundus camera unit 2, the front projection image formed from the three-dimensional image of the fundus oculi Ef represents the form of the surface of the fundus oculi Ef.
  • the shadowgram is formed by projecting a part of a three-dimensional image (for example, partial data corresponding to a specific layer) in a predetermined direction.
  • a part of a three-dimensional image for example, partial data corresponding to a specific layer
  • partial data including the surface tissue of the fundus oculi Ef (the inner boundary membrane and the layers in the vicinity thereof)
  • a front projection image expressing the form of the surface of the fundus oculi Ef can be obtained in the same manner as the fundus image.
  • the alignment unit 233 performs alignment (registration) between the fundus image obtained by the fundus camera unit 2 and the front projection image formed by the image projection unit 232.
  • the registration unit 233 can perform registration for each of the image frames acquired sequentially. Alternatively, registration may be performed at a predetermined frame interval.
  • the image forming unit 220 and the three-dimensional image forming unit 231 perform 3 from the series of data collected in each of the series of OCT scans that are sequentially executed.
  • Form a dimensional image That is, the image forming unit 220 and the 3D image forming unit 231 repeatedly execute a process for forming a 3D image in synchronization with a series of OCT scans.
  • the image projection unit 232 can form a front projection image from each of the three-dimensional images that are sequentially formed.
  • the alignment unit 233 can perform registration for each of the front projection images formed sequentially.
  • the alignment unit 233 is based on the frame rate of the observation images and the repetition rate of the series of OCT scans. Registration can be performed by associating the image frame of the observation image with the front projection image. At this time, the main control unit 211 can synchronize the acquisition timing of the image frame of the observation image and the repetition timing of a series of OCT scans.
  • Registration includes, for example, a first process for detecting a feature region from both images (fundus image and front projection image) and a second process for aligning both images with reference to both feature regions.
  • the feature area detected in the first process is, for example, an area corresponding to the optic nerve head, an area corresponding to the macula, an area corresponding to a characteristic blood vessel, an area corresponding to a lesioned part, or an area corresponding to a laser treatment mark. It can be either.
  • the alignment unit 233 can detect the feature region with reference to the pixel value and the pixel arrangement.
  • the alignment unit 233 adjusts the relative position between the fundus image and the front projection image so that, for example, the feature region detected from the fundus image matches the feature region detected from the front projection image.
  • the alignment unit 233 may specify the contour and representative points (center point, center of gravity point, etc.) of the feature region and perform registration so that they match. Further, the alignment unit 233 may evaluate the degree of coincidence between both feature regions, and may determine that both feature regions coincide when an evaluation value equal to or greater than a predetermined threshold is obtained.
  • the analysis unit 234 analyzes the observation image of the fundus oculi Ef acquired by the fundus camera unit 2 (the illumination optical system 10 and the imaging optical system 30) and specifies the position of a predetermined part of the fundus oculi Ef. Based on the positional relationship between the position of the predetermined part specified by the analysis unit 234 and the target range of the OCT scan, the scan range is shifted and / or the fixation target is moved.
  • the predetermined part of the fundus oculi Ef may be arbitrary.
  • the predetermined part may be a macula, an optic disc, a lesion, a blood vessel of interest, or the like.
  • the position of the predetermined part specified by the analysis unit 234 may be, for example, a position in the observation image acquired by the fundus camera unit 2 (that is, a position in the image frame).
  • the analysis unit 234 includes a position specifying unit 2341 and a positional relationship acquisition unit 2342.
  • the position specifying unit 2341 analyzes the observation image acquired by the fundus camera unit 2 and specifies the position of a predetermined part of the fundus oculi Ef. This process is sequentially executed on at least a part of a plurality of image frames included in the observation image, for example.
  • the position specifying unit 2341 specifies the position of a predetermined part of the fundus oculi Ef based on the pixel value (luminance value) included in the image frame.
  • This position specifying process includes, for example, known image processing such as threshold processing regarding luminance values, binarization, edge detection, pattern matching, noise removal, morphological processing, labeling, and the like.
  • the position specifying unit 2341 can search for a pixel having a luminance value exceeding a predetermined threshold by using threshold processing in order to specify an image of the optic disc.
  • the position specifying unit 2341 can search for a substantially elliptical image region using binarization, edge detection, pattern matching, and the like in order to specify an image of the optic nerve head.
  • the position specifying unit 2341 specifies the position of the predetermined part of the fundus oculi Ef based on any information among the position, size, shape, etc. of the image of the specified predetermined part. can do.
  • Sites that can be specified by such processing include the optic nerve head (center, center of gravity, outer edge, rectangle circumscribing the outer edge, etc.), lesioned part (center, center of gravity, outer edge, rectangle circumscribing the outer edge, etc.), and the like.
  • the position specifying unit 2341 may select any of the position, relative position, size, relative size, shape, relative shape, and the like of these images. Based on such information, the position of the predetermined part of the fundus oculi Ef can be specified.
  • Sites that can be specified by such processing include the optic nerve head (center, center of gravity, outer edge, rectangle circumscribing the outer edge, etc.), lesioned part (center, center of gravity, outer edge, rectangle circumscribing the outer edge, etc.), and the like.
  • the positional relationship acquisition unit 2342 obtains the positional relationship between the position of the predetermined part of the fundus oculi Ef specified by the position specifying unit 2341 and the scan target range in OCT.
  • the scan target range may be set arbitrarily.
  • the scan target range may be a target range for alignment for OCT, a part or all of a range where an OCT scan is performed, or a part or all of a range of an image frame of an observation image.
  • the positional relationship acquisition unit 2342 can determine the deviation of the position of a predetermined part of the fundus oculi Ef with respect to the scan target range.
  • the deviation of the position of the predetermined part of the fundus oculi Ef with respect to the scan target range is substantially equal to the deviation of the scan target range with respect to the position of the predetermined part of the fundus oculi Ef.
  • the positional relationship acquisition unit 2342 can obtain a difference (deviation vector) between the position of a predetermined part of the fundus oculi Ef and a predetermined position in the scan target range. That is, the positional relationship acquisition unit 2342 is a deviation vector starting from the position of a predetermined part of the fundus oculi Ef and ending with the predetermined position in the scan target range, or the predetermined position of the fundus oculi Ef starting from the predetermined position in the scan target range. A deviation vector whose end point is the position of the part is obtained.
  • the default position in the scan target range may be set arbitrarily.
  • the predetermined position in the scan target range is set to the center of the scan target range, a position where a plurality of scan lines intersect, or a position on the outer edge (vertex position, side midpoint position, etc.) of the scan target range. .
  • the default position in the scan target range may be a wide area.
  • a predetermined area including the center of the scan target range can be set as the default position.
  • the outer edge of the scan target range can be set as the predetermined position.
  • the positional relationship acquisition unit 2342 can obtain the deviation vector along the shortest distance between the position of the predetermined part of the fundus oculi Ef and the predetermined region in the scan target range.
  • the positional relationship acquisition unit 2342 obtains a displacement vector so as to connect the position of a predetermined part of the fundus oculi Ef and the representative position (center, center of gravity, position on the outer edge, etc.) in the predetermined area. it can.
  • the position of the predetermined part of the fundus oculi Ef may be a wide area.
  • the positional relationship acquisition unit 2342 obtains a deviation vector based on a region (circular region, rectangular region, etc.) centered on the position specified by the position specifying unit 2341 and a predetermined position in the scan target range. Can do.
  • the size of the area is set by, for example, the shooting magnification, the size of the scan target range, and the like.
  • Both the predetermined position in the scan target range and the position of the predetermined part of the fundus oculi Ef may be a wide area.
  • the positional relationship acquisition unit 2342 can determine the positional relationship between both regions.
  • the positional relationship acquisition unit 2342 can determine whether or not a region of a predetermined part of the fundus oculi Ef (eg, the center of gravity of the nipple and its vicinity) is included inside the outer edge of the scan target range. This determination is, for example, substantially the same processing as the determination regarding the magnitude of the difference between the position of a predetermined part (for example, the center of the nipple) of the fundus oculi Ef and the center of the scan target range.
  • a region of a predetermined part of the fundus oculi Ef eg, the center of gravity of the nipple and its vicinity
  • the deviation comparison unit 235 compares the deviation obtained by the positional relationship acquisition unit 2342 with a predetermined threshold value. This deviation is, for example, the magnitude of the aforementioned deviation vector. For example, the deviation comparison unit 235 determines whether the deviation obtained by the positional relationship acquisition unit 2342 exceeds a predetermined threshold.
  • the default threshold may be set arbitrarily. For example, when it is desired to increase the accuracy of fixation, the predetermined threshold value can be set to a small value.
  • the user interface 240 includes a display unit 241 and an operation unit 242.
  • the display unit 241 includes the display device 3.
  • the operation unit 242 includes various operation devices and input devices.
  • the user interface 240 may include a device in which a display function and an operation function such as a touch panel are integrated. In other embodiments, at least a portion of the user interface may not be included in the ophthalmic device.
  • the display device may be an external device connected to the ophthalmologic apparatus.
  • a fixation position is designated.
  • the fixation position is designated manually or automatically.
  • the main control unit 211 displays a GUI for designating a fixation position on the display unit 241.
  • the user sets a desired fixation position using the GUI and the operation unit 242.
  • the main control unit 211 designates a fixation position based on information input from the outside. Examples of this information include an electronic medical record of a subject input from an electronic medical record system, and an imaging mode designated manually or automatically. In this example, it is assumed that “optic disc” is designated as the fixation position.
  • the main control unit 211 controls the LCD 39 so as to display the fixation target at the position of the screen corresponding to the designated fixation position. Thereby, fixation light is projected onto the eye E to be examined. For example, the fixation light is continuously projected onto the eye E until imaging is completed.
  • the main control unit 211 controls the illumination optical system 10 and the photographing optical system 30 so as to start obtaining an observation image of the eye E.
  • the observation image is a moving image obtained by photographing the eye E from the front.
  • an observation image of the anterior segment is obtained.
  • the main control unit 211 displays the observation image on the display unit 241 in real time. Further, the main control unit 211 transfers image frames obtained sequentially as observation images to the data processing unit 230.
  • step S1 and the timing of starting observation image acquisition (step S2) are not limited to the order shown in FIG.
  • the control may be performed so that the fixation target is started after the observation image acquisition is started. Or you may control so that acquisition of an observation image and projection of a fixation target may be started simultaneously.
  • the main controller 211 controls the alignment optical system 50 so as to project alignment light onto the eye E, and controls the focus optical system 60 so as to project focus light onto the eye E.
  • the main control unit 211 performs auto alignment and auto focus in the same manner as in the past.
  • the user may perform one or both of manual alignment and manual focus. Thereby, alignment and focusing with respect to the fundus oculi Ef are completed.
  • observation image obtained by the fundus camera unit 2 in the intermediate stage of step S3 shifts from the anterior ocular segment observation image to the fundus observation image.
  • the position specifying unit 2341 analyzes the observation image acquired in step S and specifies the position of the predetermined part of the fundus oculi Ef. In this example, the position specifying unit 2341 specifies the position of the optic nerve head. The identified position is estimated as the position of the center of gravity of the nipple. The result of position specification by the position specifying unit 2341 is sent to the positional relationship acquisition unit 2342.
  • the positional relationship acquisition unit 2342 obtains the positional relationship (deviation vector) between the position of the predetermined part of the fundus oculi Ef specified by the position specifying unit 2341 and the scan target range in the OCT executed in the subsequent stage.
  • Information acquired by the positional relationship acquisition unit 2342 (deviation, for example, a deviation vector or its magnitude) is sent to the deviation comparison unit 235.
  • the main control unit 211 displays a screen (confirmation screen) for confirming the fixation state on the display unit 241.
  • the timing for starting the display of the confirmation screen may be arbitrary.
  • the display of the confirmation screen can be started at a timing before step S1 or at a timing between steps S1 to S5.
  • the main control unit 211 displays the observation image that has been acquired in step S2 on the confirmation screen. At this time, the observation image is displayed as a moving image.
  • FIG. 5 shows an example of the confirmation screen.
  • the observation image G that has been acquired in step S2 is displayed.
  • an image of the optic disc (optic disc image) Ga is depicted. Note that the optic disc image Ga may not be depicted in the observation image G due to poor fixation or the like.
  • the capture screen 310 is provided on the confirmation screen 300.
  • the capture button 310 is a software key that receives an instruction for performing OCT imaging.
  • a pointer (not shown) is displayed on the confirmation screen 300.
  • the user can input an instruction for OCT imaging by clicking the capture button 310 using the operation unit 242.
  • the display unit 241 is a touch panel, the user can input an instruction for OCT imaging by tapping the capture button 310.
  • the main control unit 211 can display an image representing the scan target range in OCT (scan target range image) on the confirmation screen 300.
  • the scan target range image is created by the main control unit 211, for example.
  • the scan target range image is displayed, for example, superimposed on the observation image G.
  • the scan target range image T shown in FIG. 4 represents the target range of alignment for OCT.
  • fixation disparity correction is performed so that the optic disc image Ga is drawn within the scan target range T.
  • Such a scan target range is determined by the main control unit 211 according to predetermined conditions such as an OCT scan pattern size, an observation image size (observation magnification), an OCT scan target site (fixation position), and the like. It is determined.
  • the form of the scan target range image is not limited to this.
  • a scan target range indicating part or all of the range in which the OCT scan is performed or a scan target range indicating part or all of the range of the image frame of the observation image can be displayed together with the observation image G.
  • the main control unit 211 displays an image (attention part image) based on the position of the predetermined part (optic nerve head, nipple center of gravity, etc.) specified by the position specifying part 2341 in step S4 on the confirmation screen 300.
  • the attention site image is displayed, for example, superimposed on the observation image G.
  • the site-of-interest image is an image indicating the position (such as the nipple center of gravity) specified by the position specifying unit 2341.
  • Such an attention site image may be, for example, a point image displayed at a position in the front projection image H corresponding to the specified position, an arrow image indicating the position, or an image similar thereto.
  • the target part image is an image showing the range of the target part whose position is specified by the position specifying unit 2341 (the outer edge of the optic disc).
  • the main control unit 211 displays an image (positional relationship image) based on the positional relationship acquired by the positional relationship acquisition unit 2342 in step S5 on the confirmation screen 300. can do.
  • the positional relationship image is displayed, for example, superimposed on the observation image G.
  • the deviation comparison unit 235 compares the deviation acquired by the positional relationship acquisition unit 2342 in step S5 with a predetermined threshold value.
  • step S8 excursion ⁇ threshold
  • step S8: No When it is determined by the comparison in step S7 that the deviation exceeds the threshold (deviation> threshold) (S8: No), the process proceeds to step S9. On the other hand, when it is determined that the deviation is equal to or less than the threshold (deviation ⁇ threshold) (S8: Yes), the process proceeds to step S10.
  • step S9 Control scan range / fixation position
  • the main control unit 211 determines at least one of the scan range in OCT and the display position of the fixation target. Control.
  • the control of the scan range is realized by the control of the optical scanner 42.
  • the control of the display position of the fixation target is realized by the control of the LCD 39.
  • the object to be controlled (optical scanner 42 and / or LCD 39) is determined in advance or determined in the processing. In a typical example, it may be configured to always control one of the optical scanner 42 and / or the LCD 39.
  • To determine the target of control for example, refer to any information such as the characteristics / attributes of the subject, the characteristics / attributes of the subject's eyes, the characteristics grasped from the observation image, and the characteristics grasped from the examination performed in the past. Can be done.
  • the main control unit 211 shifts the scan range in the OCT so as to cancel out the deviation acquired by the positional relationship acquisition unit 2342, for example.
  • the main control unit 211 moves the position of the scan target range so that a predetermined part (such as the optic disc) of the fundus oculi Ef is included in the scan target range.
  • the main control unit 211 can display a new scan target range T1 at a position different from the scan target range image T in FIG.
  • the main control unit 211 changes the display position of the fixation target so as to cancel the deviation acquired by the positional relationship acquisition unit 2342, for example.
  • the main control unit 211 moves the position of the eye E so that a predetermined part (such as the optic disc) of the fundus oculi Ef is included in the scan target range.
  • a new observation image G1 depicting a region (shifted region) of the fundus oculi Ef different from the observation image G in FIG. 5 is displayed.
  • the relative position between the scanning range and the eye E (fundus Ef) in the subsequent OCT imaging is adjusted. That is, when the optical scanner 42 is controlled, the relative position changes by shifting the scan range. On the other hand, when controlling the LCD 39, the relative position changes by prompting the movement of the fundus oculi Ef.
  • step S8 After the optical scanner 42 and / or the LCD 39 are controlled, the process returns to step S4. Then, steps S4 to S8 are executed again. If “No” is determined again in step S8, after step S9 is executed again, the routines of steps S4 to S8 are executed again. Such a series of processes is repeated until “Yes” is determined in step S8.
  • an error determination can be made when a predetermined time has elapsed from a predetermined timing such as the start of inspection or the start of observation image acquisition.
  • a predetermined timing such as the start of inspection or the start of observation image acquisition.
  • the user may make an error determination. Such error determination is performed when it is difficult to obtain a suitable fixation state.
  • step S10 Fixation OK is displayed
  • step S8 Yes
  • the main control unit 211 provides information indicating that a suitable fixation state has been obtained. It is displayed on the confirmation screen 300.
  • This information may be a predetermined text or image.
  • text such as “Fixation OK” or “Photographable” can be displayed.
  • Step S8 While indicating “No” in Step S8, information indicating an inappropriate fixation state is displayed, and when it is determined “Yes” in Step S8, a suitable fixation state is displayed. You may make it switch to the display of the information which shows.
  • step S10 Fundus OCT imaging
  • the user can grasp from the information displayed in step S10 that a suitable fixation state has been achieved.
  • the user can grasp that a suitable fixation state has been obtained by referring to the observation image G.
  • the user When it is determined that a suitable fixation state has been obtained, the user operates the capture button 310 on the confirmation screen 300.
  • the main control unit 211 controls the optical scanner 42 and the OCT unit 100 so as to execute OCT imaging of the fundus oculi Ef. Data acquired by OCT imaging is used for image diagnosis and image analysis.
  • step S9 when the scan range is shifted in step S9, the shifted scan range is applied to OCT imaging. If step S9 is executed twice or more, that is, if “No” is determined twice or more in step S8, the scan range set in step S9 executed last is applied to OCT imaging.
  • the 3D image forming unit 231 can form a 3D image. Furthermore, the image projection unit 232 can form a front projection image from this three-dimensional image. In addition, the alignment unit 233 can perform registration between the front projection image and the observation image.
  • the main control unit 211 controls the fundus camera unit 2 to perform imaging of the fundus oculi Ef. Typically, color photographing using visible light is performed.
  • the fundus image (captured image) acquired in step S23 is used for image diagnosis and image analysis together with or separately from the data acquired by OCT imaging.
  • the 3D image forming unit 231 can form a 3D image. Furthermore, the image projection unit 232 can form a front projection image from this three-dimensional image. In addition, the alignment unit 233 can perform registration between the front projection image and the captured image acquired in step S12. Thus, the process according to this operation example ends.
  • the ophthalmologic apparatus of the embodiment includes a light flux projection unit, a fixation system, an imaging unit, an analysis unit, and a control unit.
  • the luminous flux projection unit includes an optical scanner and is configured to project a luminous flux on the fundus of the eye to be examined.
  • the combination of the elements included in the OCT unit 100 and the optical element that forms the optical path that guides the measurement light LS to the eye E functions as a light beam projection unit.
  • the ophthalmologic apparatus of the embodiment may further include a detection unit that detects return light of the light beam projected onto the fundus by the light beam projection unit.
  • a detection unit that detects return light of the light beam projected onto the fundus by the light beam projection unit.
  • the ophthalmologic apparatus has any of the functions of an optical coherence tomometer, a scanning laser ophthalmoscope, an axial length measuring device, a retinal characteristic measuring device, and the like, such a detection unit is provided.
  • the fixation system is configured to project fixation light onto the fundus.
  • the combination of the LCD 39 and an optical element that forms an optical path that guides light (fixation light) output from the LCD 39 to the eye E functions as a fixation system.
  • the imaging unit is configured to capture a moving image of the fundus on which fixation light is projected by the fixation system and acquire a front observation image.
  • the combination of the illumination optical system 10 and the imaging optical system 30 functions as an imaging unit.
  • the analysis unit is configured to identify the position of a predetermined part of the fundus by analyzing the front observation image acquired by the imaging unit.
  • the position specified by the analysis unit is typically the position in the front observation image acquired by the imaging unit, that is, the position in the observation target range.
  • the analysis unit 234 functions as an analysis unit.
  • the control unit controls at least one of the fixation system and the optical scanner of the light beam projection unit based on the positional relationship between the position of the predetermined part specified by the analysis unit and the projection target range of the light beam by the light beam projection unit.
  • the main control unit 211 functions as a control unit.
  • the control unit When controlling the optical scanner, the control unit changes the projection target range of the light beam based on the positional relationship between the position of the predetermined part specified by the analysis unit and the projection target range of the light beam by the light beam projection unit. be able to.
  • the main control unit 211 changes the projection target range by controlling the optical scanner 42.
  • the control unit When controlling the fixation system, the control unit changes the fixation position based on the positional relationship between the position of the predetermined portion specified by the analysis unit and the projection target range of the light beam by the light beam projection unit. Can do.
  • the main control unit 211 changes the fixation position by controlling the LCD 39.
  • the relative position between the range in which the light beam is projected by the light beam projection unit and the eye to be examined based on the positional relationship between a predetermined portion of the fundus (for example, the center of gravity of the nipple) and the projection target range. Can be changed. Therefore, when fixation failure occurs (that is, when the positional relationship between a predetermined part of the fundus and the projection target range is not appropriate), the fixation position of the eye to be examined is adjusted to eliminate fixation failure Or the position of the range in which the light beam is projected by the light beam projection unit can be adjusted. As a result, it is possible to appropriately cope with fixation failure.
  • control unit may be configured to display the front observation image acquired by the photographing unit on the display unit. Further, the control unit may be configured to display an image indicating a projection target range of the light beam by the light beam projection unit so as to overlap the front observation image.
  • the display unit 241 functions as a display unit.
  • the scan target range image T is displayed as an image indicating the projection target range.
  • the user observes the predetermined part of the fundus, grasps the projection target range of the light flux, and grasps the relative position between the predetermined part of the fundus and the projection target range. Can do.
  • control unit may be configured to display an image representing the position of a predetermined part of the fundus on the front observation image.
  • the attention site image corresponds to an image representing the position of a predetermined site on the fundus.
  • control unit compares the deviation between the projection target range of the luminous flux and the position of the predetermined part of the fundus determined by the position specifying unit with a predetermined threshold, and when the deviation exceeds the predetermined threshold Only the control of at least one of the optical system of the fixation system and the light beam projection unit may be executed.
  • the control for eliminating the fixation failure is performed, and when the deviation becomes sufficiently small, the inspection (measurement, Shooting).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

実施形態に係る眼科装置は、光束投射部と、固視系と、撮影部と、解析部と、制御部とを含む。光束投射部は、光スキャナを含み、被検眼の眼底に光束を投射するように構成される。固視系は、眼底に固視光を投射するように構成される。撮影部は、固視光が投射されている眼底を動画撮影して正面観察画像を取得するように構成される。解析部は、正面観察画像を解析して眼底の所定部位の位置を特定するように構成される。制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて固視系及び光スキャナの少なくとも一方を制御するように構成される。

Description

眼科装置
 この発明は眼科装置に関する。
 眼科装置には、被検眼の画像を得るための眼科撮影装置と、被検眼の特性を測定するための眼科測定装置と、被検眼を治療するための眼科治療装置とが含まれる。
 眼科撮影装置の例として、光コヒーレンストモグラフィ(OCT)を利用して断層像を得る光干渉断層計や、眼底を写真撮影する眼底カメラや、共焦点光学系を用いたレーザー走査により眼底の画像を得る走査型レーザー検眼鏡(SLO)、スリットランプ顕微鏡、手術用顕微鏡などがある。
 眼科測定装置の例として、被検眼の屈折特性を測定する眼屈折検査装置(レフラクトメータ、ケラトメータ)や、眼圧計や、角膜の特性(角膜厚、細胞分布等)を得るスペキュラーマイクロスコープや、ハルトマン-シャックセンサを用いて被検眼の収差情報を得るウェーブフロントアナライザや、視野状態を測定する視野計・マイクロペリメータなどがある。
 眼科治療装置の例として、疾患部等の治療対象部位にレーザー光を投射するレーザー治療装置や、特定の目的(白内障手術、角膜屈折矯正手術等)のための手術装置、手術用顕微鏡などがある。
 多くの眼科装置には、被検眼(又は僚眼)に固視標を提示するための構成が設けられている。固視標には、被検眼の所望の部位のデータを取得するために視線を誘導する機能や、データの取得中に被検眼を固定する機能などがある。
特開2016-158721号公報
 しかし、固視標を提示していても所望の部位のデータを取得できないことがある。例えば、被検眼の視力に問題がある場合や、被検者が老人又は子供である場合、固視標の上記機能を十分に発揮できないことがある。また、被検眼の随意的又は不随意的な動きが固視を妨げることもある。このような現象は固視不良(fixation loss)などと呼ばれる。
 この発明の目的は、固視不良に対して好適に対処することが可能な眼科装置を提供することにある。
 実施形態の第1の態様の眼科装置は、光束投射部と、固視系と、撮影部と、解析部と、制御部とを含む。光束投射部は、光スキャナを含み、被検眼の眼底に光束を投射するように構成される。固視系は、眼底に固視光を投射するように構成される。撮影部は、固視光が投射されている眼底を動画撮影して正面観察画像を取得するように構成される。解析部は、正面観察画像を解析して眼底の所定部位の位置を特定するように構成される。制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて固視系及び光スキャナの少なくとも一方を制御するように構成される。
 実施形態の第2の態様の眼科装置において、制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて、光束投射部による光束の投射目標範囲を変更するように光スキャナを制御するように構成される。
 実施形態の第3の態様の眼科装置において、制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて、固視系による固視位置を変更するように固視系を制御するように構成される。
 実施形態の第4の態様の眼科装置において、制御部は、正面観察画像を表示手段に表示させ、且つ、光束投射部による光束の投射目標範囲を示す画像を正面観察画像に重ねて表示させるように構成される。
 実施形態の第5の態様の眼科装置において、制御部は、解析部により特定された所定部位の位置を表す画像を正面観察画像に重ねて表示させるように構成される。
 実施形態の第6の態様の眼科装置において、制御部は、光束投射部による光束の投射目標範囲に対する解析部により特定された所定部位の位置の偏位を既定閾値と比較し、且つ、この偏位が既定閾値を超える場合にのみ、固視系及び光スキャナの少なくとも一方の制御を実行するように構成される。
 このように構成された実施形態によれば、固視不良に対して好適に対処することが可能である。
実施形態に係る眼科装置の構成の例を表す概略図。 実施形態に係る眼科装置の構成の例を表す概略図。 実施形態に係る眼科装置の構成の例を表す概略図。 実施形態に係る眼科装置の構成の例を表す概略図。 実施形態に係る眼科装置の動作の例を表すフローチャート。 実施形態に係る眼科装置が表示する画面の例を表す概略図。 実施形態に係る眼科装置が表示する画面の例を表す概略図。 実施形態に係る眼科装置が表示する画面の例を表す概略図。
 この発明の実施形態について図面を参照しながら詳細に説明する。実施形態の眼科装置は、少なくとも、眼底の正面観察画像を取得するための構成(撮影部)と、眼底に光束を投射するための構成(光束投射部)とを含む。
 眼底の正面観察画像とは、眼底を正面(角膜側)から見たときの眼底の形態を表す画像であって、複数の画像フレームからなる動画像である。このような正面観察画像を取得可能な眼科装置の例として、眼底カメラ、走査型レーザー検眼鏡、手術用顕微鏡、スリットランプ顕微鏡、光干渉断層計などがある。光干渉断層計が適用される場合、例えば、眼底の3次元領域を反復的にスキャンして複数の3次元画像を取得し、これら3次元画像をレンダリングすることによって正面観察画像が得られる。なお、以下、正面観察画像を単に観察画像と記載することがある。
 眼底に光束を投射するための構成は、例えば、眼科撮影装置、眼科測定装置、及び眼科治療装置のいずれかに設けられる。眼底に光束を投射するための構成は、光束を偏向するための光スキャナを含む。光スキャナを含む眼科撮影装置の例として、光干渉断層計、走査型レーザー検眼鏡などがある。光スキャナを含む眼科測定装置の例として、マイクロペリメータ、眼軸長測定装置、網膜特性測定装置などがある。光スキャナを含む眼科治療装置の例として、レーザー治療装置がある。
 実施形態の眼科装置は、眼底の正面観察画像を取得するための構成と、眼底に光束を投射するための構成とに加え、他の構成を含んでいてもよい。
 以下に説明する例示的な実施形態の眼科装置は、眼底カメラと光干渉断層計とを含む。この光干渉断層計にはスウェプトソースOCTが適用されているが、OCTのタイプはこれに限定されず、他のタイプのOCT(スペクトラルドメインOCT、タイムドメインOCT、アンファスOCT等)が適用されてもよい。
〈構成〉
 図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。
 本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
〈眼底カメラユニット2〉
 眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。更に、眼底カメラユニット2は、被検眼Eの前眼部を撮影して正面画像(前眼部像)を取得することができる。
 眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
 照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部に合致するように調整される。
 撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。
 LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。このような典型的な固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を設けることができる。また、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を設けることができる。
 移動可能な固視標を被検眼Eに提示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。
 アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。LED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。アライメント光の角膜反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
 フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。
 視度補正レンズ70及び71は、孔開きミラー21とダイクロイックミラー55との間の撮影光路に選択的に挿入可能である。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。
 ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。
 光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、2次元走査が可能なガルバノスキャナである。
 OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
〈OCTユニット100〉
 図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割する機能と、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成する機能と、この干渉光を検出する機能とを備える。干渉光学系により得られた干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
 光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
 参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。
 コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。
 一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
 ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
 検出器125は、例えばバランスドフォトダイオードである。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらフォトディテクタにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をDAQ(Data Acquisition System)130に送る。
 DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。
 本例では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられているが、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。
〈制御系〉
 眼科装置1の制御系の構成例を図3A及び図3Bに示す。図3A及び図3Bにおいて、眼科装置1に含まれる構成要素の一部が省略されている。制御部210、画像形成部220及びデータ処理部230は、例えば、演算制御ユニット200に設けられる。
〈制御部210〉
 制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
〈主制御部211〉
 主制御部211は、プロセッサを含み、眼科装置1の各部(図1~図3Bに示された各要素を含む)を制御する。例えば、主制御部211は、図示しない駆動機構を制御することで撮影合焦レンズ31を移動する。また、主制御部211は、図示しない駆動機構を制御することでOCT合焦レンズ43を移動する。また、主制御部211は、参照駆動部114Aを制御することでコーナーキューブ114を移動する。
 移動機構150は、例えば、少なくとも眼底カメラユニット2を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、パルスモータ等のアクチュエータを含み、主制御部211からの制御を受けて動作する。
 主制御部211は、LCD39を制御する。例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。
〈記憶部212〉
 記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像や眼底像や前眼部像や被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
〈画像形成部220〉
 画像形成部220は、プロセッサを含み、DAQ130からの出力(検出信号のサンプリング結果)に基づき画像を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aライン毎のサンプリング結果に基づくスペクトル分布に信号処理を施してAライン毎の反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。
〈データ処理部230〉
 データ処理部230は、プロセッサを含み、画像形成部220により形成された画像に対して画像処理や解析処理を施す。データ処理部230は、3次元画像形成部231と、画像投影部232と、位置合わせ部233と、解析部234と、偏位比較部235とを含む。
〈3次元画像形成部231〉
 3次元画像形成部231は、被検眼Eの3次元領域のOCTスキャン(換言すると、3次元画像を取得するためのスキャン)が行われたときに動作する。
 なお、3次元領域のOCTスキャンが行われなかった場合、3次元画像形成部231、画像投影部232及び位置合わせ部233は動作しない。
 3次元領域をスキャンするためのスキャンモード(スキャンパターン)の例として、ラスタースキャン(3次元スキャン)、ラジアルスキャン、マルチクロススキャンなどがある。ラスタースキャンは、互いに平行な複数のラインを順次にスキャンするモードである。ラジアルスキャンは、放射状に配列された複数のラインを順次にスキャンするモードである。マルチクロススキャンは、互いに平行な所定本数のラインからなる第1ライン群と、第1ライン群に直交する所定本数のラインからなる第2ライン群とを順次にスキャンするモードである。
 3次元画像形成部231により形成される3次元画像の種類は任意である。3次元画像とは、典型的には、3次元座標系により画素の位置が定義された画像を意味する。例示的な実施形態において、3次元画像形成部231は、3次元画像としてスタックデータ又はボリュームデータを形成する。
 スタックデータは、3次元領域のスキャンにより収集されたデータに基づき画像形成部220が形成した複数の断面像(Bスキャン像。例えばxz断面像。)を1つの3次元座標系(3次元空間)に埋め込むことによって形成される。すなわち、スタックデータは、複数のスキャンラインに沿って得られた複数のBスキャン像を、これらスキャンラインの位置関係に基づいて3次元的に配列させることによって得られる。
 ボリュームデータは、スタックデータに含まれる複数のBスキャン像の間の画素を補間してボクセル化することによって形成される。ボリュームデータはボクセルデータなどと呼ばれる。
 このようにして形成された3次元画像を表示する場合、データ処理部230はレンダリング処理を行うことができる。レンダリング処理の例として、ボリュームレンダリング、最大値投影(Maximum Intensity Projection、MIP)などがある。
 データ処理部230は、3次元画像から2次元断面像を形成することができる。この処理の例として、多断面再構成(Multi-planar Reconstruction、MPR)などがある。
〈画像投影部232〉
 画像投影部232は、3次元画像形成部231により形成された3次元画像から正面投影像を形成する。正面投影像は、3次元画像を所定方向に投影することにより形成される2次元画像である。3次元画像を投影する処理は、所定方向に沿って配列された複数の画素の値を加算する処理を含む。
 正面投影像の典型的な例として、プロジェクション画像とシャドウグラムがある。プロジェクション画像は、3次元画像を所定方向(z方向、深さ方向、Aスキャン方向)に投影することによって形成される。眼底カメラユニット2により得られた眼底像と同様に、眼底Efの3次元画像から形成された正面投影像には、眼底Efの表面の形態が表現されている。
 シャドウグラムは、3次元画像の一部(例えば特定の層に相当する部分データ)を所定方向に投影することによって形成される。眼底Efの表面組織(内境界膜及びその近傍の層)を含む部分データを投影することで、眼底像と同様に、眼底Efの表面の形態が表現された正面投影像が得られる。
〈位置合わせ部233〉
 位置合わせ部233は、眼底カメラユニット2により得られた眼底像と、画像投影部232により形成された正面投影像との間の位置合わせ(レジストレーション)を行う。
 眼底カメラユニット2により観察画像が得られる場合、位置合わせ部233は、逐次に取得される画像フレームのそれぞれについてレジストレーションを行うことができる。或いは、所定のフレーム間隔でレジストレーションを行ってもよい。
 一連のOCTスキャン(例えばラスタースキャン)が繰り返し実行される場合、画像形成部220及び3次元画像形成部231は、逐次に実行される一連のOCTスキャンのそれぞれにて収集された一連のデータから3次元画像を形成する。つまり、画像形成部220及び3次元画像形成部231は、一連のOCTスキャンの繰り返しに同期して、3次元画像を形成するための処理を繰り返し実行する。更に、画像投影部232は、逐次に形成される3次元画像のそれぞれから正面投影像を形成することができる。位置合わせ部233は、逐次に形成される正面投影像のそれぞれについてレジストレーションを行うことができる。
 眼底カメラユニット2により観察画像が得られ、且つ、一連のOCTスキャンが繰り返し実行される場合において、位置合わせ部233は、観察画像のフレームレートと、一連のOCTスキャンの繰り返しレートとに基づいて、観察画像の画像フレームと正面投影像とを対応付けてレジストレーションを行うことができる。このとき、主制御部211は、観察画像の画像フレームを取得タイミングと、一連のOCTスキャンの繰り返しタイミングとを同期させることができる。
 レジストレーションは、例えば、双方の画像(眼底像及び正面投影像)から特徴領域を検出する第1処理と、双方の特徴領域を基準として双方の画像を位置合わせする第2処理とを含む。
 第1処理で検出される特徴領域は、例えば、視神経乳頭に相当する領域、黄斑に相当する領域、特徴的な血管に相当する領域、病変部に相当する領域、レーザー治療痕に相当する領域のいずれかであってよい。第1処理において、位置合わせ部233は、画素値や画素配列を参照して特徴領域を検出することができる。
 第2処理において、位置合わせ部233は、例えば、眼底像から検出された特徴領域と正面投影像から検出された特徴領域とを一致させるように、眼底像と正面投影像との相対位置を調整する。このとき、位置合わせ部233は、特徴領域の輪郭や代表点(中心点、重心点等)を特定し、それらを一致させるようにレジストレーションを行ってもよい。また、位置合わせ部233は、双方の特徴領域の一致の度合を評価し、所定閾値以上の評価値が得られたときに双方の特徴領域が一致したと判定するようにしてもよい。
〈解析部234〉
 解析部234は、眼底カメラユニット2(照明光学系10及び撮影光学系30)により取得された眼底Efの観察画像を解析して眼底Efの所定部位の位置を特定する。解析部234により特定された所定部位の位置と、OCTスキャンの目標範囲との間の位置関係に基づいて、スキャン範囲のシフト及び/又は固視標の移動が実行される。
 ここで、眼底Efの所定部位は任意であってよい。例えば、所定部位は、黄斑、視神経乳頭、病変部、注目血管等であってよい。
 また、解析部234により特定される所定部位の位置は、例えば、眼底カメラユニット2により取得された観察画像における位置(つまり画像フレームにおける位置)であってよい。
 解析部234は、位置特定部2341と位置関係取得部2342とを含む。
〈位置特定部2341〉
 位置特定部2341は、眼底カメラユニット2により取得された観察画像を解析して眼底Efの所定部位の位置を特定する。この処理は、例えば、観察画像に含まれる複数の画像フレームの少なくとも一部に対して逐次に実行される。
 位置特定部2341は、画像フレームに含まれる画素の値(輝度値)に基づいて眼底Efの所定部位の位置を特定する。この位置特定処理は、例えば、輝度値に関する閾値処理、2値化、エッジ検出、パターンマッチング、ノイズ除去、モーフォロジー処理、ラベリング等、公知の画像処理を含む。
 典型的な例において、位置特定部2341は、視神経乳頭の画像を特定するために、閾値処理を利用して、既定閾値を超える輝度値を有する画素を探索することができる。或いは、位置特定部2341は、視神経乳頭の画像を特定するために、2値化、エッジ検出、パターンマッチング等を利用して、略楕円形の画像領域を探索することができる。
 更に、位置特定部2341は、例えば、位置特定部2341は、特定された所定部位の画像の位置、サイズ、形状等のうちのいずれかの情報に基づいて、眼底Efの所定部位の位置を特定することができる。このような処理により特定可能な部位として、視神経乳頭(その中心、重心、外縁、外縁に外接する矩形等)、病変部(その中心、重心、外縁、外縁に外接する矩形等)などがある。
 眼底Efの2つ(又はそれ以上)の部位の画像が特定された場合、例えば、位置特定部2341は、これら画像の位置、相対位置、サイズ、相対サイズ、形状、相対形状等のうちのいずれかの情報に基づいて、眼底Efの所定部位の位置を特定することができる。このような処理により特定可能な部位として、視神経乳頭(その中心、重心、外縁、外縁に外接する矩形等)、病変部(その中心、重心、外縁、外縁に外接する矩形等)などがある。
〈位置関係取得部2342〉
 位置関係取得部2342は、位置特定部2341により特定された眼底Efの所定部位の位置と、OCTにおけるスキャン目標範囲との間の位置関係を求める。
 ここで、スキャン目標範囲は、任意に設定されてよい。例えば、スキャン目標範囲は、OCTのためのアライメントの目標範囲、OCTスキャンが行われる範囲の一部又は全部、又は、観察画像の画像フレームの範囲の一部又は全部であってよい。
 典型的な例において、位置関係取得部2342は、スキャン目標範囲に対する眼底Efの所定部位の位置の偏位を求めることができる。ここで、スキャン目標範囲に対する眼底Efの所定部位の位置の偏位は、眼底Efの所定部位の位置に対するスキャン目標範囲の偏位と実質的に等しい。
 例えば、位置関係取得部2342は、眼底Efの所定部位の位置と、スキャン目標範囲における既定位置との間の差(偏位ベクトル)を求めることができる。すなわち、位置関係取得部2342は、眼底Efの所定部位の位置を始点とし且つスキャン目標範囲における既定位置を終点とする偏位ベクトル、又は、スキャン目標範囲における既定位置を始点とし且つ眼底Efの所定部位の位置を終点とする偏位ベクトルを求める。
 スキャン目標範囲における既定位置は、任意に設定されてよい。例えば、スキャン目標範囲における既定位置は、スキャン目標範囲の中心、複数のスキャンラインが交差する位置、又は、スキャン目標範囲の外縁上の位置(頂点位置、辺の中点位置等)に設定される。
 スキャン目標範囲における既定位置は、広がりを持つ領域であってよい。例えば、スキャン目標範囲の中心を含む所定領域を既定位置とすることができる。或いは、スキャン目標範囲の外縁を既定位置とすることも可能である。
 このような場合、位置関係取得部2342は、例えば、眼底Efの所定部位の位置と、スキャン目標範囲における所定領域との間の最短距離に沿って偏位ベクトルを求めることができる。他の例において、位置関係取得部2342は、眼底Efの所定部位の位置と、所定領域中の代表位置(中心、重心、外縁上の位置等)とを結ぶように偏位ベクトルを求めることができる。
 逆に、眼底Efの所定部位の位置は、広がりを持つ領域であってよい。例えば、位置関係取得部2342は、位置特定部2341により特定された位置を中心とする領域(円形領域、矩形領域等)と、スキャン目標範囲における既定位置とに基づいて、偏位ベクトルを求めることができる。当該領域の大きさは、例えば、撮影倍率、スキャン目標範囲のサイズ等により設定される。
 スキャン目標範囲における既定位置と、眼底Efの所定部位の位置との双方が、広がりを持つ領域であってもよい。この場合、位置関係取得部2342は、双方の領域の位置関係を求めることができる。
 例えば、位置関係取得部2342は、眼底Efの所定部位の領域(例:乳頭重心及びその近傍)が、スキャン目標範囲の外縁の内側に含まれるか否かを判定することができる。この判定は、例えば、眼底Efの所定部位(例:乳頭重心)の位置と、スキャン目標範囲の中心との差の大きさに関する判定と、実質的に同じ処理である。
〈偏位比較部235〉
 偏位比較部235は、位置関係取得部2342により求められた偏位と既定閾値とを比較する。この偏位は、例えば、前述した偏位ベクトルの大きさである。偏位比較部235は、例えば、位置関係取得部2342により求められた偏位が既定閾値を超えるか否か判定する。
 既定閾値は任意に設定されてよい。例えば、固視の精度を高めたい場合には既定閾値を小さな値に設定することができる。
〈ユーザーインターフェイス240〉
 ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。
 ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。他の実施形態において、ユーザーインターフェイスの少なくとも一部が眼科装置に含まれていなくてよい。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。
〈動作〉
 眼科装置1の動作について説明する。動作の例を図4に示す。
(S1:固視光の投射を開始)
 まず、固視位置が指定される。固視位置の指定は、手動又は自動で行われる。自動の場合の典型的な例において、主制御部211は、固視位置を指定するためのGUIを表示部241に表示する。ユーザーは、このGUI及び操作部242を用いて、所望の固視位置を設定する。自動の場合の典型的な例において、主制御部211は、外部から入力された情報に基づいて固視位置を指定する。この情報の例として、電子カルテシステムから入力された被検者の電子カルテや、手動又は自動で指定された撮影モードなどがある。本例では、固視位置として「視神経乳頭」が指定されたとする。
 主制御部211は、指定された固視位置に対応する画面の位置に固視標を表示するようにLCD39を制御する。それにより、被検眼Eに固視光が投射される。固視光は、例えば、撮影が完了するまで継続的に被検眼Eに投射される。
(S2:観察画像の取得を開始)
 主制御部211は、被検眼Eの観察画像の取得を開始するように照明光学系10及び撮影光学系30を制御する。前述のように、観察画像は、被検眼Eを正面から撮影して得られる動画像である。この段階では、前眼部の観察画像が得られる。
 主制御部211は、観察画像を表示部241にリアルタイムで表示する。更に、主制御部211は、観察画像として逐次に得られる画像フレームをデータ処理部230に転送する。
 なお、固視光の投射を開始するタイミング(ステップS1)と、観察画像の取得を開始するタイミング(ステップS2)は、図4に示す順序に限定されない。例えば、観察画像の取得を開始した後に固視標の投射を開始するように制御を行ってもよい。或いは、観察画像の取得と固視標の投射とを同時に開始するように制御を行ってもよい。
(S3:アライメント・フォーカシング)
 次に、主制御部211は、アライメント光を被検眼Eに投射するようにアライメント光学系50を制御し、且つ、フォーカス光を被検眼Eに投射するようにフォーカス光学系60を制御する。
 更に、主制御部211は、従来と同じ要領でオートアライメント及びオートフォーカスを実行する。或いは、ユーザーがマニュアルアライメント及びマニュアルフォーカスの一方又は双方を行うようにしてもよい。それにより、眼底Efに対するアライメント及びフォーカシングが完了する。
 なお、ステップS3の中間段階で、眼底カメラユニット2により得られる観察画像は、前眼部観察画像から眼底観察画像に移行する。
(S4:所定部位の位置を特定)
 アライメント及びフォーカシングが完了すると、位置特定部2341は、ステップSで取得が開始された観察画像を解析して眼底Efの所定部位の位置を特定する。本例では、位置特定部2341は、視神経乳頭の位置を特定する。特定された位置は、乳頭重心の位置と推定される。位置特定部2341による位置特定の結果は、位置関係取得部2342に送られる。
(S5:位置関係を取得)
 位置関係取得部2342は、位置特定部2341により特定された眼底Efの所定部位の位置と、後段にて実行されるOCTにおけるスキャン目標範囲との間の位置関係(偏位ベクトル)を求める。位置関係取得部2342により取得された情報(偏位。例えば、偏位ベクトル又はその大きさ。)は、偏位比較部235に送られる。
(S6:確認画面を表示)
 主制御部211は、固視状態を確認するための画面(確認画面)を表示部241に表示する。なお、確認画面の表示を開始するタイミングは任意であってよい。例えば、ステップS1よりも前のタイミング、又は、ステップS1~S5の間のタイミングで、確認画面の表示を開始することができる。
 更に、主制御部211は、ステップS2で取得が開始された観察画像を確認画面に表示する。このとき、観察画像は、動画像として表示される。
 確認画面の例を図5に示す。確認画面300には、ステップS2で取得が開始された観察画像Gが表示されている。観察画像Gには、視神経乳頭の画像(視神経乳頭画像)Gaが描出されている。なお、固視不良等により、視神経乳頭画像Gaが観察画像Gに描出されていない場合もある。
 確認画面300には、キャプチャーボタン310が設けられている。キャプチャーボタン310は、OCT撮影を行うための指示を受け付けるソフトウェアキーである。典型的な例において、確認画面300には、図示しないポインターが表示される。ユーザーは、操作部242を用いてキャプチャーボタン310をクリックすることで、OCT撮影の指示を入力することができる。表示部241がタッチパネルである場合、ユーザーは、キャプチャーボタン310をタップすることで、OCT撮影の指示を入力することができる。
 更に、主制御部211は、OCTにおけるスキャン目標範囲を表す画像(スキャン目標範囲画像)を確認画面300に表示することができる。スキャン目標範囲画像は、例えば主制御部211により作成される。スキャン目標範囲画像は、例えば、観察画像Gに重ねて表示される。
 図4に示すスキャン目標範囲画像Tは、OCTのためのアライメントの目標範囲を表す。本例では、スキャン目標範囲Tの内部に視神経乳頭画像Gaが描出されるように固視ズレの補正が行われる。
 このようなスキャン目標範囲は、例えば、OCTスキャンのパターン・サイズ、観察画像のサイズ(観察倍率)、OCTスキャンの対象部位(固視位置)等、既定の条件に応じて、主制御部211により決定される。
 なお、スキャン目標範囲画像の形態はこれに限定されない。例えば、OCTスキャンが行われる範囲の一部又は全部を示すスキャン目標範囲、又は、観察画像の画像フレームの範囲の一部又は全部を示すスキャン目標範囲を、観察画像Gとともに表示することができる。
 図示は省略するが、主制御部211は、ステップS4において位置特定部2341により特定された所定部位(視神経乳頭、乳頭重心等)の位置に基づく画像(注目部位画像)を確認画面300に表示することができる。注目部位画像は、例えば、観察画像Gに重ねて表示される。
 注目部位画像の例を説明する。第1の例において、注目部位画像は、位置特定部2341により特定された位置(乳頭重心等)を示す画像である。このような注目部位画像は、例えば、特定された位置に対応する正面投影像H中の位置に表示される点像、当該位置を指し示す矢印画像、又は、これらに類する画像であってよい。第2の例において、注目部位画像は、位置特定部2341による位置特定の対象部位の範囲(視神経乳頭の外縁等)を示す画像である。
 注目部位画像に加えて、又は、注目部位画像に代えて、主制御部211は、ステップS5において位置関係取得部2342により取得された位置関係に基づく画像(位置関係画像)を確認画面300に表示することができる。位置関係画像は、例えば、観察画像Gに重ねて表示される。
(S7:偏位を閾値と比較)
 偏位比較部235は、ステップS5において位置関係取得部2342により取得された偏位を既定閾値と比較する。
(S8:偏位≦閾値?)
 ステップS7の比較により、偏位が閾値を超える(偏位>閾値)と判定された場合(S8:No)、処理はステップS9に移行する。他方、偏位が閾値以下(偏位≦閾値)と判定された場合(S8:Yes)、処理はステップS10に移行する。
(S9:スキャン範囲/固視位置を制御)
 ステップS8の比較により、偏位が閾値を超える(偏位>閾値)と判定された場合(S8:No)、主制御部211は、OCTにおけるスキャン範囲及び固視標の表示位置の少なくとも一方を制御する。スキャン範囲の制御は光スキャナ42の制御により実現される。一方、固視標の表示位置の制御はLCD39の制御により実現される。
 制御の対象(光スキャナ42及び/又はLCD39)は、予め決定されるか、或いは、当該処理において決定される。典型的な例において、光スキャナ42及び/又はLCD39の一方の制御を常に行うように構成されていてよい。制御の対象の決定は、例えば、被検者の特性・属性、被検眼の特性・属性、観察画像から把握された特徴、過去に行われた検査から把握された特徴など、任意の情報を参照して行うことができる。
 光スキャナ42の制御が行われる場合、主制御部211は、例えば、位置関係取得部2342により取得された偏位を打ち消すように、OCTにおけるスキャン範囲をシフトする。換言すると、主制御部211は、眼底Efの所定部位(視神経乳頭等)がスキャン目標範囲に含まれるように、スキャン目標範囲の位置を移動させる。この場合、主制御部211は、例えば、図6Aに示すように、図5のスキャン目標範囲画像Tと異なる位置(シフト後の位置)に新たなスキャン目標範囲T1を表示させることができる。
 LCD39の制御が行われる場合、主制御部211は、例えば、位置関係取得部2342により取得された偏位を打ち消すように固視標の表示位置を変更する。換言すると、主制御部211は、眼底Efの所定部位(視神経乳頭等)がスキャン目標範囲に含まれるように、被検眼Eの位置を移動させる。この場合、例えば、図6Bに示すように、図5の観察画像Gと異なる眼底Efの領域(シフト後の領域)を描写した新たな観察画像G1が表示される。
 このような光スキャナ42及び/又はLCD39の制御により、後段のOCT撮影におけるスキャン範囲と被検眼E(眼底Ef)との相対位置が調整される。つまり、光スキャナ42を制御する場合、スキャン範囲をシフトすることによって上記相対位置が変化する。他方、LCD39を制御する場合、眼底Efの移動を促すことによって上記相対位置が変化する。
 光スキャナ42及び/又はLCD39の制御が行われた後、処理はステップS4に戻る。そして、ステップS4~S8が再度実行される。ステップS8において再度「No」と判定された場合、ステップS9が再度実行された後、ステップS4~S8のルーチンが再度実行される。このような一連の処理は、ステップS8において「Yes」と判定されるまで繰り返される。
 なお、検査の開始又は観察画像の取得の開始等の所定タイミングから所定時間が経過したとき、エラー判定を行うことができる。或いは、ユーザーがエラー判定を行ってもよい。このようなエラー判定は、好適な固視状態を得ることが困難である場合に行われる。
(S10:固視OKを表示)
 他方、ステップS7の比較により、偏位が閾値以下(偏位≦閾値)と判定された場合(S8:Yes)、主制御部211は、好適な固視状態が得られたことを示す情報を確認画面300に表示する。
 この情報は、予め決められたテキスト又は画像であってよい。例えば、「固視OK」、「撮影可能」等のテキストを表示することができる。また、好適な固視状態が得られたことをユーザーが直感的に認識できるような所定の画像を表示することができる。
 他の例において、ステップS8で「No」と判定されている間は、不適当な固視状態を示す情報を表示し、ステップS8で「Yes」と判定されたときに、好適な固視状態を示す情報の表示に切り替えるようにしてもよい。
(S11:眼底OCT撮影)
 ユーザーは、好適な固視状態になったことをステップS10で表示される情報から把握することができる。或いは、ユーザーは、観察画像Gを参照することで、好適な固視状態になったことを把握することができる。
 好適な固視状態になったことを把握したら、ユーザーは、確認画面300のキャプチャーボタン310を操作する。キャプチャーボタン310が操作されると、主制御部211は、眼底EfのOCT撮影を実行するように光スキャナ42及びOCTユニット100を制御する。OCT撮影により取得されたデータは、画像診断や画像解析に用いられる。
 ここで、ステップS9においてスキャン範囲がシフトされた場合、シフト後のスキャン範囲がOCT撮影に適用される。また、ステップS9が2回以上実行された場合、つまり、ステップS8で2回以上「No」と判定された場合、最後に実行されたステップS9にて設定されたスキャン範囲がOCT撮影に適用される。
 OCT撮影において、ラスタースキャン等が実行された場合、3次元画像形成部231は3次元画像が形成することができる。更に、画像投影部232は、この3次元画像から正面投影像を形成することができる。加えて、位置合わせ部233は、この正面投影像と観察画像とのレジストレーションを行うことができる。
(S12:眼底撮影)
 例えば眼底OCT撮影が終了した後、主制御部211は、眼底Efの撮影を行うように眼底カメラユニット2を制御する。典型的には、可視光を用いたカラー撮影が行われる。ステップS23で取得された眼底像(撮影画像)は、OCT撮影により取得されたデータとともに、又は、それとは別個に、画像診断や画像解析に用いられる。
 ステップS11のOCT撮影において、ラスタースキャン等が実行された場合、3次元画像形成部231は3次元画像が形成することができる。更に、画像投影部232は、この3次元画像から正面投影像を形成することができる。加えて、位置合わせ部233は、この正面投影像と、ステップS12で取得された撮影画像とのレジストレーションを行うことができる。以上で、本動作例に係る処理は終了となる。
〈作用・効果〉
 実施形態に係る眼科装置の作用及び効果について説明する。
 実施形態の眼科装置は、光束投射部と、固視系と、撮影部と、解析部と、制御部とを含む。
 光束投射部は、光スキャナを含み、被検眼の眼底に光束を投射するように構成される。上記の典型的な実施形態では、OCTユニット100に含まれる要素と、測定光LSを被検眼Eに導く光路を形成する光学素子との組み合わせが、光束投射部として機能する。
 なお、実施形態の眼科装置は、光束投射部により眼底に投射された光束の戻り光を検出する検出部を更に含んでもよい。例えば、光干渉断層計、走査型レーザー検眼鏡、眼軸長測定装置、網膜特性測定装置等のいずれかの機能を眼科装置が備える場合、このような検出部が設けられる。
 固視系は、眼底に固視光を投射するように構成される。上記の典型的な実施形態では、LCD39と、これから出力された光(固視光)を被検眼Eに導く光路を形成する光学素子との組み合わせが、固視系として機能している。
 撮影部は、固視系により固視光が投射されている眼底を動画撮影して正面観察画像を取得するように構成される。上記の典型的な実施形態では、照明光学系10及び撮影光学系30の組み合わせが撮影部として機能している。
 解析部は、撮影部により取得された正面観察画像を解析することで、眼底の所定部位の位置を特定するように構成される。解析部により特定される位置は、典型的には、撮影部により取得された正面観察画像における位置、つまり、観察対象範囲における位置である。上記の典型的な実施形態では、解析部234が解析部として機能している。
 制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて、固視系及び光束投射部の光スキャナの少なくとも一方を制御するように構成される。上記の典型的な実施形態では、主制御部211が制御部として機能している。
 光スキャナの制御を行う場合、制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて、光束の投射目標範囲を変更することができる。上記の典型的な実施形態では、主制御部211は、光スキャナ42を制御することによって投射目標範囲を変更している。
 固視系の制御を行う場合、制御部は、解析部により特定された所定部位の位置と光束投射部による光束の投射目標範囲との間の位置関係に基づいて、固視位置を変更することができる。上記の典型的な実施形態では、主制御部211は、LCD39を制御することによって固視位置を変更している。
 このように構成された実施形態によれば、眼底の所定部位(例えば乳頭重心)と投射目標範囲との位置関係に基づいて、光束投射部により光束が投射される範囲と被検眼との相対位置を変更することができる。したがって、固視不良が発生しているとき(つまり、眼底の所定部位と投射目標範囲との位置関係が適当でないとき)、固視不良の解消を図るために、被検眼の固視位置を調整したり、光束投射部により光束が投射される範囲の位置を調整したりすることができる。それにより、固視不良に対して好適に対処することが可能となる。
 実施形態において、制御部は、撮影部により取得された正面観察画像を表示手段に表示させるように構成されてよい。更に、制御部は、光束投射部による光束の投射目標範囲を示す画像を正面観察画像に重ねて表示させるように構成されてよい。上記の典型的な実施形態では、表示部241が表示手段として機能している。また、上記の典型的な実施形態では、投射目標範囲を示す画像として、スキャン目標範囲画像Tが表示されている。
 このように構成された実施形態によれば、ユーザーは、眼底の所定部位を観察すること、光束の投射目標範囲を把握すること、眼底の所定部位と投射目標範囲との相対位置を把握することができる。
 更に、この実施形態において、制御部は、眼底の所定部位の位置を表す画像を正面観察画像に重ねて表示させるように構成されてよい。上記の典型的な実施形態では、注目部位画像が、眼底の所定部位の位置を表す画像に相当する。
 実施形態において、制御部は、光束の投射目標範囲と位置特定部により特定された眼底の所定部位の位置との間の偏位を既定閾値と比較し、この偏位が既定閾値を超える場合にのみ、固視系及び光束投射部の光スキャナの少なくとも一方の制御を実行するように構成されてよい。
 この実施形態によれば、眼底の所定部位の位置に対する投射目標範囲の偏位が大きいときには固視不良を解消するための制御を実行し、偏位が十分に小さくなったときに検査(測定、撮影等)に移行することができる。
 以上に説明した実施形態はこの発明の一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。
1 眼科装置
10 照明光学系
30 撮影光学系
39 LCD
42 光スキャナ
100 OCTユニット
211 主制御部
234 解析部
2341 位置特定部
2342 位置関係取得部
235 偏位比較部
241 表示部

 

Claims (6)

  1.  光スキャナを含み、被検眼の眼底に光束を投射する光束投射部と、
     前記眼底に固視光を投射する固視系と、
     前記固視光が投射されている前記眼底を動画撮影して正面観察画像を取得する撮影部と、
     前記正面観察画像を解析して前記眼底の所定部位の位置を特定する解析部と、
     前記解析部により特定された前記所定部位の位置と前記光束投射部による前記光束の投射目標範囲との間の位置関係に基づいて前記固視系及び前記光スキャナの少なくとも一方を制御する制御部と
     を含む眼科装置。
  2.  前記制御部は、前記位置関係に基づいて前記光束の投射目標範囲を変更するように前記光スキャナを制御する
     ことを特徴とする請求項1に記載の眼科装置。
  3.  前記制御部は、前記位置関係に基づいて固視位置を変更するように前記固視系を制御する
     ことを特徴とする請求項1又は2に記載の眼科装置。
  4.  前記制御部は、
     前記正面観察画像を表示手段に表示させ、且つ、
     前記光束の投射目標範囲を示す画像を前記正面観察画像に重ねて表示させる
     ことを特徴とする請求項1~3のいずれかに記載の眼科装置。
  5.  前記制御部は、前記所定部位の位置を表す画像を前記正面観察画像に重ねて表示させる
     ことを特徴とする請求項4に記載の眼科装置。
  6.  前記制御部は、
     前記光束の投射目標範囲に対する前記所定部位の位置の偏位を既定閾値と比較し、且つ、
     前記偏位が前記既定閾値を超える場合にのみ、前記固視系及び前記光スキャナの少なくとも一方の制御を実行する
     ことを特徴とする請求項1~5のいずれかに記載の眼科装置。

     
PCT/JP2017/044184 2017-01-23 2017-12-08 眼科装置 WO2018135175A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17892116.9A EP3571978A4 (en) 2017-01-23 2017-12-08 OPHTHALMOLOGICAL DEVICE
US16/470,989 US11122973B2 (en) 2017-01-23 2017-12-08 Ophthalmological apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-009515 2017-01-23
JP2017009515A JP2018117693A (ja) 2017-01-23 2017-01-23 眼科装置

Publications (1)

Publication Number Publication Date
WO2018135175A1 true WO2018135175A1 (ja) 2018-07-26

Family

ID=62908104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044184 WO2018135175A1 (ja) 2017-01-23 2017-12-08 眼科装置

Country Status (4)

Country Link
US (1) US11122973B2 (ja)
EP (1) EP3571978A4 (ja)
JP (1) JP2018117693A (ja)
WO (1) WO2018135175A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013342A (ja) * 2020-07-03 2022-01-18 株式会社ニデック 眼底撮影装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409793B2 (ja) * 2019-07-02 2024-01-09 株式会社トプコン 光コヒーレンストモグラフィ(oct)装置の作動方法、octデータ処理装置の作動方法、oct装置、octデータ処理装置
EP3760968B1 (en) 2019-07-02 2024-09-04 Topcon Corporation Method of oct imaging
WO2021074960A1 (ja) * 2019-10-15 2021-04-22 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015128630A (ja) * 2009-09-30 2015-07-16 株式会社ニデック 眼底観察装置及び眼底観察プログラム
JP2016158721A (ja) 2015-02-27 2016-09-05 株式会社ニデック 眼科装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4326716B4 (de) * 1992-08-04 2005-03-03 Kabushiki Kaisha Topcon Anordnung zur Verarbeitung eines ophthalmologischen Bildes
JP5138977B2 (ja) * 2007-05-24 2013-02-06 株式会社トプコン 光画像計測装置
JP2009072513A (ja) * 2007-09-25 2009-04-09 Topcon Corp 眼科装置
US8672480B2 (en) 2009-09-30 2014-03-18 Nidek Co., Ltd. Ophthalmic photographing apparatus
JP5981213B2 (ja) 2012-02-28 2016-08-31 株式会社トプコン 眼底観察装置
US9295387B2 (en) * 2013-04-03 2016-03-29 Kabushiki Kaisha Topcon Ophthalmologic apparatus
JP6438216B2 (ja) * 2014-05-22 2018-12-12 キヤノン株式会社 画像生成装置および画像生成方法
JP6518044B2 (ja) * 2014-07-18 2019-05-22 株式会社トプコン 視機能検査装置および視機能検査システム
JP6388440B2 (ja) * 2014-11-26 2018-09-12 株式会社トプコン 眼科装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015128630A (ja) * 2009-09-30 2015-07-16 株式会社ニデック 眼底観察装置及び眼底観察プログラム
JP2016158721A (ja) 2015-02-27 2016-09-05 株式会社ニデック 眼科装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3571978A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013342A (ja) * 2020-07-03 2022-01-18 株式会社ニデック 眼底撮影装置
JP7476693B2 (ja) 2020-07-03 2024-05-01 株式会社ニデック 眼底撮影装置

Also Published As

Publication number Publication date
JP2018117693A (ja) 2018-08-02
EP3571978A4 (en) 2020-08-19
EP3571978A1 (en) 2019-11-27
US20190365223A1 (en) 2019-12-05
US11122973B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
JP6685151B2 (ja) 眼科装置
JP6899632B2 (ja) 眼科撮影装置
JP6616704B2 (ja) 眼科装置及び眼科検査システム
JP2016041221A (ja) 眼科撮影装置およびその制御方法
WO2017149928A1 (ja) 眼科撮影装置
JP2019041841A (ja) 眼科装置、及びその制御方法
JP6585897B2 (ja) 眼科撮影装置
WO2018135175A1 (ja) 眼科装置
JP2023080218A (ja) 眼科装置
JP6407631B2 (ja) 眼科装置
JP7096392B2 (ja) 眼科装置
JP6788445B2 (ja) 眼科装置
JP7325169B2 (ja) 眼科装置、及びその制御方法
JP6934747B2 (ja) 眼科装置、及びその制御方法
JP7118197B2 (ja) 眼科装置
JP2019170710A (ja) 眼科装置
JP2019155002A (ja) 眼科装置、及びその制御方法
JP6664992B2 (ja) 眼科撮影装置
JP7219312B2 (ja) 眼科装置
JP7314345B2 (ja) 眼科装置、及びその制御方法
JP7154260B2 (ja) 眼科装置
JP6625251B2 (ja) 眼科撮影装置
JP7116572B2 (ja) 眼科装置、及び眼科情報処理プログラム
JP2022075732A (ja) 眼科装置、及び眼科情報処理プログラム
JP2019130046A (ja) 眼科装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17892116

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017892116

Country of ref document: EP

Effective date: 20190823