[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20210154732A - Method for registrating fundus images to generate wide angle fundus image and device performing the same - Google Patents

Method for registrating fundus images to generate wide angle fundus image and device performing the same Download PDF

Info

Publication number
KR20210154732A
KR20210154732A KR1020210069167A KR20210069167A KR20210154732A KR 20210154732 A KR20210154732 A KR 20210154732A KR 1020210069167 A KR1020210069167 A KR 1020210069167A KR 20210069167 A KR20210069167 A KR 20210069167A KR 20210154732 A KR20210154732 A KR 20210154732A
Authority
KR
South Korea
Prior art keywords
fundus
fundus image
image
group
blood vessel
Prior art date
Application number
KR1020210069167A
Other languages
Korean (ko)
Other versions
KR102575371B1 (en
Inventor
박상준
김주영
이수찬
Original Assignee
서울대학교병원
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 국민대학교산학협력단 filed Critical 서울대학교병원
Publication of KR20210154732A publication Critical patent/KR20210154732A/en
Application granted granted Critical
Publication of KR102575371B1 publication Critical patent/KR102575371B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Embodiments relate to a method for registering a plurality of fundus to generate a wide-angle fundus image and to a device performing the same. The method includes the steps of: acquiring a plurality of fundus images obtained by photographing the eyeball of a subject, wherein at least one fundus image among the plurality of fundus images partially overlaps with at least one other fundus image; matching a first fundus image with a second fundus image of the plurality of fundus images; and generating a composite image in which at least a partial region of the first fundus image and at least a part of the second fundus image overlap, based on the re-registration result, to generate a wide-angle fundus image.

Description

광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법 및 이를 수행하는 장치{METHOD FOR REGISTRATING FUNDUS IMAGES TO GENERATE WIDE ANGLE FUNDUS IMAGE AND DEVICE PERFORMING THE SAME}A method for registering a plurality of fundus images to generate a wide-angle fundus image, and an apparatus for performing the same

본 발명은 안저영상을 정합하는 기술에 관한 것으로서, 보다 상세하게는 안저 카메라의 촬영각 보다 넓은 영역을 갖는 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법 및 이를 수행하는 장치에 관한 것이다.The present invention relates to a technique for registering a fundus image, and more particularly, to a method of registering a plurality of fundus images to generate a wide-angle fundus image having a wider area than a photographing angle of a fundus camera, and an apparatus for performing the same .

광각 안저영상은 안구의 다양한 영역에서 발생하는 질환을 한눈에 통합적으로 시각화한 영상으로서, 대상자의 안구에 대한 종합적인 진단을 위해 요구되는 영상이다. The wide-angle fundus image is an image that integrates and visualizes diseases occurring in various areas of the eye at a glance, and is required for a comprehensive diagnosis of the subject's eye.

광각 안저영상은 전통적인 몽타주 기법을 이용하여 획득되거나, 광각 안저영상용 장치(예컨대, OPTOS사의 레이저 스캔(laser scan) 장치)을 이용하여 획득된다. The wide-angle fundus image is acquired using a traditional montage technique, or is acquired using a wide-angle fundus imaging device (eg, a laser scan device manufactured by OPTOS).

전통적인 몽타주 기법은 망막 부분을 단편적으로 촬영한 다수의 부분 영상에서 공통된 영역을 정합함으로써 광저 안저영상을 생성한다. 그러나, 촬영대상 이외의 장애물이 존재하는 것에 영향을 받는 문제가 있다. The traditional montage technique creates a fundus image by registering a common area in a plurality of partial images of a retinal part in fragments. However, there is a problem in that it is affected by the existence of an obstacle other than the object to be photographed.

흑백의 데이터를 추출하고 이를 다시 적정한 컬러 영상을 덮어 씌워 시각화하는, OPTOS사의 레이저 스캔 기술은 망막 전체의 80%에 이르는 200도의 매우 넓은 영역을 획득할 수 있다. 그러나, 레이저가 스캔하는 동안 모션 아티팩트(motion artifact) 등과 같은 오류가 발생할 수 있다. 또한, OPTOS 사의 레이저 스캔 장치가 일반적인 안저 사진 촬영 장치와 별도로 요구되는 한계가 있다.OPTOS's laser scanning technology, which extracts black and white data and visualizes it by overlaying an appropriate color image, can acquire a very wide area of 200 degrees up to 80% of the entire retina. However, errors such as motion artifacts may occur while the laser scans. In addition, there is a limitation in that the laser scanning device of OPTOS is required separately from the general fundus photographing device.

한국등록특허 제10-1761510호 (2017.07.26.)Korean Patent Registration No. 10-1761510 (2017.07.26.)

본 발명의 일 측면에 따르면 안저 카메라의 촬영각 보다 넓은 영역을 갖는 광각 안저영상을 생성하기 위해 복수의 안구 영역을 복수의 안저영상을 정합하는 장치를 제공할 수 있다. According to one aspect of the present invention, there may be provided an apparatus for matching a plurality of fundus images with a plurality of eye regions to generate a wide-angle fundus image having an area wider than a photographing angle of a fundus camera.

이 외에도, 광각 안저영상을 생성하기 위한 안저영상 정합 방법 및 이를 수행하게 하는 명령어들을 기록한 컴퓨터 판독가능한 기록매체를 제공할 수 있다.In addition, it is possible to provide a fundus image matching method for generating a wide-angle fundus image and a computer-readable recording medium recording instructions for performing the same.

본 출원의 일 측면에 따른 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행된다. 상기 방법은: 대상자의 안구를 촬영한 상기 복수의 안저영상을 획득하는 단계 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 상기 복수의 안저영상의 제1 안저영상을 제2 안저영상과 정합하는 단계; 및 광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 단계를 포함할 수도 있다.A method of registering a plurality of fundus images to generate a wide-angle fundus image according to an aspect of the present application is performed by a computing device including a processor. The method includes: acquiring the plurality of fundus images obtained by photographing the eyeballs of the subject, wherein at least one fundus image of the plurality of fundus images partially overlaps with at least one other fundus image; matching a first fundus image of the plurality of fundus images with a second fundus image; and generating a synthesized image in which at least a partial region of the first fundus image and at least a part of the second fundus image overlap, based on the re-registration result, to generate the wide-angle fundus image.

일 실시예에서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계는, 영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계; 상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및 샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함할 수도 있다.In an embodiment, the step of matching the first fundus image and the second fundus image based on the feature points of the first and second fundus images includes at least through a feature descriptor for extracting features that are invariant to the size and rotation of the image. extracting one feature point from the first and second fundus images; sampling at least one of the feature points extracted from the first and second fundus images; and rigid body registration of the first and second fundus images based on the sampled feature points.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 상기 제1 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및 혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함할 수도 있다. 상기 분할 모델은, 혈관 영역의 특성에 기초하여 학습된 모델로서, 입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된다. In an embodiment, the generating of the first blood vessel mask from the first fundus image comprises extracting the shape of blood vessels of at least a portion of the first fundus image using a segmentation model based on region characteristics in the first fundus image. step; and generating a blood vessel mask having a shape corresponding to the blood vessel region. The segmentation model is a model learned based on the characteristics of a blood vessel region, and is learned to output blood vessels in an input image as a vessel probability map.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계; 이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및 밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함할 수도 있다.In an embodiment, the generating of the first blood vessel mask from the first fundus image may include: generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel region; detecting a valley between a blood vessel and an external boundary by inverting the image including the binarized blood vessel mask; and filling the inside of the valley so that the inside of the valley represents the blood vessel.

일 실시예에서, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 단계는, 상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함할 수도 있다.In an embodiment, the re-registering of the first fundus image and the second fundus image based on the first and second blood vessel masks comprises deformable registration of the first blood vessel mask and the second blood vessel mask. ) to re-register the first fundus image and the second fundus image.

일 실시예에서, 상기 광각 안저영상을 생성하는 단계는, 재-정합 영상을 기준으로 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀이 상기 제1 안저영상의 픽셀과 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계; 및 상기 변형된 픽셀로 이루어진 영역을 포함한 광각 안저영상을 생성하는 단계를 포함할 수도 있다.In an embodiment, the generating of the wide-angle fundus image includes: based on the re-registration image, pixels of the second fundus image corresponding to the pixels of the first fundus image have the same intensity as the pixels of the first fundus image ( intensity) or transforming it to have a color; and generating a wide-angle fundus image including a region made of the modified pixels.

일 실시예에서, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하는 단계는, 복수의 제1 안저영상이 획득된 경우, 각각의 제1 안저영상의 특징점에 기초하여 상기 복수의 제1 안저영상을 정합하는 단계; 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상에서 제1 영역의 적어도 일부의 혈관 형상을 추출하는 단계; 및 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계를 포함할 수도 있다.In an embodiment, the generating of the first blood vessel mask representing at least a portion of blood vessels in the first region may include, when a plurality of first fundus images are acquired, the plurality of first fundus images based on feature points of each first fundus image. registering a first fundus image of extracting a blood vessel shape of at least a portion of a first region from the first fundus image using a segmentation model based on region characteristics within the fundus image; and generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images.

일 실시예에서, 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계는, 복수의 제1 안저영상의 추출된 혈관 형상을 비강체 정합하는 단계; 및 정합된 복수의 혈관 형상에 기초하여 상기 제1 혈관 마스크를 생성하는 단계를 포함할 수도 있다.In an embodiment, the generating of the first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images includes: non-rigid body registration of the extracted blood vessel shapes of the plurality of first fundus images; and generating the first blood vessel mask based on the matched plurality of blood vessel shapes.

일 실시예에서, 상기 비강체 정합하는 단계는, 서로 다른 두 개의 제1 안저영상의 혈관 확률맵에서 픽셀별(pixel-wise) 유사도가 높아지는 방향으로 정합할 수도 있다.In an embodiment, the non-rigid body matching may include matching in a direction in which pixel-wise similarity increases in the blood vessel probability maps of the first fundus images that are different from each other.

일 실시예에서, 상기 방법은: 상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하여 상기 시신경 유두 및 중심와 중 적어도 하나의 위치를 산출하는 단계; 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계; 및 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계;를 더 포함할 수도 있다. 상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계는 각 그룹에 포함된 안저영상들이 전부 정합될 때까지 반복되며, 상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계에서 상기 제1 안저영상은 초기 안저영상 또는 이미 생성된 합성영상이고 상기 제2 안저영상은 현재의 정합 순위를 갖는 안저영상이다. In one embodiment, the method includes: prior to registering the plurality of fundus images, detecting at least one of an optic disc and a fovea in the plurality of fundus images to thereby detect at least one of the optic disc and fovea. calculating one location; classifying the plurality of fundus images into a plurality of groups according to whether the optic nerve papilla and the fovea are detected; And with respect to at least one group, allocating a matching rank within the corresponding group to the fundus image for each group; may further include. The step of registering the first and second fundus images and generating a synthesized image is repeated until all fundus images included in each group are registered, and the first and second fundus images are registered and a synthesized image is generated. In the step, the first fundus image is an initial fundus image or an already generated synthetic image, and the second fundus image is a fundus image having a current matching order.

일 실시예에서, 상기 시신경 유두 및 중심와 중 적어도 하나를 검출하여 위치를 산출하는 단계는, 딥러닝 모델을 사용해서 입력된 안저영상의 영상 프레임에서 시신경 유두 및 중심와 중 적어도 하나를 검출할 수도 있다. 상기 딥러닝 모델은: 다수의 컨볼루션 레이어를 포함하며 컨볼루션 특징맵을 출력하는 공유 컨볼루션 네트워크; 입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측하는 지역 지정 네트워크; 및 풀링 레이어 및 완전연결 레이어를 포함하며 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터에 기초하여 상기 관심지역에서 시신경 유두 또는 중심와를 검출하는 객체 검출 네트워크를 포함한다. In an embodiment, the step of calculating the position by detecting at least one of the optic nerve head and fovea may include detecting at least one of the optic nerve head and fovea from the image frame of the fundus image input using a deep learning model. The deep learning model includes: a shared convolutional network including a plurality of convolutional layers and outputting a convolutional feature map; a regional designation network that generates an intermediate feature map by applying a sliding window method to the input convolutional feature map, and predicts a region of interest in which a candidate object is likely to be located based on the intermediate feature map; and an object detection network that includes a pooling layer and a fully connected layer and detects the optic disc or fovea in the region of interest based on a feature vector for the region of interest in the image frame initially input to the detection model.

일 실시예에서, 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계는: 상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계; 상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계; 상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및 상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계 중 적어도 하나의 단계를 포함할 수도 있다.In an embodiment, classifying the plurality of fundus images into a plurality of groups includes: classifying the fundus images in which both the optic nerve papilla and fovea are detected into a first group; classifying the fundus image in which only the optic nerve head is detected into a second group; classifying the fundus image in which only the fovea is detected into a third group; and classifying the fundus image in which neither the optic nerve head and the fovea are detected into a fourth group.

일 실시예에서, 상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는: 상기 제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상을 선택하는 단계; 및 상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 상기 제1 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고, 상기 제2 그룹의 안저영상들에 대한 제2 그룹 내 정합 순위는 제2 그룹의 기준 안저영상의 시신경 유두와 제2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고, 상기 제3 그룹의 안저영상들에 대한 제3 그룹 내 정합 순위는 제3 그룹의 기준 안저영상의 시신경 유두와 제3 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다.In an embodiment, the allocating the matching rank within the corresponding group to the fundus image for each corresponding group includes: For at least one of the first group to the third group, each reference fundus image for each group selecting; and allocating a matching rank within the corresponding group to the fundus image for each corresponding group using the reference fundus image. The first group matching order for the fundus images of the first group is assigned based on the distance between the optic nerve head of the first group reference fundus image and another fundus image in the first group, and the fundus image of the second group The matching ranking within the second group for the ? is assigned based on the distance between the optic nerve head of the reference fundus image of the second group and another fundus image in the second group, and within the third group for the fundus images of the third group The matching order may be assigned based on a distance between the optic disc of the reference fundus image of the third group and another fundus image in the third group.

일 실시예에서, 상기 제1 그룹 또는 제2 그룹의 기준 안저영상은 각 안저영상의 검출된 시신경 유두의 위치가 영상 프레임의 중심의 위치에 가장 가까운 것일 수도 있다.In an embodiment, in the reference fundus image of the first group or the second group, the position of the optic nerve head detected in each fundus image may be the closest to the position of the center of the image frame.

일 실시예에서, 상기 제3 그룹의 기준 안저영상은 상기 제3 그룹 내 각 안저영상의 검출된 중심와의 위치가 영상 중심의 위치에 가장 가까운 것일 수도 있다.In an embodiment, in the reference fundus image of the third group, the position of the detected fovea of each fundus image in the third group may be the closest to the position of the image center.

일 실시예에서, 상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는: 상기 제4 그룹별 안저영상에 대해 제4 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 상기 제4 그룹 내 정합 순위는 상기 제4 그룹 내 각 안저영상의 특징점이 상기 제1 안저영상의 특징점에 매칭하는 정도에 기초하여 할당된다. In an embodiment, the assigning of the intra-group matching rank to the fundus image for each corresponding group may include: allocating a fourth intra-group matching rank to the fourth group-specific fundus image. The matching rank within the fourth group is assigned based on the degree to which the feature points of each fundus image in the fourth group match the feature points of the first fundus image.

일 실시예에서, 상기 방법은: 그룹 간의 정합 순위를 설정하는 단계를 더 포함할 수도 있다. 상기 그룹 간의 정합 순위는 상기 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 상기 제1 그룹, 상기 제3 그룹, 상기 제2 그룹 및 제4 그룹의 순서로 설정된다. In an embodiment, the method may further include: setting a matching rank between groups. The matching order between the groups is set in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group.

본 출원의 다른 일 측면에 따른 컴퓨팅 장치에 의해 판독가능 컴퓨터 판독가능 기록매체는 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장한다. 상기 프로그램 명령어는 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 상술한 실시예들에 따른 안저영상 정합 방법을 수행하게 한다. A computer-readable recording medium readable by a computing device according to another aspect of the present application stores program instructions operable by the computing device. When the program instruction is executed by the processor of the computing device, the processor performs the fundus image matching method according to the above-described embodiments.

본 출원의 또 다른 일 측면에 따른 장치는: 안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하고, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하고, 상기 2 영역 내 혈관의 적어도 일부를 나타낸 제2 혈관 마스크를 생성하며, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 정합부; 및 광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 합성부를 포함할 수도 있다. An apparatus according to another aspect of the present application includes: an image acquisition unit for acquiring a plurality of fundus images photographed by a fundus camera - At least one fundus image among the plurality of fundus images is partially with at least one other fundus image nested with ; The first fundus image and the second fundus image are matched based on the feature points of the first and second fundus images, a first blood vessel mask representing at least a part of blood vessels in the first region is generated, and a registration unit generating a second blood vessel mask representing at least a portion, and re-registering the first fundus image and the second fundus image based on the first and second blood vessel masks; and a synthesizer configured to generate a synthesized image in which at least a partial region of the first fundus image and at least a part of the second fundus image overlap, based on the re-registration result, to generate the wide-angle fundus image.

본 출원의 또 다른 일 측면에 따른 장치는: 안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하고, 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하고, 그리고 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 분류부; 각 그룹에 포함된 안저영상들에 대해서, 해당 그룹 내 정합 순위에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상과 정합하는 정합부; 및 광각 안저영상을 생성하기 위해, 정합 결과에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상으로부터 새로운 합성영상을 생성하는 합성부를 포함할 수도 있다.An apparatus according to another aspect of the present application includes: an image acquisition unit for acquiring a plurality of fundus images photographed by a fundus camera - At least one fundus image among the plurality of fundus images is partially with at least one other fundus image nested with ; Before registering the plurality of fundus images, at least one of an optic disc and a fovea is detected in the plurality of fundus images, and the plurality of fundus images are detected according to whether the optic nerve disc and fovea are detected. a classification unit for classifying into a plurality of groups, and assigning, to at least one group, a matching rank within the corresponding group to the fundus image for each corresponding group; For the fundus images included in each group, a matching unit that matches the fundus image having the current registration order with the synthesized image generated by matching at least one fundus image up to the previous registration order based on the registration order within the group ; And to generate a wide-angle fundus image, based on the registration result, the fundus image having the current registration order to at least one fundus image up to the previous registration order to register at least one fundus image to generate a new synthetic image from the synthesized unit comprises a You may.

본 발명의 일 측면에 따른 장치는 촬영 범위가 서로 상이한 복수의 안저영상을 정합하여 광각 안저영상을 생성할 수 있다. 그 결과, 상기 장치는 횡단적 분석도 지원할 수 있다. The apparatus according to an aspect of the present invention may generate a wide-angle fundus image by registering a plurality of fundus images having different photographing ranges. As a result, the device can also support cross-sectional analysis.

상기 장치는 횡단적 분석을 위한 정합 영상과 같은 시각화 영상을 생성하기 위해서, OPTOS 사의 레이저 스캔 장치와 같은 별도의 장치를 사용할 필요가 없다. 또한, 상기 장치는 안저 촬영 환경 및/또는 촬영 기기에 영향을 받지 않고 이러한 시각화 영상을 생성할 수도 있다. In order to generate a visualization image such as a registered image for cross-sectional analysis, the device does not need to use a separate device such as a laser scanning device of OPTOS. In addition, the device may generate such a visualization image without being affected by the fundus imaging environment and/or imaging device.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법을 수행하는 장치의 개념도이다.
도 2는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다.
도 3은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이다.
도 4는, 도 3의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다.
도 5a 내지 도 5d는, 본 발명의 일 실시예에 따른, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.
도 6a 및 도 6b는, 본 발명의 일 실시예에 따른, 특징점 기반 정합 결과를 도시한 도면이다.
도 7a 및 도 7 b는, 본 발명의 일 실시예에 따른, 혈관 마스크 기반 정합 결과를 도시한 도면이다.
도 8a 및 도 8b는, 본 발명의 일 실시예에 따른, 색상왜곡을 제거한 정합 영상을 도시한 도면이다.
도 9 및 도 10은, 도 3의 방법에 따른 최종 광각 안저영상의 생성 결과를 도시한다.
In order to more clearly explain the technical solutions of the embodiments of the present invention or the prior art, drawings necessary for the description of the embodiments are briefly introduced below. It should be understood that the following drawings are for the purpose of explaining the embodiments of the present specification and not for the purpose of limitation. In addition, some elements to which various modifications such as exaggeration and omission have been applied may be shown in the drawings below for clarity of description.
1 is a conceptual diagram of an apparatus for performing a fundus image registration method for generating a wide-angle fundus image, according to an embodiment of the present invention.
2 shows a schematic network architecture of an optic disc/macular detection model, according to an embodiment of the present invention.
3 is a flowchart of a fundus image registration method for generating a wide-angle fundus image, according to an embodiment of the present invention.
FIG. 4 is a schematic diagram of a fundus input term matching method for generating the wide-angle fundus image of FIG. 3 .
5A to 5D are diagrams illustrating the results of post-processing the extracted vascular mask according to an embodiment of the present invention.
6A and 6B are diagrams illustrating a feature point-based matching result according to an embodiment of the present invention.
7A and 7B are diagrams illustrating a blood vessel mask-based matching result according to an embodiment of the present invention.
8A and 8B are diagrams illustrating a matched image from which color distortion is removed, according to an embodiment of the present invention.
9 and 10 show a result of generating a final wide-angle fundus image according to the method of FIG. 3 .

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of referring to specific embodiments only, and is not intended to limit the present invention. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite. The meaning of "comprising," as used herein, specifies a particular characteristic, region, integer, step, operation, element and/or component, and includes the presence or absence of another characteristic, region, integer, step, operation, element and/or component. It does not exclude additions.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined otherwise, all terms including technical terms and scientific terms used herein have the same meaning as those commonly understood by those of ordinary skill in the art to which the present invention belongs. Commonly used terms defined in the dictionary are additionally interpreted as having a meaning consistent with the related technical literature and the presently disclosed content, and unless defined, are not interpreted in an ideal or very formal meaning.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은, 본 발명의 일 실시예에 따른, 안저영상 정합 방법을 수행하는 장치의 개념도이다. 1 is a conceptual diagram of an apparatus for performing a fundus image registration method according to an embodiment of the present invention.

도 1을 참조하면, 상기 장치(10)는 안저 카메라(미도시)로부터 안저영상을 획득하도록 구성된다. 상기 장치(10)는 영상 획득부(100); 특징점 정합부(300); 및 혈관 정합부(500)를 포함할 수도 있다. Referring to FIG. 1 , the device 10 is configured to acquire a fundus image from a fundus camera (not shown). The device 10 includes an image acquisition unit 100; feature point matching unit 300; and a blood vessel matching unit 500 .

실시예들에 따른 상기 장치(10)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 장치는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The device 10 according to embodiments may be entirely hardware, entirely software, or may have aspects that are partly hardware and partly software. For example, the device may collectively refer to hardware equipped with data processing capability and operating software for driving the same. As used herein, terms such as “unit”, “module,” “device,” or “system” are intended to refer to a combination of hardware and software run by the hardware. For example, the hardware may be a data processing device including a central processing unit (CPU), a graphic processing unit (GPU), or another processor. In addition, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

영상 획득부(100)는 대상자의 안구를 촬영한 대상자의 안저영상(또는 안저 사진)을 획득하도록 구성된다. The image acquisition unit 100 is configured to acquire a fundus image (or fundus photo) of the subject by photographing the subject's eyeball.

특정 실시예들에서, 안저 카메라는 대상자의 안구를 촬영한 촬영 데이터를 장치(10)로 유/무선 전기 통신을 통해 전송한다. 상기 영상 획득부(100)는 외부의 안저 카메라로부터 촬영 데이터를 유/무선으로 수신하는 인터페이스일 수도 있다. 일부 실시예들에서, 상기 영상 획득부(100)는 유선 인터페이스 포트일 수도 있다. 다른 일부 실시예들에서, 상기 영상 획득부(100)는 무선으로 데이터를 수신하는 통신 모듈일 수도 있다. In certain embodiments, the fundus camera transmits photographing data of the subject's eye to the device 10 through wired/wireless electrical communication. The image acquisition unit 100 may be an interface for receiving photographing data from an external fundus camera in a wired/wireless manner. In some embodiments, the image acquisition unit 100 may be a wired interface port. In some other embodiments, the image acquisition unit 100 may be a communication module for wirelessly receiving data.

다른 특정 실시예들에서, 안저 카메라는 상기 장치(10)에 집적될 수도 있다. 이 경우, 상기 영상 획득부(100)는 안저 카메라로 구현될 수도 있다. In other specific embodiments, a fundus camera may be integrated into the device 10 . In this case, the image acquisition unit 100 may be implemented as a fundus camera.

상기 안저 카메라는 안저영상을 획득할 수 있는 다양한 안저 카메라를 포함한다. 예를 들어, 상기 안저 카메라는 산동 안저 카메라, 무산동 안저 카메라, OCT 형(type) 안저 카메라 등을 포함할 수 있다. 상기 안저영상(fundus image)은 망막 안저영상(retinal fundus image)을 포함한다.The fundus camera includes various fundus cameras capable of acquiring fundus images. For example, the fundus camera may include a mydriatic fundus camera, a non-mydriatic fundus camera, an OCT type fundus camera, and the like. The fundus image includes a retinal fundus image.

상기 영상 획득부(100)는 복수의 안저영상을 획득할 수도 있다. 상기 장치(10)는 영상 획득부(100)에 의해 획득된 복수의 영상 중 적어도 일부의 안저영상을 서로 부분적으로 정합하여 합성함으로써 단일 안저영상 사이즈 보다 넓은 사이즈를 갖는 단일 합성영상을 생성한다. The image acquisition unit 100 may acquire a plurality of fundus images. The apparatus 10 generates a single composite image having a size wider than a single fundus image size by synthesizing the fundus images of at least some of the plurality of images acquired by the image acquisition unit 100 by partially matching each other.

상기 복수의 안저영상은 영상 프레임 내에 시신경 유두와 중심와를 모두 포함한 제1 그룹의 안저영상, 영상 프레임 내에 시신경 유두만을 포함한 제2 그룹의 안저영상, 영상 프레임 내에 중심와만을 포함한 제3 그룹의 안저영상 및 영상 프레임 내에 시신경 유두와 중심와를 모두 포함하지 않은 제4 그룹의 안저영상을 포함한다. The plurality of fundus images include a first group fundus image including both the optic nerve head and fovea in the image frame, a second group fundus image including only the optic nerve head within the image frame, a third group fundus image including only the fovea in the image frame, and A fourth group of fundus images that do not include both the optic nerve papilla and the fovea are included in the image frame.

또한, 영상 획득부(10)는 안저영상과 관련된 데이터를 획득할 수 있다. 예를 들어, 안저영상과 관련된 데이터는 안저영상의 대상자를 식별할 수 있는 대상자 식별정보(예컨대, 성명, 신원 정보, 식별자 등), 촬영 시점, 및/또는 촬영 기기 관련 정보 등을 포함할 수 있다. 또한, 획득된 안저영상이 좌안의 안저영상인지, 우안의 안저영상인지 여부를 나타내는 레이블 데이터(rabel data)를 더 획득할 수도 있다. 그러면, 상기 장치(10)는 동일한 대상자에 대한 안저영상들을 서로 정합하여 광각 안저영상을 생성하거나, 또는 동일한 측면의 안구의 안저영상끼리(예컨대, 좌안 안저영상끼리 또는 우안 안저영상끼리) 서로 정합하여 광각 안저영상을 생성할 수도 있다. 제1 양안 안저 사진의 쌍과 제2 시점에 촬영된 제2 양안 안저 사진의 쌍을 이용하는 경우, 상기 장치(10)는 좌안의 제1 안저 사진과 좌안의 제2 안저 사진을 정합하거나, 또는 우안의 제1 안저 사진과 우안의 제2 안저 사진을 정합하는 것과 같이, 상기 장치(10)는 대응하는 안구별로 정합 동작을 수행할 수도 있다. Also, the image acquisition unit 10 may acquire data related to the fundus image. For example, the data related to the fundus image may include subject identification information (eg, name, identity information, identifier, etc.) capable of identifying the subject of the fundus image, a photographing time, and/or information related to a photographing device. . In addition, label data indicating whether the obtained fundus image is the fundus image of the left eye or the fundus image of the right eye may be further acquired. Then, the device 10 generates a wide-angle fundus image by matching fundus images for the same subject, or by matching fundus images of the eyes of the same side (eg, left eye fundus images or right eye fundus images) with each other It is also possible to generate a wide-angle fundus image. When using the pair of the first binocular fundus photo and the second binocular fundus photo taken at the second time point, the device 10 matches the first fundus photo of the left eye and the second fundus photo of the left eye, or the right eye Like matching the first fundus photo of , and the second fundus photo of the right eye, the apparatus 10 may perform a matching operation for each corresponding eye.

영상 획득부(100)는 복수의 안저영상을 다른 구성요소(200, 400 또는 500)로 공급한다. 또한, 영상 획득부(100)는 안저영상을 제공하면서 해당 영상에 관련된 데이터를 함께 제공할 수도 있다. The image acquisition unit 100 supplies a plurality of fundus images to other components 200 , 400 , or 500 . Also, the image acquisition unit 100 may provide data related to the corresponding image while providing the fundus image.

분류부(200)는 복수의 안저영상 각각의 영상 프레임에서 시신경 유두 또는 중심와를 검출하여 상기 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 분류한다. The classifier 200 classifies the plurality of fundus images into first to fourth groups by detecting the optic nerve papilla or fovea in each image frame of the plurality of fundus images.

일 실시예에서, 분류부(200)는 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 영상 프레임에서 시신경 유두 또는 중심와를 검출할 수도 있다. 또한, 분류부(200)는 검출된 객체의 영상 프레임 상의 2차원 위치를 산출할 산출할 수도 있다. 분류부(200)는 시신경 유두, 중심와의 2차원 위치를 영상 프레임 상의 픽셀 좌표로 산출한다. In an embodiment, the classifier 200 may detect the optic nerve head or fovea in the image frame using a pre-trained optic nerve head/macular detection model. Also, the classifier 200 may calculate the two-dimensional position of the detected object on the image frame. The classification unit 200 calculates the two-dimensional positions of the optic nerve papilla and fovea as pixel coordinates on the image frame.

도 2는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다. 2 shows a schematic network architecture of an optic disc/macular detection model, according to an embodiment of the present invention.

도 2를 참조하면, 상기 시신경 유두/황반 검출 모델(이하, “검출 모델”)은 공유 컨볼루션 네트워크; 지역 지정 네트워크; 객체 검출 네트워크를 포함한다. Referring to FIG. 2 , the optic nerve papilla/macular detection model (hereinafter, “detection model”) includes a shared convolutional network; regional network; It includes an object detection network.

상기 공유 컨볼루션 네트워크는 다수의 컨볼루션 레이어를 포함하며, 이의 출력은 지역 지정 네트워크 및 객체 검출 네트워크에 의해 공유된다. The shared convolutional network includes a plurality of convolutional layers, the output of which is shared by a localized network and an object detection network.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 지역 지정 네트워크에 입력된다. The convolution feature map output by the last shared convolution layer of the shared convolutional network is input to the region-specific network.

상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측한다. The regional designation network generates an intermediate feature map by applying a sliding window method to the input convolutional feature map, and predicts a region of interest in which a candidate object is likely to be located based on the intermediate feature map.

상기 슬라이딩 방식은 입력 데이터에서 윈도우를 슬라이딩하면서 입력 데이터의 모든 범위에 대해서 원하는 대상을 탐색하는 방식이다. 이 윈도우는 입력된 컨볼루션 특징맵을 따라 슬라이딩한다. 각 슬라이딩 위치에서의 특징 윈도우는 보다 저 차원의 특징에 매핑된다. 그러면, 상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵 보다 더 낮은 차원의 중간 특징맵(intermediate feature map)을 생성한다. 상기 지역 지정 네트워크는 중간 특징맵에 기초하여 관심지역을 예측한다. The sliding method is a method of searching for a desired object for all ranges of input data while sliding a window on the input data. This window slides along the input convolutional feature map. The feature window at each sliding position is mapped to a lower-dimensional feature. Then, the region-specific network generates an intermediate feature map of a lower dimension than the input convolutional feature map. The regional designation network predicts a region of interest based on the intermediate feature map.

일 실시예에서, 상기 지역 지정 네트워크는 상기 후보 객체(즉, 시신경 유두 또는 중심와)가 경계 상자의 중심부에 위치하도록 상기 관심지역을 예측할 수도 있다. 그러면, 경계 상자의 위치는 중심부의 위치, 즉 후보객체의 위치에 대응한다. In an embodiment, the region-specific network may predict the ROI so that the candidate object (ie, the optic disc or fovea) is located in the center of the bounding box. Then, the position of the bounding box corresponds to the position of the center, that is, the position of the candidate object.

일부 실시예들에서, 상기 지역 지정 네트워크는 미리 크기가 고정된 경계 상자를 사용하여 관심지역을 예측할 수도 있다. In some embodiments, the region-specific network may predict a region of interest using a bounding box having a fixed size in advance.

시신경 유두와 중심와의 크기는 일반적으로 일정한 경향을 가진다. 이 경향성에 기초하여 획득된 값으로 경계 상자의 크기를 미리 설정할 수도 있다. The size of the optic disc and fovea generally tends to be constant. The size of the bounding box may be preset to a value obtained based on this tendency.

도 2에 도시된 바와 같이, 지역 지정 네트워크는 시신경 유두, 중심와를 포함할 가능성이 있는 관심영역을 예측한다. As shown in FIG. 2 , the region-specific network predicts a region of interest that is likely to include the optic disc and fovea.

상기 객체 검출 네트워크는 풀링 레이어 및 완전연결 레이어를 포함한다. The object detection network includes a pooling layer and a fully connected layer.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 객체 검출 네트워크에도 입력된다. 입력된 컨볼루션 특징맵은 풀링 레이어로 입력된다. The convolution feature map output by the last shared convolution layer of the shared convolutional network is also input to the object detection network. The input convolutional feature map is input to the pooling layer.

풀링 레이어는 입력된 데이터를 상기 지역 지정 네트워크에 의한 관심지역 예측 결과에 기초하여 풀링 처리한다. 상기 풀링 레이어는 특징맵이 입력되면 특징 벡터로 출력하도록 구성된다. 그러면, 도 3의 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터가 완전연결 레이어로 입력된다. The pooling layer performs a pooling process on the input data based on the ROI prediction result by the regional designation network. The pooling layer is configured to output a feature vector when a feature map is input. Then, the feature vector for the region of interest in the image frame initially input to the detection model of FIG. 3 is input to the fully connected layer.

상기 일부 실시예들에서, 경게 상자의 크기가 고정될 경우, 탐색된 관심지역의 중간 특징맵의 크기도 고정된다. 그러면, 상기 객체 검출 네트워크는 고정된 크기의 특징 벡터를 획득하여 이를 완전연결 레이어로 입력한다. In some embodiments, when the size of the bounding box is fixed, the size of the intermediate feature map of the searched ROI is also fixed. Then, the object detection network acquires a feature vector of a fixed size and inputs it to the fully connected layer.

상기 완전연결 레이어는 관심지역에서 시신경 유두, 중심와가 존재할 확률을 계산하여 시신경 유두, 중심와의 위치를 예측하도록 구성된다. The fully connected layer is configured to predict the position of the optic nerve head and fovea by calculating the probability that the optic nerve head and fovea exist in the region of interest.

일 실시예에서, 상기 객체 검출 네트워크는 입력된 영상 프레임 상의 경계 상자의 2차원 위치와 크기, 각 객체의 클래스(즉, 시신경 유두 또는 중심와) 및 각 클래스에 대한 신뢰도 점수를 포함한 결과를 출력할 수도 있다. 상기 신뢰도 점수는 확률 값 또는 이에 기반한 다른 변환 값일 수도 있다. In an embodiment, the object detection network may output a result including the two-dimensional position and size of the bounding box on the input image frame, the class of each object (ie, the optic disc or fovea), and the confidence score for each class have. The confidence score may be a probability value or another conversion value based thereon.

상기 검출 모델은 이 결과에 기초하여 시신경 유두, 중심와를 검출한다. 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하여 시신경 유두, 중심와를 검출한다. The detection model detects the optic nerve head and fovea based on this result. The detection model detects the optic nerve head and fovea by selecting the region of interest having the highest value for the corresponding reliability for each class.

일 실시예에서, 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하고, 선택된 관심지역의 클래스에 대한 신뢰도가 미리 설정된 신뢰도 임계치 보다 높은 경우에 선택된 관심지역의 클래스의 객체를 시신경 유두 또는 중심와로 검출할 수도 있다. In one embodiment, the detection model selects the region of interest having the highest value for the corresponding reliability for each class, and when the reliability of the class of the selected region of interest is higher than a preset reliability threshold, the class of the selected region of interest It is also possible to detect an object of the optic nerve disc or fovea.

상기 신뢰도가 확률 값일 경우, 상기 신뢰도 임계치는 예를 들어 0.9일 수도 있으나 이에 제한되진 않는다. When the reliability is a probability value, the reliability threshold may be, for example, 0.9, but is not limited thereto.

상기 검출 모델은 상기 제1 내지 제4 그룹 중 일부 또는 전부를 포함한 훈련 데이터 세트를 사용하여 학습된다. 검출 모델은 훈련 안저영상의 실제 값과 예측 값 간의 차이가 최소화되기 위한 파라미터의 값을 갖도록 학습된다. The detection model is trained using a training data set including some or all of the first to fourth groups. The detection model is trained to have a parameter value for minimizing the difference between the actual value and the predicted value of the training fundus image.

상기 분류부(200)는 시신경 유두, 중심와의 검출 여부에 따라 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 자동으로 분류한다. 분류부(200)의 동작에 대해서는 도 3 등을 참조하여 아래에서 보다 상세하게 서술한다. The classification unit 200 automatically classifies the plurality of fundus images into first to fourth groups according to whether the optic nerve papilla or fovea is detected. The operation of the classification unit 200 will be described in more detail below with reference to FIG. 3 and the like.

정합부(400)는 안저영상에서 적어도 하나의 특징점(feature point)을 추출할 수도 있다. 상기 특징점은 안저영상에 표현된 기하학적 특징에 관련된 점이다. 상기 기하학적 특징은 엣지, 커브 등을 포함한다. 추출된 특징점은 특징점 기반 정합 동작을 위해 사용될 수도 있다. The matching unit 400 may extract at least one feature point from the fundus image. The feature point is a point related to a geometric feature expressed in the fundus image. The geometrical features include edges, curves, and the like. The extracted key points may be used for a key point-based matching operation.

정합부(400)는 서로 다른 안저영상을 정합하기 위해 복수의 안저영상 각각에 대해서 혈관 영역을 추출한다. 또한, 상기 정합부(400)는 혈관 영역의 추출 결과에 기초하여 혈관 마스크를 생성할 수도 있다. The matching unit 400 extracts a blood vessel region from each of a plurality of fundus images to match different fundus images. Also, the matching unit 400 may generate a blood vessel mask based on the extraction result of the blood vessel region.

정합부(400)는 안저영상 내 혈관의 적어도 일부를 나타낸 혈관 마스크를 생성할 수도 있다. The matching unit 400 may generate a blood vessel mask representing at least a portion of blood vessels in the fundus image.

상기 혈관 마스크는 혈관 영역을 마스크 형상으로 가진다. 상기 혈관 마스크는 안저영상 내 적어도 일부의 혈관의 외곽선을 포함할 수도 있다. 또한, 상기 혈관 마스크는 혈관 외부와 혈관 영역이 시각적으로 구별되도록 구성될 수도 있다. The blood vessel mask has a blood vessel region in a mask shape. The blood vessel mask may include an outline of at least some blood vessels in the fundus image. In addition, the blood vessel mask may be configured to visually distinguish the outside of the blood vessel and the blood vessel region.

일 실시예에서, 상기 정합부(400)는 미리 학습된 분할 모델을 사용하여 안저영상에서 혈관 영역을 추출할 수도 있다. 상기 분할 모델은 입력된 안저영상 내 영역 특성에 기초하여 혈관 영역을 추출하도록 구성된다. 상기 분할 모델은 안저영상의 영상 프레임을 이루는 픽셀이 혈관인지 여부를 나타낸 확률 값으로 이루어진 혈관 확률 맵(vessel probability map)을 산출하고, 이에 기초하여 혈관 영역을 결정할 수도 있다. In an embodiment, the matching unit 400 may extract a blood vessel region from the fundus image using a pre-trained segmentation model. The segmentation model is configured to extract a blood vessel region based on region characteristics in the input fundus image. The segmentation model may calculate a vessel probability map including a probability value indicating whether a pixel constituting an image frame of the fundus image is a blood vessel, and determine a vessel region based on this.

상기 분할 모델은 딥러닝 구조의 기계학습 모델로서, 특징 추출 레이어; 및 분류 레이어를 포함할 수도 있다. The segmentation model is a machine learning model of a deep learning structure, comprising: a feature extraction layer; and a classification layer.

상기 특징 추출 레이어는 입력영상의 부분을 혈관 클래스로 분류하는데 사용되는 특징을 추출하도록 구성된다. 상기 분할 모델이 CNN (Convolutional Neural Network) 기반 모델인 경우, 상기 특징 추출 레이어는 컨볼루션 레이어 및/또는 풀링 레이어를 포함할 수도 있다. The feature extraction layer is configured to extract features used to classify a portion of an input image into a blood vessel class. When the segmentation model is a Convolutional Neural Network (CNN)-based model, the feature extraction layer may include a convolutional layer and/or a pooling layer.

분류 레이어는 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀 또는 픽셀 집합)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 그러면, 안저영상 내 픽셀별로 해당 픽셀이 혈관일 확률을 포함한 혈관 확률맵이 산출된다. The classification layer includes a classification layer configured to calculate a probability that a portion (eg, a pixel or a set of pixels) in an image is classified into a blood vessel class based on the extracted features. Then, for each pixel in the fundus image, a blood vessel probability map including the probability that the corresponding pixel is a blood vessel is calculated.

분할 모델에 의해 산출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 산출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. A blood vessel shape is determined based on the blood vessel probability map calculated by the segmentation model. In certain embodiments, a mask corresponding to a blood vessel shape based on the calculated blood vessel probability map may be generated as an eye blood vessel mask.

일부 실시예들에서, 분류 레이어는 산출된 확률에 기초하여 혈관 클래스와 비-혈관 클래스로 분류하도록 더 구성될 수도 있다. 이 경우, 정합부(400)는 혈관 클래스로 분류된 픽셀로 이루어진 혈관 영역의 영상을 생성할 수도 있다. In some embodiments, the classification layer may be further configured to classify into a vascular class and a non-vascular class based on the calculated probability. In this case, the matching unit 400 may generate an image of a blood vessel region including pixels classified into blood vessel classes.

상기 분할 모델은 CNN (Convolutional Neural Network) 기반의 다양한 구조를 가질 수도 있다. 상기 분할 모델은 입력영상에서 특징을 추출하는 레이어; 및 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 상기 분할 모델은, 예를 들어 SSANet, 또는 Rential SSANet 기반 구조를 포함할 수도 있으나, 이에 제한되진 않는다. The segmentation model may have various structures based on a Convolutional Neural Network (CNN). The segmentation model may include a layer for extracting features from an input image; and a classification layer configured to calculate a probability that a portion (eg, a pixel) in an image is classified into a blood vessel class based on the extracted features. The segmentation model may include, for example, an SSANet, or a Rential SSANet-based structure, but is not limited thereto.

상기 분할 모델은 복수의 훈련 안저영상(training fundus image)를 포함한 훈련 샘플을 이용하여, 영상 내 부분(예컨대, 픽셀)이 혈관 그룹에 속할 확률을 산출하도록 학습된다. 상기 분할 모델은 입력영상 부분(예컨대, 픽셀)의 클래스 분류를 위한 확률 값 산출 또는 클래스 분류를 학습 목적으로 갖는 다양한 학습 과정에 의해 학습된 모델일 수도 있다. The segmentation model is trained to calculate a probability that a portion (eg, a pixel) in an image belongs to a blood vessel group by using a training sample including a plurality of training fundus images. The segmentation model may be a model learned by various learning processes having a class classification or calculation of a probability value for class classification of an input image part (eg, a pixel).

예를 들어, 안저영상을 입력으로 갖는 분할 모델의 파라미터는 해당 모델의 비용 함수가 최소가되는 방향으로 업데이트되어 학습될 수도 있다. 여기서, 비용 함수는 모델이 산출한 결과 값과 실제 결과 값의 차이를 나타낸다. 이러한 파라미터의 학습은 통상적으로 최적화로 지칭된다. 파라미터의 최적화는, 예를 들어 ADAM(Adaptive Moment Estimation), Momentum, NAG(Nesterov Accelerated Gradient), Adagrad(Adaptive Gradient), RMSProp, 다양한 경사 하강(gradient discent) 방식을 포함할 수도 있다. For example, parameters of a segmentation model having a fundus image as an input may be updated and learned in a direction in which a cost function of the corresponding model is minimized. Here, the cost function represents the difference between the result value calculated by the model and the actual result value. Learning these parameters is commonly referred to as optimization. The parameter optimization may include, for example, Adaptive Moment Estimation (ADAM), Momentum, Nesterov Accelerated Gradient (NAG), Adaptive Gradient (Adagrad), RMSProp, and various gradient descent schemes.

이러한 학습 과정을 통해 분할 모델은 안저영상에서 실제 혈관에 대해서는 보다 높은 확률 값을 산출하고 비-혈관에 대해서는 보다 낮은 확률 값을 산출하는 능력이 강화되도록 학습된다. 또한, 확률 값 산출 능력의 강화로 인해, 혈관 영역의 식별 능력도 강화될 수도 있다. Through this learning process, the segmentation model is trained to enhance the ability to calculate higher probability values for actual blood vessels and lower probability values for non-vascular vessels in the fundus image. In addition, due to the enhancement of the probability value calculation capability, the blood vessel region identification capability may also be enhanced.

상기 정합부(400)는 추출된 특징 및/또는 혈관(즉, 혈관 마스크)에 기초하여 서로 영상(예컨대, 처음부터 이전 정합 순위까지의 이미 합성된 단일 영상과 다음에 합성될 안저영상)을 정합할 수도 있다. The matching unit 400 matches images (eg, a single image synthesized from the beginning to the previous registration order and a fundus image to be synthesized next) with each other based on the extracted features and/or blood vessels (ie, blood vessel mask). You may.

상기 합성부(500)는 정합된 서로 다른 안저영상들로부터 단일의 합성영상을 생성할 수도 있다. The synthesizing unit 500 may generate a single synthesized image from different matched fundus images.

상기 장치(10)는 정합부(400) 및 합성부(500)에 의해 광각 안저영상을 생성할 수도 있다. 상기 광각 안저영상은 개별 영상을 부분적으로 중첩하여 합성하는 몽타주로 구현된다. 이 몽타주의 생성은 몽타주의 중앙 프레임으로부터 개시되며, 정합 순위에 따라 안저영상을 이미 생성된 몽타주에 합성함으로써 진행된다. 그러면, 몽타주의 크기가 점차 확장하여 복수의 안저영상의 종합적인 뷰를 갖는 최종 광각 안저영상이 생성된다. The apparatus 10 may generate a wide-angle fundus image by the matching unit 400 and the synthesizing unit 500 . The wide-angle fundus image is implemented as a montage in which individual images are partially overlapped and synthesized. The creation of the montage starts from the central frame of the montage, and proceeds by synthesizing the fundus image into the previously created montage according to the registration order. Then, the size of the montage is gradually expanded to generate a final wide-angle fundus image having a comprehensive view of a plurality of fundus images.

정합부(400)의 정합 동작 및 합성부(500)의 광각 안저영상 생성 동작에 대해서는 도 3 등을 참조하여 아래에서 보다 상세하게 서술한다. The matching operation of the matching unit 400 and the wide-angle fundus image generation operation of the synthesizing unit 500 will be described in more detail below with reference to FIG. 3 and the like.

상기 장치(10)가 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 장치(10)는 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to one of ordinary skill in the art that the apparatus 10 may include other components not described herein. For example, the device 10 may include other hardware elements necessary for the operation described herein, including a network interface, an input device for data entry, and an output device for display, printing, or other data presentation. may be

본 발명의 다른 일 측면에 따른 광각 안저영상을 생성하기 위한 안저영상 정합 방법은 전술한 장치(10)와 같이 하나 이상의 프로세서에 의해 수행될 수도 있다. 이하, 설명의 명료성을 위해, 상기 장치(10)에 의해 수행되는 실시예들에 기초하여 안저영상 정합 방법의 단계들을 보다 상세하게 서술한다. The fundus image registration method for generating a wide-angle fundus image according to another aspect of the present invention may be performed by one or more processors like the above-described apparatus 10 . Hereinafter, for clarity of explanation, the steps of the fundus image registration method will be described in more detail based on embodiments performed by the apparatus 10 .

도 3은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이고, 도 4는, 도 3의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다. 도 4b는 도 4a의 단계(S400)에 대한 개략적인 부분 확대도이다.FIG. 3 is a flowchart of a fundus image registration method for generating a wide-angle fundus image according to an embodiment of the present invention, and FIG. 4 is a schematic diagram of a fundus input term matching method for generating the wide-angle fundus image of FIG. 3 . FIG. 4B is a schematic partial enlarged view of step S400 of FIG. 4A .

상기 광각 안저영상을 생성하기 위한 안저영항 정합 방법(이하, “정합 방법”)은: (예컨대, 영상 획득부(100)에 의해) 복수의 안저영상을 획득하는 단계(S100)를 포함한다. 상기 복수의 안저영상 각각은 시신경 유두 및/또는 황반 주심을 포함하거나, 또는 이들 모두를 포함하지 않을 수도 있다. The fundus domain matching method (hereinafter, “matching method”) for generating the wide-angle fundus image includes: acquiring a plurality of fundus images (eg, by the image acquisition unit 100 ) ( S100 ). Each of the plurality of fundus images may include an optic nerve disc and/or a macular pericentre, or may not include all of them.

상기 정합 방법은: (예컨대, 분류부(200)에 의해) 복수의 안저영상 각각에 대해서, 시신경 유두 및/또는 중심와를 검출하여 복수의 그룹으로 분류하는 단계(S200)를 포함한다. The registration method includes: (eg, by the classification unit 200 ), for each of a plurality of fundus images, detecting the optic nerve papilla and/or fovea and classifying them into a plurality of groups ( S200 ).

일 실시예에서, 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 안저영상의 영상 프레임에서 시신경 유두 및/또는 중심와가 검출될 수도 있다(S200). 단계(S200)의 검출 모델 및 이를 사용한 시신경 유두, 중심와의 검출 동작에 대해서는 도 2를 참조하여 전술하였는 바 자세한 설명은 생략한다. In an embodiment, the optic nerve head and/or fovea may be detected in the image frame of the fundus image using the pre-trained optic nerve head/macular detection model (S200). The detection model of step S200 and the detection operation of the optic nerve papilla and fovea using the same have been described above with reference to FIG. 2 , and detailed description thereof will be omitted.

특정 실시예들에서, 상기 복수의 그룹은 제1 내지 제4 그룹을 포함한다. 상기 단계(S200)는 상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계; 상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계; 상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및/또는 상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계를 포함할 수도 있다. 예를 들어, 단계(S200)에서, 단계(S100)의 복수의 영상이 제1 내지 제4 그룹 각각으로 분류될 수도 있다. In certain embodiments, the plurality of groups includes first through fourth groups. The step (S200) includes: classifying the fundus image in which both the optic nerve papilla and the fovea are detected into a first group; classifying the fundus image in which only the optic nerve head is detected into a second group; classifying the fundus image in which only the fovea is detected into a third group; and/or classifying a fundus image in which neither the optic nerve papilla nor the fovea is detected into a fourth group. For example, in step S200 , the plurality of images of step S100 may be classified into first to fourth groups, respectively.

또한, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹별로 그룹 내 안저영상 간의 정합 순위를 할당하는 단계(S300)를 포함한다. 상기 단계(S300)는: 상기 제1 그룹 내지 제4 그룹 중 일부 또는 전부의 그룹에 대해서, 상기 일부 또는 전부의 그룹 각각에 포함된 안저영상에 정합 순위를 할당하는 단계; 및/또는 제4 그룹의 안저영상들에 대한 제4 그룹 내 정합 순위를 할당하는 단계를 포함한다.. In addition, the matching method includes: (eg, by the classification unit 200 ) allocating a matching rank among fundus images within a group for each group ( S300 ). The step (S300) may include: allocating a matching order to fundus images included in each of the partial or all groups with respect to some or all of the first to fourth groups; and/or allocating a matching order within the fourth group to the fundus images of the fourth group.

정합 순위가 할당되면, 정합될 안저영상의 순서는 상기 정합 순위에 의존한다. 예를 들어, 제1 그룹에 속한 안저영상들은 제1 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합된다. 또는 제4 그룹에 속한 안저영상들은 제4 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합될 수도 있다. When a matching rank is assigned, the order of fundus images to be matched depends on the matching rank. For example, fundus images belonging to the first group are sequentially matched according to a matching order between fundus images in the first group. Alternatively, fundus images belonging to the fourth group may be sequentially registered according to the matching order among fundus images in the fourth group.

일 실시예에서, 상기 단계(S300)는: 상기 제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상(reference fundus image)을 선택하는 단계; 및 상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 예를 들어, 제1 그룹 내지 제3 그룹 각각에 대한 기준 안저영상이 선택되고, 각 그룹별 기준 안저영상을 사용하여 그룹 내 정합 순위가 할당된다(S300). In one embodiment, the step (S300) may include: selecting, for at least one of the first group to the third group, each reference fundus image for each group; and allocating a matching rank within the corresponding group to the fundus image for each corresponding group using the reference fundus image. For example, a reference fundus image for each of the first to third groups is selected, and a matching rank within the group is assigned using the reference fundus image for each group ( S300 ).

중심와와 시신경 유두는 서로 가까운 해부학적 특성을 가진다. 이로 인해, 중심와가 영상 프레임의 중앙 부분에 위치하는 안저영상은 시신경 유두도 포함하는 것이 일반적이므로, 제1 그룹에 속한 것으로 취급 가능하다. The fovea and the optic disc have close anatomical characteristics. For this reason, since the fundus image in which the fovea is located in the central portion of the image frame generally also includes the optic disc, it can be treated as belonging to the first group.

일 실시예에서, 제1 그룹의 기준 안저영상은 제1 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 시신경 유두의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S300). 광각 안저영상의 초기 영상 프레임을 사용될 수도 있는 제1 그룹의 기준 안저영상을 이와 같이 선택할 경우, 전술한 바와 같이, 광각 안저영상을 생성하는데 안구 내부의 중심을 기준으로 개시하는 것이 유리한 장점과 동시에 시각적 구별의 편의성을 모두 가질 수 있기 때문이다. In an embodiment, the reference fundus image of the first group may be selected as a fundus image having a minimum distance between the position of the optic nerve head detected for each fundus image and the central position of the image frame among fundus images belonging to the first group. There is (S300). When the first group of reference fundus images that may be used as the initial image frame of the wide-angle fundus image are selected in this way, as described above, it is advantageous to start with the center of the inside of the eyeball as a reference in generating the wide-angle fundus image as well as the advantage of visual This is because they can have all of the convenience of distinction.

또한, 상기 제1 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 시신경 유두가 기준 안저영상의 시신경 유두와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S300). In addition, the first group matching order for the fundus images of the first group may be assigned based on a distance between the optic nerve head of the reference fundus image of the first group and another fundus image in the first group. This is because, as described above, the optic nerve discs are more easily distinguished visually. As the distance between the optic nerve head of another fundus image and the optic nerve head of the reference fundus image is closer, a higher matching priority is assigned (S300).

상기 거리는, 예를 들어 ||po i-po ref||2의 수학식에 의해 산출될 수도 있다. 여기서, i는 그룹 내 인덱스이고, po i는 상기 제1 그룹의 i번째 안저영상의 시신경 유두의 영상 프레임 상의 픽셀 좌표를 나타내고, po ref 는 기준 안저영상의 영상 프레임 상의 시신경 유두의 픽셀 좌표를 나타낸다. The distance is, for example, ||p o i -p o ref || It may be calculated by Equation ( 2). Here, i is an index within the group, p o i represents the pixel coordinates on the image frame of the optic nerve head of the i-th fundus image of the first group, and p o ref is the pixel coordinate of the optic nerve head on the image frame of the reference fundus image. indicates

상기 제1 그룹 및 제2 그룹의 안저영상이 시신경 유두를 포함하므로, 상기 제1 그룹의 기준 안저영상을 상기 제2 그룹의 기준 안저영상으로 사용할 수도 있다. 즉, 제1 그룹의 기준 안저영상이 선택되면, 상기 제2 그룹의 기준 안저영상도 자동으로 선택된다. Since the fundus images of the first group and the second group include the optic nerve papilla, the reference fundus image of the first group may be used as the reference fundus image of the second group. That is, when the reference fundus image of the first group is selected, the reference fundus image of the second group is also automatically selected.

상기 제2 그룹의 안저영상들에 대한 제2 그룹 내 정합 순위는 제2 그룹의 기준 안저영상의 시신경 유두와 제2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당된다(S300). The matching order within the second group for the fundus images of the second group is assigned based on the distance between the optic nerve head of the reference fundus image of the second group and another fundus image in the second group (S300).

상기 제3 그룹의 기준 안저영상도 전술한 제1 그룹의 기준 안저영상을 선택하는 과정과 유사하지만, 시신경 유두를 사용하는 대신 중심와의 위치를 기초로 선택된다. The reference fundus image of the third group is also similar to the process of selecting the reference fundus image of the first group described above, but is selected based on the position of the fovea instead of using the optic disc.

일 실시예에서, 상기 제3 그룹의 기준 안저영상은 제3 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 중심와의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S300). In an embodiment, the reference fundus image of the third group may be selected as a fundus image having a minimum distance between the position of the fovea detected for each fundus image and the central position of the image frame among fundus images belonging to the third group. There is (S300).

또한, 상기 제3 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 중심와가 기준 안저영상의 중심와와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S300). In addition, the intra-group matching order for the fundus images of the third group may be assigned based on a distance between the optic nerve head of the reference fundus image of the first group and another fundus image in the first group. This is because, as described above, the optic nerve discs are more easily distinguished visually. As the distance between the fovea of another fundus image and the fovea of the reference fundus image is closer, a higher matching priority is assigned (S300).

한편, 상기 제4 그룹 내 안저영상들 간의 정합 순위는 특징점의 매칭 정도에 기초하여 할당된다. Meanwhile, the matching order among fundus images in the fourth group is assigned based on the matching degree of the feature points.

일 실시예에서, 상기 제4 그룹 내 안저영상들 간의 정합 순위는 제4 그룹에 속하는 안저영상들 각각의 특징점이 초기 안저영상(즉, 상기 제1 그룹의 기준 안저영상) 또는 이전 정합 순위까지 이미 합성된 영상의 특징점에 매칭하는 정도에 기초하여 할당될 수도 있다. 매칭 정도가 높을수록 보다 높은 정합 순위가 할당된다. In one embodiment, the registration order among fundus images in the fourth group is already up to the initial fundus image (ie, the reference fundus image of the first group) or the previous matching rank for each feature point of the fundus images belonging to the fourth group. It may be assigned based on the degree of matching with the feature points of the synthesized image. A higher matching degree is assigned a higher matching rank.

대안적인 실시예들에서, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹 간의 정합 순위를 설정하는 단계(미도시)를 더 포함할 수도 있다. In alternative embodiments, the matching method may further include: (eg, by the classification unit 200 ) setting a matching rank between groups (not shown).

안구 내부의 영역을 표현한 광각 안저영상을 생성하는 것을 가정할 경우, 안구 내부의 중심을 기준으로 정합하여 합성하는 것이 유리하다. 중심와는 망막의 중심에 가까운 해부학적 특성을 가진다. 따라서, 중심와를 포함할수록 보다 높은 정합의 우선 순위를 가져야 한다. 그러나, 중심와는 망막 내에서 약간 더 어두운 점의 형태와 같이, 시각적으로 구별되기 모호한 특성을 가진다. 따라서, 영상 정렬에서 중심와만을 기준(reference)으로 사용하기에 쉽지 않다. 반면, 시신경 유두는 중심와 대비 상대적으로 시각적으로 구별되기 쉬운 특성을 가진다. When it is assumed that a wide-angle fundus image expressing the region inside the eyeball is generated, it is advantageous to match and synthesize the images based on the center of the eyeball. The fovea has anatomical characteristics close to the center of the retina. Therefore, the more the fovea is included, the higher the priority of registration should be. However, the fovea has properties that are obscure to distinguish visually, such as in the form of slightly darker dots within the retina. Therefore, it is not easy to use only the fovea as a reference in image alignment. On the other hand, the optic nerve papilla is relatively visually distinguishable compared to the fovea.

이로 인해, 상기 그룹 간의 정합 순위는 중심와와 더불어 시신경 유두를 모두 포함한 상기 제1 그룹에 가장 높은 그룹 간의 정합 순위가 할당된다. 상기 제4 그룹에 가장 낮은 그룹 간의 정합 순위가 할당된다. 제1 그룹 및 제3 그룹은 이들 사이에 할당된다. 예를 들어, 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 상기 제1 그룹, 상기 제3 그룹, 상기 제2 그룹 및 제4 그룹의 순서로 설정될 수도 있다. 그러면, 광각 안저영상을 생성하기 위해, 우선 초기 안저영상을 상기 제1 그룹에서 선택하고, 제1 그룹 내 안저영상의 정합 순위에 따라 상기 제1 그룹 내 안저영상들을 상기 초기 안저영상에 순서대로 정합하고, 합성 영상을 생성한다. For this reason, as for the matching rank between the groups, the highest matching rank between the groups is assigned to the first group including both the fovea and the optic disc. The fourth group is assigned a matching rank among the lowest groups. A first group and a third group are assigned between them. For example, the order of the first group, the second group, the third group, and the fourth group or the order of the first group, the third group, the second group, and the fourth group may be set. Then, in order to generate a wide-angle fundus image, an initial fundus image is first selected from the first group, and the fundus images in the first group are sequentially matched to the initial fundus image according to the matching order of the fundus images in the first group. and create a composite image.

상기 그룹 간의 정합 순위를 설정하는 단계는 광각 안저영상을 생성하기 위한 복수의 안저영상을 획득하는 단계(S100) 이전 또는 그 이후에 수행될 수도 있다. 예를 들어, 그룹 간의 정합 순위를 설정하는 단계는 아래에서 서술할 정합된 안저영상을 합성하는 단계(S500) 이전에 설정될 수도 있다. The step of setting the matching order among the groups may be performed before or after the step of acquiring a plurality of fundus images for generating a wide-angle fundus image ( S100 ). For example, the step of setting the matching order between groups may be set before the step (S500) of synthesizing the matched fundus image, which will be described below.

그러면, 제1 내지 제4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 수도 있다. 예를 들어, 제1 그룹 내 안저영상들에 대해 정합 순위가 할당되면, 제2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상은 제1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상의 다음 정합 순위를 가지는 것으로 정렬될 수도 있다. Then, the overall matching order for all the plurality of fundus images of the first to fourth groups may be allocated. For example, if a matching rank is assigned to fundus images in the first group, the first ?? The fundus image may be sorted as having the next matching rank of the last fundus image having the lowest matching rank in the first group.

상기 정합 방법은: (예컨대, 정합부(400)에 의해) 정합 순위에 기초하여 시작 안저영상과 다음 정합 순위의 안저영상 정합하는 단계(S400);를 포함한다. The registration method includes: (eg, by the registration unit 400 ) matching the start fundus image with the fundus image of the next registration order based on the registration order (S400).

특정 실시예들에서, 상기 제1 내지 제4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 경우, 이미 합성된 영상에 추가되는 안저영상은 단일 안저영상일 수도 있다. In certain embodiments, when overall matching ranks for all the plurality of fundus images of the first to fourth groups are allocated, the fundus image added to the already synthesized image may be a single fundus image.

초기 몽타주로 사용 가능한, 가장 높은 정합 순위를 갖는 제1 그룹의 기준 안저영상과 제1 그룹 내 그 다음 정합 순위의 안저영상을 참조하여 단계(S400)를 보다 상세하게 서술한다. 몽타주의 소스영상, 즉 상기 제1 그룹의 기준 안저영상은 제1 안저영상으로, 그 다음 정합 순위의 안저영상은 제2 안저영상으로 아래에서 지칭된다. Step S400 will be described in more detail with reference to the reference fundus image of the first group having the highest matching rank and the fundus image of the next matching rank in the first group, which can be used as an initial montage. The source image of the montage, that is, the reference fundus image of the first group is referred to below as a first fundus image, and the fundus image of the next matching order is referred to as a second fundus image.

도 3 및 도 4b를 참조하면, 상기 단계(S400)는: 상기 제1 안저영상과 제2 안저영상의 혈관 마스크를 생성하는 단계(S410)를 포함한다. 상기 혈관 마스크는 미리 학습된 분할 모델을 사용하여 안저영상으로부터 혈관 영역을 추출하여 생성된다. 그러면, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크, 그리고 상기 2 영역 내 혈관의 적어도 일부를 나타낸 제2 혈관 마스크가 생성된다(S410). Referring to FIGS. 3 and 4B , the step S400 includes: generating a blood vessel mask of the first fundus image and the second fundus image ( S410 ). The blood vessel mask is generated by extracting the blood vessel region from the fundus image using a pre-trained segmentation model. Then, a first blood vessel mask representing at least a portion of blood vessels in the first region and a second blood vessel mask representing at least a portion of blood vessels in the second area are generated ( S410 ).

단계(S410)에서 추출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 추출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. A blood vessel shape is determined based on the blood vessel probability map extracted in step S410 . In certain embodiments, a mask corresponding to a blood vessel shape based on the extracted blood vessel probability map may be generated as an eye blood vessel mask.

단계(S410)의 분할 모델 및 혈관 영역을 추출하여 혈관 마스크를 생성하는 동작에 대해서는 정합부(400)의 동작을 참조하여 전술하였는 바 자세한 설명은 생략한다. The operation of generating the blood vessel mask by extracting the division model and the blood vessel region in step S410 has been described above with reference to the operation of the matching unit 400 , and thus detailed description thereof will be omitted.

대안적인 실시예들에서, 상기 단계(S410)는 추출된 혈관 확률맵에 기초한 혈관 형상을 후처리하는 단계를 포함할 수도 있다. 그러면, 혈관 모델에 의해 산출된 혈관 확률맵에만 기초한 혈관 마스크 보다 더 정확하고 개선된 혈관 마스크를 생성할 수도 있다. 후처리 과정은 이진화 및/또는 혈관 형상의 경계를 재정의하는 과정을 포함한다. 특정 실시예들에서, 상기 후처리하는 단계는 특징점 기반 정합 이후 수행될 수도 있다. In alternative embodiments, the step ( S410 ) may include post-processing the blood vessel shape based on the extracted vessel probability map. Then, it is possible to generate a more accurate and improved vascular mask than the vascular mask based only on the vascular probability map calculated by the vascular model. Post-processing includes binarization and/or redefining the boundaries of vessel shape. In certain embodiments, the post-processing may be performed after feature point-based matching.

도 5a 내지 5d는, 본 발명의 일 실시예에 따른, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.5A to 5D are diagrams illustrating results of post-processing the extracted blood vessel mask according to an embodiment of the present invention.

상기 일 실시예에서, 상기 후처리 단계는: 입력영상에 이중 역치 기법(hysteresis thresholding)을 적용해 이진화하여 이진화 혈관 마스크(binarized fundus mask)를 생성하는 단계를 포함할 수도 있다. In the exemplary embodiment, the post-processing step may include: generating a binarized fundus mask by applying a hysteresis thresholding to the input image and binarizing it.

도 5a에 도시된 바와 같이, 단계(S410)에서 산출된 혈관 확률맵에 기초한 혈관 영역의 영상이 생성될 수도 있다. 도 5a의 영상에 이중 영치 기법이 적용된다. As shown in FIG. 5A , an image of a blood vessel region may be generated based on the blood vessel probability map calculated in step S410 . The double image technique is applied to the image of FIG. 5A.

이중 역치 기법은 상한 임계 값과 하한 임계 값을 이용하여 타겟 데이터를 결정하는 기법이다. 가는 혈관(filamentray vessels)이 영상에서 끊겨보이는 오차를 방지하기 위해, 입력영상의 혈관 영역을 미리 설정된 제1 임계 값(τl)과 제2 임계 값(τh)을 기준으로 이진화한다. 제2 임계 값(τh)은 제1 임계 값(τl) 보다 높은 임계 값일 수도 있다. 더 낮은 임계 값(τl) 보다 높은 확률을 갖는 픽셀이 성장하는 지역에 대한 시드로서 제2 임계 값(τh)을 넘는 픽셀이 사용된다. 제1 임계 값과 제2 임계 값은, 예컨대 τ1 = 0. 1, τh = 0.75 등과 같은, 경험적인 값일 수도 있다. The double threshold technique is a technique for determining target data using an upper threshold and a lower threshold. In order to prevent an error in which filamentray vessels appear cut off in the image, the vascular region of the input image is binarized based on a preset first threshold value τl and a second threshold value τh. The second threshold value τh may be a higher threshold value than the first threshold value τl. Pixels above the second threshold value τ h are used as seeds for regions in which pixels with higher probability than the lower threshold value τ1 grow. The first threshold value and the second threshold value may be empirical values, such as τ 1 =0.1, τ h = 0.75, and the like.

이러한 이중 임계 기법에 의해, 혈관 형상의 경계가 제1 임계 값 보다 높은 확률을 갖는 픽셀의 영역으로 성장된다. 성장 결과에 기초하여 이진화 혈관 마스크가 생성될 수도 있다. By this double-threshold technique, the boundary of the vessel shape is grown as a region of the pixel having a higher probability than the first threshold value. A binarized vascular mask may be generated based on the growth results.

또한, 상기 후처리 단계는: 안저영상의 이미지 그라디언트에 대한 혈관 경계를 정렬하기 위해 혈관 마스크를 미세 조정하는 단계를 포함할 수도 있다. In addition, the post-processing step may include: fine-tuning the blood vessel mask to align the vessel boundary with respect to the image gradient of the fundus image.

이를 위해, 상기 후처리 단계는: 이진화 영상에서 혈관과 외부 경계 사이의 밸리(valley)를 검출하는 단계; 및 상기 밸리 내부를 채우는 단계를 포함할 수도 있다. 이진화 영상을 반전(inverted)하면, 혈관과 외부 경계 사이의 영역이 보다 선명하게 구분된다. 예를 들어, 도 5b에는 혈관 영역으로 동일하게 표현되었던 다수의 영역들(예컨대 혈관 내부, 외부 경계, 및/또는 혈관 두께 등을 나타낸 혈관과 외부 경계 사이의 영역)이 도 5c에 도시된 바와 같이 보다 선명하게 구분된다. 이러한 반전된 이진화 영상에서 혈관과 외부 경계 사이의 밸리 영역을 검출하고, 밸리 영역의 내부를 채우는 영상 처리가 수행된다. 그러면 도 5d에 도시된 바와 같이, 혈관 확률맵에 기초한 초기 혈관 마스크를 개선한 마스크를 최종적인 혈관 마스크로 생성할 수도 있다. 단계(S410)에서 밸리 내부를 채우는 과정은, 예를 들어, 이미지 침식(erosion) 처리를 통해서 수행될 수도 있다. To this end, the post-processing step may include: detecting a valley between a blood vessel and an external boundary in a binarized image; and filling the inside of the valley. If the binarized image is inverted, the region between the blood vessel and the outer boundary is more clearly distinguished. For example, as shown in FIG. 5C , a plurality of regions (eg, a region between a blood vessel and an external boundary indicating a blood vessel inner, outer boundary, and/or blood vessel thickness, etc.) that were identically expressed as a blood vessel region in FIG. 5B are more clearly distinguished. In the inverted binarized image, a valley region between the blood vessel and the outer boundary is detected, and image processing is performed to fill the inside of the valley region. Then, as shown in FIG. 5D , a mask obtained by improving the initial blood vessel mask based on the blood vessel probability map may be generated as the final blood vessel mask. The process of filling the valley inside in step S410 may be performed, for example, through image erosion processing.

이러한 후처리 과정들이 제1 안저영상 및/또는 제2 안저영상에서 분할 모델에 의해 산출된 혈관 형상에 적용되면, 보다 정교하게 후처리된 제1 안저영상 및/또는 제2 안저영상의 혈관 마스크가 생성된다(S410). When these post-processing procedures are applied to the blood vessel shape calculated by the segmentation model in the first fundus image and/or the second fundus image, the more precisely post-processed blood vessel mask of the first fundus image and/or the second fundus image is is generated (S410).

또한, 상기 단계(S400)는: 제1 안저영상과 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계(S430); 및 생성한 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 정합하는 단계(S450)를 포함한다. 단계(S450)의 정합 동작은 단계(S430)의 특징점 정합 이후 수행되므로, 재-정합 동작으로 취급된다. In addition, the step (S400) may include: matching the first fundus image and the second fundus image based on the feature points of the first fundus image and the second fundus image (S430); and matching the first fundus image and the second fundus image based on the generated blood vessel mask (S450). Since the matching operation in step S450 is performed after the feature point matching in step S430, it is treated as a re-matching operation.

단계(S430)는 안저영상 내 특징점을 추출하는 단계; 및 추출된 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계를 포함한다. Step (S430) is a step of extracting a feature point in the fundus image; and matching the first fundus image and the second fundus image based on the extracted feature points.

상기 특징점은 영상을 매칭하는데 있어서 주위 배경과 구분되면서 식별이 용이한 지점을 포함한다. 전술한 바와 같이, 기하학적 특징점이 특징점으로 사용될 수도 있다. 일 실시예에서, 특징점은 혈관의 기하학적 형상과 관련된 특징점을 포함할 수도 있다. 예를 들어, 혈관 형상 또는 에지에 포함된 특징점을 포함할 수도 있다. The feature point includes a point that is easily identified while being distinguished from the surrounding background in matching the image. As described above, geometric feature points may be used as feature points. In an embodiment, the feature point may include a feature point related to the geometry of the blood vessel. For example, a feature point included in the shape of a blood vessel or an edge may be included.

단계(S430)에서 특징 서술자(descriptor) 기반 다양한 특징 추출 알고리즘을 통해 입력영상(예컨대, 제1 안저영상)에서 특징점을 추출할 수도 있다. 상기 특징 추출 알고리즘은, 예를 들어 DoG(Difference of Gaussian)를 기반으로 영상 축 및/또는 스케일 축으로 코너성이 극대인 점을 추출하는 SIFT(Scale Invariaant Feature Trnasform)을 포함할 수도 있으나, 이에 제한되진 않는다. 단계(S430)에서 다수의 특징점을 포함한 특징점 세트가 추출될 수도 있다. In step S430, feature points may be extracted from the input image (eg, the first fundus image) through various feature extraction algorithms based on a feature descriptor. The feature extraction algorithm may include, for example, a Scale Invariaant Feature Trnasform (SIFT) that extracts a point having a maximum cornerity on an image axis and/or a scale axis based on Difference of Gaussian (DoG), but is limited thereto. it doesn't happen A feature point set including a plurality of feature points may be extracted in step S430 .

상기 단계(S430)에서 특징점 기반 매칭은 픽셀 도메인에서 수행될 수도 있다. In step S430, the keypoint-based matching may be performed in the pixel domain.

상기 단계(S430)에서 상기 제1 안저영상으로부터 추출된 제1 특징점 세트와 상기 제1 안저영상으로부터 추출된 제2 특징점 세트를 각각 강체 정합(rigid registration)함으로써, 제1 안저영상과 제2 안저영상을 정합할 수도 있다. The first fundus image and the second fundus image by rigid registration of the first feature point set extracted from the first fundus image and the second feature point set extracted from the first fundus image in the step S430 , respectively can also be matched.

일 실시예에서, 상기 단계(S430)는, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 단계를 포함할 수도 있다. 일부 실시예에서, 상기 단계(S300)는 RANSAC 알고리즘을 더 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합할 수도 있다. 예를 들어, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 과정에서, RANSAC 알고리즘을 통해 각 세트의 특징점 간의 매칭도를 최대화하는 값을 산출함으로써, 특징점 기반 매칭을 수행할 수도 있다. In an embodiment, the step S430 may include matching the first feature point set and the second feature point set using a perspective transformation matrix. In some embodiments, the step S300 may further use the RANSAC algorithm to match the first set of key points and the second set of key points. For example, in the process of matching the first feature point set and the second feature point set using the perspective transformation matrix, a value that maximizes the degree of matching between the feature points of each set is calculated through the RANSAC algorithm to perform feature point based matching. may be

도 6 a 및 도 6b는, 본 발명의 일 실시예예 따른, 특징점 기반 정합 결과를 도시한 도면이다. 6A and 6B are diagrams illustrating a feature point-based matching result according to an embodiment of the present invention.

도 6a에 도시된 바와 같이, 혈관의 특징점에 기초하여 제1 안저영상과 제2 안저영상이 정합된다(S430). As shown in FIG. 6A , the first fundus image and the second fundus image are matched based on the feature points of blood vessels ( S430 ).

도 6b를 참조하면, 혈관의 특징점을 매칭하여 제1 안저영상과 제2 안저영상이 정합된, 도 6a의 정합 결과를 시각화한 정합영상을 획득할 수도 있다. Referring to FIG. 6B , by matching feature points of blood vessels, a registered image in which the first fundus image and the second fundus image are matched, and visualized with the registration result of FIG. 6A may be acquired.

단계(S430)의 정합 이후 단계(S450)의 정합이 추가로 수행된다. After the matching in step S430, the matching in step S450 is additionally performed.

일 실시예에서, 상기 정합 방법은: 특징점 기반 정합 이후, 특징점 기반 정합 결과의 유효성을 검증하는 단계(S440)를 더 포함할 수도 있다. 단계(S450)의 추가 정합은 단계(S440)에서 유효성이 검증된 경우에 수행된다. In an embodiment, the matching method may further include: verifying the validity of the keypoint-based matching result after the keypoint-based matching ( S440 ). Further matching in step S450 is performed when validity is verified in step S440.

일 실시예에서, 유효성 검증을 위해, 다음 정합 순위를 갖는 안저영상(예컨대, 제2 안저영상)은 호모그래피 변환 처리될 수도 있다(S440). 상기 제2 안저영상이 호모그래피 변환 처리될 경우, 상기 제2 안저영상의 특징점이 다른 안저영상(즉, 제1 안저영상)에 투영된다. 상기 제2 안저영상에 대해서, 호모그래피 변환 전후의 변화가 유효성 조건을 충족하지 못하면, 상기 제2 안저영상은 정합되지 않고 광각 안저영상을 생성하는데 사용되지 않는다. In an embodiment, for validation, the fundus image (eg, the second fundus image) having the next matching rank may be subjected to homography transformation ( S440 ). When the second fundus image is subjected to homography conversion, the feature points of the second fundus image are projected on another fundus image (ie, the first fundus image). With respect to the second fundus image, if the change before and after homography transformation does not satisfy the validity condition, the second fundus image is not registered and is not used to generate a wide-angle fundus image.

일 실시예에서, 상기 유효성 조건은 호모그래피 변환 전후의 영상 프레임의 면적 차이가 미리 설정된 임계치 미만일 경우에 충족되는 것으로 설정될 수도 있다. 상기 임계치는 호모그래피 변환 전/후의 영상 프레임의 픽셀 면적 차이로서 면적 변화량 자체 또는 면적 변화율일 수도 있다. 면적 변화율이 임계치로 사용될 경우, 상기 임계치는 대략 15% 내지 5%의 값으로 설정될 수도 있다. 예를 들어, 상기 임계치는 10%일 수도 있다. 그러면, 제2 안저영상의 호모그래피 변환 전/후의 차이가 10% 보다 클 경우 상기 제2 안저영상은 추가 정합 및 합성 대상에서 제외된다. In an embodiment, the validity condition may be set to be satisfied when a difference in area between image frames before and after homography transformation is less than a preset threshold. The threshold value is a pixel area difference of an image frame before/after homography conversion, and may be an area change amount itself or an area change rate. When the area change rate is used as a threshold, the threshold may be set to a value of approximately 15% to 5%. For example, the threshold may be 10%. Then, when the difference between before and after homography transformation of the second fundus image is greater than 10%, the second fundus image is excluded from the target of additional registration and synthesis.

그 결과, 3차원 구형 물체의 뷰 변환을 표현하기 위해 2차원 호모그래피를 적용하는 것의 부적절함 및 작은 중첩 또는 불충분한 텍스쳐로 인해 제한된 수의 특징점 매칭의 실패 등을 포함한, 정합의 부정확성을 야기하는 문제가 적어도 부분적으로 해소된다. As a result, inaccuracies of registration, including the inappropriateness of applying 2D homography to represent the view transformation of a 3D spherical object, and failure of matching a limited number of feature points due to small overlap or insufficient texture, etc. The problem is at least partially resolved.

다시 도 3및 도 4를 참조하면, 단계(S450)에서 혈관 마스크(또는 후처리된 혈관 마스크)에 기초하여 제1 안저영상과 제2 안저영상이 정합된다. Referring again to FIGS. 3 and 4 , the first fundus image and the second fundus image are matched based on the blood vessel mask (or the post-processed blood vessel mask) in step S450 .

일 실시예에서, 단계(S430)의 특징점 기반 정합 이후 재-정합을 위해, 상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합할 수도 있다(S450). In an embodiment, for re-registration after the feature point-based registration of step S430, the first and second fundus images are re-registered by deformable registration of the first and second blood vessel masks. It can also be matched (S450).

변형 정합(deformable registration)은 정합 대상을 자유롭게 변형 가능한 비선형 형태의 정합이다. 예를 들어, 직선의 정합 대상을 곡선, 사각형 또는 원형 등의 형태로 변형 가능할 수도 있다. Deformable registration is a non-linear form of registration in which a registration object can be freely deformed. For example, a matching target of a straight line may be deformable in a shape such as a curve, a rectangle, or a circle.

단계(S450)에서 사용되는 변형 정합 알고리즘은, 예를 들어, B-Spline 알고리즘을 포함할 수도 있다. B-Spline 알고리즘은 두 영상 간의 픽셀 유사도가 높아지는 방향으로 반복적으로 최적화하는 정합 알고리즘이다. 가장 높은 유사도를 갖게 하는 파라미터를 결정하여 최적화된 정합 결과를 산출한다. The transformation matching algorithm used in step S450 may include, for example, a B-Spline algorithm. The B-Spline algorithm is a matching algorithm that iteratively optimizes in the direction of increasing pixel similarity between two images. An optimized matching result is calculated by determining the parameter that has the highest similarity.

단계(S410)에서 전술한 바와 같이, 제1 혈관 마스크 및 제2 혈관 마스크가 분할 모델에 의해 생성된 경우, 변형 정합의 입력은 보다 정교하게 추출된 혈관 영역을 기반으로 수행된다. As described above in step S410 , when the first blood vessel mask and the second blood vessel mask are generated by the segmentation model, the deformation registration is performed based on the more precisely extracted blood vessel region.

예를 들어, 제1 혈관 마스크를 소스형상으로 제2 혈관 마스크를 타겟형상으로 사용하여 B-스플라인(B-Spline) 알고리즘을 적용하면, 제1 혈관 마스크의 하나 이상의 제어점을 추출하고 제1 혈관 마스크의 형상을 제2 혈관 마스크와의 픽셀 유사도롤 극대화하는 최적화 곡선을 갖도록 변형할 수도 있다. 그러면, 제1 혈관 마스크와 제2 혈관 마스크가 특징점 기반 정합 결과에 존재하는 오차들이 미세 조정되도록 재-정합될 수도 있다. For example, if the B-Spline algorithm is applied using the first blood vessel mask as the source shape and the second blood vessel mask as the target shape, one or more control points of the first blood vessel mask are extracted and the first blood vessel mask The shape of may be modified to have an optimization curve that maximizes the pixel similarity with the second blood vessel mask. Then, the first blood vessel mask and the second blood vessel mask may be re-registered so that errors present in the feature point-based registration result are finely adjusted.

도 7a 및 도 7 b는, 본 발명의 일 실시예에 따른, 혈관 마스크 기반 정합 결과를 도시한 도면이다. 7A and 7B are diagrams illustrating a blood vessel mask-based matching result according to an embodiment of the present invention.

도 7a를 참조하면, 단계(S450)에서 혈관 마스크를 변형 정합하여 특징점 기반의 정합 결과에서 존재하는 오류들을 미세 조정함으로써 보다 정교한 정합 결과를 획득할 수도 있다. Referring to FIG. 7A , a more sophisticated matching result may be obtained by performing deformation matching of the blood vessel mask in step S450 to fine-tune errors existing in the feature point-based matching result.

강체 정합만 수행될 경우 혈관의 일부는 정확하게 매칭되지 않을 수도 있다(S430). 예를 들어, 도 6a에 도시된 바와 같이, 특징점 기반 정합만을 수행한 경우에는 시신경 유두 부분에서 멀어질수록 정합이 상대적으로 정교하게 되지 않았을 수도 있다. 그러나, 도 7a에 도시된 바와 같이 변형 정합이 더 적용된 경우 제1 안저영상과 제2 안저영상이 비-강체 정합되어, 정교한 정합 결과를 획득할 수도 있다(S450).When only rigid body matching is performed, a portion of blood vessels may not be matched accurately (S430). For example, as shown in FIG. 6A , when only feature point-based matching is performed, as the distance from the optic nerve head increases, the matching may not be relatively precise. However, as shown in FIG. 7A , when deformation registration is further applied, the first fundus image and the second fundus image are non-rigidly registered, so that a precise registration result may be obtained ( S450 ).

그러면, 도 4에 도시된 바와 같이, 제1 안저영상과 제2 안저영상의 일부가 서로 중첩된 정합영상이 획득될 수도 있다. 또한 도 7 b에 도시된 바와 같이 미세 조정되도록 제1 안저영상과 제2 안저영상이 정합된 결과를 시각화한 정합영상을 획득할 수도 있다. Then, as shown in FIG. 4 , a registered image in which portions of the first fundus image and the second fundus image are overlapped with each other may be obtained. Also, as shown in FIG. 7B , a registered image that visualizes the result of matching the first fundus image and the second fundus image to be fine-tuned may be acquired.

이와 같은 특징점 기반 정합 및 변형 정합으로 이루어진 이단 정합을 통해 보다 정확한 정합영상을 얻을 수도 있다.A more accurate registered image may be obtained through two-stage registration consisting of such feature point-based registration and deformation registration.

또한, 상기 정합 방법은 (예컨대, 합성부(500)에 의해) 광각 안저영상을 생성하기 위해, 정합된 안저영상들을 합성하는 단계(S500)를 포함한다. 단계(S450)의 정합 결과에 기초하여 단계(S400)에서 정합에 사용된 상기 제1 안저영상 및 제2 안저영상이 부분적으로 중첩된 단일 영상으로 합성된다(S500). 상기 합성된 단일 영상은 합성된 제1 안저영상 또는 제2 안저영상의 영상 프레임 보다 확장된 영상 프레임을 가진다. 이로 인해, 단일 안저영상의 촬영영역 보다 더 넓은 뷰를 갖는, 합성영상이 생성된다(S500). In addition, the registration method includes a step ( S500 ) of synthesizing registered fundus images to generate a wide-angle fundus image (eg, by the synthesizing unit 500 ). Based on the registration result of step S450, the first fundus image and the second fundus image used for registration in step S400 are synthesized into a partially overlapping single image (S500). The synthesized single image has an image frame that is larger than the image frame of the synthesized first fundus image or the second fundus image. Due to this, a composite image having a wider view than a photographing area of a single fundus image is generated (S500).

도 4에 도시된 바와 같이, 단계(S500)의 합성 영상은 제1 안저영상과 제2 안저영상의 중첩 부분 및 그 이외의 부분으로 이루어진다. As shown in FIG. 4 , the synthesized image in step S500 includes an overlapping portion of the first fundus image and the second fundus image and other portions.

일 실시예에서, 상기 광각 안저영상을 생성하기 위한 제1 안저영상과 제2 안저영상을 합성하는 단계는: B-스플라인 최적화 이후, 혈관 마스크의 정합으로부터의 변위 벡터(displacement vector)를 산출하는 단계; 및 산출된 변위 벡터를 제1 안저영상 또는 제2 안저영상에 적용하는 단계를 포함할 수도 있다. 변위 벡터의 적용으로 인해 포토 몽타주가 확장된다. 상기 변위 벡터는 합성의 소스영상(예컨대, 제1 안저영상)과 합성의 타겟 영상(예컨대, 제2 안저영상)가 지정되면, 소스형상(예컨대, 제1 혈관 마스크)과 타겟형상(예컨대, 제2 혈관 마스크)의 각 지점들 간의 거리들의 합을 최소하는 파라미터에 대응할 수도 있다. In an embodiment, the step of synthesizing the first fundus image and the second fundus image for generating the wide-angle fundus image includes: after B-spline optimization, calculating a displacement vector from the registration of the vascular mask ; and applying the calculated displacement vector to the first fundus image or the second fundus image. The photomontage is expanded due to the application of the displacement vector. When the source image of the synthesis (eg, the first fundus image) and the target image of the synthesis (eg, the second fundus image) are specified, the displacement vector includes the source shape (eg, the first blood vessel mask) and the target shape (eg, the second fundus image). 2 may correspond to a parameter that minimizes the sum of distances between points of the blood vessel mask).

상기 변위 벡터는 소스영상의 에지형상에 대한 타겟영상의 에지형상의 거리 변환(Distance Transform, DT) 상의 탐색을 통해 산출될 수도 있다. 예를 들어, 소스영상의 에지형상에 대해 대상영상의 타겟형상을 거리맵 상에서 픽셀단위로 옮기면서 각 지점에서의 거리의 합을 각각 산출함으로써, 거리의 합이 최소가 되는 파라미터를 산출할 수도 있다. The displacement vector may be calculated through a search on a distance transform (DT) of the edge shape of the target image with respect to the edge shape of the source image. For example, a parameter that minimizes the sum of distances may be calculated by calculating the sum of distances at each point while moving the target shape of the target image in pixel units on the distance map with respect to the edge shape of the source image.

단계(S500)에서 생성된 합성영상이 사용자에게 제공될 수도 있다. The synthesized image generated in step S500 may be provided to the user.

일 실시예에서, 상기 단계(S500)는: 제1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화하는 단계를 포함할 수도 있다. In an embodiment, the step S500 may include: minimizing a difference in image specification between the first fundus image and the second fundus image.

상기 영상 사양은 영상 프레임에 나타난 외관(appearance)의 세기, 색상, 및/또는 대비(contrast)를 포함한다. 외부 광의 색상 세기(intensity), 산란, 눈꺼풀의 열림 등을 포함한, 안저영상에 영향을 미치는 촬영 요소의 변화로 인해 영상 프레임별로 개별적인 영상 사양을 가진다. 때문에, 몽타주를 위해 추가로 합성될 영상(즉, 제2 안저영상)과 기존의 영상(즉, 제1 안저영상) 간의 영상 사양을 다를 수도 있다. 서로 다른 영상 사양을 갖는 안저영상이 정합되면, 중첩되는 영역은 서로 다른 픽셀 값을 가진다. 이를 해결하기 위해, 영상 사양의 차이가 최소화된다(S500). The image specification includes intensity, color, and/or contrast of an appearance presented in an image frame. Each image frame has individual image specifications due to changes in imaging factors affecting the fundus image, including color intensity, scattering, and eyelid opening of external light. Therefore, the image specification between the image to be additionally synthesized for montage (ie, the second fundus image) and the existing image (ie, the first fundus image) may be different. When fundus images having different image specifications are matched, overlapping regions have different pixel values. To solve this, the difference in image specifications is minimized (S500).

일 실시예에서, 상기 제1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화하는 단계는: 정합으로 중첩된 영역의 주변의 색상왜곡을 제거하기 위해, 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀은 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계를 포함할 수도 있다. In an embodiment, the step of minimizing the difference in image specification between the first fundus image and the second fundus image includes: to remove color distortion around the overlapped region by registration, the first fundus image The method may include transforming the pixels of the second fundus image corresponding to the pixels of to have the same intensity or color.

각 영상 간의 대응하는 픽셀 관계는 상기 대응하는 픽셀은 정합영상의 픽셀 좌표를 기준으로 결정된다. 단계(S500)에서는 대응하는 픽셀은 재-정합영상의 픽셀 좌표를 기준으로 결정된다. The corresponding pixel relationship between the respective images is determined based on the pixel coordinates of the corresponding pixel of the registered image. In step S500, the corresponding pixel is determined based on the pixel coordinates of the re-registered image.

그러면, 변형된 픽셀로 이루어진, 색상왜곡이 제거된 중첩 영역을 포함한 합성영상이 단일 영상으로 생성될 수도 있다. Then, a composite image including an overlapping region from which color distortion is removed, which is made of transformed pixels, may be generated as a single image.

일 실시예에서, 상기 제1 안저영상과 제2 안저영상의 중첩 영역 및 경계에서 다중 해상도 스플라인 기법을 사용하여 1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화할 수도 있다. In an embodiment, a difference in image specification between the first fundus image and the second fundus image may be minimized by using a multi-resolution spline technique in the overlap region and boundary of the first fundus image and the second fundus image. .

상기 다중 해상도 스플라인 기법은 제1 안저영상과 제2 안저영상의 쌍의 중심 주변의 가중치들을 부여한 다음 가우시안 필터 및 라플라시안 필터를 적용하여 영상 프레임의 각 레이어 간의 영상 세기의 차이를 최소화할 수도 있다. 그러면, 도 4에 도시된 바와 같이, 영상 세기(intensity)의 차이가 제거된 광각 안저영상이 획득된다. The multi-resolution spline technique may minimize the difference in image intensity between layers of an image frame by applying weights around the center of the pair of the first fundus image and the second fundus image, and then applying a Gaussian filter and a Laplacian filter. Then, as shown in FIG. 4 , a wide-angle fundus image from which a difference in image intensity is removed is obtained.

도 8a 및 도 8b는, 본 발명의 일 실시예에 따른, 색상왜곡을 제거한 정합 영상을 도시한 도면이다.8A and 8B are diagrams illustrating a matched image from which color distortion is removed, according to an embodiment of the present invention.

특징점 기반 정합영상에 정합 부분은 특징점 부분이다. 혈관의 특징점이 사용된 경우, 정합 부분은 혈관 부분을 포함한다. 제1 및 제2 안저영상의 색상 또는 세기가 상이한 경우, 도 8a에 도시된 바와 같이, 정합부분의 주변의 픽셀이 단일 색상 또는 세기로 보정된 정합영상을 획득할 수도 있다. In the feature point-based registered image, the registration part is the feature point part. Where a feature point of a blood vessel is used, the mating portion includes a blood vessel portion. When the color or intensity of the first and second fundus images is different, as shown in FIG. 8A , a registered image in which pixels around the matching portion are corrected to a single color or intensity may be obtained.

혈관 기반 정합영상에서 정합 부분은 추출된 혈관 영역이다. 제1 및 제2 안저영상의 색상 또는 세기가 상이한 경우, 도 8b에 도시된 바와 같이, 정합부분의 주변의 픽셀이 단일 색상 또는 세기로 보정된 정합영상을 획득할 수도 있다. In the blood vessel-based registration image, the registration part is the extracted blood vessel region. When the color or intensity of the first and second fundus images is different, as shown in FIG. 8B , a registered image in which pixels around the matching portion are corrected to a single color or intensity may be obtained.

이러한 영상 사양의 차이를 제거한 결과, 정합부분이 단일 영상으로 통일성을 갖는 광각 안저영상을 제공할 수도 있다(S500).As a result of removing the difference in image specifications, it is possible to provide a wide-angle fundus image in which the matching portion has unity as a single image (S500).

상기 단계(S400) 및 단계(S500)는 다음 정합 순위를 갖는 안저영상 및 이미 생성된 합성영상에 대해 반복하여 수행된다. 유효성 검증을 통과하지 못한 안저영상이 존재하지 않는 한, 단계(S100)에서 획득된 복수의 안저영상 전체에 대해서 정합 순서에 따라 단계(S400) 및 단계(S500)가 반복 수행된다. The steps (S400) and (S500) are repeatedly performed for the fundus image having the next matching rank and the already generated synthetic image. As long as there is no fundus image that has not passed the validation, steps S400 and S500 are repeatedly performed according to the matching sequence for all the plurality of fundus images obtained in step S100.

예를 들어, 초기 안저영상이 선택되면, 제1 그룹 내 정합 순위로부터 제4 그룹 내 정합 순위에 따라 나머지 안저영상이 합성되고, 최종 광각 안저영상이 생성된다. For example, when the initial fundus image is selected, the remaining fundus images are synthesized according to the registration order in the fourth group from the registration order in the first group, and a final wide-angle fundus image is generated.

대안적인 실시예들에서, 상기 이미 합성된 광각 안저영상에 추가될 다른 안저영상은 다른 그룹 내 안저영상들을 정합하여 합성한 서브 광각 안저영상일 수도 있다. 예를 들어, 제1 그룹 내 안저영상들을 정합하여 제1 서브 광각 안저영상을 생성하고, 제2 그룹 내 안저영상들을 정합하여 제2 서브 광각 안저영상을 생성하면, 상기 제1 서브 광각 안저영상과 제2 서브 광각 안저영상을 정합하여 보다 확장된 광각 안저영상을 생성할 수도 있다. In alternative embodiments, another fundus image to be added to the already synthesized wide-angle fundus image may be a sub-wide-angle fundus image synthesized by matching fundus images in other groups. For example, when a first sub wide-angle fundus image is generated by matching fundus images in a first group and a second sub wide-angle fundus image is generated by registering fundus images in a second group, the first sub wide-angle fundus image and A more expanded wide-angle fundus image may be generated by registering the second sub-wide-angle fundus image.

이 경우, 제1 서브 광각 안저영상과 제2 서브 광각 안저영상의 정합 및 합성은 각 서브 광각 안저영상 전체를 통해 수행되거나, 또는 각 서브 광각 안저영상 중 하나의 안저영상을 통해 수행될 수도 있다. 예를 들어, 제1 서브 광각 안저영상과 제2 서브 광각 안저영상을 정합 및 합성할 경우, 제2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상과 제1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상이 사용될 수도 있다. In this case, the registration and synthesis of the first sub-wide-angle fundus image and the second sub-wide-angle fundus image may be performed through the entire sub-wide-angle fundus image, or may be performed through one fundus image among each of the sub-wide-angle fundus images. For example, when registering and synthesizing the first sub-wide-angle fundus image and the second sub-wide-angle fundus image, the first ?? The fundus image and the last fundus image having the lowest matching rank in the first group may be used.

도 9 및 도 10은, 도 3의 방법에 따른 최종 광각 안저영상의 생성 결과를 도시한다. 9 and 10 illustrate a result of generating a final wide-angle fundus image according to the method of FIG. 3 .

도 9 및 도 10은 서로 다른 안저영상의 세트로부터 생성된 광각 안저영상이다. 도 9 및 도 10에 도시된 바와 같이, 상기 도 3의 방법에 따르면 전 영역에서 정확하게 정합된 광각 안저영상이 생성된다. 9 and 10 are wide-angle fundus images generated from different sets of fundus images. 9 and 10 , according to the method of FIG. 3 , a wide-angle fundus image accurately matched in the entire area is generated.

이상에서 설명한 실시예들에 따른 장치 및 안저영상 정합 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. According to the embodiments described above The operation by the apparatus and the fundus image matching method may be at least partially implemented as a computer program and recorded in a computer-readable recording medium. For example, embodied with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor for performing any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be incorporated into or may be a computing device such as a desktop computer, laptop computer, notebook, smart phone, or the like. A computer is a device having one or more alternative and special purpose processors, memory, storage, and networking components (either wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, an operating system such as Apple OS X or iOS, a Linux distribution, or Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording identification devices in which computer-readable data is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage identification device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment may be easily understood by those skilled in the art to which the present embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention as described above has been described with reference to the embodiments shown in the drawings, it will be understood that these are merely exemplary and that various modifications and variations of the embodiments are possible therefrom by those of ordinary skill in the art. However, such modifications should be considered to be within the technical protection scope of the present invention. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

본 발명의 일 측면에 따른 안저영상 정합 방법은 4차 산업 기술 중 하나인 기계 학습(machine learning)을 이용하여 a) 혈관 영역을 추출할 수도 있다. In the fundus image registration method according to an aspect of the present invention, a) a blood vessel region may be extracted using machine learning, which is one of the fourth industrial technologies.

안저 변화를 검출함에 있어서, 별도의 레이저 스캔 장치를 요구하지 않고, 전술한 과정을 통해 안저 카메라(fundus camera)를 이용하여 쉽게 광각 안저영상을 획득할 수 있다. 안저 카메라는 침습적인 처치가 필요하지 않고 방사선을 사용하지 않을 뿐만 아니라 촬영 시간이 수 분 이내로 짧다. 이러한 안저 카메라를 이용한 안저 검사는 비용이 매우 저렴하다(현재 보험수가 7990원, 일반수가 20770원)이다. 또한, 안저 카메라는 거의 모든 안과의원 및 안과병원에 보급되어 있을 뿐만 아니라 다수의 검진센터들도 보유하고 있어, 접근성, 보급성이 뛰어나다. In detecting the fundus change, a wide-angle fundus image can be easily obtained using a fundus camera through the above-described process without requiring a separate laser scanning device. The fundus camera does not require invasive treatment, does not use radiation, and has a short imaging time of less than a few minutes. Fundus examination using such an fundus camera is very inexpensive (currently, 7,990 won for insurance, 20,770 won for general). In addition, fundus cameras are not only distributed to almost all ophthalmology clinics and ophthalmology hospitals, but also have a number of examination centers, so accessibility and dissemination are excellent.

이러한 장점을 갖는 안저 사진 촬영을 이용하여 광각 안저영상을 생성할 수 있다면 안저 변화에 관련된 다양한 안구 질환을 판독하는 것을 지원할 수 있어, 획기적인 발전을 이룰 것으로 예상된다. If a wide-angle fundus image can be generated using fundus photography having these advantages, it is possible to support reading of various eye diseases related to fundus changes, and it is expected to achieve a breakthrough.

Claims (20)

프로세서를 포함한 컴퓨팅 장치에 의해 수행되는, 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법에 있어서,
대상자의 안구를 촬영한 상기 복수의 안저영상을 획득하는 단계 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨;
상기 복수의 안저영상의 제1 안저영상을 제2 안저영상과 정합하는 단계; 및
광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
A method of registering a plurality of fundus images to generate a wide-angle fundus image, performed by a computing device including a processor, the method comprising:
acquiring the plurality of fundus images obtained by photographing the eyeballs of the subject, wherein at least one fundus image among the plurality of fundus images partially overlaps with at least one other fundus image;
matching a first fundus image of the plurality of fundus images with a second fundus image; and
and generating a composite image in which at least a partial region of the first fundus image and at least a part of the second fundus image overlap, based on a re-registration result, to generate a wide-angle fundus image.
제1항에 있어서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계는,
영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계;
상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및
샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함하는 것을 특징으로 하는 방법.
According to claim 1, wherein the step of matching the first fundus image and the second fundus image based on the feature points of the first and second fundus images,
extracting at least one feature point from the first and second fundus images through a feature descriptor for extracting features that are invariant to the size and rotation of the image;
sampling at least one of the feature points extracted from the first and second fundus images; and
Method comprising the step of rigid body registration of the first and second fundus images based on the sampled feature points.
제1항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
상기 제1 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및
혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함하고,
상기 분할 모델은,
혈관 영역의 특성에 기초하여 학습된 모델로서, 입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of the first blood vessel mask from the first fundus image comprises:
extracting a blood vessel shape of at least a portion of the first fundus image using a segmentation model based on region characteristics in the first fundus image; and
creating a vascular mask having a shape corresponding to the vascular region;
The split model is
As a model learned based on the characteristics of the blood vessel region, a method characterized in that it is learned to output the blood vessels in the input image as a vessel probability map.
제3항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계;
이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및
밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 3, wherein the generating of the first blood vessel mask from the first fundus image comprises:
generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel region;
detecting a valley between a blood vessel and an external boundary by inverting the image including the binarized blood vessel mask; and
and filling the interior of the valley such that the interior of the valley represents the blood vessel.
제1항에 있어서, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 단계는,
상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein re-registering the first fundus image and the second fundus image based on the first and second blood vessel masks comprises:
and re-registering the first fundus image and the second fundus image by deformable registration of the first blood vessel mask and the second blood vessel mask.
제1항에 있어서, 상기 광각 안저영상을 생성하는 단계는,
재-정합 영상을 기준으로 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀이 상기 제1 안저영상의 픽셀과 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계; 및
상기 변형된 픽셀로 이루어진 영역을 포함한 광각 안저영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of the wide-angle fundus image comprises:
transforming a pixel of a second fundus image corresponding to a pixel of the first fundus image to have the same intensity or color as a pixel of the first fundus image based on the re-registration image; and
and generating a wide-angle fundus image including a region made of the deformed pixels.
제1항에 있어서, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하는 단계는,
복수의 제1 안저영상이 획득된 경우, 각각의 제1 안저영상의 특징점에 기초하여 상기 복수의 제1 안저영상을 정합하는 단계;
안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상에서 제1 영역의 적어도 일부의 혈관 형상을 추출하는 단계; 및
상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of a first blood vessel mask representing at least a portion of a blood vessel in the first region comprises:
when a plurality of first fundus images are acquired, matching the plurality of first fundus images based on feature points of each first fundus image;
extracting a blood vessel shape of at least a portion of a first region from the first fundus image using a segmentation model based on region characteristics within the fundus image; and
and generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images.
제7항에 있어서, 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계는,
복수의 제1 안저영상의 추출된 혈관 형상을 비강체 정합하는 단계; 및
정합된 복수의 혈관 형상에 기초하여 상기 제1 혈관 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 7, wherein the generating of the first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images comprises:
Non-rigid body registration of the extracted blood vessel shapes of the plurality of first fundus images; and
and generating the first vascular mask based on a plurality of matched vascular shapes.
제8항에 있어서, 상기 비강체 정합하는 단계는,
서로 다른 두 개의 제1 안저영상의 혈관 확률맵에서 픽셀별(pixel-wise) 유사도가 높아지는 방향으로 정합하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the non-rigid matching step comprises:
A method characterized in that matching is performed in a direction in which pixel-wise similarity increases in two different blood vessel probability maps of the first fundus image.
제1항에 있어서, 상기 방법은:
상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하여 상기 시신경 유두 및 중심와 중 적어도 하나의 위치를 산출하는 단계;
상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계; 및
적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계;를 더 포함하고,
상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계는 각 그룹에 포함된 안저영상들이 전부 정합될 때까지 반복되며,
상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계에서 상기 제1 안저영상은 초기 안저영상 또는 이미 생성된 합성영상이고 상기 제2 안저영상은 현재의 정합 순위를 갖는 안저영상인 것을 특징으로 하는 방법.
The method of claim 1 , wherein the method comprises:
calculating a position of at least one of the optic disc and fovea by detecting at least one of an optic disc and a fovea from the plurality of fundus images before matching the plurality of fundus images;
classifying the plurality of fundus images into a plurality of groups according to whether the optic nerve papilla and the fovea are detected; and
For at least one group, assigning a matching rank within the group to the fundus image for each group; further comprising,
The steps of registering the first and second fundus images and generating a composite image are repeated until all fundus images included in each group are registered,
In the step of registering the first and second fundus images and generating a synthesized image, the first fundus image is an initial fundus image or an already generated synthetic image, and the second fundus image is a fundus image having a current registration order. How to characterize.
제10항에 있어서, 상기 시신경 유두 및 중심와 중 적어도 하나를 검출하여 위치를 산출하는 단계는,
딥러닝 모델을 사용해서 입력된 안저영상의 영상 프레임에서 시신경 유두 및 중심와 중 적어도 하나를 검출하고,
상기 딥러닝 모델은:
다수의 컨볼루션 레이어를 포함하며 컨볼루션 특징맵을 출력하는 공유 컨볼루션 네트워크;
입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측하는 지역 지정 네트워크; 및
풀링 레이어 및 완전연결 레이어를 포함하며 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터에 기초하여 상기 관심지역에서 시신경 유두 또는 중심와를 검출하는 객체 검출 네트워크를 포함하는 것을 특징으로 하는 방법.
The method of claim 10, wherein the step of calculating the position by detecting at least one of the optic nerve head and fovea comprises:
Detect at least one of the optic nerve papilla and fovea from the image frame of the fundus image input using a deep learning model,
The deep learning model is:
a shared convolutional network including a plurality of convolutional layers and outputting a convolutional feature map;
a regional designation network that generates an intermediate feature map by applying a sliding window method to the input convolutional feature map, and predicts a region of interest in which a candidate object is likely to be located based on the intermediate feature map; and
A method comprising a pooling layer and a fully connected layer and comprising an object detection network that detects the optic disc or fovea in the region of interest based on a feature vector for the region of interest in the image frame initially input to the detection model.
제10항에 있어서, 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계는:
상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계;
상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계;
상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및
상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계 중 적어도 하나의 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 10, wherein classifying the plurality of fundus images into a plurality of groups comprises:
classifying the fundus images in which both the optic nerve papilla and the fovea are detected into a first group;
classifying the fundus image in which only the optic nerve head is detected into a second group;
classifying the fundus image in which only the fovea is detected into a third group; and
and at least one of classifying a fundus image in which both the optic nerve head and fovea are not detected into a fourth group.
제12항에 있어서, 상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는:
상기 제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상을 선택하는 단계; 및
상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함하고,
상기 제1 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고,
상기 제2 그룹의 안저영상들에 대한 제2 그룹 내 정합 순위는 제2 그룹의 기준 안저영상의 시신경 유두와 제2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고,
상기 제3 그룹의 안저영상들에 대한 제3 그룹 내 정합 순위는 제3 그룹의 기준 안저영상의 시신경 유두와 제3 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되는 것을 특징으로 하는 방법.
13. The method of claim 12, wherein the allocating the matching rank within the group to the fundus image for each group comprises:
selecting each reference fundus image for each group with respect to at least one of the first to third groups; and
Allocating a matching rank within the group to the fundus image for each group by using the reference fundus image,
The first group matching order for the fundus images of the first group is assigned based on the distance between the optic nerve head of the first group reference fundus image and another fundus image in the first group,
The matching order within the second group for the fundus images of the second group is assigned based on the distance between the optic nerve head of the reference fundus image of the second group and another fundus image in the second group,
The third group matching order for the fundus images of the third group is assigned based on a distance between the optic nerve head of the third group reference fundus image and another fundus image in the third group.
제13항에 있어서,
상기 제1 그룹 또는 제2 그룹의 기준 안저영상은 각 안저영상의 검출된 시신경 유두의 위치가 영상 프레임의 중심의 위치에 가장 가까운 것을 특징으로 하는 방법.
14. The method of claim 13,
In the reference fundus image of the first group or the second group, the position of the optic nerve head detected in each fundus image is the closest to the position of the center of the image frame.
제13항에 있어서,
상기 제3 그룹의 기준 안저영상은 상기 제3 그룹 내 각 안저영상의 검출된 중심와의 위치가 영상 중심의 위치에 가장 가까운 것을 특징으로 하는 방법.
14. The method of claim 13,
In the reference fundus image of the third group, the position of the detected fovea of each fundus image in the third group is the closest to the position of the image center.
제12항에 있어서,
상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는:
상기 제4 그룹별 안저영상에 대해 제4 그룹 내 정합 순위를 할당하는 단계를 포함하고,
상기 제4 그룹 내 정합 순위는 상기 제4 그룹 내 각 안저영상의 특징점이 상기 제1 안저영상의 특징점에 매칭하는 정도에 기초하여 할당되는 것을 특징으로 하는 방법.
13. The method of claim 12,
Allocating the matching rank within the group to the fundus image for each group includes:
Allocating a matching rank within a fourth group to the fundus image for each fourth group,
The fourth group matching order is a method characterized in that the allocation based on the degree to which the feature points of each fundus image in the fourth group match the feature points of the first fundus image.
제12항에 있어서,
그룹 간의 정합 순위를 설정하는 단계를 더 포함하고,
상기 그룹 간의 정합 순위는 상기 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 상기 제1 그룹, 상기 제3 그룹, 상기 제2 그룹 및 제4 그룹의 순서로 설정되는 것을 특징으로 하는 방법.
13. The method of claim 12,
Further comprising the step of setting a matching rank between groups,
The matching order between the groups is set in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group how to do it
컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제17항 중 어느 하나의 항에 따른 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
18. A computer-readable medium readable by a computing device and storing program instructions operable by the computing device, wherein when the program instructions are executed by a processor of the computing device, the processor A computer-readable recording medium for performing a method of registering a plurality of fundus images to generate a wide-angle fundus image according to any one of claims.
안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨;
제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하고, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하고, 상기 2 영역 내 혈관의 적어도 일부를 나타낸 제2 혈관 마스크를 생성하며, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 정합부; 및
광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 합성부를 포함하는 장치.
an image acquisition unit for acquiring a plurality of fundus images taken by a fundus camera, wherein at least one fundus image among the plurality of fundus images partially overlaps with at least one other fundus image;
The first fundus image and the second fundus image are matched based on the feature points of the first and second fundus images, a first blood vessel mask representing at least a part of blood vessels in the first region is generated, and a registration unit generating a second blood vessel mask representing at least a portion, and re-registering the first fundus image and the second fundus image based on the first and second blood vessel masks; and
An apparatus comprising: a synthesizer configured to generate a composite image in which at least a partial region of a first fundus image and at least a part of the second fundus image overlap, based on a re-registration result, to generate a wide-angle fundus image.
안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨;
상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하고, 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하고, 그리고 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 분류부;
각 그룹에 포함된 안저영상들에 대해서, 해당 그룹 내 정합 순위에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상과 정합하는 정합부; 및
광각 안저영상을 생성하기 위해, 정합 결과에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상으로부터 새로운 합성영상을 생성하는 합성부를 포함하는 것을 특징으로 하는 장치.
an image acquisition unit for acquiring a plurality of fundus images taken by a fundus camera, wherein at least one fundus image among the plurality of fundus images partially overlaps with at least one other fundus image;
Before registering the plurality of fundus images, at least one of an optic disc and a fovea is detected in the plurality of fundus images, and the plurality of fundus images are detected according to whether the optic nerve disc and fovea are detected. a classification unit for classifying into a plurality of groups, and assigning, to at least one group, a matching rank within the corresponding group to the fundus image for each corresponding group;
For the fundus images included in each group, a matching unit that matches the fundus image having the current registration order with the synthesized image generated by matching at least one fundus image up to the previous registration order based on the registration order within the group ; and
In order to generate a wide-angle fundus image, based on the registration result, the fundus image having the current registration order is matched with at least one fundus image up to the previous registration order. Device characterized in that.
KR1020210069167A 2020-06-12 2021-05-28 Method for registrating fundus images to generate wide angle fundus image and device performing the same KR102575371B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200071893 2020-06-12
KR20200071893 2020-06-12

Publications (2)

Publication Number Publication Date
KR20210154732A true KR20210154732A (en) 2021-12-21
KR102575371B1 KR102575371B1 (en) 2023-09-08

Family

ID=79165667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210069167A KR102575371B1 (en) 2020-06-12 2021-05-28 Method for registrating fundus images to generate wide angle fundus image and device performing the same

Country Status (1)

Country Link
KR (1) KR102575371B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024112107A1 (en) * 2022-11-23 2024-05-30 (주)휴톰 Blood vessel segmentation device and method based on artificial intelligence model

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
KR101761510B1 (en) 2016-05-27 2017-07-26 이화여자대학교 산학협력단 Apparatus and method for generating fundus image filters for vascular visualization of fundus image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device
KR20200057563A (en) * 2018-11-16 2020-05-26 서울여자대학교 산학협력단 Method, device and program for lung image registration for histogram analysis of lung movement and method and program for analysis of registered lung image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
KR101761510B1 (en) 2016-05-27 2017-07-26 이화여자대학교 산학협력단 Apparatus and method for generating fundus image filters for vascular visualization of fundus image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device
KR20200057563A (en) * 2018-11-16 2020-05-26 서울여자대학교 산학협력단 Method, device and program for lung image registration for histogram analysis of lung movement and method and program for analysis of registered lung image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024112107A1 (en) * 2022-11-23 2024-05-30 (주)휴톰 Blood vessel segmentation device and method based on artificial intelligence model

Also Published As

Publication number Publication date
KR102575371B1 (en) 2023-09-08

Similar Documents

Publication Publication Date Title
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
US12125261B2 (en) Systems and methods for probabilistic segmentation in anatomical image processing
US20240119719A1 (en) Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
JP6333265B2 (en) Multiple bone segmentation method for 3D computed tomography
KR20210048523A (en) Image processing method, apparatus, electronic device and computer-readable storage medium
EP3462373A1 (en) Automated classification and taxonomy of 3d teeth data using deep learning methods
KR102250694B1 (en) Method and device for predicting disease using segmentating vessel in eye image
JP6842481B2 (en) 3D quantitative analysis of the retinal layer using deep learning
US20180247414A1 (en) Method, apparatus and system for analyzing medical images of blood vessels
CN108985210A (en) A kind of Eye-controlling focus method and system based on human eye geometrical characteristic
KR102250688B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
JP7410619B2 (en) Image processing device, image processing method and program
Giachetti et al. Multiresolution localization and segmentation of the optical disc in fundus images using inpainted background and vessel information
KR102250689B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
CN109816665B (en) Rapid segmentation method and device for optical coherence tomography image
CN113011450A (en) Training method, training device, recognition method and recognition system for glaucoma recognition
KR102575371B1 (en) Method for registrating fundus images to generate wide angle fundus image and device performing the same
Rivas-Villar et al. Joint keypoint detection and description network for color fundus image registration
Wang et al. Optic disc detection based on fully convolutional neural network and structured matrix decomposition
CN112950577A (en) Image processing method, image processing device, electronic equipment and storage medium
KR102575370B1 (en) Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same
Zhou et al. Segmentation of optic disc in retinal images using an improved gradient vector flow algorithm
CN116030042A (en) Diagnostic device, method, equipment and storage medium for doctor's diagnosis
CN112862785A (en) CTA image data identification method, device and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right