KR102477694B1 - A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same - Google Patents
A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same Download PDFInfo
- Publication number
- KR102477694B1 KR102477694B1 KR1020220079770A KR20220079770A KR102477694B1 KR 102477694 B1 KR102477694 B1 KR 102477694B1 KR 1020220079770 A KR1020220079770 A KR 1020220079770A KR 20220079770 A KR20220079770 A KR 20220079770A KR 102477694 B1 KR102477694 B1 KR 102477694B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- eye
- edema
- prediction model
- eyelid
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 160
- 208000003084 Graves Ophthalmopathy Diseases 0.000 title claims abstract description 33
- 210000000744 eyelid Anatomy 0.000 claims abstract description 175
- 206010030113 Oedema Diseases 0.000 claims abstract description 120
- 206010015993 Eyelid oedema Diseases 0.000 claims abstract description 70
- 206010051625 Conjunctival hyperaemia Diseases 0.000 claims abstract description 69
- 206010010726 Conjunctival oedema Diseases 0.000 claims abstract description 65
- 206010015150 Erythema Diseases 0.000 claims description 90
- 230000000873 masking effect Effects 0.000 claims description 71
- 230000011218 segmentation Effects 0.000 claims description 44
- 210000001685 thyroid gland Anatomy 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 17
- 231100000321 erythema Toxicity 0.000 claims description 16
- 230000000694 effects Effects 0.000 abstract description 57
- 210000001508 eye Anatomy 0.000 description 911
- 238000007781 pre-processing Methods 0.000 description 164
- 238000011156 evaluation Methods 0.000 description 85
- 210000000795 conjunctiva Anatomy 0.000 description 81
- 238000012549 training Methods 0.000 description 69
- 230000008569 process Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 27
- 210000005252 bulbus oculi Anatomy 0.000 description 26
- 210000004087 cornea Anatomy 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 24
- 238000013473 artificial intelligence Methods 0.000 description 20
- 230000008961 swelling Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 13
- 208000024891 symptom Diseases 0.000 description 12
- 238000012706 support-vector machine Methods 0.000 description 10
- 238000002372 labelling Methods 0.000 description 9
- 208000002193 Pain Diseases 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 210000001519 tissue Anatomy 0.000 description 7
- 230000002497 edematous effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 208000030533 eye disease Diseases 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 206010015237 Erythema of eyelid Diseases 0.000 description 4
- 208000032443 Masked facies Diseases 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 206010047571 Visual impairment Diseases 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000002269 spontaneous effect Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 206010014801 endophthalmitis Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 208000011727 retrobulbar pain Diseases 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 210000004175 meibomian gland Anatomy 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/145—Arrangements specially adapted for eye photography by video means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/42—Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
- A61B5/4222—Evaluating particular parts, e.g. particular organs
- A61B5/4227—Evaluating particular parts, e.g. particular organs endocrine glands, i.e. thyroid, adrenals, hypothalamic, pituitary
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Ophthalmology & Optometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Software Systems (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Urology & Nephrology (AREA)
- Endocrinology (AREA)
- Gastroenterology & Hepatology (AREA)
Abstract
Description
본 발명은 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템에 관한 것이다.The present invention relates to a method for guiding visits to the hospital for treatment of active thyroid ophthalmopathy and a system for performing the same.
안질환은 안구 및 이를 둘러싸고 있는 주변부에 발생하는 질병이다. 안질환은 전 세계적으로 많은 사람들에게 발병되고 있으며, 심각한 경우 시력 손상을 유발하는 등 생활에 큰 불편함을 야기하는 질병이므로, 안질환의 발생 여부 또는 정도에 대한 모니터링이 필요하다.BACKGROUND OF THE INVENTION Ophthalmic diseases are diseases that occur in the eyeball and the periphery surrounding it. Since eye diseases are occurring to many people around the world and cause great inconvenience in daily life, such as causing visual impairment in serious cases, it is necessary to monitor the occurrence or degree of eye diseases.
한편, 안질환은 다른 질병으로 인해 유발되는 여러 합병증 중 하나일 수 있다. 예컨대, 갑상선 기능 이상으로 인해 유발되는 합병증으로 갑상선 눈병증이 있다.Meanwhile, an eye disease may be one of several complications caused by other diseases. For example, there is thyroid ophthalmopathy as a complication caused by abnormal thyroid function.
갑상선 안병증이 심해지는 경우, 안구가 돌출되어 수술을 하지 않으면 치료를 할 수 없게 되어 조기에 갑상선 안병증을 진단하는 것이 갑상선 안병증의 치료에 매우 중요하다. 그러나, 갑상선 안병증은 전조증상이 뚜렷하게 나타나지 않아 조기 진단에 어려움이 있어, 의학계에서는 1989년부터 제안되어 온 임상활동점수(Clinical Activity Score, CAS)를 통해 평가하는 방법을 통해 갑상선 안병증은 조기에 진단하기 위한 노력을 기울이고 있다.When thyroid eye disease becomes severe, it is very important to diagnose thyroid eye disease early because the eyeball protrudes and cannot be treated without surgery. However, thyroid ophthalmopathy is difficult to diagnose early because there are no clear prognostic symptoms. In the medical world, the clinical activity score (CAS), which has been proposed since 1989, is used to evaluate thyroid ophthalmopathy at an early stage. Efforts are being made to diagnose.
갑상선 안병증에 대한 임상활동점수를 판단함에 있어서 총 7가지 항목이 고려되며, 고려되는 총 7가지 항목은 1) 구후부의 자발적인 통증 (Spontaneous retrobulbar pain), 2) 안구운동 시 통증 (Pain on attempted upward or downward gaze), 3) 눈꺼풀의 발적 (Redness of eyelid), 4) 결막의 충혈 (Redness of conjunctiva), 5) 눈꺼풀의 부종 (Swelling of eyelid), 6) 결막의 부종 (Swelling of conjunctiva), 및 7) 눈물언덕의 부종 (Swelling of lacrimal caruncle)이다.A total of 7 items are considered in determining the clinical activity score for thyroid ophthalmopathy, and a total of 7 items are considered: 1) Spontaneous retrobulbar pain, 2) Pain on attempted eye movement upward or downward gaze), 3) Redness of eyelid, 4) Redness of conjunctiva, 5) Swelling of eyelid, 6) Swelling of conjunctiva, and 7) Swelling of lacrimal caruncle.
이러한 임상활동점수를 판단하기 위해서는, 개인이 직접 병원 또는 클리닉에 방문하고, 의사의 문진 및 육안 관찰에 의한 검진이 필수적이다. 예를 들어, 구후부의 자발적인 통증 및 안구 운동 시 통증은 의사의 문진을 통해서 확인될 수 있고, 눈꺼풀의 발적, 결막의 충혈, 눈꺼풀의 부종, 결막의 부종 및 눈물언덕의 부종은 의사의 육안 관찰에 의해 확인될 수 있다. 이와 같은 임상활동점수의 확인을 위한 의사 육안 검진 및 문진 방식은 갑상선 안병증의 진단을 위해 환자의 병원 직접 방문을 선결조건으로 하는 바, 갑상선 안병증을 조기에 진단하는 데에 어려움이 있었다.In order to determine such a clinical activity score, an individual directly visits a hospital or clinic, and a doctor's medical examination and visual observation are essential. For example, spontaneous pain in the posterior part of the mouth and pain during eye movement can be confirmed through a doctor's medical examination, and eyelid redness, conjunctival congestion, eyelid edema, conjunctival edema, and lacrimal edema can be visually observed by a doctor. can be confirmed by This method of visual examination and interview with a doctor for confirming the clinical activity score requires a direct visit of the patient to the hospital for the diagnosis of thyroid eye disease as a prerequisite, so there was difficulty in diagnosing thyroid eye disease at an early stage.
이에, 병원 직접 방문 없이도, 개개인이 보다 간편하고 신속하게 안질환 위험도를 확인함으로써 지속적인 모니터링이 수행될 수 있도록 함과 더불어, 필요한 경우 안질환의 위험을 안내하여 환자의 내원을 유도하는 방법의 개발이 요구되고 있다.Therefore, without a direct visit to the hospital, it is necessary to develop a method for inducing patients to visit the hospital by guiding the risk of eye diseases, if necessary, as well as enabling continuous monitoring by checking the risk of eye diseases more conveniently and quickly for each individual. is being demanded
(특허문헌 0001) 대한민국 특허 등록번호 제10-2223478호 (2021년02월26일 등록)
(특허문헌 0002) 대한민국 특허 등록번호 제10-2047237호 (2019년11월15일 등록)
(특허문헌 0003) 대한민국 특허 등록번호 제10-2058883호 (2019년12월18일 등록)
(특허문헌 0004) 대한민국 특허 등록번호 제10-2347551호 (2022년01월02일 등록)(Patent Document 0001) Korean Patent Registration No. 10-2223478 (registered on February 26, 2021)
(Patent Document 0002) Korean Patent Registration No. 10-2047237 (registered on November 15, 2019)
(Patent Document 0003) Korean Patent Registration No. 10-2058883 (registered on December 18, 2019)
(Patent Document 0004) Republic of Korea Patent Registration No. 10-2347551 (registered on January 2, 2022)
본 출원에 의해 개시되는 내용들이 해결하고자 하는 과제는 전문적인 의학 진단 기기가 아닌 일반인들이 사용할 수 있는 디지털 카메라로 획득된 이미지를 활용하여 갑상선 안병증에 관한 임상활동점수를 예측하는 데에 사용되는 학습 모델을 제공하는 것이다.The problem to be solved by the contents disclosed by this application is the learning used to predict the clinical activity score related to thyroid eye disease using images obtained with a digital camera that can be used by the general public rather than a professional medical diagnostic device. to provide a model.
본 출원에 의해 개시되는 내용들이 해결하고자 하는 다른 과제는 일반인들이, 의사의 도움없이 그리고 병원 직접 방문 없이, 지속적으로 갑상선 안병증에 관한 임상활동점수를 모니터링할 수 있는 방법 및 시스템을 제공하는 것이다.Another problem to be solved by the contents disclosed by this application is to provide a method and system that can continuously monitor clinical activity scores related to thyroid ophthalmia without the help of doctors and without direct visits to hospitals.
본 출원에 의해 개시되는 내용들이 해결하고자 하는 또 다른 과제는, 임상활동점수의 모니터링 결과에 따라서 활동성 갑상선 안병증 진료를 위한 병원 방문을 추천하는 방법 및 이를 수행하는 시스템을 제공하는 것이다.Another problem to be solved by the contents disclosed by the present application is to provide a method for recommending a hospital visit for treatment of active thyroid eye disease according to a monitoring result of a clinical activity score and a system for performing the same.
본 출원이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 출원에 의해 개시되는 기술이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by this application is not limited to the above-mentioned problem, and the problem not mentioned is clearly made clear to those skilled in the art from this specification and the accompanying drawings to which the technology disclosed by this application belongs. You will be able to understand.
본 출원의 일 양태에 의하면, 컴퓨터로 실행가능한 갑상선 안병증의 예측방법이 개시된다. 상기 방법은, 결막 충혈 예측 모델, 결막 부종 예측 모델, 눈물언덕 부종 예측 모델, 눈꺼풀 발적 예측 모델 및 눈꺼풀 부종 예측 모델을 준비하고, 대상의 얼굴 이미지를 획득하고, 상기 얼굴 이미지로부터 제1 처리된 이미지(first processed image) 및 제2 처리된 이미지(second processed image)를 획득하고 - 이때, 상기 제1 처리된 이미지는 상기 제2 처리된 이미지와 상이함 -, 상기 제1 처리된 이미지를 상기 결막 충혈 예측 모델, 상기 결막 부종 예측 모델 및 상기 눈물언덕 부종 예측 모델에 입력하여 결막 충혈, 결막 부종 및 눈물언덕 부종 각각에 대한 예측값들을 획득하고, 상기 제2 처리된 이미지를 상기 눈꺼풀 발적 예측 모델 및 상기 눈꺼풀 부종 예측 모델에 입력하여 눈꺼풀 발적 및 눈꺼풀 부종 각각에 대한 예측값들을 획득하고, 상기 결막 충혈에 대한 상기 예측값, 상기 결막 부종에 대한 상기 예측값, 상기 눈물언덕 부종에 대한 상기 예측값, 상기 눈꺼풀 발적에 대한 상기 예측값 및 상기 눈꺼풀 부종에 대한 상기 예측값에 기초하여, 상기 대상이 갑상선 안병증 (thyroid eye disease)을 가지고 있을 가능성(possibility)을 판단하는 것을 포함한다. 이때, 상기 제1 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 눈의 아웃라인의 외부 및 상기 홍채의 아웃라인의 내부에 대응되는 영역들을 마스킹하고 상기 눈의 아웃라인을 포함하는 제1 영역을 따라서 크로핑된 이미지이며, 상기 제2 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 제1 영역 보다 더 넓게 확장된 제2 영역을 따라서 크로핑된 이미지이다.According to one aspect of the present application, a computer-executable method for predicting thyroid eye disease is disclosed. The method includes preparing a conjunctival hyperemia prediction model, a conjunctival edema prediction model, a tear hill edema prediction model, an eyelid erythema prediction model, and an eyelid edema prediction model, obtaining a face image of a subject, and a first processed image from the face image. Obtaining a (first processed image) and a second processed image, where the first processed image is different from the second processed image, and the first processed image as the conjunctival congestion Prediction values for conjunctival hyperemia, conjunctival edema, and lacrimal edema are input to the prediction model, the conjunctival edema prediction model, and the tear hill edema prediction model, respectively, and the second processed image is used as the eyelid erythema prediction model and the eyelid edema prediction model. Input to an edema prediction model to obtain predicted values for eyelid redness and eyelid edema, respectively, the predicted value for conjunctival redness, the predicted value for conjunctival edema, the predicted value for lacrimal edema, and the predicted value for eyelid redness. and determining a possibility that the subject has thyroid eye disease based on the predicted value and the predicted value for the eyelid edema. At this time, the first processed image is based on positional information of pixels corresponding to the outline of the eye and positional information of pixels corresponding to the outline of the iris included in the eye, outside and outside the outline of the eye. An image cropped along a first region including the outline of the eye by masking regions corresponding to the inside of the outline of the iris, and the second processed image includes pixels corresponding to the outline of the eye. Based on location information and location information of pixels corresponding to the outline of the iris included in the eye, the image is cropped along a second area that extends wider than the first area.
몇몇 실시예들에 있어서, 상기 눈의 아웃라인에 대응되는 픽셀들의 위치정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보는 세그멘테이션 모델에 의해 획득될 수 있다.In some embodiments, location information of pixels corresponding to the outline of the eye and location information of pixels corresponding to the outline of the iris included in the eye may be obtained by a segmentation model.
몇몇 실시예들에 있어서, 상기 제1 처리된 이미지는 제1 처리된 좌안 이미지(first processed left eye image) 및 제1 처리된 우안 이미지(first processed right eye image)를 포함하며, 상기 제2 처리된 이미지는 제2 처리된 좌안 이미지(second processed left eye image) 및 제2 처리된 우안 이미지(second processed right eye image)를 포함할 수 있다. In some embodiments, the first processed image includes a first processed left eye image and a first processed right eye image, and the second processed image includes a first processed left eye image and a first processed right eye image. The image may include a second processed left eye image and a second processed right eye image.
몇몇 실시예들에 있어서, 상기 결막 충혈 예측 모델은 좌안 결막 충혈 예측 모델 및 우안 결막 충혈 예측 모델을 포함하고, 상기 결막 부종 예측 모델은 좌안 결막 부종 예측 모델 및 우안 결막 부종 예측 모델을 포함하며, 상기 눈물언덕 부종 예측 모델은 좌안 눈물언덕 부종 예측 모델 및 우안 눈물언덕 부종 예측 모델을 포함하고, 상기 눈꺼풀 발적 예측 모델은 좌안 눈꺼풀 발적 예측 모델 및 우안 눈꺼풀 발적 예측 모델을 포함하며, 상기 눈꺼풀 부종 예측 모델은 좌안 눈꺼풀 부종 예측 모델 및 우안 눈꺼풀 부종 예측 모델을 포함할 수 있다.In some embodiments, the conjunctival edema prediction model includes a left eye conjunctival edema prediction model and a right eye conjunctival edema prediction model, the conjunctival edema prediction model includes a left eye conjunctival edema prediction model and a right eye conjunctival edema prediction model, wherein the The lacrimal edema prediction model includes a left eye lacrimal edema prediction model and a right eye lacrimal edema prediction model, wherein the eyelid redness prediction model includes a left eye eyelid redness prediction model and a right eye eyelid redness prediction model, wherein the eyelid edema prediction model comprises: A left eye eyelid edema prediction model and a right eye eyelid edema prediction model may be included.
몇몇 실시예들에 있어서, 상기 결막 충혈에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 결막 충혈 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 결막 충혈 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 결막 부종에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 결막 부종 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 결막 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 눈물언덕 부종에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 눈물언덕 부종 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 눈물언덕 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 눈꺼풀 발적에 대한 상기 예측값은 상기 제2 전처리된 좌안 이미지를 상기 좌안 눈꺼풀 발적 모델에 입력하여 획득한 결과와 상기 제2 전처리된 우안 이미지를 상기 우안 눈꺼풀 발적 모델에 입력하여 획득한 결과에 기초하여 결정되며, 상기 눈꺼풀 부종에 대한 상기 예측값은 상기 제2 전처리된 좌안 이미지를 상기 좌안 눈꺼풀 부종 모델에 입력하여 획득한 결과와 상기 제2 전처리된 우안 이미지를 상기 우안 눈꺼풀 부종 모델에 입력하여 획득한 결과에 기초하여 결정될 수 있다.In some embodiments, the predicted value for the conjunctival hyperemia is a result obtained by inputting the first preprocessed left eye image to the left eye conjunctival hyperemia model and inputting the first preprocessed right eye image to the right eye conjunctival hyperemia model. It is determined based on the result obtained by inputting the first preprocessed left eye image to the left eye conjunctival edema model and the first preprocessed right eye image as the right eye conjunctival edema It is determined based on a result obtained by inputting the lacrimal hillock edema, and the predicted value for the tear hill edema is determined based on a result obtained by inputting the first preprocessed left eye image to the left eye lacrimal hill edema model and the first preprocessed right eye image. is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid erythema model and the predicted value for the eyelid erythema is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid erythema model and the second It is determined based on a result obtained by inputting the preprocessed right eye image into the right eye eyelid edema model, and the predicted value for the eyelid edema is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid edema model. It may be determined based on a result obtained by inputting the second preprocessed right eye image to the right eye eyelid edema model.
몇몇 실시예들에 있어서, 상기 방법은 상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image) 중 하나를 좌우 반전 처리하고, 상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image) 중 하나를 좌우 반전 처리하는 것을 더 포함할 수 있다.In some embodiments, the method performs left-right reversal processing of one of the first processed left eye image and the first processed right eye image, and the second processed right eye image. The method may further include horizontally inverting one of the second processed left eye image and the second processed right eye image.
몇몇 실시예들에 있어서, 상기 결막 충혈에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 충혈 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 결막 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈물언덕 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈물언덕 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈꺼풀 발적에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 발적 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈꺼풀 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정될 수 있다.In some embodiments, the predicted value for the conjunctival congestion is determined based on result values obtained by inputting the horizontally inverted image and the left-right inverted image to the conjunctival congestion model, respectively, and the conjunctiva The predicted value for edema is determined based on result values obtained by inputting the left-right inverted image and the non-left-right reversed image to the conjunctival edema model, respectively, and the predicted value for the tear hill edema is It is determined based on result values obtained by inputting the inverted image and the non-left-right inverted image to the tear hill edema model, respectively, and the predicted value for the eyelid redness is the left-right inverted image and the left-right inversion process. The prediction value for the eyelid edema is determined based on the result values obtained by inputting the non-reversed image into the eyelid edema model, respectively, and the predicted value for the eyelid edema is obtained by combining the horizontally inverted image and the left-right inverted image into the eyelid edema model. It may be determined based on the result values obtained by inputting each.
몇몇 실시예들에 있어서, 상기 방법은 상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image)를 리사이징하고, 상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image)를 리사이징하는 것을 더 포함할 수 있다.In some embodiments, the method resizes the first processed left eye image and the first processed right eye image, and the second processed left eye image. Resizing the second processed left eye image and the second processed right eye image may be further included.
본 출원에 의하여 개시되는 내용에 의하면, 전문적인 의학 진단 기기가 아닌 일반인들이 사용할 수 있는 디지털 카메라로 획득된 이미지를 활용하여 갑상선 안병증에 관한 임상활동점수를 예측할 수 있다.According to the contents disclosed by this application, it is possible to predict the clinical activity score related to thyroid eye disease using an image acquired by a digital camera usable by the general public, not a professional medical diagnostic device.
또한, 본 출원에 의하여 개시되는 내용에 의하면, 일반인들이, 의사의 도움없이 그리고 병원 직접 방문 없이, 지속적으로 갑상선 안병증에 관한 임상활동점수를 모니터링할 수 있고, 필요한 경우 병원에 대한 방문을 추천받을 수 있게 된다.In addition, according to the contents disclosed by this application, the general public can continuously monitor the clinical activity score for thyroid eye disease without the help of a doctor and without a direct visit to the hospital, and, if necessary, receive a recommendation to visit a hospital. be able to
도 1은 본 출원에 의해 개시되는 일실시예에 따른 갑상선 안병증에 관한 임상활동점수를 예측하기 위한 시스템을 도시하는 도면이다.
도 2는 본 출원에 의해 제공되는 사용자 단말기의 블록도이다.
도 3은 본 출원에 의해 개시되는 서버의 블록도이다.
도 4는 카메라를 이용하여 얼굴을 촬영하였을 때 카메라에 의해 캡쳐될 수 있도록 외부로 노출되어 있는 눈 및 그 주변 조직을 설명하기 위한 도면이다.
도 5는 외부로 노출된 안구를 설명하기 위한 도면이다.
도 6은 눈의 아웃라인을 설명하기 위한 도면이다.
도 7은 외부로 노출된 각막을 설명하기 위한 도면이다.
도 8은 외부로 노출된 결막을 설명하기 위한 도면이다.
도 9는 얼굴 이미지와 양안 이미지를 설명하기 위한 도면이다.
도 10은 좌안 이미지와 우안 이미지를 설명하기 위한 도면이다.
도 11은 아웃라인 픽셀들의 Xmax, Xmin, Ymax, Ymin을 도식화한 도면이다.
도 12는 결정된 제2 크롭 영역을 도시한 도면이다.
도 13는 제2 크롭 이미지에 대한 예시적인 도면이다.
도 14는 제3 크롭 이미지에 대한 예시적인 도면이다.
도 15 및 도 16은 홍채 세그멘테이션을 설명하기 위한 도면들이다.
도 17은 눈 아웃라인 세그멘테이션을 설명하기 위한 도면이다.
도 18은 제1 마스킹 이미지에 대한 예시적인 도면이다.
도 19는 제2 마스킹 이미지에 대한 예시적인 도면이다.
도 20 내지 도 22는 원본 이미지와 좌우 반전 이미지의 다양한 예시를 도시하는 도면들이다.
도 23은 결막 충혈 예측 방법을 설명하기 위한 흐름도이다.
도 24는 결막 부종 예측 방법을 설명하기 위한 흐름도이다.
도 25는 눈물언덕 부종 예측 방법을 설명하기 위한 흐름도이다.
도 26은 눈꺼풀 발적 예측 방법을 설명하기 위한 흐름도이다.
도 27는 눈꺼풀 부종 예측 방법을 설명하기 위한 흐름도이다.
도 28은 갑상선 안병증에 관한 임상활동점수의 예측방법을 설명하기 위한 도면이다.
도 29는 갑상선 안병증에 관한 임상활동점수의 지속적인 모니터링 방법 및 이에 기초한 병원 방문 추천 방법을 설명하기 위한 도면이다.1 is a diagram illustrating a system for predicting a clinical activity score related to thyroid eye disease according to an embodiment disclosed by the present application.
2 is a block diagram of a user terminal provided by the present application.
3 is a block diagram of a server disclosed by the present application.
4 is a view for explaining an eye exposed to the outside and its surrounding tissue so that it can be captured by a camera when a face is photographed using a camera.
5 is a view for explaining an eyeball exposed to the outside.
6 is a diagram for explaining the outline of an eye.
7 is a view for explaining the cornea exposed to the outside.
8 is a view for explaining the conjunctiva exposed to the outside.
9 is a diagram for explaining a face image and a binocular image.
10 is a diagram for explaining a left eye image and a right eye image.
11 is a diagram illustrating X max , X min , Y max , and Y min of outline pixels.
12 is a diagram illustrating a determined second cropped area.
13 is an exemplary diagram of a second cropped image.
14 is an exemplary diagram of a third cropped image.
15 and 16 are diagrams for explaining iris segmentation.
17 is a diagram for explaining eye outline segmentation.
18 is an exemplary diagram of a first masking image.
19 is an exemplary diagram of a second masking image.
20 to 22 are diagrams illustrating various examples of an original image and a horizontally reversed image.
23 is a flowchart for explaining a method for predicting conjunctival congestion.
24 is a flowchart for explaining a method for predicting conjunctival edema.
25 is a flowchart illustrating a method for predicting tear hill edema.
26 is a flowchart for explaining a method for predicting eyelid redness.
27 is a flowchart for explaining a method for predicting eyelid edema.
28 is a diagram for explaining a method for predicting clinical activity scores related to thyroid ophthalmopathy.
29 is a view for explaining a method for continuously monitoring clinical activity scores related to thyroid eye disease and a method for recommending a hospital visit based thereon.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The foregoing objects, features and advantages of the present application will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, the present application can apply various changes and can have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Like reference numerals designate essentially like elements throughout the specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present application may unnecessarily obscure the subject matter of the present application, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of this specification are only identifiers for distinguishing one component from another component.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for components used in the following embodiments are given or used interchangeably in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, expressions in the singular number include plural expressions unless the context clearly dictates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, terms such as include or have mean that features or components described in the specification exist, and do not preclude the possibility that one or more other features or components may be added.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and the present invention is not necessarily limited to those shown.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.If an embodiment is otherwise implementable, the order of specific processes may be performed differently from the order described. For example, two processes that are described in succession may be performed substantially concurrently, or may proceed in an order reverse to that described.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다. 예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.In the following embodiments, when components are connected, a case in which the components are directly connected as well as a case in which components are interposed between the components and connected indirectly is included. For example, when it is said that components are electrically connected in this specification, not only the case where the components are directly electrically connected, but also the case where the components are interposed and electrically connected indirectly is included.
본 출원의 일 양태에 의하면, 퓨터로 실행가능한 갑상선 안병증의 예측방법이 개시된다. 상기 방법은, 결막 충혈 예측 모델, 결막 부종 예측 모델, 눈물언덕 부종 예측 모델, 눈꺼풀 발적 예측 모델 및 눈꺼풀 부종 예측 모델을 준비하고, 대상의 얼굴 이미지를 획득하고, 상기 얼굴 이미지로부터 제1 처리된 이미지(first processed image) 및 제2 처리된 이미지(second processed image)를 획득하고 - 이때, 상기 제1 처리된 이미지는 상기 제2 처리된 이미지와 상이함 -, 상기 제1 처리된 이미지를 상기 결막 충혈 예측 모델, 상기 결막 부종 예측 모델 및 상기 눈물언덕 부종 예측 모델에 입력하여 결막 충혈, 결막 부종 및 눈물언덕 부종 각각에 대한 예측값들을 획득하고, 상기 제2 처리된 이미지를 상기 눈꺼풀 발적 예측 모델 및 상기 눈꺼풀 부종 예측 모델에 입력하여 눈꺼풀 발적 및 눈꺼풀 부종 각각에 대한 예측값들을 획득하고, 상기 결막 충혈에 대한 상기 예측값, 상기 결막 부종에 대한 상기 예측값, 상기 눈물언덕 부종에 대한 상기 예측값, 상기 눈꺼풀 발적에 대한 상기 예측값 및 상기 눈꺼풀 부종에 대한 상기 예측값에 기초하여, 상기 대상이 갑상선 안병증 (thyroid eye disease)을 가지고 있을 가능성(possibility)을 판단하는 것을 포함한다. 이때, 상기 제1 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 눈의 아웃라인의 외부 및 상기 홍채의 아웃라인의 내부에 대응되는 영역들을 마스킹하고 상기 눈의 아웃라인을 포함하는 제1 영역을 따라서 크로핑된 이미지이며, 상기 제2 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 제1 영역 보다 더 넓게 확장된 제2 영역을 따라서 크로핑된 이미지이다.According to one aspect of the present application, a method for predicting thyroid ophthalmopathy that can be performed with putero is disclosed. The method includes preparing a conjunctival hyperemia prediction model, a conjunctival edema prediction model, a tear hill edema prediction model, an eyelid erythema prediction model, and an eyelid edema prediction model, obtaining a face image of a subject, and a first processed image from the face image. Obtaining a (first processed image) and a second processed image, where the first processed image is different from the second processed image, and the first processed image as the conjunctival congestion Prediction values for conjunctival hyperemia, conjunctival edema, and lacrimal edema are input to the prediction model, the conjunctival edema prediction model, and the tear hill edema prediction model, respectively, and the second processed image is used as the eyelid erythema prediction model and the eyelid edema prediction model. Input to an edema prediction model to obtain predicted values for eyelid redness and eyelid edema, respectively, the predicted value for conjunctival redness, the predicted value for conjunctival edema, the predicted value for lacrimal edema, and the predicted value for eyelid redness. and determining a possibility that the subject has thyroid eye disease based on the predicted value and the predicted value for the eyelid edema. At this time, the first processed image is based on positional information of pixels corresponding to the outline of the eye and positional information of pixels corresponding to the outline of the iris included in the eye, outside and outside the outline of the eye. An image cropped along a first region including the outline of the eye by masking regions corresponding to the inside of the outline of the iris, and the second processed image includes pixels corresponding to the outline of the eye. Based on location information and location information of pixels corresponding to the outline of the iris included in the eye, the image is cropped along a second area that extends wider than the first area.
몇몇 실시예들에 있어서, 상기 눈의 아웃라인에 대응되는 픽셀들의 위치정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보는 세그멘테이션 모델에 의해 획득될 수 있다.In some embodiments, location information of pixels corresponding to the outline of the eye and location information of pixels corresponding to the outline of the iris included in the eye may be obtained by a segmentation model.
몇몇 실시예들에 있어서, 상기 제1 처리된 이미지는 제1 처리된 좌안 이미지(first processed left eye image) 및 제1 처리된 우안 이미지(first processed right eye image)를 포함하며, 상기 제2 처리된 이미지는 제2 처리된 좌안 이미지(second processed left eye image) 및 제2 처리된 우안 이미지(second processed right eye image)를 포함할 수 있다. In some embodiments, the first processed image includes a first processed left eye image and a first processed right eye image, and the second processed image includes a first processed left eye image and a first processed right eye image. The image may include a second processed left eye image and a second processed right eye image.
몇몇 실시예들에 있어서, 상기 결막 충혈 예측 모델은 좌안 결막 충혈 예측 모델 및 우안 결막 충혈 예측 모델을 포함하고, 상기 결막 부종 예측 모델은 좌안 결막 부종 예측 모델 및 우안 결막 부종 예측 모델을 포함하며, 상기 눈물언덕 부종 예측 모델은 좌안 눈물언덕 부종 예측 모델 및 우안 눈물언덕 부종 예측 모델을 포함하고, 상기 눈꺼풀 발적 예측 모델은 좌안 눈꺼풀 발적 예측 모델 및 우안 눈꺼풀 발적 예측 모델을 포함하며, 상기 눈꺼풀 부종 예측 모델은 좌안 눈꺼풀 부종 예측 모델 및 우안 눈꺼풀 부종 예측 모델을 포함할 수 있다.In some embodiments, the conjunctival edema prediction model includes a left eye conjunctival edema prediction model and a right eye conjunctival edema prediction model, the conjunctival edema prediction model includes a left eye conjunctival edema prediction model and a right eye conjunctival edema prediction model, wherein the The lacrimal edema prediction model includes a left eye lacrimal edema prediction model and a right eye lacrimal edema prediction model, wherein the eyelid redness prediction model includes a left eye eyelid redness prediction model and a right eye eyelid redness prediction model, wherein the eyelid edema prediction model comprises: A left eye eyelid edema prediction model and a right eye eyelid edema prediction model may be included.
몇몇 실시예들에 있어서, 상기 결막 충혈에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 결막 충혈 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 결막 충혈 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 결막 부종에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 결막 부종 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 결막 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 눈물언덕 부종에 대한 상기 예측값은 상기 제1 전처리된 좌안 이미지를 상기 좌안 눈물언덕 부종 모델에 입력하여 획득한 결과와 상기 제1 전처리된 우안 이미지를 상기 우안 눈물언덕 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고, 상기 눈꺼풀 발적에 대한 상기 예측값은 상기 제2 전처리된 좌안 이미지를 상기 좌안 눈꺼풀 발적 모델에 입력하여 획득한 결과와 상기 제2 전처리된 우안 이미지를 상기 우안 눈꺼풀 발적 모델에 입력하여 획득한 결과에 기초하여 결정되며, 상기 눈꺼풀 부종에 대한 상기 예측값은 상기 제2 전처리된 좌안 이미지를 상기 좌안 눈꺼풀 부종 모델에 입력하여 획득한 결과와 상기 제2 전처리된 우안 이미지를 상기 우안 눈꺼풀 부종 모델에 입력하여 획득한 결과에 기초하여 결정될 수 있다.In some embodiments, the predicted value for the conjunctival hyperemia is a result obtained by inputting the first preprocessed left eye image to the left eye conjunctival hyperemia model and inputting the first preprocessed right eye image to the right eye conjunctival hyperemia model. It is determined based on the result obtained by inputting the first preprocessed left eye image to the left eye conjunctival edema model and the first preprocessed right eye image as the right eye conjunctival edema It is determined based on a result obtained by inputting the lacrimal hillock edema, and the predicted value for the tear hill edema is determined based on a result obtained by inputting the first preprocessed left eye image to the left eye lacrimal hill edema model and the first preprocessed right eye image. is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid erythema model and the predicted value for the eyelid erythema is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid erythema model and the second It is determined based on a result obtained by inputting the preprocessed right eye image into the right eye eyelid edema model, and the predicted value for the eyelid edema is determined based on a result obtained by inputting the second preprocessed left eye image into the left eye eyelid edema model. It may be determined based on a result obtained by inputting the second preprocessed right eye image to the right eye eyelid edema model.
몇몇 실시예들에 있어서, 상기 방법은 상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image) 중 하나를 좌우 반전 처리하고, 상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image) 중 하나를 좌우 반전 처리하는 것을 더 포함할 수 있다.In some embodiments, the method performs left-right reversal processing of one of the first processed left eye image and the first processed right eye image, and the second processed right eye image. The method may further include horizontally inverting one of the second processed left eye image and the second processed right eye image.
몇몇 실시예들에 있어서, 상기 결막 충혈에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 충혈 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 결막 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈물언덕 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈물언덕 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈꺼풀 발적에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 발적 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고, 상기 눈꺼풀 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정될 수 있다.In some embodiments, the predicted value for the conjunctival congestion is determined based on result values obtained by inputting the horizontally inverted image and the left-right inverted image to the conjunctival congestion model, respectively, and the conjunctiva The predicted value for edema is determined based on result values obtained by inputting the left-right inverted image and the non-left-right reversed image to the conjunctival edema model, respectively, and the predicted value for the tear hill edema is It is determined based on result values obtained by inputting the inverted image and the non-left-right inverted image to the tear hill edema model, respectively, and the predicted value for the eyelid redness is the left-right inverted image and the left-right inversion process. The prediction value for the eyelid edema is determined based on the result values obtained by inputting the non-reversed image into the eyelid edema model, respectively, and the predicted value for the eyelid edema is obtained by combining the horizontally inverted image and the left-right inverted image into the eyelid edema model. It may be determined based on the result values obtained by inputting each.
몇몇 실시예들에 있어서, 상기 방법은 상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image)를 리사이징하고, 상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image)를 리사이징하는 것을 더 포함할 수 있다.In some embodiments, the method resizes the first processed left eye image and the first processed right eye image, and the second processed left eye image. Resizing the second processed left eye image and the second processed right eye image may be further included.
본 출원에 의하면, 사용자의 갑상선 안병증에 대한 임상활동점수(Clinical Activity Score, CAS)를 예측하고, 이에 기초하여 사용자의 병원 방문 필요성에 대한 안내를 하기 위한 시스템이 개시된다.According to the present application, a system for predicting a user's clinical activity score (Clinical Activity Score, CAS) for thyroid eye disease and providing guidance on the need for a user's visit to a hospital based thereon is disclosed.
1. 전체 시스템1. Full system
(1) 시스템의 하드웨어적 구성(1) Hardware configuration of the system
도 1은 본 출원에 의해 개시되는 일실시예에 따른 갑상선 안병증에 관한 임상활동점수를 예측하기 위한 시스템을 도시하는 도면이다.1 is a diagram illustrating a system for predicting a clinical activity score related to thyroid eye disease according to an embodiment disclosed by the present application.
도 1을 참조하면, 상기 시스템(1)은 복수의 사용자 단말기들(10) 및 서버(20)를 포함한다.Referring to FIG. 1 , the
이하에서는, 상기 복수의 사용자 단말기들(10) 및 상기 서버(20)에 대해 보다 구체적으로 설명한다.Hereinafter, the plurality of
(2) 사용자 단말기의 기능(2) User terminal function
상기 복수의 사용자 단말기들(10)은 각종 네트워크를 통해 상기 서버(20)에 정보를 전송하고, 또 상기 서버(20)로부터 정보를 수신한다.The plurality of
상기 복수의 사용자 단말기들(10)은 사용자의 상안검(upper eyelid), 하안검(lower eyelid) 및 상기 상안검 및 하안검 등에 의해 외부로 노출되는 안구(exposed eyeball)에 관한 이미지(이하, 눈 이미지, eye image)를 획득할 수 있으며, 상기 획득된 눈 이미지에 대한 필요한 처리를 하거나 혹은 상기 획득된 눈 이미지 또는 처리된 눈 이미지를 상기 서버(20)로 전송할 수 있다.The plurality of
상기 복수의 사용자 단말기들(10)은 상기 서버(20)에 의해 처리된 임상활동점수에 관한 예측결과를 상기 서버(20)로부터 수신할 수 있다.The plurality of
(3) 서버의 기능(3) Server function
상기 서버(20)는 각종 네트워크를 통해 상기 복수의 사용자 단말기들(10)에 정보를 전송하고, 또 상기 복수의 사용자 단말기들(10)로부터 정보를 수신한다.The
상기 서버(20)는 상기 복수의 사용자 단말기들(10)로부터 상기 눈 이미지를 수신할 수 있다. 이때, 상기 서버(20)는 상기 눈 이미지를 처리할 수 있다. 또는 상기 서버(20)는 처리된 눈 이미지를 수신할 수 있다.The
상기 서버(20)는 상기 처리된 눈 이미지에 기초하여 사용자의 갑상선 안병증에 관한 임상활동점수에 대한 예측결과를 획득할 수 있다.The
상기 서버(20)는 상기 임상활동점수에 대한 예측결과를 상기 복수의 사용자 단말기들(10)로 전송할 수 있다.The
(4) 시스템의 소프트웨어적 구성(4) Software configuration of the system
상기 시스템(1)이 동작하기 위하여, 몇몇 소프트웨어적 구성들이 필요하다.In order for the
상기 사용자 단말기들(10)과 상기 서버(20) 사이의 통신을 수행하기 위하여, 상기 복수의 사용자 단말기들(10)에 단말기 소프트웨어가 설치될 필요가 있으며, 상기 서버(20)에 서버 소프트웨어가 설치될 필요가 있다. To perform communication between the
상기 눈 이미지에 필요한 전처리(pre-processing)를 수행하기 위하여, 다양한 전처리 알고리즘들이 사용될 수 있다.Various pre-processing algorithms may be used to perform the necessary pre-processing of the eye image.
상기 전처리된 눈 이미지에 기초하여 임상활동점수를 예측하기 위한 복수의 학습모델들이 사용될 수 있다.A plurality of learning models for predicting a clinical activity score based on the preprocessed eye image may be used.
상기 복수의 전처리 알고리즘들은 상기 사용자 단말기들(10)에 설치되는 단말기 소프트웨어에 의해 구동될 수도 있고, 상기 서버(20)에 설치되는 소프트웨어에 의해 구동될 수도 있다. 또는 상기 복수의 전처리 알고리즘들의 일부는 상기 사용자 단말기들(10)에 의해 실행되고, 나머지 일부는 상기 서버(20)에 의해 실행될 수 있다.The plurality of preprocessing algorithms may be driven by terminal software installed in the
상기 복수의 학습모델들은 상기 서버(20)에 설치되는 소프트웨어에 의해 구동될 수도 있다. 또는 상기 복수의 학습모델들은 상기 사용자 단말기들(10)에 설치되는 단말기 소프트웨어에 의해 구동될 수 있다. 또는 상기 복수의 학습모델들의 일부는 상기 사용자 단말기들(10)에 의해 실행되고, 나머지 일부는 상기 서버(20)에 의해 실행될 수 있다.The plurality of learning models may be driven by software installed in the
(5) 사용자 단말기의 구성요소(5) Components of user terminal
도 2는 본 출원에 의해 개시되는 사용자 단말기의 블록도이다.2 is a block diagram of a user terminal disclosed by the present application.
도 2를 참조하면, 본 출원에 의해 개시되는 사용자 단말기(10)는 출력부(110), 통신부(120), 메모리(130), 카메라(140) 및 컨트롤러(150)를 포함한다.Referring to FIG. 2 , a
출력부(110)는 컨트롤러(150)의 제어 명령에 따라 각종 정보를 출력한다. 일 실시예에 따르면, 출력부(110)는 사용자에게 정보를 시각적으로 출력하는 디스플레이(112)를 포함할 수 있다. 또는, 도면에 도시하지는 않았지만, 사용자에게 정보를 청각적으로 출력하는 스피커, 사용자에게 정보를 촉각적으로 출력하는 진동모터를 포함할 수 있다.The
통신부(120)는 무선 통신 모듈 및/또는 유선 통신 모듈을 포함할 수 있다. 여기서, 무선 통신 모듈은 와이파이(Wi-Fi) 통신 모듈, 셀룰러 통신 모듈 등을 포함할 수 있다. The
메모리(130)는 컨트롤러(150)에 의해 읽힐 수 있는 실행 코드, 처리된 결과값 및 필요한 데이터 등을 저장한다. 상기 메모리(130)는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM 등을 포함할 수 있다. 메모리(130)는 전술한 단말기 소프트웨어를 저장할 수 있고, 전술한 다양한 전처리 알고리즘 및/또는 학습모델들을 구현하기 위한 실행코드들을 저장할 수 있다. 나아가, 메모리(130)는 상기 카메라(140)를 통해 획득되는 눈 이미지 및 상기 전처리된 눈 이미지 등을 저장할 수 있다. The
카메라(140)는 디지털 카메라로, 이미지 센서와 영상처리부를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성될 수 있다. 예시적으로, 이미지 센서는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등을 포함할 수 있다. 한편, 영상처리부는 촬영된 결과를 영상 처리하여, 영상 정보를 생성할 수 있다. The
컨트롤러(150)는 적어도 하나의 프로세서를 포함할 수 있다. 이때, 각각의 프로세서는 메모리(130)에 저장된 적어도 하나의 명령어를 실행시킴으로써, 소정의 동작을 실행할 수 있다. 구체적으로, 컨트롤러(150)는 상기 사용자 단말기(10)에서 구동되는 단말기 소프트웨어, 전처리 알고리즘 및/또는 학습모델에 따라 정보를 처리할 수 있다. 한편, 상기 컨트롤러(150)는 상기 사용자 단말기(10)의 전반적인 동작을 제어한다.The
도면에 도시하지는 않았지만, 상기 사용자 단말기(10)는 사용자 입력부를 포함할 수 있다. 상기 사용자 단말기(10)는 상기 사용자 입력부를 통해 사용자 단말기(10)의 동작에 필요한 여러 정보를 사용자로부터 입력 받을 수 있다.Although not shown in the drawing, the
(6) 서버의 구성요소(6) Components of the server
도 3은 본 출원에 의해 개시되는 서버의 블록도이다.3 is a block diagram of a server disclosed by the present application.
도 3을 참조하면, 본 출원에 의해 개시되는 서버(20)는 통신부(210), 메모리(220) 및 컨트롤러(230)를 포함한다.Referring to FIG. 3 , a
통신부(210)는 무선 통신 모듈 및/또는 유선 통신 모듈을 포함할 수 있다. 여기서, 무선 통신 모듈은 와이파이(Wi-Fi) 통신 모듈, 셀룰러 통신 모듈 등을 포함할 수 있다. The
메모리(220)는 컨트롤러(230)에 의해 읽힐 수 있는 실행 코드, 처리된 결과값 및 필요한 데이터 등을 저장한다. 상기 메모리(220)는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM 등을 포함할 수 있다. 메모리(220)는 전술한 서버 소프트웨어를 저장할 수 있고, 전술한 다양한 전처리 알고리즘 및/또는 학습모델들을 구현하기 위한 실행코드들을 저장할 수 있다. 나아가, 메모리(220)는 상기 사용자 단말기(10)로부터 수신한 눈 이미지 및 상기 전처리된 눈 이미지 등을 저장할 수 있다. The
컨트롤러(230)는 적어도 하나의 프로세서를 포함할 수 있다. 이때, 각각의 프로세서는 메모리(220)에 저장된 적어도 하나의 명령어를 실행시킴으로써, 소정의 동작을 실행할 수 있다. 구체적으로, 컨트롤러(230)는 상기 서버(20)에서 구동되는 서버 소프트웨어, 전처리 알고리즘 및/또는 학습모델에 따라 정보를 처리할 수 있다. 한편, 상기 컨트롤러(230)는 상기 서버(20)의 전반적인 동작을 제어한다.The
이하에서는, 본 출원에 의해 개시되는 기술을 보다 더 명확하고 용이하게 이해하기 위하여 눈(eye), 안구(eyeball) 및 상안검(upper eyelid), 하안검(lower eyelid) 및 눈물언덕(lacrimal caruncle)을 포함하는 안구 주변의 조직들에 대해 간략하게 설명하고, 본 명세서에 사용되는 눈과 그 주변에 관한 용어들을 정의한다.Hereinafter, in order to more clearly and easily understand the technology disclosed by this application, the eye, eyeball, and upper eyelid, lower eyelid, and lacrimal caruncle are included. The tissues around the eyeball are briefly described, and terms related to the eye and its surroundings used herein are defined.
2. 눈의 구성 및 용어의 정의2. Structure of the eye and definition of terms
(1) 안구 및 그 주변 조직(1) Eyeball and surrounding tissue
도 4는 카메라를 이용하여 얼굴을 촬영하였을 때 카메라에 의해 캡쳐될 수 있도록 외부로 노출되어 있는 눈 및 그 주변 조직을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining an eye exposed to the outside and its surrounding tissue so that it can be captured by a camera when a face is photographed using a camera.
도 4에는, 눈꺼풀(상안검, upper eyelid), 하안검(lower eyelid), 눈물언덕(lacrimal caruncle), 그리고 상기 상안검, 하안검 및 눈물언덕에 의해 일부는 가려지고 일부만 노출되어 있는 결막(conjunctiva) 및 각막(cornea)가 도시되어 있다.4, the eyelids (upper eyelid), lower eyelid, lacrimal caruncle, and the conjunctiva and cornea (conjunctiva) partially covered and partially exposed by the upper eyelid, lower eyelid, and lacrimal caruncle ( cornea) is shown.
일반적으로 눈(eye) 또는 안구(eyeball)는 도 4에 도시된 것보다 더 크다. 그러나, 안구는 상안검, 하안검과 같은 조직에 의해 외부로부터 보호되고 있고, 이에 따라, 사람이 눈을 뜨고 있을 때에도 안구의 일부만 외부로 노출된다.Typically the eye or eyeball is larger than shown in FIG. 4 . However, the eyeball is protected from the outside by tissues such as the upper and lower eyelids, and accordingly, only a part of the eyeball is exposed to the outside even when the person's eyes are open.
(2) 용어의 정의(2) Definition of terms
결막, 흰자위conjunctiva, white
이하에서는, 결막은 일반적으로 흰자위(the white of the eye)의 위치에 대응되므로, 결막과 흰자위라는 용어가 혼용될 수 있다.Hereinafter, since the conjunctiva generally corresponds to the position of the white of the eye, the terms conjunctiva and white of the eye may be used interchangeably.
각막, 홍채cornea, iris
이하에서는, 각막은 일반적으로 홍채(the iris of the eye)의 위치에 대응되므로, 각막과 홍채라는 용어가 혼용될 수 있다. 한편, 본 명세서에서는 용어 '홍채'는 동공영역도 포함하는 의미로 사용된다.Hereinafter, since the cornea generally corresponds to the position of the iris of the eye, the terms cornea and iris may be used interchangeably. Meanwhile, in the present specification, the term 'iris' is used to include the pupil area.
눈꺼풀eyelid
안구의 앞 부분을 덮고 있는 아래위 2장의 주름있는 피부이다. 안검(眼瞼)이라고도 한다. 안구의 윗부분에 있는 눈꺼풀을 상안검, 안구의 아래부분에 있는 눈꺼풀을 하안검이라 한다. 외면은 피부로 되어 있고, 내면은 결막으로 되어 있으며, 그 사이에는 눈꺼풀을 움직이게 하는 근육과, 분비선인 마이봄선[瞼板腺]을 품고 있는 검판(瞼板)조직이 있어서 눈꺼풀의 형태를 유지하고 있다. 눈꺼풀은 안구를 보호함과 동시에, 눈을 깜박임으로서 눈물로 안구를 청정하게 하거나 각막을 윤기 있고 투명하게 하는 일을 한다.It is the upper and lower two folds of skin covering the anterior part of the eyeball. It is also called an eyelid. The upper eyelid is called the upper eyelid, and the lower eyelid is called the lower eyelid. The outer surface is made of skin, and the inner surface is made of conjunctiva. In between, there are muscles that move the eyelids and tissue that contains meibomian glands, which maintain the shape of the eyelids. have. The eyelids protect the eyeball and at the same time clean the eyeball with tears by blinking or make the cornea shiny and transparent.
눈썹(eyebrow)eyebrows
눈썹은 눈 위의 뼈가 융기한 부분을 따라 활 모양으로 자란 털을 말한다.Eyebrows are hairs that grow in an arch along the bony prominence above the eye.
속눈썹(eyelash)eyelashes
아래위의 눈꺼풀 가장자리에 나 있는 길이 10mm 정도의 털을 말한다.It refers to hairs of about 10 mm in length that grow on the edge of the lower and upper eyelids.
외부로 노출된 안구eyeball exposed
이하에서, "외부로 노출된 안구"는, 사람이 눈을 뜨고 있을 때, 상안검, 하안검 및 눈물언덕에 의해 가려지지 않은 부분, 즉 상안검, 하안검 및 눈물언덕에 의해 외부로 노출된 부분을 의미한다. 예를 들어, 도 5에 도시된 점선의 내부를 "외부로 노출된 안구"라고 일컫는다.Hereinafter, "eyeballs exposed to the outside" means a part that is not covered by the upper eyelid, the lower eyelid and the tear hill, that is, the part exposed to the outside by the upper eyelid, the lower eyelid and the tear hill when the person's eyes are open. . For example, the inside of the dotted line shown in FIG. 5 is referred to as “the eyeball exposed to the outside”.
눈의 아웃라인(outline of eye)outline of eye
이하에서는, "눈의 아웃라인"은, 사람이 눈을 뜨고 있을 때, 외부로 노출된 안구와 눈물언덕 영역을 모두 포함하는 부분의 아웃라인을 의미한다. 즉, 외부로 노출된 안구와 눈물 언덕을 합한 영역의 아웃라인을 "눈의 아웃라인"이라고 일컫는다. 예를 들어, 도 6에 도시된 점선을 "눈의 아웃라인"이라고 한다.Hereinafter, "eye outline" refers to the outline of a portion including both the eyeball and the tear hill region exposed to the outside when a person's eyes are open. That is, the outline of the area where the eyeball exposed to the outside and the tear hill are combined is referred to as the “eye outline”. For example, the dotted line shown in Fig. 6 is referred to as "eye outline".
외부로 노출된 각막(외부로 노출된 홍채)Externally exposed cornea (exposed iris)
이하에서, "외부로 노출된 각막"은, 사람이 눈을 뜨고 있을 때, 상안검 및 하안검에 의해 가려지지 않은 각막 부분, 즉 상안검, 하안검에 의해 외부로 노출된 각막 부분을 의미한다. 예를 들어, 도 7에 도시된 점선의 내부를 "외부로 노출된 각막"이라고 일컫는다.Hereinafter, "exposed cornea" refers to a portion of the cornea that is not covered by the upper and lower eyelids when the person's eyes are open, that is, a portion of the cornea exposed to the outside by the upper and lower eyelids. For example, the inside of the dotted line shown in FIG. 7 is referred to as “exposed cornea”.
외부로 노출된 결막(외부로 노출된 흰자위)Exposed conjunctiva (exposed white of the eye)
이하에서, "외부로 노출된 결막"은, 사람이 눈을 뜨고 있을 때, 상안검, 하안검 및 눈물언덕에 의해 가려지지 않은 결막 부분, 즉 상안검, 하안검 및 눈물언덕에 의해 외부로 노출된 결막 부분을 의미한다. 예를 들어, 도 8에 도시된 점선의 내부를 "외부로 노출된 결막"이라고 일컫는다.Hereinafter, "conjunctiva exposed to the outside" refers to the part of the conjunctiva that is not covered by the upper eyelid, the lower eyelid, and the tear hill, that is, the part of the conjunctiva exposed to the outside by the upper eyelid, the lower eyelid, and the tear hill, when the person's eyes are open. it means. For example, the inside of the dotted line shown in FIG. 8 is referred to as "exposed conjunctiva".
이하에서는, 본 출원에 의해 개시되는 이미지 전처리를 수행하는 다양한 이미지 전처리 알고리즘에 대해 설명한다.Hereinafter, various image preprocessing algorithms for performing image preprocessing disclosed by the present application will be described.
3. 이미지 전처리 알고리즘3. Image pre-processing algorithm
(1) 이미지 전처리의 필요성(1) Necessity of image pre-processing
본 출원의 일 목적은 전문적인 의학 진단 기기가 아닌 일반인들이 사용할 수 있는 디지털 카메라로 획득된 이미지를 활용하여 갑상선 안병증에 관한 임상활동점수를 예측할 수 있는 학습 모델을 제공하는 것에 있다.One object of the present application is to provide a learning model capable of predicting a clinical activity score related to thyroid eye disease by using images acquired by a digital camera usable by the general public rather than a professional medical diagnostic device.
이를 위해서는, 갑상선 안병증에 관한 임상활동점수를 예측함에 있어서, 일반인들이 안구 및 안구 주변의 조직에 대하여 손쉽게 획득할 수 있는 이미지가 사용되어야 한다. 예를 들어, 의료기관 등에서 활용될 수 있는 전문화된 의료기기 등으로 획득되는 디지털 이미지가 아닌 일반인들이 손쉽게 활용할 수 있는 디지털 카메라 혹은 스마트폰 등에 내장되어 있는 카메라에 의해 획득되는 디지털 이미지가 이미지 분석에 사용되어야 한다.To this end, in predicting the clinical activity score for thyroid ophthalmopathy, an image that the general public can easily acquire about the eyeball and tissues around the eyeball should be used. For example, digital images obtained by digital cameras that can be easily used by ordinary people or built-in smartphones should be used for image analysis, rather than digital images obtained by specialized medical devices that can be used in medical institutions. do.
이러한 환경 하에서, 사용자 등에 의해 획득되는 디지털 이미지는 정형화되거나, 표준화되기에 어려움이 있으며, 사용자 등에 의해서 획득된 디지털 이미지를 보다 더 정확하고 빠르게 인식하기 위해서는, 획득된 이미지에 대한 여러가지 전처리가 되어야 할 필요가 있다.Under these circumstances, it is difficult to standardize or standardize digital images acquired by users, etc., and in order to more accurately and quickly recognize digital images acquired by users, etc., it is necessary to perform various preprocessing on the acquired images. there is
(2) 제1 크롭 (양안 이미지 크롭)(2) 1st crop (crop both eyes image)
갑상선 안병증에 관한 임상활동점수를 예측에 사용되는 이미지는 좌안과 우안 및 그 주변 영역들을 포함되어 있어야 한다.Images used to predict the clinical activity score for thyroid ophthalmopathy should include the left and right eyes and their surrounding areas.
다만, 더 빠르고 정확한 분석을 위해서는, 얼굴 전체가 캡쳐된 이미지(이하, 얼굴 이미지) 보다는 이미지 분석에 불필요한 여러 영역들(예를 들어, 코, 입, 이마 등에 대응되는 영역들)은 포함되어 있지 않고, 양안 및 그 주변 영역만 캡쳐된 이미지(이하, 양안 이미지)를 사용하는 것이 더 효과적이다.However, for faster and more accurate analysis, several areas unnecessary for image analysis (eg, areas corresponding to the nose, mouth, forehead, etc.) , It is more effective to use images in which only both eyes and their surrounding areas are captured (hereinafter, both eyes images).
따라서, 사용자에 의해서 획득된 얼굴 전체가 캡쳐된 이미지(이하, 얼굴 이지미)로부터 양안(좌안/우안)을 포함하되, 이미지(이하, 양안 이미지)를 잘라낼 필요가 있다.Therefore, it is necessary to cut out an image (hereinafter, both eyes image) including both eyes (left eye/right eye) from an image in which the entire face acquired by the user is captured (hereinafter, face image).
예를 들어, 도 9의 (a)에 도시된 사용자에 의해 획득된 얼굴 이미지로부터 도 9의 (b)에 도시된 바와 같이 양안 이미지(점선으로 표시된 사각형의 내부 영역)가 획득될 수 있다. 이하에서는, 이렇게 사용자에 의해 획득된 얼굴 이미지로부터 양안 이미지를 획득하는 것을 양안 이미지 크롭 또는 제1 크롭이라고 한다.For example, as shown in FIG. 9(b) from the face image obtained by the user shown in FIG. Hereinafter, acquiring a binocular image from a face image obtained by a user in this way is referred to as a binocular image cropping or first cropping.
(3) 추가 크롭 방식 적용의 필요성(3) Necessity of applying an additional cropping method
본 출원의 발명자들은 전술한 제1 크롭 이미지(양안 이미지)를 이용하여 나중에 후술할 예측모델들을 이용하여 갑상선 안병증에 관한 5가지 항목에 대한 점수들을 예측하는 시스템을 구축하여 보았으나 예측의 정확도가 높지 않음을 확인하였다.The inventors of the present application have tried to build a system for predicting scores for 5 items related to thyroid eye disease using the prediction models to be described later using the first cropped image (both eyes image) described above, but the accuracy of prediction is poor. It was confirmed that it is not high.
이에, 본 출원의 발명자들은 낮은 예측 정확도의 이유가 양안 이미지 내에도 분석에 불필요한 영역이 많기 때문이라고 판단하였고, 이에 보다 더 세밀한 크롭 이미지를 확보할 필요성이 있다고 판단하였다. 즉, 도 10의 (a)에 도시된 바와 같이 좌안과 우안이 하나의 이미지에 포함되어 있는 양안 이미지를 활용하는 것보다는 도 10의 (b)에 도시된 바와 같이 좌안 이미지와 우안 이미지를 각각 확보하여 활용하는 것이 더 효과적일 것이라고 판단하였다.Accordingly, the inventors of the present application have determined that the reason for the low prediction accuracy is that there are many areas unnecessary for analysis even in the binocular image, and thus it is necessary to secure a more detailed cropped image. That is, as shown in (a) of FIG. 10, rather than using a binocular image in which the left eye and the right eye are included in one image, as shown in (b) of FIG. 10, the left eye image and the right eye image are respectively secured. It was decided that using it would be more effective.
(4) 서로 다른 크롭 방식 적용의 필요성(4) Necessity of applying different cropping methods
갑상선 안병증에 관한 임상활동점수를 평가하기 위한 7가지 항목들 중 5가지 항목은 사용자의 안구 및 그 주변영역에 대한 의사의 육안 관찰에 따라 평가되는 항목임을 이미 설명한 바 있다. 상기 5가지 항목들은 다음과 같다.It has already been described that five of the seven items for evaluating the clinical activity score for thyroid eye disease are items evaluated according to the doctor's visual observation of the user's eyeball and its surrounding area. The above five items are as follows.
1) 결막의 충혈 (Redness of conjunctiva), 1) Redness of conjunctiva,
2) 결막의 부종 (Swelling of conjunctiva),2) Swelling of conjunctiva,
3) 눈물언덕의 부종 (Swelling of lacrimal caruncle),3) Swelling of lacrimal caruncle,
4) 눈꺼풀의 발적 (Redness of eyelid), 및4) Redness of eyelid, and
5) 눈꺼풀의 부종 (Swelling of eyelid), 5) Swelling of eyelid,
이하에서, 후술하겠지만, 본 출원에 의해 제공되는 갑상선 안병증에 관한 임상활동점수를 평가하기 위하여, 상기 5가지의 증상에 대해 서로 독립적인 예측 모델을 적용하였다.As will be described below, in order to evaluate the clinical activity score for thyroid ophthalmia provided by the present application, predictive models independent of each other were applied to the above five symptoms.
이에, 5개의 독립적인 예측 모델에 서로 다른 크롭 방식이 적용된 이미지를 활용하는 방법도 있을 수 있으나, 본 출원의 발명자들은 결막과 눈물언덕을 분석하기 위한 이미지 크롭 방식과 눈꺼풀을 분석하기 위한 이미지 크롭 방식을 적용하면 충분한 예측 정확성이 나올 수 있을 것이라고 판단하였다.Therefore, there may be a method of utilizing images with different cropping methods applied to five independent prediction models, but the inventors of the present application use an image cropping method for analyzing the conjunctiva and the tear hill and an image cropping method for analyzing the eyelid. It was judged that sufficient prediction accuracy could be obtained by applying .
(5) 제2 크롭 (눈 아웃라인 베이스 크롭)(5) 2nd Crop (Eye Outline Base Crop)
이하에서, 눈 아웃라인 베이스 크롭(eye-outline-based crop)(제2 크롭)에 대해 설명한다. 제2 크롭은 우안 이미지와 좌안 이미지 모두에 대해서 적용될 수 있는 것이지만, 설명의 편의를 위하여, 우안 크롭 이미지를 확보하는 것을 기준으로 설명하도록 한다. Hereinafter, an eye-outline-based crop (second crop) will be described. The second cropping can be applied to both the right eye image and the left eye image, but for convenience of explanation, it will be described based on securing the right eye cropped image.
제2 크롭의 목적Purpose of the 2nd Crop
제2 크롭의 목적은 후술할 예측모델들 중 결막의 충혈 (Redness of conjunctiva) 여부를 예측하기 위한 모델, 결막의 부종 (Swelling of conjunctiva) 여부를 예측하기 위한 모델, 및 눈물언덕의 부종 (Swelling of lacrimal caruncle) 여부를 예측하기 위한 모델에 인풋 이미지로 사용하기 위한 이미지를 생성하는 목적을 가지는 것으로, 각막과 눈물언덕에 관한 정보가 최대화되고, 그 외의 영역에 대한 정보가 최소화된 이미지를 생성하는 것에 그 목적이 있다. The purpose of the second crop is a model for predicting redness of conjunctiva, a model for predicting swelling of conjunctiva, and a swelling of conjunctiva among prediction models to be described later. lacrimal caruncle) has the purpose of generating an image to be used as an input image to a model for predicting whether or not, and to generate an image in which information on the cornea and tear hill is maximized and information on other areas is minimized. It has a purpose.
입력 이미지input image
제2 크롭은 얼굴 이미지에 대해 적용될 수도 있고, 양안 이미지(제1 크롭 이미지)에 대해 적용될 수도 있다.The second cropping may be applied to the face image or may be applied to the binocular image (first cropped image).
눈의 아웃라인 검출Eye outline detection
일 실시예에 따르면, 우안의 아웃라인을 검출하기 위하여, 상안검과 안구의 경계, 하안검과 안구의 경계에 대응되는 픽셀들을 검출할 수 있다. 또한, 우안의 아웃라인을 검출하기 위하여, 상안검과 하안검이 서로 만나는 지점에 대응되는 픽셀들을 검출할 수 있다. 나아가, 우안의 아웃라인을 검출하기 위하여, 눈물언덕에 대응되는 픽셀들을 검출할 수 있다.According to an embodiment, in order to detect the outline of the right eye, pixels corresponding to the boundary between the upper eyelid and the eyeball and the boundary between the lower eyelid and the eyeball may be detected. In addition, in order to detect the outline of the right eye, pixels corresponding to points where the upper and lower eyelids meet each other may be detected. Furthermore, in order to detect the outline of the right eye, pixels corresponding to the tear hill may be detected.
다른 실시예에 따르면, 후술할 눈 아웃라인 세그멘테이션 모델을 활용하여 눈 아웃라인의 최외곽에 대응되는 아웃라인 픽셀들을 검출할 수 있다.According to another embodiment, outline pixels corresponding to the outermost periphery of the eye outline may be detected using an eye outline segmentation model to be described later.
아웃라인 픽셀들의 X,Y 좌표의 최대값, 최소값 확인Check the maximum and minimum values of the X,Y coordinates of the outline pixels
검출된 픽셀들을 확인하여, X 좌표값들의 최대값(Xmax), X 좌표값들의 최소값(Xmin), Y 좌표값들의 최대값(Ymax) 및 Y 좌표값들의 최소값(Ymin)을 확인한다.By checking the detected pixels, the maximum value of X coordinate values (X max ), the minimum value of X coordinate values (X min ), the maximum value of Y coordinate values (Y max ), and the minimum value of Y coordinate values (Y min ) are checked. do.
도 11은 아웃라인 픽셀들의 Xmax, Xmin, Ymax, Ymin을 도식화한 도면이다.11 is a diagram illustrating X max , X min , Y max , and Y min of outline pixels.
크롭 영역 결정Crop area determination
확인된 아웃라인 픽셀들의 Xmax, Xmin, Ymax, Ymin에 기초하여, 다음과 같은 4개의 점들을 꼭지점으로 하는 사각형을 생성하고, 해당 사각형의 내부에 포함되는 영역을 크롭 영역으로 결정한다.Based on X max , X min , Y max , and Y min of the identified outline pixels, a rectangle having the following four points as vertices is created, and an area included inside the rectangle is determined as a cropped area. .
(Xmin, Ymax), (X min , Y max ),
(Xmax, Ymax), (X max , Y max ),
(Xmax, Ymin), 및 (X max , Y min ), and
(Xmin, Ymin)(X min , Y min )
도 12는 결정된 제2 크롭 영역을 도시한 도면이다.12 is a diagram illustrating a determined second cropped area.
전술한 바와 같이, 상기 제2 크롭 영역은 좌안에 대해서도 동일한 방식으로 결정될 수 있다.As described above, the second cropped area may be determined in the same way for the left eye.
제2 크롭 이미지의 생성Generation of the second cropped image
제2 크롭 영역이 결정되면, 결정된 제2 크롭 영역에 기초하여, 도 13에 도시된 바와 같이, 얼굴 이미지 또는 양안 이미지로부터 전술한 바와 같이 결정된 제2 크롭 영역의 내부에 포함된 픽셀들을 이용하여 제2 크롭 이미지들(제2 우안 크롭 이미지, 제2 좌안 크롭 이미지)이 생성될 수 있다.When the second crop area is determined, based on the determined second crop area, as shown in FIG. Two cropped images (a second cropped right eye image and a second cropped left eye image) may be generated.
이하에서, 용어 "제2 우안 크롭 이미지"는 용어 "우안 아웃라인 크롭 이미지"와 혼용될 수 있으며, 용어 "제2 좌안 크롭 이미지"는 용어 "좌안 아웃라인 크롭 이미지"와 혼용될 수 있다.Hereinafter, the term “second cropped right eye image” may be used interchangeably with the term “right eye outline cropped image”, and the term “second left eye cropped image” may be interchanged with the term “left eye cropped outline image”.
아울러, 이하에서 특별한 언급없이, 용어 "제2 크롭 이미지(또는 아웃라인 크롭 이미지)"는 제2 우안 크롭 이미지 및 제2 좌안 크롭 이미지 중 어느 하나를 의미하거나 또는 맥락에 따라 둘 모두를 의미할 수 있다.In addition, without special mention below, the term "second cropped image (or outline cropped image)" may mean either one of a second right eye cropped image and a second left eye cropped image, or both depending on the context. have.
제2 크롭 이미지는 '눈의 아웃라인'을 기준으로 크롭된 이미지를 의미하는 것으로, 전술한 방식과 상이한 방식에 따라 생성된 크롭 이미지라고 하여도, '눈의 아웃라인'의 최상측, 최하측, 최우측, 및 최좌측의 픽셀들이 크롭 영역에 포함되도록 생성된 것이라면, 제2 크롭 이미지(아웃라인 크롭 이미지)라 하여야 할 것이다.The second cropped image means an image cropped based on the 'eye outline', and even if it is a cropped image generated according to a method different from the above method, the uppermost and lowermost sides of the 'eye outline' , rightmost, and leftmost pixels are generated to be included in the cropped area, it should be referred to as a second cropped image (outline cropped image).
한편, 본 출원에서 말하는 X 좌표값와 Y 좌표값은 기준점에 대한 상대적인 위치에 따라서 그 크기와 방향이 달라지기 때문에, 최대값과 최소값이라는 용어는 상대적인 의미로 이해되어야 할 것이지, 절대적인 의미로 해석되어서는 안될 것이다. 즉, 좌표계의 원점의 위치가 변경됨에 따라서, 전술한 X 좌표값의 최대값은 원점이 변경된 좌표계에서의 X 좌표값의 최소값이 될 수도 있으며, X 좌표값의 최소값은 원점이 변경된 좌표계에서의 X 좌표값의 최대값이 될 수도 있다. 이는 Y좌표값에 대해서도 동일하게 적용될 수 있다.On the other hand, since the size and direction of the X coordinate value and Y coordinate value in this application vary according to the relative position to the reference point, the terms maximum value and minimum value should be understood in a relative sense, not in an absolute sense. It won't. That is, as the position of the origin of the coordinate system is changed, the maximum value of the above-described X coordinate value may be the minimum value of the X coordinate value in the coordinate system whose origin is changed, and the minimum value of the X coordinate value is the X coordinate value in the coordinate system whose origin is changed. It may be the maximum value of coordinate values. This can also be applied to the Y coordinate value in the same way.
(6) 제3 크롭 (눈꺼풀을 포함하는 크롭)(6) 3rd crop (crop including eyelids)
이하에서, 눈꺼풀 포함 크롭 (eyelid-included crop)(제3 크롭)에 대해 설명한다. 제3 크롭은 우안 이미지와 좌안 이미지 모두에 대해서 적용될 수 있는 것이지만, 설명의 편의를 위하여, 우안 크롭 이미지를 확보하는 것을 기준으로 설명하도록 한다. Hereinafter, an eyelid-included crop (third crop) will be described. The third crop can be applied to both the right eye image and the left eye image, but for convenience of explanation, it will be described based on securing the right eye cropped image.
제3 크롭의 목적Purpose of the third crop
제3 크롭의 목적은 후술할 예측모델들 중 눈꺼풀의 발적 (Redness of eyelid) 여부를 예측하기 위한 모델 및 눈꺼풀의 부종 (Swelling of eyelid) 여부를 예측하기 위한 모델에 대한 인풋 이미지로 사용하기 위한 이미지를 생성하는 목적을 가지는 것으로, 눈꺼풀에 관한 정보가 상기 이미지 내에 포함될 수 있도록 하는 것에 그 목적이 있다. 이때, 눈꺼풀에 대응되는 픽셀들만으로 크롭을 하는 것보다는 눈의 아웃라인 내에 포함되어 있는 픽셀들도 모두 포함될 수 있도록 크롭 이미지를 생성하는 것이 더 좋을 수 있다. 왜냐하면, 눈꺼풀의 발적 여부를 예측하기 위해서는 컬러값에 대한 추론 및 판단이 이루어져야 하는데, 이 때 홍채 및/또는 흰자위에 대응되는 픽셀들의 컬러값이 활용될 수 있기 때문이다.The purpose of the third crop is an image to be used as an input image for a model for predicting redness of eyelids and a model for predicting swelling of eyelids among prediction models to be described later. It has the purpose of generating, and the purpose is to allow information about the eyelid to be included in the image. At this time, it may be better to generate a cropped image so that all pixels included in the eye outline may be included rather than cropping only pixels corresponding to the eyelid. This is because color values must be inferred and determined in order to predict redness of the eyelids, and at this time, color values of pixels corresponding to the iris and/or the white of the eye can be used.
입력 이미지input image
제3 크롭은 얼굴 이미지에 대해 적용될 수도 있고, 양안 이미지(제1 크롭 이미지)에 대해 적용될 수도 있다.The third cropping may be applied to the face image or may be applied to the binocular image (first cropped image).
눈의 아웃라인 검출 및 아웃라인 픽셀들의 X,Y 좌표의 최대값, 최소값 확인Eye outline detection and checking of maximum and minimum values of X,Y coordinates of outline pixels
일 실시예에 따르면, 제2 크롭에서 설명한 눈의 아웃라인 검출 방식이 그대로 적용될 수 있으며, 눈 아웃라인의 최외곽에 대응되는 아웃라인 픽셀들이 검출될 수 있으며, 검출된 픽셀들을 확인하여, X 좌표값들의 최대값(Xmax), X 좌표값들의 최소값(Xmin), Y 좌표값들의 최대값(Ymax) 및 Y 좌표값들의 최소값(Ymin)을 확인할 수 있다.According to an embodiment, the eye outline detection method described in the second crop may be applied as it is, outline pixels corresponding to the outermost periphery of the eye outline may be detected, and the detected pixels may be checked to determine the X coordinate. The maximum value of values (X max ), the minimum value of X coordinate values (X min ), the maximum value of Y coordinate values (Y max ), and the minimum value of Y coordinate values (Y min ) can be checked.
크롭 영역 결정 #1Crop
확인된 Ymax값 및 Ymin값에 기초하여, 미리 정해진 기준에 따라 결정되는 제1 확장값 (expansion value, Ye)을 Ymax값에 더하고, 미리 정해진 기준에 따라 결정되는 제2 확장값(Ye')을 Ymin값에서 뺀 후, 전술한 제2 크롭 영역 결정방법과 유사하게 제3 크롭 영역을 결정할 수 있다.Based on the identified Y max value and Y min value, a first expansion value (Y e ) determined according to a predetermined criterion is added to the Y max value, and a second expansion value (determined according to a predetermined criterion) After Y e ') is subtracted from the Y min value, the third cropped area may be determined similarly to the above-described method for determining the second cropped area.
즉, 다음과 같은 4개의 점들을 꼭지점으로 하는 사각형을 생성하고, 해당 사각형의 내부에 포함되는 영역을 제3 크롭 영역으로 결정할 수 있다.That is, a rectangle having the following four points as vertexes may be created, and an area included in the rectangle may be determined as the third cropping area.
(Xmin, Ymax+Ye), (X min , Y max +Y e ),
(Xmax, Ymax+Ye), (X max , Y max +Y e ),
(Xmax, Ymin-Ye') 및 (X max , Y min -Y e ') and
(Xmin, Ymin-Ye') (X min , Y min -Y e ')
이와 같이 제3 크롭 영역을 결정하게 되면, 제2 크롭 영역에 비하여 상안검 및 하안검에 대응되는 픽셀이 이미지 내에 보다 더 많이 포함될 수 있게 된다.When the third cropped area is determined in this way, more pixels corresponding to the upper and lower eyelids can be included in the image compared to the second cropped area.
이때, 상기 제1 확장값과 상기 제2 확장값은 서로 동일할 수 있으나, 반드시 서로 동일하여야 하는 것은 아니다.In this case, the first extension value and the second extension value may be equal to each other, but do not necessarily have to be equal to each other.
한편, 상기 제1 확장값과 상기 제2 확장값을 결정하는 기준은 서로 동일할 수 있으나, 반드시 동일하여야 하는 것은 아니다.Meanwhile, the criteria for determining the first extension value and the second extension value may be the same, but do not necessarily have to be the same.
상기 제1 확장값 및 상기 제2 확장값은 상기 제2 크롭 영역의 크기에 기초하여 결정될 수 있다. 예를 들어, 상기 제1 확장값 및 상기 제2 확장값은 상기 제2 크롭 영역의 가로 길이에 대한 확장 비율을 곱한 길이를 산출하고, 상기 산출된 길이에 대응되는 픽셀의 개수로 결정될 수 있다. 다른 예를 들어, 제1 확장값 및 상기 제2 확장값은 상기 제2 크롭 영역의 세로 길이에 대한 확장 비율을 곱한 길이를 산출하고, 상기 산출된 길이에 대응되는 픽셀의 개수로 결정될 수 있다.The first extension value and the second extension value may be determined based on the size of the second crop area. For example, the first extension value and the second extension value may be determined by calculating lengths obtained by multiplying the horizontal length of the second cropped region by an extension ratio, and determining the number of pixels corresponding to the calculated lengths. For another example, the first extension value and the second extension value may be determined by calculating lengths obtained by multiplying the extension ratio to the vertical length of the second cropped area, and determining the number of pixels corresponding to the calculated lengths.
이때, 상기 특정 비율은 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60% 중 어느 하나일 수 있다.At this time, the specific ratio is 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60% can be one
상기 제1 확장값을 결정할 때 사용되는 확장 비율과 상기 제2 확장값을 결정할 때 사용되는 확장 비율은 서로 동일할 수 있으나, 반드시 동일하여야 하는 것은 아니면, 서로 다를 수도 있다.An expansion ratio used when determining the first expansion value and an expansion ratio used when determining the second expansion value may be the same, but may not necessarily be the same or may be different from each other.
상기 제1 확장값을 결정할 때 상기 제2 크롭 영역의 가로길이가 사용되었다면, 상기 제2 확장값을 결정할 때도 상기 가로길이가 사용될 수 있으나, 반드시 이에 한정되지는 않고, 상기 제2 확장값을 결정할 때는 상기 세로길이가 사용될 수 있다.If the horizontal length of the second crop area is used when determining the first extension value, the horizontal length may also be used when determining the second extension value, but is not limited thereto, and determines the second extension value. When the vertical length can be used.
크롭 영역 결정 #2Crop Area Determination #2
확인된 Xmax값 및 Xmin값에 기초하여, 미리 정해진 기준에 따라 제1 가로 확장값(width expansion value, Xwe)을 결정하고, 미리 정해진 기준에 따라 제2 가로 확장값(Xwe')을 결정한다.Based on the identified X max value and X min value, a first width expansion value (X we ) is determined according to a predetermined criterion, and a second horizontal expansion value (X we ') is determined according to a predetermined criterion. decide
확인된 Ymax값 및 Ymin값에 기초하여, 미리 정해진 기준에 따라 결정되는 제1 세로 확장값 (height expansion value, Yhe)을 결정하고, 미리 정해진 기준에 따라 제2 세로 확장값(Yhe')을 결정한다.Based on the checked Y max value and Y min value, a first vertical expansion value (Y he ) determined according to a predetermined criterion is determined, and a second vertical expansion value (Y he ) is determined according to a predetermined criterion. ') to determine
Xmax값에 상기 제1 가로 확장값(Xwe)을 더한 값, Xmin값에 상기 제2 가로 확장값(Xwe')을 뺀 값, Ymax값에 상기 제1 세로 확장값(Yhe)을 더한 값 및 Ymin값에 상기 제2 세로 확장값(Yhe')을 뺀 값에 기초하여, 전술한 제2 크롭 영역 결정방법과 유사하게 제3 크롭 영역을 결정할 수 있다.A value obtained by adding the first horizontal expansion value (X we ) to an X max value, a value obtained by subtracting the second horizontal expansion value (X we ') from an X min value, and a value obtained by subtracting the Y max value from the first vertical expansion value (Y he ) and a value obtained by subtracting the second vertical expansion value (Y he ') from the Y min value, the third cropped area may be determined similarly to the above-described method for determining the second cropped area.
즉, 다음과 같은 4개의 점들을 꼭지점으로 하는 사각형을 생성하고, 해당 사각형의 내부에 포함되는 영역을 제3 크롭 영역으로 결정할 수 있다.That is, a rectangle having the following four points as vertexes may be created, and an area included in the rectangle may be determined as the third cropping area.
(Xmin-Xwe', Ymax+Yhe), (X min - X we ', Y max + Y he ),
(Xmax+Xwe, Ymax+Yhe), (X max +X we , Y max +Y he ),
(Xmax+Xwe, Ymin-Yhe') 및 (X max +X we , Y min -Y he ') and
(Xmin-Xwe', Ymin-Yhe') (X min- X we ', Y min -Y he ')
이와 같이 제3 크롭 영역을 결정하게 되면, 제2 크롭 영역에 비하여 상안검 및 하안검에 대응되는 픽셀이 이미지 내에 보다 더 많이 포함될 수 있게 된다.When the third cropped area is determined in this way, more pixels corresponding to the upper and lower eyelids can be included in the image compared to the second cropped area.
나아가, "크롭 영역 결정 #1" 방법에 의해 크롭된 이미지 보다 좌우로 보다 더 많은 픽셀들이 크롭된 이미지 내에 포함될 수 있게 된다. 그 결과, 상안검 및 하안검에 대한 정보가 더 많이 크롭된 이미지 내에 포함될 수 있다. 왜냐하면, 상안검과 하안검의 폭은 외부로 노출된 안구의 폭보다 더 넓은 것이 일반적이기 때문에, 상하로의 확장 뿐만 아니라 좌우로의 확장을 통해 상안검 및 하안검에 대응되는 픽셀들이 더 많아지게 된다.Furthermore, more pixels can be included in the cropped image in the left and right than in the cropped image by the "determination of
이때, 상기 제1 가로 확장값과 상기 제2 가로 확장값은 서로 동일할 수 있으나, 반드시 서로 동일하여야 하는 것은 아니다.In this case, the first horizontal extension value and the second horizontal extension value may be equal to each other, but do not necessarily have to be equal to each other.
한편, 상기 제1 세로 확장값과 상기 제2 세로 확장값을 결정하는 기준은 서로 동일할 수 있으나, 반드시 동일하여야 하는 것은 아니다.Meanwhile, criteria for determining the first vertical expansion value and the second vertical expansion value may be the same, but do not necessarily have to be the same.
상기 제1 가로 확장값 및 상기 제2 가로 확장값은 상기 제2 크롭 영역의 크기에 기초하여 결정될 수 있다. 예를 들어, 상기 제1 가로 확장값 및 상기 제2 가로 확장값은 상기 제2 크롭 영역의 가로 길이에 대한 확장 비율을 곱한 길이를 산출하고, 상기 산출된 길이에 대응되는 픽셀의 개수로 결정될 수 있다. 다른 예를 들어, 제1 가로 확장값 및 상기 제2 가로 확장값은 상기 제2 크롭 영역의 세로 길이에 대한 확장 비율을 곱한 길이를 산출하고, 상기 산출된 길이에 대응되는 픽셀의 개수로 결정될 수 있다.The first horizontal expansion value and the second horizontal expansion value may be determined based on the size of the second cropped area. For example, the first horizontal expansion value and the second horizontal expansion value may be determined by calculating a length obtained by multiplying the horizontal length of the second cropped area by an expansion ratio, and determining the number of pixels corresponding to the calculated length. have. For another example, the first horizontal expansion value and the second horizontal expansion value may be determined by calculating a length obtained by multiplying the expansion ratio to the vertical length of the second cropped region, and determining the number of pixels corresponding to the calculated length. have.
이때, 상기 특정 비율은 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60% 중 어느 하나일 수 있다.At this time, the specific ratio is 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60% can be
상기 제1 가로 확장값을 결정할 때 사용되는 확장 비율과 상기 제2 가로 확장값을 결정할 때 사용되는 확장 비율은 서로 동일할 수 있으나, 반드시 동일하여야 하는 것은 아니면, 서로 다를 수도 있다.An expansion ratio used when determining the first horizontal expansion value and an expansion ratio used when determining the second horizontal expansion value may be the same, but may be different from each other.
상기 제1 가로 확장값을 결정할 때 상기 제2 크롭 영역의 가로길이가 사용되었다면, 상기 제2 가로 확장값을 결정할 때도 상기 가로길이가 사용될 수 있으나, 반드시 이에 한정되지는 않고, 상기 제2 확장값을 결정할 때는 상기 세로길이가 사용될 수 있다.If the horizontal length of the second crop area is used when determining the first horizontal expansion value, the horizontal length may also be used when determining the second horizontal expansion value, but is not limited thereto, and the second expansion value When determining , the vertical length may be used.
한편, 제1 세로 확장값과 제2 세로 확장값을 결정하는 방법은 전술한 제1 확장값 및 제2 확장값을 결정하는 방법과 동일하므로 이에서는 자세한 설명을 생략한다.Meanwhile, a method of determining the first and second vertical extension values is the same as the method of determining the first extension value and the second extension value, and thus a detailed description thereof will be omitted.
제3 크롭 이미지의 생성Generation of third cropped image
제3 크롭 영역이 결정되면, 결정된 제3 크롭 영역에 기초하여, 도 14에 도시된 바와 같이, 얼굴 이미지 또는 양안 이미지로부터 전술한 바와 같이 결정된 제2 크롭 영역의 내부에 포함된 픽셀들을 이용하여 제3 크롭 이미지들(제3 우안 크롭 이미지, 제3 좌안 크롭 이미지)이 생성될 수 있다.When the third crop area is determined, as shown in FIG. 14 , based on the determined third crop area, pixels included in the second crop area determined as described above from the facial image or the both eyes image are used to generate the third crop area. Three cropped images (a third cropped right eye image and a third cropped left eye image) may be generated.
참고로, 도 14의 (a)는 전술한 '크롭 영역 결정 #1'의 방식에 의해 크롭된 제3 크롭 이미지이고, 도 14의 (b)는 전술한 '크롭 영역 결정 #2'의 방식에 의해 크롭된 제3 크롭 이미지이다.For reference, (a) of FIG. 14 is a third cropped image cropped by the method of 'determining crop area #1' described above, and (b) of FIG. 14 is a method of 'determining crop area #2' described above. This is the third cropped image cropped by
이하에서, 용어 "제3 우안 크롭 이미지"는 용어 "우안 눈꺼풀-포함 크롭 이미지 (right eyelid-included-cropped image)"와 혼용될 수 있으며, 용어 "제3 좌안 크롭 이미지"는 용어 "좌안 눈꺼풀-포함 크롭 이미지 (left eyelid-included-cropped image)"와 혼용될 수 있다.Hereinafter, the term "third right eye cropped image" may be used interchangeably with the term "right eyelid-included-cropped image", and the term "third left eye cropped image" may be interchanged with the term "left eyelid-included-cropped image". Can be used interchangeably with "left eyelid-included-cropped image".
아울러, 이하에서 특별한 언급없이, 용어 "제3 크롭 이미지(또는 눈꺼풀-포함 크롭 이미지)"는 제3 우안 크롭 이미지 및 제3 좌안 크롭 이미지 중 어느 하나를 의미하거나 또는 맥락에 따라 둘 모두를 의미할 수 있다.In addition, without special mention below, the term “third cropped image (or eyelid-including cropped image)” may refer to either a third right eye cropped image or a third left eye cropped image, or both depending on the context. can
제3 크롭 이미지는 이미지 내에 눈꺼풀에 대한 정보가 포함되도록 생성된 이미지를 의미하는 것으로, 전술한 방식과 상이한 방식에 따라 생성된 크롭 이미지라고 하여도, 눈꺼풀에 대응되는 픽셀들이 추가적으로 포함될 수 있도록 크롭 영역의 경계가 결정된 것이라면, 제3 크롭 이미지(눈꺼풀-포함 크롭 이미지)라 하여야 할 것이다.The third cropped image means an image generated so that information about the eyelid is included in the image, and even if the cropped image is generated according to a method different from the above method, the cropped area so that pixels corresponding to the eyelid can be additionally included If the boundary of is determined, it should be referred to as a third cropped image (an eyelid-included cropped image).
(7) 홍채 세그멘테이션(7) iris segmentation
이하에서는, 홍채 세그멘테이션에 대해 설명한다.Hereinafter, iris segmentation will be described.
홍채 세그멘테이션은 안구 및 그 주변에 관한 이미지로부터 홍채 혹은 각막에 대응되는 영역을 구별해내는 모델에 의해 수행될 수 있다.Iris segmentation may be performed by a model that distinguishes a region corresponding to the iris or cornea from an image of the eyeball and its surroundings.
홍채 세그멘테이션을 활용하면, 도 15에 도시된 바와 같이, 이미지 내에서 홍채에 대응되는 픽셀들을 추론해낼 수 있다.Using iris segmentation, as shown in FIG. 15 , it is possible to infer pixels corresponding to an iris in an image.
홍채 세그멘테이션을 활용하면, 도 16에 도시된 바와 같이, 이미지 내에서 외부로 노출된 홍채에 대응되는 픽셀들을 추론해낼 수 있다.Using iris segmentation, as shown in FIG. 16 , it is possible to infer pixels corresponding to an externally exposed iris in an image.
상기 홍채 세그멘테이션을 위한 모델은 얼굴 이미지를 입력 데이터로 입력받고, 얼굴 이미지 내에서 홍채에 대응되는 픽셀들이라고 추론된 픽셀들에 대해서는 '1'을 출력하고, 그 외의 픽셀들에 대해서는 '0'을 출력할 수 있다.The model for iris segmentation receives a face image as input data, outputs '1' for pixels inferred to be pixels corresponding to the iris in the face image, and outputs '0' for other pixels. can be printed out.
상기 홍채 세그멘테이션 모델은 얼굴 이미지 및 얼굴 이미지 내에서 홍채에 대응되는 픽셀의 픽셀값은 '1'이고, 나머지 픽셀들의 픽셀값은 '0'인 이미지를 포함하는 학습 데이터를 이용하여 학습될 수 있다.The iris segmentation model may be learned using training data including a face image and an image in which the pixel value of a pixel corresponding to the iris in the face image is '1' and the pixel value of the remaining pixels is '0'.
다만, 얼굴 이미지를 입력 데이터로 입력받아 홍채 세그멘테이션을 하는 것으로 설명하였으나, 전술한 양안 이미지를 입력 데이터로 활용하여 홍채 세그멘테이션을 수행하는 것도 가능하다.However, although it has been described that iris segmentation is performed by receiving a face image as input data, it is also possible to perform iris segmentation by using the above-described binocular image as input data.
(8) 눈 아웃라인 (outline of eye) 세그멘테이션(8) Eye outline segmentation
이하에서는, 눈의 아웃라인 세그멘테이션에 대해 설명한다.In the following, outline segmentation of the eye will be described.
눈 아웃라인 세그멘테이션은 안구 및 그 주변에 관한 이미지로부터 눈의 아웃라인의 내부에 대응되는 영역을 구별해내는 모델에 의해 수행될 수 있다.Eye outline segmentation may be performed by a model that distinguishes a region corresponding to the inside of the eye outline from an image of the eye and its surroundings.
눈 아웃라인 세그멘테이션을 활용하면, 도 17에 도시된 바와 같이, 이미지 내에서 눈의 아웃라인의 내부에 대응되는 픽셀들을 추론해낼 수 있다.Using the eye outline segmentation, as shown in FIG. 17 , it is possible to infer pixels corresponding to the inside of the eye outline in the image.
상기 눈 아웃라인 세그멘테이션을 위한 모델은 얼굴 이미지를 입력 데이터로 입력받고, 얼굴 이미지 내에서 눈 아웃라인의 내부에 대응되는 픽셀들이라고 추론된 픽셀들에 대해서는 '1'을 출력하고, 그 외의 픽셀들에 대해서는 '0'을 출력할 수 있다.The model for eye outline segmentation receives a face image as input data, outputs '1' for pixels inferred to be pixels corresponding to the inside of the eye outline in the face image, and outputs '1' for other pixels. For , '0' can be output.
상기 눈 아웃라인 세그멘테이션 모델은 얼굴 이미지 및 얼굴 이미지 내에서 눈 아웃라인의 내부에 대응되는 픽셀의 픽셀값은 '1'이고, 나머지 픽셀들의 픽셀값은 '0'인 이미지를 포함하는 학습 데이터를 이용하여 학습될 수 있다.The eye outline segmentation model uses training data including a face image and an image in which the pixel value of a pixel corresponding to the inside of the eye outline in the face image is '1' and the pixel value of the remaining pixels is '0'. so it can be learned.
(9) 마스킹(9) Masking
제1 마스킹1st masking
본 출원에 있어서, 제1 마스킹은 이미지 내에서 결막과 눈물 언덕에 대응되는 픽셀들을 남기고 그 외의 영역들에 대응되는 픽셀값들에 반영되어 있는 정보는 제거하는 것을 의미한다.In the present application, the first masking means leaving pixels corresponding to the conjunctiva and the tear hill in the image and removing information reflected in pixel values corresponding to other regions.
픽셀값들에 반영되어 있는 정보를 제거한다는 것의 의미는 정보를 제거하고자 하는 픽셀들의 픽셀값들을 미리 결정된 특정값으로 변경하는 것을 의미할 수 있다. 예를 들어, 정보를 제거하고자 하는 픽셀들의 픽셀값들이 모두 0으로 변경될 수 있다.The meaning of removing information reflected in pixel values may mean changing pixel values of pixels whose information is to be removed to predetermined specific values. For example, pixel values of pixels whose information is to be removed may all be changed to 0.
제1 마스킹은 전술한 갑상선 안병증에 관한 임상활동점수를 예측하기 위한 예측모델들 중 결막 및 눈물언덕과 관련된 증상을 예측하기 위한 모델에 이미지를 입력하기 전에 수행될 수 있다.The first masking may be performed before inputting an image to a model for predicting symptoms related to the conjunctiva and lacrimal hill among prediction models for predicting a clinical activity score related to thyroid ophthalmopathy.
제2 마스킹2nd masking
본 출원에 있어서, 제2 마스킹은 이미지 내에서 외부로 노출된 각막(외부로 노출된 홍채)에 대응되는 픽셀들을 남기고 그 외의 영역들에 대응되는 픽셀값들에 반영되어 있는 정보는 제거하는 것을 의미한다.In this application, the second masking means leaving pixels corresponding to the externally exposed cornea (externally exposed iris) in the image and removing information reflected in pixel values corresponding to other regions. do.
제2 마스킹은 전술한 갑상선 안병증에 관한 임상활동점수를 예측하기 위한 예측모델들 중 눈꺼풀(상안검 및 하안검)과 관련된 증상을 예측하기 위한 모델에 이미지를 입력하기 전에 수행될 수 있다.The second masking may be performed before the image is input to a model for predicting symptoms related to the eyelids (upper and lower eyelids) among prediction models for predicting the clinical activity score related to thyroid ophthalmopathy.
제1 마스킹의 방법Method of the first masking
제1 마스킹은 얼굴 이미지, 제1 크롭 이미지(양안 이미지), 제2 크롭 이미지(아웃라인 크롭 이미지) 중 어느 하나에서 선택되는 제1 마스킹 대상 이미지에 대해 수행될 수 있다.The first masking may be performed on a first masking target image selected from any one of a face image, a first cropped image (both eyes image), and a second cropped image (outline cropped image).
상기 제1 마스킹 대상 이미지, 상기 눈 아웃라인 세그멘테이션 결과 및 상기 홍채 세그멘테이션 결과에 기초하여, 제1 마스킹 이미지가 생성될 수 있다. 예를 들어, 상기 제1 마스킹 대상 이미지로부터 상기 눈 아웃라인의 내부에 대응되는 픽셀들을 제외한 나머지 픽셀들의 값 및 홍채(또는 외부로 노출된 홍채)에 대응되는 픽셀들에 대응되는 픽셀들의 값을 제거할 수 있다.A first masking image may be generated based on the first masking target image, the eye outline segmentation result, and the iris segmentation result. For example, values of pixels other than pixels corresponding to the inside of the eye outline and pixels corresponding to iris (or iris exposed to the outside) from the first masking target image are removed. can do.
도 18은 제1 마스킹 이미지에 대한 예시적인 도면이다.18 is an exemplary diagram of a first masking image.
제2 마스킹의 방법Second masking method
제2 마스킹은 얼굴 이미지, 제1 크롭 이미지(양안 이미지), 제3 크롭 이미지(눈꺼풀-포함 크롭 이미지) 중 어느 하나에서 선택되는 제2 마스킹 대상 이미지에 대해 수행될 수 있다.Second masking may be performed on a second masking target image selected from any one of a face image, a first cropped image (both eyes image), and a third cropped image (eyelid-included cropped image).
상기 제2 마스킹 대상 이미지, 상기 눈 아웃라인 세그멘테이션 결과 및 상기 홍채 세그멘테이션 결과에 기초하여, 제2 마스킹 이미지가 생성될 수 있다. 예를 들어, 상기 제2 마스킹 대상 이미지로부터 상기 눈 아웃라인의 내부에 대응되면서 동시에 상기 홍채(또는 외부로 노출된 홍채)에 대응되는 픽셀들의 픽셀값들을 제거할 수 있다.A second masking image may be generated based on the second masking target image, the eye outline segmentation result, and the iris segmentation result. For example, pixel values of pixels corresponding to the inside of the eye outline and corresponding to the iris (or the iris exposed to the outside) may be removed from the second masking target image.
도 19는 제2 마스킹 이미지에 대한 예시적인 도면이다.19 is an exemplary diagram of a second masking image.
제1 마스킹의 다른 실시예Another embodiment of the first masking
전술한 설명에 의하면, 제1 마스킹은 결막과 눈물언덕에 대응되는 픽셀들을 남기고 그 외의 영역들에 대응되는 픽셀들의 픽셀값들을 모두 제거하는 것으로 설명하였으나, 필요에 따라 각막(홍채)에 대응되는 픽셀들의 픽셀값들은 제거하지 않을 수 있다.According to the above description, the first masking has been described as leaving pixels corresponding to the conjunctiva and the tear hill and removing all pixel values of pixels corresponding to other regions, but if necessary, pixels corresponding to the cornea (iris) Pixel values of may not be removed.
다만, 홍채의 색상은 인종에 따라 서로 다른 색상을 가질 수 있기 때문에 홍채에 대응되는 픽셀들의 픽셀값을 제거하는 것이 보다 더 빠른 학습 및 보다 더 높은 정확도를 위해 유리할 수 있다.However, since the color of the iris may have different colors depending on race, it may be advantageous for faster learning and higher accuracy to remove pixel values of pixels corresponding to the iris.
제2 마스킹의 선택성Second masking selectivity
전술한 설명에 의하면, 제2 마스킹은 홍채에 대응되는 픽셀들의 픽셀값들을 모두 제거하는 것으로 설명하였으나, 제2 마스킹은 아예 수행하지 않아도 무방할 수 있다.According to the above description, the second masking has been described as removing all pixel values of pixels corresponding to the iris, but the second masking may not be performed at all.
다만, 홍채의 색상은 인종에 따라 서로 다른 색상을 가질 수 있기 때문에 제2 마스킹을 수행하여 홍채에 대응되는 픽셀들의 픽셀값을 제거하는 것이 보다 더 빠른 학습 및 보다 더 높은 정확도를 위해 유리할 수 있다.However, since the color of the iris may have different colors according to race, it may be advantageous for faster learning and higher accuracy to remove pixel values of pixels corresponding to the iris by performing the second masking.
(10) 좌우 반전(10) Left and right reversal
좌우 반전의 필요성Necessity of left-right reversal
본 출원에 의해 제공되는 갑상선 안병증에 관한 임상활동점수를 예측하는 방법에 의하면, 양안 이미지를 사용하는 대신 좌안과 우안 각각에 대하여 크롭된 크롭 이미지를 사용한다. According to the method for predicting the clinical activity score for thyroid ophthalmopathy provided by the present application, cropped images for each of the left and right eyes are used instead of using images of both eyes.
한편, 눈의 아웃라인은 비대칭적이다. 예를 들어, 우안을 기준으로 하면, 우안의 왼쪽 끝에는 눈물언덕이 있지만 우안의 오른쪽 끝에는 상안검과 하안검이 자연스럽게 만나는 지점이 존재한다.On the other hand, the outline of the eye is asymmetrical. For example, based on the right eye, there is a tear hill at the left end of the right eye, but there is a point where the upper and lower eyelids naturally meet at the right end of the right eye.
이에 따라서, 보다 더 빠른 학습 및 보다 더 정확한 예측을 위하여, 우안을 기준으로 학습한 학습모델과 좌안을 기준으로 학습한 학습모델을 구별하여 사용하는 것이 보다 더 효과적이다.Accordingly, for faster learning and more accurate prediction, it is more effective to distinguish between a learning model learned based on the right eye and a learning model learned based on the left eye.
그러나, 좌안과 우안의 선대칭성에 기인하여, 좌안을 우안으로 반전하게 되면 우안과 좌안의 형상적 특징이 서로 유사해지게 된다.However, due to the line symmetry between the left and right eyes, when the left eye is reversed to the right eye, the shape characteristics of the right eye and the left eye become similar to each other.
이에 따라, 본 출원의 일 실시예에 따르면, 우안과 좌안 중 어느 하나는 좌우반전을 시키지 않은 채로 사용하고, 다른 하나는 좌우반전을 시켜서 사용하면 하나의 학습모델만 사용할 수 있게 된다.Accordingly, according to an embodiment of the present application, if one of the right eye and the left eye is used without horizontal reversal and the other eye is used with left and right reversal, only one learning model can be used.
좌우 반전의 방법How to reverse left and right
이미지를 좌우 반전시킨다(converting left and right of image)는 것은, 반전시키고자하는 이미지를 상하로 가로지르면서 이미지를 좌우로 반으로 나누고 있는 좌우 기준선이 X=a라 할 때, 이미지 내에서의 (a+△, Y) 픽셀에 제1 픽셀값이 대응되어 있고 (a-△, Y) 픽셀에 제2 픽셀값이 대응되어 있는 경우, (a+△, Y)의 픽셀값을 제1 픽셀값에서 제2 픽셀값으로 변경하고, (a-△, Y)의 픽셀값을 제2 픽셀값에서 제1 픽셀값으로 변경하는 것을 의미한다.Converting left and right of an image means that, when the left and right reference lines dividing the image into left and right halves crossing the image to be reversed vertically and X = a, When the first pixel value corresponds to the a+Δ, Y) pixel and the second pixel value corresponds to the (a-Δ, Y) pixel, the pixel value of (a+Δ, Y) is subtracted from the first pixel value. It means changing to 2 pixel values and changing the pixel value of (a-Δ, Y) from the second pixel value to the first pixel value.
좌우 반전 대상 이미지Left/Right Flip Target Image
좌안에 관한 이미지와 우안에 관한 이미지 중 어느 하나의 이미지만 좌우 반전을 시키면 충분하다. 좌안 이미지와 우안 이미지 중 어느 이미지를 좌우반전 시킬 것인지는 후술할 예측모델들의 학습 시에 좌안 이미지와 우안 이미지 중 어느 이미지를 기준으로 학습되었는지 여부에 따라 결정된다.It is sufficient to invert only one of the images for the left eye and the image for the right eye. Which one of the left-eye image and the right-eye image is to be reversed is determined according to which one of the left-eye image and the right-eye image is learned as a standard when learning predictive models to be described later.
한편, 마스킹과 크롭(제2 크롭 또는 제3 크롭)이 모두 완료된 이미지를 좌우반전시킬 수도 있으나, 크롭만 완료되고 마스킹은 완료되지 않은 이미지를 좌우반전시킬 수도 있다.Meanwhile, an image for which both masking and cropping (second cropping or third cropping) has been completed may be horizontally reversed, but an image in which only cropping is completed and masking is not completed may be horizontally reversed.
도 20 내지 도 22는 원본 이미지와 좌우 반전 이미지의 다양한 예시를 도시하는 도면들이다.20 to 22 are diagrams illustrating various examples of an original image and a horizontally reversed image.
좌우 반전의 선택성Selectivity of left-right reversal
다만, 좌우 반전은 전술한 바와 같이, 좌안에 대한 예측모델과 우안에 대한 예측모델을 일원화시키기 위하여 도입되는 것이기 때문에, 만약 좌안에 대한 예측모델과 우안에 대한 예측모델을 서로 다른 모델로 구현하는 경우, 좌우 반전 전처리는 생략될 수 있다.However, since left-right reversal is introduced to unify the prediction model for the left eye and the prediction model for the right eye as described above, if the prediction model for the left eye and the prediction model for the right eye are implemented as different models, , the left-right reversal preprocessing can be omitted.
(11) 리사이징(11) Resizing
리사이징의 필요성Need for resizing
전술한 바와 같이, 눈의 아웃라인을 기준으로 이미지를 크롭하여 사용하게 되는 경우, 사람마다 눈의 크기가 서로 달라서, 크롭된 이미지는 사람마다 서로 다른 크기를 가지게 된다.As described above, when an image is cropped and used based on an eye outline, each person has a different eye size, so the cropped image has a different size for each person.
한편, 좌안 이미지와 우안 이미지를 독립적으로 크롭하여 획득하게 되는 경우, 좌안과 우안의 크기 차이로 인해 동일한 사람의 좌안 크롭 이미지와 우안 크롭 이미지가 서로 다르다.Meanwhile, when the left eye image and the right eye image are obtained by independently cropping, the left eye cropped image and the right eye cropped image of the same person are different from each other due to a size difference between the left eye and the right eye.
이러한 이유로, 후술할 예측모델에 눈 이미지를 입력하기 전에, 눈 이미지의 크기를 각 예측모델에 대응되는 표준 크기로 리사이징할 필요가 있다. For this reason, it is necessary to resize the size of the eye image to a standard size corresponding to each predictive model before inputting an eye image to a predictive model to be described later.
예측모델별 표준 크기Standard size for each prediction model
제1 예측모델 내지 제5 예측모델들 각각에 대응되어 있는 표준 크기는 서로 다를 수 있다.Standard sizes corresponding to the first to fifth prediction models may be different from each other.
제2 크롭 이미지를 인풋이미지로 사용하는 예측모델들에 대응되어 있는 표준 크기는 서로 동일할 수 있다.Standard sizes corresponding to prediction models using the second cropped image as an input image may be the same.
제3 크롭 이미지를 인풋이미지로 사용하는 예측모델들에 대응되어 있는 표준 크기는 서로 동일할 수 있다.Standard sizes corresponding to prediction models using the third cropped image as an input image may be the same.
제2 크롭 이미지를 인풋이미지로 사용하는 예측모델들에 대응되어 있는 표준 크기는 제3 크롭 이미지를 인풋이미지로 사용하는 예측모델들에 대응되어 있는 표준 크기와 다를 수 있다.A standard size corresponding to prediction models using the second cropped image as an input image may be different from a standard size corresponding to prediction models using the third cropped image as an input image.
또는, 제1 예측모델 내지 제5 예측모델들 각각에 대응되어 있는 표준 크기는 모두 동일할 수 있다.Alternatively, all standard sizes corresponding to the first to fifth prediction models may be the same.
리사이징의 방법How to resize
리사이징 대상 이미지의 크기를 표준 크기로 조절한다.Adjusts the size of the image to be resized to the standard size.
리사이징 대상 이미지의 너비 또는 높이가 표준 크기의 너비 또는 높이 보다 더 큰 경우, 상기 리사이징 대상 이미지의 너비 또는 높이를 늘일 수 있다.When the width or height of the image to be resized is larger than the width or height of the standard size, the width or height of the image to be resized may be increased.
리사이징 대상 이미지의 너비 또는 높이가 표준 크기의 너비 또는 높이 보다 더 작은 경우, 상기 리사이징 대상 이미지의 너비 또는 높이를 줄일 수 있다.When the width or height of the image to be resized is smaller than the width or height of the standard size, the width or height of the image to be resized may be reduced.
리사이징 시에, 리사이징 전 이미지의 종횡비(aspect ratio)는 리사이징 후 이미지의 종횡비와 다를 수 있다.During resizing, an aspect ratio of an image before resizing may be different from an aspect ratio of an image after resizing.
4. 예측 모델4. Prediction Model
(1) 제1 예측모델(1) 1st prediction model
제1 예측모델의 목적 및 동작Purpose and operation of the first predictive model
제1 예측모델은 결막의 충혈 여부를 예측하기 위한 모델이다. The first predictive model is a model for predicting whether or not conjunctiva is congested.
제1 예측모델은 눈 이미지를 입력 데이터로 받고 입력된 눈 이미지에 캡쳐된 결막이 충혈되었을 확률값을 출력할 수 있다.The first predictive model may receive an eye image as input data and output a probability value that the conjunctiva captured in the input eye image is congested.
제1 예측모델이 제1 좌안 예측모델 및 제1 우안 예측모델을 포함하는 경우, 상기 제1 좌안 예측모델은 좌안 이미지를 입력받아 좌안 이미지에 캡쳐된 결막이 충혈되었을 확률값을 출력하고, 상기 제1 우안 예측모델은 우안 이미지를 입력받아 우안 이미지에 캡쳐된 결막이 충혈되었을 확률값을 출력할 수 있다.When the first prediction model includes a first left eye prediction model and a first right eye prediction model, the first left eye prediction model receives a left eye image and outputs a probability value that the conjunctiva captured in the left eye image is congested, and The right eye prediction model may receive a right eye image and output a probability value that the conjunctiva captured in the right eye image is congested.
제1 예측모델이 이원화되어 있지 않고 하나의 모델로 구현된 경우, 상기 제1 예측모델은 우안 이미지와 좌안 이미지 중 하나를 입력받아 입력된 이미지에 캡쳐된 결막이 충혈되었을 확률값을 출력하고, 다른 하나를 다시 입력받아 입력된 이미지에 캡쳐된 결막이 충혈되었을 확률값을 출력할 수 있다.When the first predictive model is not binary but implemented as a single model, the first predictive model receives one of the right eye image and the left eye image and outputs a probability value that the conjunctiva captured in the input image is congested, and the other one A probability value that the conjunctiva captured in the input image is congested may be output.
상기 눈 이미지는 전술한 전처리 알고리즘들에 의해 전처리가 된 이미지일 수 있다.The eye image may be an image pre-processed by the above-described pre-processing algorithms.
예를 들어, 상기 눈 이미지는 제2 크롭에 따른 전처리가 된 이미지일 수 있다. For example, the eye image may be an image preprocessed according to the second cropping.
다른 예를 들어, 상기 눈 이미지는 제2 크롭 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.For another example, the eye image may be a preprocessed image including second cropping and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, horizontal reversal, and resizing.
본 명세서에서, 제1 예측모델은 결막 충혈 예측 모델이라고 할 수 있다.In the present specification, the first prediction model may be referred to as a conjunctival congestion prediction model.
제1 예측모델의 학습Learning of the first predictive model
제1 예측모델을 학습시키기 위하여, 복수의 학습 데이터 셋들을 준비할 수 있다. 학습 데이터 셋은 눈 이미지 및 상기 눈 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다. 상기 눈 이미지는 전술한 전처리 알고리즘에 의해 전처리가 된 이미지일 수 있다. 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.In order to train the first prediction model, a plurality of training data sets may be prepared. The training data set may include an eye image and an evaluation value for conjunctival congestion captured in the eye image. The eye image may be an image pre-processed by the above-described pre-processing algorithm. For example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
제1 예측모델을 학습시키기 위하여, 인공지능 모델을 준비할 수 있다.In order to train the first prediction model, an artificial intelligence model may be prepared.
상기 인공지능 모델은 SVM(Support Vector Machine), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet 및 Vision Transformer 등일 수 있다.The artificial intelligence model may be a Support Vector Machine (SVM), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet, and Vision Transformer.
이어서, 상기 인공지능 모델에 준비된 복수의 학습 데이터 셋들에 포함된 눈 이미지들을 입력하고, 입력된 눈 이미지들 각각에 대응되는 평가값과 상기 인공지능 모델에서 출력되는 출력값을 이용하여 학습시킬 수 있다.Subsequently, eye images included in a plurality of training data sets prepared for the artificial intelligence model may be input, and learning may be performed using an evaluation value corresponding to each of the input eye images and an output value output from the artificial intelligence model.
만약, 제1 예측모델이 제1 좌안 예측모델 및 제1 우안 예측모델을 포함하는 경우, 제1 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있고, 제2 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다. 한편, 학습 데이터 셋들의 수를 늘리기 위하여, 제1 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있으며, 제1 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다.If the first prediction model includes the first left eye prediction model and the first right eye prediction model, the plurality of learning data sets for learning the first left eye prediction model are the left eye image and congestion of the conjunctiva captured in the left eye image , and the plurality of training data sets for training the second right eye prediction model may include a right eye image and an evaluation value regarding congestion of the conjunctiva captured in the right eye image. Meanwhile, in order to increase the number of learning data sets, the plurality of learning data sets for learning the first left eye prediction model may include a left-right inverted right eye image and an evaluation value for conjunctival congestion captured in the right eye image. In addition, the plurality of training data sets for learning the first right eye prediction model may include a left eye image processed by inverting left and right and evaluation values of conjunctival congestion captured in the left eye image.
만약, 제1 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함하거나 또는 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다. 또는 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함하거나 또는 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다.If the first predictive model is to be implemented as a single model without being binary, the plurality of training data sets include a right eye image and an evaluation value for conjunctival congestion captured in the right eye image, or a left and right inverted left eye image and an evaluation value of congestion of the conjunctiva captured in the left eye image. Alternatively, the plurality of training data sets may include a left eye image and an evaluation value for conjunctival congestion captured in the left eye image, or a left-right inverted right eye image and an evaluation value for conjunctival congestion captured in the right eye image. have.
한편, 상기 제1 예측모델을 학습시킴에 있어서, 우안 이미지와 좌안 이미지의 구별없이 결막의 충혈 여부에 대한 예측을 할 수 있도록 하기 위하여 우안 이미지, 좌우 반전된 우안 이미지, 좌안 이미지 및 좌우 반전된 좌안 이미지를 모두 하나의 모델을 학습시키기 위한 학습데이터로 사용될 수 있다.On the other hand, in learning the first predictive model, in order to be able to predict whether or not conjunctiva is congested without distinguishing between the right eye image and the left eye image, the right eye image, the left and right inverted right eye image, the left eye image and the left and right inverted left eye All images can be used as training data for training one model.
예를 들어, 제1 예측모델이 제1 좌안 예측모델 및 제1 우안 예측모델을 포함하는 경우, 제1 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값, 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있고, 제1 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값, 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다. For example, when the first prediction model includes a first left eye prediction model and a first right eye prediction model, a plurality of training data sets for learning the first left eye prediction model include a left eye image and the conjunctiva captured in the left eye image may include an evaluation value for congestion of the right eye image, a left and right inverted right eye image, and an evaluation value for congestion of the conjunctiva captured in the right eye image, and a plurality of training data sets for training the first right eye predictive model include the right eye image and An evaluation value for conjunctival congestion captured in the right eye image, a left-right inverted left eye image, and an evaluation value for conjunctival congestion captured in the left eye image may be included.
만약, 제1 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값, 좌우 반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 충혈에 관한 평가값, 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값, 그리고 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 충혈에 관한 평가값을 포함할 수 있다.If the first predictive model is to be implemented as a single model without being binary, the plurality of training data sets are the right eye image and the evaluation value of the conjunctival congestion captured in the right eye image, the left and right inverted right eye image, and the right eye An evaluation value for conjunctival congestion captured in an image, a left eye image and an evaluation value for conjunctival congestion captured in the left eye image, and a left-right inverted left eye image and an evaluation value for conjunctival congestion captured in the left eye image can include
(2) 제2 예측모델(2) 2nd prediction model
제2 예측모델의 목적 및 동작Purpose and operation of the second predictive model
제2 예측모델은 결막의 부종 여부를 예측하기 위한 모델이다. The second predictive model is a model for predicting whether or not the conjunctiva is edematous.
제2 예측모델은 눈 이미지를 입력 데이터로 받고 입력된 눈 이미지에 캡쳐된 결막에 부종이 존재할 확률값을 출력할 수 있다.The second predictive model may receive an eye image as input data and output a probability value of existence of edema in the conjunctiva captured in the input eye image.
제2 예측모델이 제2 좌안 예측모델 및 제2 우안 예측모델을 포함하는 경우, 상기 제2 좌안 예측모델은 좌안 이미지를 입력받아 좌안 이미지에 캡쳐된 결막에 부종이 존재할 확률값을 출력하고, 상기 제2 우안 예측모델은 우안 이미지를 입력받아 우안 이미지에 캡쳐된 결막에 부종이 존재할 확률값을 출력할 수 있다.When the second predictive model includes the second left eye predictive model and the second right eye predictive model, the second left eye predictive model receives the left eye image and outputs a probability value that edema exists in the conjunctiva captured in the left eye image, and 2 The right eye prediction model may receive a right eye image and output a probability value of the presence of edema in the conjunctiva captured in the right eye image.
제2 예측모델이 이원화되어 있지 않고 하나의 모델로 구현된 경우, 상기 제2 예측모델은 우안 이미지와 좌안 이미지 중 하나를 입력받아 입력된 이미지에 캡쳐된 결막에 부종이 존재할 확률값을 출력하고, 다른 하나를 다시 입력받아 입력된 이미지에 캡쳐된 결막에 부종이 존재할 확률값을 출력할 수 있다.When the second predictive model is not binary but implemented as a single model, the second predictive model receives one of the right eye image and the left eye image and outputs a probability value of the existence of edema in the conjunctiva captured in the input image, and other It is possible to receive one input again and output a probability value of the presence of edema in the conjunctiva captured in the input image.
상기 눈 이미지는 전술한 전처리 알고리즘들에 의해 전처리가 된 이미지일 수 있다.The eye image may be an image pre-processed by the above-described pre-processing algorithms.
예를 들어, 상기 눈 이미지는 제2 크롭에 따른 전처리가 된 이미지일 수 있다. For example, the eye image may be an image preprocessed according to the second cropping.
다른 예를 들어, 상기 눈 이미지는 제2 크롭 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.For another example, the eye image may be a preprocessed image including second cropping and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, horizontal reversal, and resizing.
본 명세서에서, 제2 예측모델은 결막 부종 예측 모델이라고 할 수 있다.In the present specification, the second prediction model may be referred to as a conjunctival edema prediction model.
제2 예측모델의 학습Learning of the second predictive model
제2 예측모델을 학습시키기 위하여, 복수의 학습 데이터 셋들을 준비할 수 있다. 학습 데이터 셋은 눈 이미지 및 상기 눈 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 상기 눈 이미지는 전술한 전처리 알고리즘에 의해 전처리가 된 이미지일 수 있다. 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.In order to train the second predictive model, a plurality of training data sets may be prepared. The training data set may include an eye image and an evaluation value regarding whether edema exists in the conjunctiva captured in the eye image. The eye image may be an image pre-processed by the above-described pre-processing algorithm. For example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
제2 예측모델을 학습시키기 위하여, 인공지능 모델을 준비할 수 있다.In order to train the second prediction model, an artificial intelligence model may be prepared.
상기 인공지능 모델은 SVM(Support Vector Machine), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet 및 Vision Transformer 등일 수 있다.The artificial intelligence model may be a Support Vector Machine (SVM), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet, and Vision Transformer.
이어서, 상기 인공지능 모델에 준비된 복수의 학습 데이터 셋들에 포함된 눈 이미지들을 입력하고, 입력된 눈 이미지들 각각에 대응되는 평가값과 상기 인공지능 모델에서 출력되는 출력값을 이용하여 학습시킬 수 있다.Subsequently, eye images included in a plurality of training data sets prepared for the artificial intelligence model may be input, and learning may be performed using an evaluation value corresponding to each of the input eye images and an output value output from the artificial intelligence model.
만약, 제2 예측모델이 제2 좌안 예측모델 및 제2 우안 예측모델을 포함하는 경우, 제2 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있고, 제2 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 한편, 학습 데이터 셋들의 수를 늘리기 위하여, 제2 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있으며, 제2 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the second prediction model includes the second left eye prediction model and the second right eye prediction model, the plurality of learning data sets for learning the second left eye prediction model are the left eye image and swelling in the conjunctiva captured in the left eye image may include an evaluation value for whether there is edema in the right eye image and the conjunctiva captured in the right eye image, and the plurality of learning data sets for learning the second right eye prediction model may include an evaluation value for whether edema exists can On the other hand, in order to increase the number of learning data sets, a plurality of training data sets for learning the second left eye predictive model evaluates the presence of edema in the right eye image and the conjunctiva captured in the right eye image The plurality of training data sets for learning the second right eye prediction model may include a left eye image processed in a left-right inversion process and an evaluation value regarding whether edema is present in the conjunctiva captured in the left eye image.
만약, 제2 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 또는 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the second prediction model is to be implemented as one model without being binary, the plurality of training data sets include the right eye image and an evaluation value for whether or not edema exists in the conjunctiva captured in the right eye image, or invert left and right and an evaluation value regarding whether edema exists in the conjunctiva captured in the left eye image and the left eye image. Alternatively, the plurality of learning data sets include a left eye image and an evaluation value regarding whether or not edema is present in the conjunctiva captured in the left eye image, or a left and right inverted right eye image and whether edema exists in the conjunctiva captured in the right eye image. An evaluation value may be included.
한편, 상기 제2 예측모델을 학습시킴에 있어서, 우안 이미지와 좌안 이미지의 구별없이 결막의 부종 여부에 대한 예측을 할 수 있도록 하기 위하여 우안 이미지, 좌우 반전된 우안 이미지, 좌안 이미지 및 좌우 반전된 좌안 이미지를 모두 하나의 모델을 학습시키기 위한 학습데이터로 사용될 수 있다.On the other hand, in learning the second predictive model, in order to be able to predict whether or not the conjunctiva is edema without distinguishing between the right eye image and the left eye image, the right eye image, the left and right inverted right eye image, the left eye image and the left and right inverted left eye All images can be used as training data for training one model.
예를 들어, 제2 예측모델이 제2 좌안 예측모델 및 제2 우안 예측모델을 포함하는 경우, 제2 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 부종에 관한 평가값, 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 부종에 관한 평가값을 포함할 수 있고, 제2 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 부종에 관한 평가값, 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 부종에 관한 평가값을 포함할 수 있다. For example, when the second prediction model includes the second left eye prediction model and the second right eye prediction model, the plurality of learning data sets for learning the second left eye prediction model include the left eye image and the conjunctiva captured in the left eye image may include an evaluation value for edema of the left and right inverted right eye image and an evaluation value for edema of the conjunctiva captured in the right eye image, and a plurality of training data sets for training the second right eye prediction model may include the right eye image and An evaluation value for conjunctival edema captured in the right eye image, a left-right inverted left eye image, and an evaluation value for conjunctival edema captured in the left eye image may be included.
만약, 제2 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 부종에 관한 평가값, 좌우 반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 결막의 부종에 관한 평가값, 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 부종에 관한 평가값, 그리고 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 결막의 부종에 관한 평가값을 포함할 수 있다.If the second predictive model is to be implemented as one model without being binary, the plurality of learning data sets are the right eye image and the evaluation value of conjunctival edema captured in the right eye image, the left and right inverted right eye image, and the right eye An evaluation value for the edema of the conjunctiva captured in the image, an evaluation value for the edema of the conjunctiva captured in the left eye image and the left eye image, and an evaluation value for the edema of the conjunctiva captured in the left and right inverted left eye image and the left eye image can include
(3) 제3 예측모델(3) The 3rd Prediction Model
제3 예측모델의 목적 및 동작Purpose and operation of the 3rd predictive model
제3 예측모델은 눈물언덕의 부종 여부를 예측하기 위한 모델이다. The third predictive model is a model for predicting whether or not the tear hill is edematous.
제3 예측모델은 눈 이미지를 입력 데이터로 받고 입력된 눈 이미지에 캡쳐된 눈물언덕에 부종이 존재할 확률값을 출력할 수 있다.The third predictive model may receive an eye image as input data and output a probability value of existence of edema in the tear hill captured in the input eye image.
제3 예측모델이 제3 좌안 예측모델 및 제3 우안 예측모델을 포함하는 경우, 상기 제3 좌안 예측모델은 좌안 이미지를 입력받아 좌안 이미지에 캡쳐된 눈물언덕에 부종이 존재할 확률값을 출력하고, 상기 제3 우안 예측모델은 우안 이미지를 입력받아 우안 이미지에 캡쳐된 눈물언덕에 부종이 존재할 확률값을 출력할 수 있다.When the third predictive model includes a third left eye predictive model and a third right eye predictive model, the third left eye predictive model receives a left eye image and outputs a probability value that edema exists in the tear hill captured in the left eye image, The third right eye predictive model may receive a right eye image and output a probability value of existence of edema in the tear hill captured in the right eye image.
제3 예측모델이 이원화되어 있지 않고 하나의 모델로 구현된 경우, 상기 제3 예측모델은 우안 이미지와 좌안 이미지 중 하나를 입력받아 입력된 이미지에 캡쳐된 눈물언덕에 부종이 존재할 확률값을 출력하고, 다른 하나를 다시 입력받아 입력된 이미지에 캡쳐된 눈물언덕에 부종이 존재할 확률값을 출력할 수 있다.When the third predictive model is not binary but implemented as a single model, the third predictive model receives one of the right eye image and the left eye image and outputs a probability value of the presence of edema in the tear hill captured in the input image, Another input is received again, and a probability value of the presence of edema in the tear hill captured in the input image may be output.
상기 눈 이미지는 전술한 전처리 알고리즘들에 의해 전처리가 된 이미지일 수 있다.The eye image may be an image pre-processed by the above-described pre-processing algorithms.
예를 들어, 상기 눈 이미지는 제2 크롭에 따른 전처리가 된 이미지일 수 있다. For example, the eye image may be an image preprocessed according to the second cropping.
다른 예를 들어, 상기 눈 이미지는 제2 크롭 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.For another example, the eye image may be a preprocessed image including second cropping and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including second cropping, first masking, horizontal reversal, and resizing.
본 명세서에서, 제3 예측모델은 눈물언덕 부종 예측 모델이라고 할 수 있다.In this specification, the third prediction model may be referred to as a tear hill edema prediction model.
제3 예측모델의 학습Learning of the 3rd predictive model
제3 예측모델을 학습시키기 위하여, 복수의 학습 데이터 셋들을 준비할 수 있다. 학습 데이터 셋은 눈 이미지 및 상기 눈 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 상기 눈 이미지는 전술한 전처리 알고리즘에 의해 전처리가 된 이미지일 수 있다. 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.In order to train the third predictive model, a plurality of training data sets may be prepared. The training data set may include an eye image and an evaluation value regarding whether edema exists in the tear hill captured in the eye image. The eye image may be an image pre-processed by the above-described pre-processing algorithm. For example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
제3 예측모델을 학습시키기 위하여, 인공지능 모델을 준비할 수 있다.In order to train the third predictive model, an artificial intelligence model may be prepared.
상기 인공지능 모델은 SVM(Support Vector Machine), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet 및 Vision Transformer 등일 수 있다.The artificial intelligence model may be a Support Vector Machine (SVM), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet, and Vision Transformer.
이어서, 상기 인공지능 모델에 준비된 복수의 학습 데이터 셋들에 포함된 눈 이미지들을 입력하고, 입력된 눈 이미지들 각각에 대응되는 평가값과 상기 인공지능 모델에서 출력되는 출력값을 이용하여 학습시킬 수 있다.Subsequently, eye images included in a plurality of training data sets prepared for the artificial intelligence model may be input, and learning may be performed using an evaluation value corresponding to each of the input eye images and an output value output from the artificial intelligence model.
만약, 제3 예측모델이 제3 좌안 예측모델 및 제3 우안 예측모델을 포함하는 경우, 제3 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있고, 제3 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 한편, 학습 데이터 셋들의 수를 늘리기 위하여, 제3 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있으며, 제3 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the third prediction model includes the third left eye prediction model and the third right eye prediction model, the plurality of training data sets for learning the third left eye prediction model are the left eye image and the tear hill captured in the left eye image. It may include an evaluation value regarding whether edema exists, and the plurality of learning data sets for training the third right eye prediction model evaluates whether edema exists in the right eye image and the tear hill captured in the right eye image. can include On the other hand, in order to increase the number of learning data sets, a plurality of training data sets for learning the third left eye prediction model are the left and right inverted right eye image and the evaluation value of whether edema exists in the tear hill captured in the right eye image , and the plurality of training data sets for learning the third right eye prediction model may include a left eye image processed in a left-right inversion process and an evaluation value regarding whether edema exists in the tear hill captured in the left eye image. .
만약, 제3 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 또는 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the third predictive model is to be implemented as one model without being binary, the plurality of learning data sets may include the right eye image and an evaluation value regarding whether or not edema exists in the tear hill captured in the right eye image, or An inverted left eye image and an evaluation value regarding whether edema exists in the tear hill captured in the left eye image may be included. Alternatively, the plurality of training data sets include an evaluation value for whether edema exists in the left eye image and the tear hill captured in the left eye image, or whether there is edema in the right eye image and the tear hill captured in the right eye image. may include an evaluation value for
한편, 상기 제3 예측모델을 학습시킴에 있어서, 우안 이미지와 좌안 이미지의 구별없이 눈물언덕의 부종 여부에 대한 예측을 할 수 있도록 하기 위하여 우안 이미지, 좌우 반전된 우안 이미지, 좌안 이미지 및 좌우 반전된 좌안 이미지를 모두 하나의 모델을 학습시키기 위한 학습데이터로 사용될 수 있다.On the other hand, in learning the third predictive model, the right eye image, the left-right inverted right-eye image, the left-eye image, and the left-right inverted image are used to predict whether the tear hill is edema without distinguishing between the right eye image and the left eye image. All of the left eye images may be used as training data for training one model.
예를 들어, 제3 예측모델이 제3 좌안 예측모델 및 제3 우안 예측모델을 포함하는 경우, 제3 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값, 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값을 포함할 수 있고, 제3 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값, 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값을 포함할 수 있다. For example, when the third prediction model includes a third left eye prediction model and a third right eye prediction model, the plurality of training data sets for learning the third left eye prediction model include a left eye image and tears captured in the left eye image. The plurality of learning data sets for training the third right eye prediction model may include an evaluation value for swelling of the hill, a left-right inverted right eye image, and an evaluation value for swelling of the tear hill captured in the right eye image. It may include an image and an evaluation value for swelling of the tear hill captured in the right eye image, a left-right inverted left eye image, and an evaluation value for swelling of the tear hill captured in the left eye image.
만약, 제3 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값, 좌우 반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값, 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값, 그리고 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈물언덕의 부종에 관한 평가값을 포함할 수 있다.If the third predictive model is to be implemented as one model without being binary, the plurality of training data sets are the right eye image and the evaluation value of the edema of the tear hill captured in the right eye image, the left and right inverted right eye image, and the right eye image. Evaluation values for edema of the tear hills captured in the right eye image, evaluation values for the edema of the tear hills captured in the left eye image and the left eye image, and left and right inverted left eye images and edema of the tear hills captured in the left eye image evaluation values may be included.
(4) 제4 예측모델(4) The 4th predictive model
제4 예측모델의 목적 및 동작Purpose and operation of the 4th predictive model
제4 예측모델은 눈꺼풀의 발적 여부를 예측하기 위한 모델이다. The fourth predictive model is a model for predicting whether the eyelids are red.
제4 예측모델은 눈 이미지를 입력 데이터로 받고 입력된 눈 이미지에 캡쳐된 눈꺼풀 발적이 있을 확률값을 출력할 수 있다.The fourth predictive model may receive an eye image as input data and output a probability value of eyelid redness captured in the input eye image.
제4 예측모델이 제4 좌안 예측모델 및 제4 우안 예측모델을 포함하는 경우, 상기 제4 좌안 예측모델은 좌안 이미지를 입력받아 좌안 이미지에 캡쳐된 눈꺼풀 발적이 있을 확률값을 출력하고, 상기 제4 우안 예측모델은 우안 이미지를 입력받아 우안 이미지에 캡쳐된 눈꺼풀 발적이 있을 확률값을 출력할 수 있다.When the fourth prediction model includes a fourth left eye prediction model and a fourth right eye prediction model, the fourth left eye prediction model receives a left eye image and outputs a probability value of eyelid redness captured in the left eye image. The right eye prediction model may receive a right eye image and output a probability value of eyelid redness captured in the right eye image.
제4 예측모델이 이원화되어 있지 않고 하나의 모델로 구현된 경우, 상기 제4 예측모델은 우안 이미지와 좌안 이미지 중 하나를 입력받아 입력된 이미지에 캡쳐된 눈꺼풀 발적이 있을 확률값을 출력하고, 다른 하나를 다시 입력받아 입력된 이미지에 캡쳐된 눈꺼풀 발적이 있을 확률값을 출력할 수 있다.If the fourth predictive model is not binary but implemented as a single model, the fourth predictive model receives one of the right eye image and the left eye image and outputs a probability value of eyelid redness captured in the input image, It is possible to output a probability value of eyelid redness captured in the input image by receiving input again.
상기 눈 이미지는 전술한 전처리 알고리즘들에 의해 전처리가 된 이미지일 수 있다.The eye image may be an image pre-processed by the above-described pre-processing algorithms.
예를 들어, 상기 눈 이미지는 제3 크롭에 따른 전처리가 된 이미지일 수 있다. For example, the eye image may be an image preprocessed according to the third crop.
다른 예를 들어, 상기 눈 이미지는 제3 크롭 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.For another example, the eye image may be a preprocessed image including third cropping and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including third cropping, horizontal reversal, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 제2 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including third cropping, second masking, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 제2 마스킹, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다As another example, the eye image may be a preprocessed image including third cropping, second masking, horizontal reversal, and resizing.
본 명세서에서, 제4 예측모델은 눈꺼풀 발적 예측 모델이라고 할 수 있다.In the present specification, the fourth prediction model may be referred to as an eyelid redness prediction model.
제4 예측모델의 학습Learning of the 4th predictive model
제4 예측모델을 학습시키기 위하여, 복수의 학습 데이터 셋들을 준비할 수 있다. 학습 데이터 셋은 눈 이미지 및 상기 눈 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다. 상기 눈 이미지는 전술한 전처리 알고리즘에 의해 전처리가 된 이미지일 수 있다. 예를 들어, 상기 눈 이미지는 제2 크롭, 제1 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.In order to train the fourth predictive model, a plurality of training data sets may be prepared. The training data set may include eye images and evaluation values of eyelid redness captured in the eye images. The eye image may be an image pre-processed by the above-described pre-processing algorithm. For example, the eye image may be a preprocessed image including second cropping, first masking, and resizing.
제4 예측모델을 학습시키기 위하여, 인공지능 모델을 준비할 수 있다.In order to train the fourth predictive model, an artificial intelligence model may be prepared.
상기 인공지능 모델은 SVM(Support Vector Machine), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet 및 Vision Transformer 등일 수 있다.The artificial intelligence model may be a Support Vector Machine (SVM), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet, and Vision Transformer.
이어서, 상기 인공지능 모델에 준비된 복수의 학습 데이터 셋들에 포함된 눈 이미지들을 입력하고, 입력된 눈 이미지들 각각에 대응되는 평가값과 상기 인공지능 모델에서 출력되는 출력값을 이용하여 학습시킬 수 있다.Subsequently, eye images included in a plurality of training data sets prepared for the artificial intelligence model may be input, and learning may be performed using an evaluation value corresponding to each of the input eye images and an output value output from the artificial intelligence model.
만약, 제4 예측모델이 제4 좌안 예측모델 및 제4 우안 예측모델을 포함하는 경우, 제4 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있고, 제2 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다. 한편, 학습 데이터 셋들의 수를 늘리기 위하여, 제4 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있으며, 제4 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다.If the fourth prediction model includes the fourth left eye prediction model and the fourth right eye prediction model, the plurality of learning data sets for learning the fourth left eye prediction model are the left eye image and the redness of the eyelid captured in the left eye image , and the plurality of training data sets for training the second right eye prediction model may include a right eye image and an evaluation value for redness of the eyelid captured in the right eye image. Meanwhile, in order to increase the number of learning data sets, the plurality of learning data sets for learning the fourth left eye prediction model may include a right eye image processed in a left-right inversion process and an evaluation value for redness of the eyelid captured in the right eye image. In addition, the plurality of training data sets for learning the fourth right eye prediction model may include a left eye image processed by inverting the left eye and an evaluation value of redness of the eyelid captured in the left eye image.
만약, 제4 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함하거나 또는 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다. 또는 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함하거나 또는 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다.If the fourth prediction model is to be implemented as a single model without being binary, the plurality of training data sets include the right eye image and the evaluation value of the redness of the eyelid captured in the right eye image, or the left and right inverted left eye image and an evaluation value of redness of the eyelid captured in the left eye image. Alternatively, the plurality of training data sets may include a left eye image and an evaluation value for redness of the eyelid captured in the left eye image, or may include an inverted right eye image and an evaluation value for redness of the eyelid captured in the right eye image. have.
한편, 상기 제1 예측모델을 학습시킴에 있어서, 우안 이미지와 좌안 이미지의 구별없이 눈꺼풀의 발적 여부에 대한 예측을 할 수 있도록 하기 위하여 우안 이미지, 좌우 반전된 우안 이미지, 좌안 이미지 및 좌우 반전된 좌안 이미지를 모두 하나의 모델을 학습시키기 위한 학습데이터로 사용될 수 있다.On the other hand, in learning the first predictive model, the right eye image, the left-right inverted right-eye image, the left-eye image, and the left-right inverted left eye in order to be able to predict the redness of the eyelid without distinguishing between the right eye image and the left eye image. All images can be used as training data for training one model.
예를 들어, 제4 예측모델이 제4 좌안 예측모델 및 제4 우안 예측모델을 포함하는 경우, 제4 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값, 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있고, 제4 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값, 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다. For example, when the fourth prediction model includes a fourth left eye prediction model and a fourth right eye prediction model, a plurality of learning data sets for learning the fourth left eye prediction model include a left eye image and an eyelid captured in the left eye image may include an evaluation value for redness of the right eye image, a left and right inverted right eye image, and an evaluation value for redness of the eyelid captured in the right eye image, and the plurality of training data sets for training the fourth right eye prediction model include the right eye image and An evaluation value for redness of the eyelid captured in the right eye image, a left eye image inverted left and right, and an evaluation value for redness of the eyelid captured in the left eye image may be included.
만약, 제4 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값, 좌우 반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값, 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값, 그리고 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 발적에 관한 평가값을 포함할 수 있다.If the fourth predictive model is to be implemented as a single model without being binary, the plurality of training data sets are the right eye image and the evaluation value of redness of the eyelid captured in the right eye image, the left and right inverted right eye image, and the right eye An evaluation value for redness of the eyelids captured in an image, an evaluation value for redness of the eyelids captured in the left eye image and the left eye image, and an evaluation value for redness of the eyelids captured in the left-right inverted left eye image and the left eye image can include
(5) 제5 예측모델(5) The 5th predictive model
제5 예측모델의 목적 및 동작Purpose and operation of the 5th predictive model
제5 예측모델은 눈꺼풀의 부종 여부를 예측하기 위한 모델이다. The fifth prediction model is a model for predicting whether or not the eyelid is edematous.
제5 예측모델은 눈 이미지를 입력 데이터로 받고 입력된 눈 이미지에 캡쳐된 눈꺼풀에 부종이 존재할 확률값을 출력할 수 있다.The fifth predictive model may receive an eye image as input data and output a probability value of existence of edema in the eyelid captured in the input eye image.
제5 예측모델이 제5 좌안 예측모델 및 제5 우안 예측모델을 포함하는 경우, 상기 제5 좌안 예측모델은 좌안 이미지를 입력받아 좌안 이미지에 캡쳐된 눈꺼풀에 부종이 존재할 확률값을 출력하고, 상기 제5 우안 예측모델은 우안 이미지를 입력받아 우안 이미지에 캡쳐된 눈꺼풀에 부종이 존재할 확률값을 출력할 수 있다.When the fifth predictive model includes a fifth left eye predictive model and a fifth right eye predictive model, the fifth left eye predictive model receives a left eye image and outputs a probability value of existence of edema in the eyelid captured in the left eye image, 5 The right eye prediction model may receive a right eye image and output a probability value of the existence of edema in the eyelid captured in the right eye image.
제5 예측모델이 이원화되어 있지 않고 하나의 모델로 구현된 경우, 상기 제5 예측모델은 우안 이미지와 좌안 이미지 중 하나를 입력받아 입력된 이미지에 캡쳐된 눈꺼풀에 부종이 존재할 확률값을 출력하고, 다른 하나를 다시 입력받아 입력된 이미지에 캡쳐된 눈꺼풀에 부종이 존재할 확률값을 출력할 수 있다.When the fifth predictive model is not binary but implemented as a single model, the fifth predictive model receives one of the right eye image and the left eye image and outputs a probability value of the presence of edema in the eyelid captured in the input image, and the other It is possible to receive one input again and output a probability value of the existence of edema in the eyelid captured in the input image.
상기 눈 이미지는 전술한 전처리 알고리즘들에 의해 전처리가 된 이미지일 수 있다.The eye image may be an image pre-processed by the above-described pre-processing algorithms.
예를 들어, 상기 눈 이미지는 제3 크롭에 따른 전처리가 된 이미지일 수 있다. For example, the eye image may be an image preprocessed according to the third crop.
다른 예를 들어, 상기 눈 이미지는 제3 크롭 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.For another example, the eye image may be a preprocessed image including third cropping and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including third cropping, horizontal reversal, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 제2 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including third cropping, second masking, and resizing.
또 다른 예를 들어, 상기 눈 이미지는 제3 크롭, 제2 마스킹, 좌우 반전 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.As another example, the eye image may be a preprocessed image including third cropping, second masking, horizontal reversal, and resizing.
본 명세서에서, 제5 예측모델은 눈꺼풀 부종 예측 모델이라고 할 수 있다.In this specification, the fifth prediction model may be referred to as an eyelid edema prediction model.
제5 예측모델의 학습Learning of the 5th predictive model
제5 예측모델을 학습시키기 위하여, 복수의 학습 데이터 셋들을 준비할 수 있다. 학습 데이터 셋은 눈 이미지 및 상기 눈 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 상기 눈 이미지는 전술한 전처리 알고리즘에 의해 전처리가된 이미지일 수 있다. 예를 들어, 상기 눈 이미지는 제3 크롭, 제2 마스킹 및 리사이징을 포함하는 전처리가 된 이미지일 수 있다.In order to train the fifth predictive model, a plurality of training data sets may be prepared. The training data set may include an eye image and an evaluation value regarding whether edema exists in the eyelid captured in the eye image. The eye image may be an image pre-processed by the above-described pre-processing algorithm. For example, the eye image may be a preprocessed image including third cropping, second masking, and resizing.
제5 예측모델을 학습시키기 위하여, 인공지능 모델을 준비할 수 있다.In order to train the fifth prediction model, an artificial intelligence model may be prepared.
상기 인공지능 모델은 SVM(Support Vector Machine), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet 및 Vision Transformer 등일 수 있다.The artificial intelligence model may be a Support Vector Machine (SVM), Random Forest, Gradient Boosting Algorithm, ResNet, VGG, GoogLeNet, MobileNet, and Vision Transformer.
이어서, 상기 인공지능 모델에 준비된 복수의 학습 데이터 셋들에 포함된 눈 이미지들을 입력하고, 입력된 눈 이미지들 각각에 대응되는 평가값과 상기 인공지능 모델에서 출력되는 출력값을 이용하여 학습시킬 수 있다.Subsequently, eye images included in a plurality of training data sets prepared for the artificial intelligence model may be input, and learning may be performed using an evaluation value corresponding to each of the input eye images and an output value output from the artificial intelligence model.
만약, 제5 예측모델이 제5 좌안 예측모델 및 제5 우안 예측모델을 포함하는 경우, 제5 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있고, 제5 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 한편, 학습 데이터 셋들의 수를 늘리기 위하여, 제5 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있으며, 제5 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌우반전 처리된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the fifth prediction model includes the fifth left eye prediction model and the fifth right eye prediction model, the plurality of learning data sets for learning the fifth left eye prediction model are the left eye image and swelling on the eyelid captured in the left eye image The plurality of training data sets for learning the fifth right eye prediction model may include an evaluation value regarding whether edema exists in the right eye image and the eyelid captured in the right eye image. can On the other hand, in order to increase the number of learning data sets, a plurality of training data sets for learning the fifth left eye prediction model are the left and right inverted right eye image and the evaluation value of whether edema exists in the eyelid captured in the right eye image In addition, the plurality of training data sets for learning the fifth right eye prediction model may include a left eye image processed by inverting the left eye and an evaluation value regarding whether edema is present in the eyelid captured in the left eye image.
만약, 제5 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있다. 또는 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함하거나 또는 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀에 부종이 존재하는지에 관한 평가값을 포함할 수 있다.If the fifth prediction model is to be implemented as one model without being binary, the plurality of training data sets include the right eye image and the evaluation value of whether or not edema exists in the eyelid captured in the right eye image, or invert left and right and an evaluation value regarding whether edema exists in the eyelid captured in the left eye image and the left eye image. Alternatively, the plurality of training data sets include a left eye image and an evaluation value regarding whether edema exists in the eyelid captured in the left eye image, or a right eye image reversed left and right and whether edema exists in the eyelid captured in the right eye image. An evaluation value may be included.
한편, 상기 제5 예측모델을 학습시킴에 있어서, 우안 이미지와 좌안 이미지의 구별없이 눈꺼풀의 부종 여부에 대한 예측을 할 수 있도록 하기 위하여 우안 이미지, 좌우 반전된 우안 이미지, 좌안 이미지 및 좌우 반전된 좌안 이미지를 모두 하나의 모델을 학습시키기 위한 학습데이터로 사용될 수 있다.On the other hand, in learning the fifth predictive model, the right eye image, the left-right inverted right-eye image, the left-eye image, and the left-right inverted left eye in order to be able to predict the edema of the eyelid without distinguishing between the right eye image and the left eye image. All images can be used as training data for training one model.
예를 들어, 제5 예측모델이 제5 좌안 예측모델 및 제5 우안 예측모델을 포함하는 경우, 제5 좌안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값, 좌우반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값을 포함할 수 있고, 제5 우안 예측모델을 학습시키기 위한 복수의 학습 데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값, 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값을 포함할 수 있다. For example, when the fifth prediction model includes a fifth left eye prediction model and a fifth right eye prediction model, the plurality of learning data sets for learning the fifth left eye prediction model include a left eye image and an eyelid captured in the left eye image may include an evaluation value for edema, a right-left inverted right eye image, and an evaluation value for edema of the eyelid captured in the right eye image, and the plurality of training data sets for training the fifth right eye prediction model include the right eye image and An evaluation value for eyelid edema captured in the right eye image, a left-right inverted left eye image, and an eyelid edema evaluation value captured in the left eye image may be included.
만약, 제5 예측모델을 이원화시키지 않고 하나의 모델로 구현하고자 하는 경우, 복수의 학습데이터 셋들은 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값, 좌우 반전된 우안 이미지 및 상기 우안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값, 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값, 그리고 좌우반전된 좌안 이미지 및 상기 좌안 이미지에 캡쳐된 눈꺼풀의 부종에 관한 평가값을 포함할 수 있다.If the fifth prediction model is to be implemented as a single model without being binary, the plurality of training data sets are the right eye image and the evaluation value of the eyelid edema captured in the right eye image, the left and right inverted right eye image, and the right eye An evaluation value for the edema of the eyelid captured in the image, an evaluation value for the edema of the eyelid captured in the left eye image and the left eye image, and an evaluation value for the edema of the eyelid captured in the left and right inverted left eye image and the left eye image can include
예측모델들의 학습은 전자기기에 의해 수행될 수 있으며, 특히 전술한 서버(20)에 의해 수행될 수 있다. 아울러, 전자기기 또는 서버(20)에 의해 예측모델들이 학습된다는 것의 의미는 입력 데이터에 대한 예측모델의 출력값이 해당 입력 데이터에 대해 라벨링되어 있는 출력값과 유사한 값을 출력하도록 만드는 일련의 과정들을 의미하며, 이를 위해 전자기기 또는 서버(20)는 예측모델의 출력값과 라벨링값들의 차이를 이용하여 예측모델에 포함되어 있는 각 노드들의 가중치(weight value)를 변경할 수 있다. 이 때, 전자기기 또는 서버(20)는 여러가지 피드백 함수들을 사용하여 각 노드들의 가중치 값의 변경량 등을 결정할 수 있다.Learning of the predictive models may be performed by an electronic device, and in particular, may be performed by the
이하에서는, 전술한 시스템(1)을 통해서, 눈 이미지를 전처리하고, 전처리된 눈 이미지를 전술한 예측모델에 입력하여, 갑상선 안병증 임상활동점수에 관련된 각 증상에 대해 예측하는 방법, 각 증상에 대한 예측결과에 기초하여 임상활동점수를 예측하는 방법, 나아가 임상활동점수의 예측 결과를 모니터링하여 모니터링 결과에 따라 사용자에게 병원에 방문하여 검진을 받을 수 있도록 안내하거나 혹은 추천하는 방법에 대해서 설명한다.Hereinafter, an eye image is preprocessed through the above-described system (1), and the preprocessed eye image is input to the above-described prediction model to predict each symptom related to the thyroid ophthalmopathy clinical activity score, and each symptom A method of predicting the clinical activity score based on the prediction result of the clinical activity score, and furthermore, a method of monitoring the prediction result of the clinical activity score and guiding or recommending the user to visit a hospital to receive a checkup according to the monitoring result will be described.
5. 결막 충혈 예측방법5. Conjunctival congestion prediction method
본 출원에 의해 개시되는 결막 충혈 예측 방법은 서버(20)에 의해 수행될 수 있다.The conjunctival congestion prediction method disclosed by the present application may be performed by the
도 23은 결막 충혈 예측 방법을 설명하기 위한 흐름도이다.23 is a flowchart for explaining a method for predicting conjunctival congestion.
도 23을 참고하면, 서버(20)는 얼굴 이미지를 획득하고(S100), 상기 획득된 얼굴 이미지를 전처리하고(S110), 상기 전처리된 이미지를 전술한 제1 예측모델(결막 충혈 예측모델)에 입력하고(S120), 상기 제1 예측모델의 출력값을 획득한다(S130).Referring to FIG. 23, the
얼굴 이미지의 획득Acquisition of face image
상기 서버(20)는 얼굴 이미지를 획득한다(S100). 상기 서버(20)는 상기 얼굴 이미지를 상기 사용자 단말기(10)로부터 획득할 수 있다. The
얼굴 이미지의 전처리Preprocessing of face images
상기 서버(20)는 상기 획득된 얼굴 이미지를 전처리할 수 있다(S110). 상기 서버(20)는 상기 획득된 얼굴 이미지에 전술한 홍채 세그멘테이션, 눈 아웃라인 세그멘테이션, 마스킹, 크롭 및 리사이징을 할 수 있다.The
세그멘테이션 처리segmentation processing
상기 서버(20)는 상기 홍채 세그멘테이션 및 눈 아웃라인 세그멘테이션을 수행하고, 그 결과에 따라 상기 획득된 얼굴 이미지 내에서 홍채에 대응되는 픽셀들과 눈 아웃라인의 내부에 대응되는 픽셀들을 확인할 수 있다. 상기 서버(20)는 상기 홍채에 대응되는 픽셀들의 좌표값들 및 상기 눈 아웃라인의 내부에 대응되는 픽셀들의 좌표값들을 확인할 수 있다.The
마스킹 처리masking treatment
상기 서버(20)는 상기 확인된 픽셀들에 관한 정보에 기초하여, 상기 얼굴 이미지에 상기 제1 마스킹을 처리할 수 있다. 상기 서버(20)는 상기 제1 마스킹 처리를 통해 상기 얼굴 이미지에 포함된 픽셀들 중 외부로 노출된 결막 및 눈물언덕에 대응되는 픽셀들을 제외한 나머지 픽셀들의 픽셀값들을 제거할 수 있다. 이에 따라, 좌안의 결막 및 눈물언덕, 그리고 우안의 결막 및 눈물언덕에 대응되는 픽셀들의 픽셀값은 원래 픽셀값(original pixel value)으로 유지될 수 있으나, 좌안의 홍채(또는 각막), 우안의 홍채(또는 각막), 그리고 좌안의 아웃라인 외부 및 우안의 아웃라인 외부에 대응되는 픽셀들의 픽셀값은 제거되거나 다른 값으로 변경될 수 있다.The
크롭 처리cropped
상기 서버(20)는 상기 마스킹된 얼굴 이미지를 크롭할 수 있다. 상기 서버(20)는 상기 마스킹된 얼굴 이미지를 크롭하여 좌안 크롭 이미지 및 우안 크롭 이미지를 생성할 수 있다. 결막 충혈 예측 방법을 수행할 때, 상기 서버(20)는 전술한 2가지의 크롭 방법들 중 제2 크롭(눈 아웃라인 크롭) 방법을 사용할 수 있다. 제2 크롭 방법에 관해서는 이미 상세히 설명한 바 있으므로 여기서는 자세한 설명을 생략한다.The
리사이징 처리 및 좌우 반전 처리Resizing processing and left-right reversal processing
상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지의 크기를 미리 정해진 사이즈로 리사이징 할 수 있다. The
한편, 상기 제1 예측모델을 이원화시키지 않고 하나의 모델로 구현한 경우, 상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지 중 하나를 전술한 바와 같이 좌우 반전시킬 수 있다. 상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지 중 다른 하나는 좌우 반전시키지 않는다. 이때, 좌안 이미지와 좌안 이미지 중 어느 이미지를 좌우반전시킬지를 결정하는 기준은 상기 제1 예측모델을 학습시킬 때 적용하였던 기준과 동일한 기준으로 결정한다. 즉, 제1 예측 모델을 학습시킬 때, 좌안 이미지를 반전시키고 우안 이미지를 반전시키지 않은 경우, 이와 동일하게 상기 서버(20)는 좌안 이미지를 반전시키고 우안 이미지를 반전시키지 않는다.Meanwhile, when the first prediction model is implemented as a single model without dualization, the
만약, 전술한 바와 같이, 제1 예측모델을 구현함에 있어서, 제1 좌안 예측모델 및 제1 우안 예측모델로 이원화한 경우, 상기 서버(20)는 좌우 반전 처리를 수행하지 않을 수 있다.If, as described above, in implementing the first prediction model, if the first left eye prediction model and the first right eye prediction model are binary, the
한편, 전처리를 수행함에 있어서, 세그멘테이션, 마스킹 처리, 크롭 처리, 리사이징 처리, 좌우 반전 처리를 하는 것으로 설명하였으나, 각 전처리들의 순서는 본 출원에 의해 개시되는 결막 충혈 예측방법의 목적을 달성할 수 있는 범위 내에서 변경될 수 있다.On the other hand, in performing the preprocessing, it has been described that segmentation, masking process, cropping process, resizing process, and horizontal reversal process are performed, but the order of each preprocessing can achieve the purpose of the method for predicting conjunctival congestion disclosed by the present application. It can be changed within scope.
전처리된 이미지의 입력Input of preprocessed image
상기 서버(20)는 상기 전처리된 이미지를 상기 제1 예측모델에 입력할 수 있다(S120). The
상기 서버(20)는, 상기 제1 예측모델을 이원화시키지 않고 하나의 모델로 구현한 경우, 상기 우안 전처리 이미지 및 좌우 반전된 좌안 전처리 이미지를 순차적으로 상기 제1 예측모델에 입력한다.When the first prediction model is implemented as a single model without dualization, the
만약, 제1 예측모델을 구현함에 있어서 제1 좌안 예측모델 및 제1 우안 예측모델로 이원화한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제1 우안 예측모델에 입력한다. 또는 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하고, 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제1 우안 예측모델에 입력하고, 상기 좌우 반전된 우안 전처리 이미지를 상기 제1 좌안 예측모델에 입력할 수 있다.If, in implementing the first prediction model, the first left eye prediction model and the first right eye prediction model are binary, the
만약, 제1 예측모델을 구현함에 있어서, 제1 예측모델을 이원화시키지 않고 하나의 모델로 구현하면서 동시에 좌안 이미지와 우안 이미지를 구별하지 않고 결막의 충혈 여부를 판단할 수 있도록 학습된 경우, 상기 서버(20)는 상기 좌안 전처리 이미지 및 상기 우안 전처리 이미지를, 좌우반전 없이, 상기 제1 예측모델에 입력할 수 있다. 또는 상기 서버(20)는 상기 좌안 전처리 이미지, 상기 좌우 반전된 좌안 전처리 이미지, 상기 우안 전처리 이미지 및 상기 좌우 반전된 우안 전처리 이미지를 상기 제1 예측모델에 입력할 수 있다.If, in implementing the first predictive model, the first predictive model is implemented as one model without being binary and at the same time learned to determine whether the conjunctiva is congested without distinguishing between the left eye image and the right eye image, the server (20) may input the left eye preprocessing image and the right eye preprocessing image to the first predictive model without horizontal reversal. Alternatively, the
결막 충혈 예측 결과Prediction of conjunctival hyperemia
상기 서버(20)는 상기 제1 예측모델로부터 출력되는 결과값을 획득할 수 있다(S130). 상기 결과값은 이미지에 캡쳐된 결막이 충혈되어있을 예측되는 확률값일 수 있다. 상기 서버(20)는 미리 정해진 쓰레숄드값(threshold value)을 기준으로 상기 예측되는 확률값이 상기 쓰레숄드값 이상이면 결막이 충혈되어 있는 것으로 판단하고, 상기 예측되는 확률값이 상기 쓰레숄드값 미만이면 결막이 충혈되어 있지 않은 것으로 판단할 수 있다.The
상기 서버(20)는 좌안에 대한 예측결과와 우안에 대한 예측 결과를 모두 획득할 수 있다. The
만약, 상기 서버(20)가 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하고, 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제1 우안 예측모델에 입력하고, 상기 좌우 반전된 우안 전처리 이미지를 상기 제1 좌안 예측모델에 입력한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 좌안에 대한 예측 결과를 획득할 수 있다. 이때, 상기 서버(20)는 상기 우안 전처리 이미지를 상기 제1 우안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 우안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 우안에 대한 예측 결과를 획득할 수 있다.If the
예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하여 획득한 결과의 평균값이 상기 쓰레숄드값 이상인지 여부에 기초하여 상기 좌안에 대한 예측 결과를 획득할 수 있다.For example, the
다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하여 획득한 결과 중 어느 하나의 값이 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.For another example, the
또 다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 우안 예측모델에 입력하여 획득한 결과 모두가 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.For another example, the
만약, 상기 서버(20)는 상기 좌안 전처리 이미지, 상기 좌우 반전된 좌안 전처리 이미지, 상기 우안 전처리 이미지 및 상기 좌우 반전된 우안 전처리 이미지를 이원화되지 않은 상기 제1 예측모델에 입력한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 좌안에 대한 예측 결과를 획득할 수 있다. 이때, 상기 서버(20)는 상기 우안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 우안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 우안에 대한 예측 결과를 획득할 수 있다.If the
예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과의 평균값이 상기 쓰레숄드값 이상인지 여부에 기초하여 상기 좌안에 대한 예측 결과를 획득할 수 있다.For example, the
다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과 중 어느 하나의 값이 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.For another example, the
또 다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제1 예측모델에 입력하여 획득한 결과 모두가 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.As another example, the
전술한 방식은 우안의 결막 충혈 여부를 판단하는 데에도 유사하게 적용될 수 있다.The above method can be similarly applied to determining whether the conjunctiva of the right eye is congested.
6. 결막 부종 예측방법6. Conjunctival edema prediction method
본 출원에 의해 개시되는 결막 부종 예측 방법은 서버(20)에 의해 수행될 수 있다.The conjunctival edema prediction method disclosed by the present application may be performed by the
도 24는 결막 부종 예측 방법을 설명하기 위한 흐름도이다.24 is a flowchart for explaining a method for predicting conjunctival edema.
도 24를 참고하면, 서버(20)는 얼굴 이미지를 획득하고(S200), 상기 획득된 얼굴 이미지를 전처리하고(S210), 상기 전처리된 이미지를 전술한 제2 예측모델(결막 부종 예측모델)에 입력하고(S220), 상기 제2 예측모델의 출력값을 획득한다(S230).Referring to FIG. 24, the
상기 결막 부종 예측방법은 제1 예측모델 대신 제2 예측모델을 사용한다는 점, 그리고 최종적으로 획득되는 결과값이 결막에 부종이 있는지 여부에 대한 예측값이라는 점을 제외하면, 결막 충혈 예측방법과 동일하거나 매우 유사하기 때문에, 자세한 설명은 생략하기로 한다.The conjunctival edema prediction method is the same as the conjunctival congestion prediction method, except that the second predictive model is used instead of the first predictive model, and the finally obtained result is a predictive value for whether or not there is edema in the conjunctiva. Since they are very similar, a detailed description will be omitted.
7. 눈물언덕 부종 예측방법7. Tears Hill Edema Prediction Method
본 출원에 의해 개시되는 눈물언덕 부종 예측 방법은 서버(20)에 의해 수행될 수 있다.The tear hill edema prediction method disclosed by the present application may be performed by the
도 25는 눈물언덕 부종 예측 방법을 설명하기 위한 흐름도이다.25 is a flowchart illustrating a method for predicting tear hill edema.
도 25를 참고하면, 서버(20)는 얼굴 이미지를 획득하고(S300), 상기 획득된 얼굴 이미지를 전처리하고(S310), 상기 전처리된 이미지를 전술한 제3 예측모델(눈물언덕 부종 예측모델)에 입력하고(S320), 상기 제3 예측모델의 출력값을 획득한다(S330).Referring to FIG. 25, the
상기 결막 부종 예측방법은 제1 예측모델 대신 제3 예측모델을 사용한다는 점을 제외하면, 결막 충혈 예측방법과 동일하거나 매우 유사하기 때문에, 자세한 설명은 생략하기로 한다.Since the method for predicting conjunctival edema is the same as or very similar to the method for predicting conjunctival congestion, except that the third predictive model is used instead of the first predictive model, a detailed description thereof will be omitted.
전술한 바와 같이, 결막 충혈 예측방법, 결막 부종 예측방법 및 눈물언덕 부종 예측방법에서 사용되는 이미지의 전처리 방법은 서로 동일하고, 다만 전처리된 이미지가 입력되는 예측모델들이 서로 다를 뿐이다. 따라서, 전술한 바와 같은 이미지 전처리를 한 후, 그 이미지가 서로 다른 예측모델들에 입력될 수 있다.As described above, the image preprocessing methods used in the method for predicting conjunctival congestion, the method for predicting conjunctival edema, and the method for predicting tear hill edema are the same, only the prediction models into which the preprocessed images are input are different. Therefore, after image pre-processing as described above, the image can be input to different predictive models.
다만, 본 눈물언덕 부종에 대해서는 결막 충혈 및 결막 부종의 예측방법에서 사용하는 이미지 전처리 방식과 동일한 방식이 적용되는 것으로 설명하고 있으나, 경우에 따라서는, 눈물언덕 부종을 예측하는 방법에 있어서, 다른 방식으로 전처리된 이미지가 사용될 수도 있다. 예를 들어, 홍채의 일부와 눈물언덕이 이미지에 포함되도록 크롭된 전처리 이미지를 사용할 수도 있다. 혹은 홍채는 포함되지 않고 눈물언덕과 눈물언덕이 이미지에 포함되도록 크롭된 전처리 이미지를 사용할 수도 있다.However, it is described that the same method as the image pre-processing method used in the method for predicting conjunctival hyperemia and conjunctival edema is applied to this tear hill edema, but in some cases, in the method of predicting tear hill edema, a different method is used. A preprocessed image may be used. For example, a pre-processed image may be used that is cropped so that a part of the iris and a tear hill are included in the image. Alternatively, a preprocessed image cropped so that the iris is not included but the tear hill and the tear hill are included in the image may be used.
8. 눈꺼풀 발적 예측방법8. Eyelid redness prediction method
본 출원에 의해 개시되는 눈꺼풀 발적 예측 방법은 서버(20)에 의해 수행될 수 있다.The eyelid redness prediction method disclosed by this application may be performed by the
도 26은 눈꺼풀 발적 예측 방법을 설명하기 위한 흐름도이다.26 is a flowchart for explaining a method for predicting eyelid redness.
도 26을 참고하면, 서버(20)는 얼굴 이미지를 획득하고(S400), 상기 획득된 얼굴 이미지를 전처리하고(S410), 상기 전처리된 이미지를 전술한 제4 예측모델(눈꺼풀 발적 예측모델)에 입력하고(S420), 상기 제4 예측모델의 출력값을 획득한다(S430).Referring to FIG. 26, the
얼굴 이미지의 획득Acquisition of face image
상기 서버(20)는 얼굴 이미지를 획득한다(S400). 상기 서버(20)는 상기 얼굴 이미지를 상기 사용자 단말기(10)로부터 획득할 수 있다. The
얼굴 이미지의 전처리Preprocessing of face images
상기 서버(20)는 상기 획득된 얼굴 이미지를 전처리할 수 있다(S410). 상기 서버(20)는 상기 획득된 얼굴 이미지에 전술한 홍채 세그멘테이션, 눈 아웃라인 세그멘테이션, 마스킹, 크롭 및 리사이징을 할 수 있다.The
세그멘테이션 처리segmentation processing
상기 서버(20)는 상기 홍채 세그멘테이션 및 눈 아웃라인 세그멘테이션을 수행하고, 그 결과에 따라 상기 획득된 얼굴 이미지 내에서 홍채에 대응되는 픽셀들과 눈 아웃라인의 내부에 대응되는 픽셀들을 확인할 수 있다. 상기 서버(20)는 상기 홍채에 대응되는 픽셀들의 좌표값들 및 상기 눈 아웃라인의 내부에 대응되는 픽셀들의 좌표값들을 확인할 수 있다.The
다만, 눈꺼풀 발적 예측방법을 수행함에 있어서, 후술하는 바와 같이, 별도의 마스킹 처리를 하는 경우에는 홍채 세그멘테이션을 수행하여야 하지만, 만약 별도의 마스킹 처리를 하지 않는 경우에는 홍채 세그멘테이션을 수행하지 않아도 무방하다.However, in performing the eyelid redness prediction method, as will be described later, if a separate masking process is performed, iris segmentation must be performed. However, if a separate masking process is not performed, it is not necessary to perform iris segmentation.
마스킹 처리masking treatment
상기 서버(20)는 상기 확인된 픽셀들에 관한 정보에 기초하여, 상기 얼굴 이미지에 상기 제2 마스킹을 처리할 수 있다. 상기 서버(20)는 상기 제2 마스킹 처리를 통해 상기 얼굴 이미지에 포함된 픽셀들 중 외부로 노출된 홍채(각막)에 대응되는 픽셀들의 픽셀값들을 제거할 수 있다. 이에 따라, 좌안의 홍채(각막), 그리고 우안의 홍채(각막)을 제외한 영역에 대응되는 픽셀들의 픽셀값은 원래 픽셀값(original pixel value)으로 유지될 수 있으나, 좌안의 홍채(또는 각막), 우안의 홍채(또는 각막)에 대응되는 픽셀들의 픽셀값은 제거되거나 다른 값으로 변경될 수 있다.The
다만, 눈꺼풀 발적 예측방법을 수행함에 있어서, 홍채(각막)을 마스킹하는 전처리를 수행하는 것이 여러가지 측면에서 장점이 있으나, 홍채의 마스킹을 하지 않아도 무방하다.However, in performing the eyelid redness prediction method, performing preprocessing of masking the iris (cornea) has advantages in various aspects, but it is okay not to mask the iris.
크롭 처리cropped
상기 서버(20)는 상기 마스킹된 얼굴 이미지를 크롭할 수 있다. 상기 서버(20)는 상기 마스킹된 얼굴 이미지를 크롭하여 좌안 크롭 이미지 및 우안 크롭 이미지를 생성할 수 있다. 결막 충혈 예측 방법을 수행할 때, 상기 서버(20)는 전술한 2가지의 크롭 방법들 중 제3 크롭(눈꺼풀을 포함하는 크롭)방법을 사용할 수 있다. 제3 크롭 방법에 관해서는 이미 상세히 설명한 바 있으므로 여기서는 자세한 설명을 생략한다.The
리사이징 처리 및 좌우 반전 처리Resizing processing and left-right reversal processing
상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지의 크기를 미리 정해진 사이즈로 리사이징 할 수 있다. The
한편, 상기 제4 예측모델을 이원화시키지 않고 하나의 모델로 구현한 경우, 상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지 중 하나를 전술한 바와 같이 좌우 반전시킬 수 있다. 상기 서버(20)는 상기 좌안 크롭 이미지 및 상기 우안 크롭 이미지 중 다른 하나는 좌우 반전시키지 않는다. 이때, 좌안 이미지와 좌안 이미지 중 어느 이미지를 좌우반전시킬지를 결정하는 기준은 상기 제4 예측모델을 학습시킬 때 적용하였던 기준과 동일한 기준으로 결정한다. 즉, 제4 예측 모델을 학습시킬 때, 좌안 이미지를 반전시키고 우안 이미지를 반전시키지 않은 경우, 이와 동일하게 상기 서버(20)는 좌안 이미지를 반전시키고 우안 이미지를 반전시키지 않는다.Meanwhile, when the fourth prediction model is implemented as a single model without dualization, the
만약, 전술한 바와 같이, 제4 예측모델을 구현함에 있어서, 제4 좌안 예측모델 및 제4 우안 예측모델로 이원화한 경우, 상기 서버(20)는 좌우 반전 처리를 수행하지 않을 수 있다.If, as described above, in implementing the fourth prediction model, in the case of dualization into the fourth left eye prediction model and the fourth right eye prediction model, the
한편, 전처리를 수행함에 있어서, 세그멘테이션, 마스킹 처리, 크롭 처리, 리사이징 처리, 좌우 반전 처리를 하는 것으로 설명하였으나, 각 전처리들의 순서는 본 출원에 의해 개시되는 눈꺼풀 발적 예측방법의 목적을 달성할 수 있는 범위 내에서 변경될 수 있다.On the other hand, in performing the preprocessing, it has been described that segmentation, masking process, cropping process, resizing process, and left/right reversal process are performed, but the order of each preprocessing can achieve the purpose of the eyelid redness prediction method disclosed by the present application It can be changed within scope.
전처리된 이미지의 입력Input of preprocessed image
상기 서버(20)는 상기 전처리된 이미지를 상기 제1 예측모델에 입력할 수 있다(S420). The
상기 서버(20)는, 상기 제4 예측모델을 이원화시키지 않고 하나의 모델로 구현한 경우, 상기 우안 전처리 이미지 및 좌우 반전된 좌안 전처리 이미지를 순차적으로 상기 제4 예측모델에 입력한다.When the fourth prediction model is implemented as a single model without being binary, the
만약, 제4 예측모델을 구현함에 있어서 제4 좌안 예측모델 및 제4 우안 예측모델로 이원화한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제4 우안 예측모델에 입력한다. 또는 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하고, 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제4 우안 예측모델에 입력하고, 상기 좌우 반전된 우안 전처리 이미지를 상기 제4 좌안 예측모델에 입력할 수 있다.If, in implementing the fourth prediction model, if the binary is made into a fourth left eye prediction model and a fourth right eye prediction model, the
만약, 제4 예측모델을 구현함에 있어서, 제4 예측모델을 이원화시키지 않고 하나의 모델로 구현하면서 동시에 좌안 이미지와 우안 이미지를 구별하지 않고 결막의 충혈 여부를 판단할 수 있도록 학습된 경우, 상기 서버(20)는 상기 좌안 전처리 이미지 및 상기 우안 전처리 이미지를, 좌우반전 없이, 상기 제4 예측모델에 입력할 수 있다. 또는 상기 서버(20)는 상기 좌안 전처리 이미지, 상기 좌우 반전된 좌안 전처리 이미지, 상기 우안 전처리 이미지 및 상기 좌우 반전된 우안 전처리 이미지를 상기 제4 예측모델에 입력할 수 있다.If, in implementing the fourth predictive model, the fourth predictive model is implemented as a single model without being binary and at the same time learned to determine whether conjunctiva is congested without distinguishing between left and right eye images, the server (20) may input the left eye preprocessing image and the right eye preprocessing image to the fourth predictive model without horizontal reversal. Alternatively, the
눈꺼풀 발적 예측 결과Eyelid redness prediction results
상기 서버(20)는 상기 제4 예측모델로부터 출력되는 결과값을 획득할 수 있다(S430). 상기 결과값은 이미지에 캡쳐된 눈꺼풀에 발적이 있을 예측되는 확률값일 수 있다. 상기 서버(20)는 미리 정해진 쓰레숄드값(threshold value)을 기준으로 상기 예측되는 확률값이 상기 쓰레숄드값 이상이면 눈꺼풀에 발적이 있는 것으로 판단하고, 상기 예측되는 확률값이 상기 쓰레숄드값 미만이면 눈꺼풀에 발적이 있지 않은 것으로 판단할 수 있다.The
상기 서버(20)는 좌안에 대한 예측결과와 우안에 대한 예측 결과를 모두 획득할 수 있다.The
만약, 상기 서버(20)가 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하고, 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하고, 상기 우안 전처리 이미지를 상기 제4 우안 예측모델에 입력하고, 상기 좌우 반전된 우안 전처리 이미지를 상기 제4 좌안 예측모델에 입력한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 좌안에 대한 예측 결과를 획득할 수 있다. 이때, 상기 서버(20)는 상기 우안 전처리 이미지를 상기 제4 우안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 우안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 우안에 대한 예측 결과를 획득할 수 있다.If the
예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하여 획득한 결과의 평균값이 상기 쓰레숄드값 이상인지 여부에 기초하여 상기 좌안에 대한 예측 결과를 획득할 수 있다.For example, the
다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하여 획득한 결과 중 어느 하나의 값이 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.For another example, the
또 다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 좌안 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 우안 예측모델에 입력하여 획득한 결과 모두가 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 결막이 충혈되었다고 예측할 수 있다.As another example, the
만약, 상기 서버(20)는 상기 좌안 전처리 이미지, 상기 좌우 반전된 좌안 전처리 이미지, 상기 우안 전처리 이미지 및 상기 좌우 반전된 우안 전처리 이미지를 이원화되지 않은 상기 제4 예측모델에 입력한 경우, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 좌안에 대한 예측 결과를 획득할 수 있다. 이때, 상기 서버(20)는 상기 우안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 우안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과를 모두 고려하여 상기 우안에 대한 예측 결과를 획득할 수 있다.If the
예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과의 평균값이 상기 쓰레숄드값 이상인지 여부에 기초하여 상기 좌안에 대한 예측 결과를 획득할 수 있다.For example, the
다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과 중 어느 하나의 값이 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 눈꺼풀에 발적이 있다고 예측할 수 있다.For another example, the
또 다른 예를 들어, 상기 서버(20)는 상기 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과와 상기 좌우 반전된 좌안 전처리 이미지를 상기 제4 예측모델에 입력하여 획득한 결과 모두가 전술한 쓰레숄드값 이상인 경우, 상기 좌안의 눈꺼풀에 발적이 있다고 예측할 수 있다.As another example, the
전술한 방식은 우안의 눈꺼풀 발적 여부를 판단하는 데에도 유사하게 적용될 수 있다.The above method can be similarly applied to determining whether the right eye has redness of the eyelid.
9. 눈꺼풀 부종 예측방법9. Eyelid swelling prediction method
본 출원에 의해 개시되는 눈꺼풀 부종 예측 방법은 서버(20)에 의해 수행될 수 있다.The eyelid edema prediction method disclosed by the present application may be performed by the
도 27는 눈꺼풀 부종 예측 방법을 설명하기 위한 흐름도이다.27 is a flowchart for explaining a method for predicting eyelid edema.
도 27을 참고하면, 서버(20)는 얼굴 이미지를 획득하고(S500), 상기 획득된 얼굴 이미지를 전처리하고(S510), 상기 전처리된 이미지를 전술한 제5 예측모델(눈꺼풀 부종 예측모델)에 입력하고(S520), 상기 제5 예측모델의 출력값을 획득한다(S530).Referring to FIG. 27, the
상기 눈꺼풀 부종 예측방법은 제4 예측모델 대신 제5 예측모델을 사용한다는 점, 그리고 최종적으로 획득되는 결과값이 눈꺼풀에 부종이 있는지 여부에 대한 예측값이라는 점을 제외하면, 눈꺼풀 발적 예측방법과 동일하거나 매우 유사하기 때문에, 자세한 설명은 생략하기로 한다.The eyelid edema prediction method is the same as the eyelid edema prediction method or Since they are very similar, a detailed description will be omitted.
전술한 바와 같이, 눈꺼풀 발적 예측방법 및 눈꺼풀 부종 예측방법에서 사용되는 이미지의 전처리 방법은 서로 동일하고, 다만 전처리된 이미지가 입력되는 예측모델들이 서로 다를 뿐이다. 따라서, 전술한 바와 같은 이미지 전처리를 한 후, 그 이미지가 서로 다른 예측모델들에 입력될 수 있다.As described above, the pre-processing method of the image used in the eyelid edema prediction method and the eyelid edema prediction method are identical to each other, except that the prediction models into which the pre-processed images are input are different. Therefore, after image pre-processing as described above, the image can be input to different predictive models.
10. 갑상선 안병증에 관한 임상활동점수 예측방법10. Clinical activity score prediction method for thyroid ophthalmopathy
이하에서는, 본 출원에 의해 개시되는 갑상선 안병증에 관한 임상활동점수의 예측방법에 대해 설명한다.Hereinafter, a method for predicting a clinical activity score related to thyroid ophthalmopathy disclosed by the present application will be described.
도 28은 갑상선 안병증에 관한 임상활동점수의 예측방법을 설명하기 위한 도면이다.28 is a diagram for explaining a method for predicting clinical activity scores related to thyroid ophthalmopathy.
서버(20)는 얼굴 이미지를 획득할 수 있다.The
서버(20)는 하나의 얼굴 이미지에 대해 2가지의 서로 다른 전처리를 수행한다. 첫번째 전처리(이하, 제1 전처리)는 홍채 세그멘테이션, 눈 아웃라인 세그멘테이션, 제1 마스킹, 제2 크롭(눈 아웃라인 크롭), 리사이징 및 좌우 반전하는 것을 포함하며, 두번째 전처리(이하, 제2 전처리)는 홍채 세그멘테이션, 눈 아웃라인 세그멘테이션, 제2 마스킹, 제3 크롭(눈꺼풀 포함 크롭), 리사이징 및 좌우 반전하는 것을 포함한다. 다만, 눈꺼풀 발적 예측방법에서 설명한 바와 같이, 홍채 세그멘테이션 및 제2 마스킹은 생략될 수 있다.The
서버(20)는 상기 획득된 얼굴 이미지에 대해 제1 전처리를 수행하여 제1 전처리 이미지를 획득하며, 상기 제1 전처리 이미지는 제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지를 포함한다. 이 때, 제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지 중 하나는 좌우반전처리된 이미지이다. 또한, 이미 상세하게 설명한 바와 같이, 상기 제1 전처리 이미지는 제2 크롭을 이용하여 획득되는 이미지이기 때문에, 상기 제1 전처리 이미지 내에서 눈꺼풀에 대응되는 픽셀들의 수는 최소화되어 있고 외부로 노출된 결막 및 눈물언덕에 대응되는 픽셀들이 포함되어 있다. 또한, 상기 제1 전처리 이미지는 제1 마스킹을 이용하여 획득되는 이미지이기 때문에, 홍채(또는 각막) 및 눈꺼풀(상안검, 하안검)에 대응되는 픽셀들의 픽셀값은 제거되어 있으나, 외부로 노출된 결막 및 눈물언덕에 대응되는 픽셀들의 픽셀값은 유지되어 있다. The
또한, 서버(20)는 상기 획득된 얼굴 이미지에 대해 제2 전처리를 수행하여 제2 전처리 이미지를 획득하며, 상기 제2 전처리 이미지는 제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지를 포함한다. 이 때, 상기 제1 좌안 전처리 이미지 및 제2 우안 전처리 이미지 중 하나는 좌우반전처리된 이미지이다. 또한, 이미 상세하게 설명한 바와 같이, 상기 제2 전처리 이미지는 제3 크롭을 이용하여 획득되는 이미지이기 때문에, 상기 제2 전처리 이미지는 눈꺼풀에 대응되는 픽셀들을 충분히 포함하고 있다. 또한, 상기 제2 전처리 이미지를 획득할 때, 제2 마스킹 방법이 이용된 경우, 홍채(또는 각막) 및 눈꺼풀(상안검, 하안검)에 대응되는 픽셀들의 픽셀값은 제거되어있을 수 있다.In addition, the
서버(20)는 상기 제1 전처리 이미지(제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지)를 제1 예측모델에 순차적으로 입력한다. 서버(20)는 제1 좌안 전처리 이미지에 대한 제1 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 왼쪽 눈에 대한 결막 충혈 여부에 대해서 판단한다. 아울러, 서버(20)는 제1 우안 전처리 이미지에 대한 제1 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 오른쪽 눈에 대한 결막 충혈 여부에 대해서 판단한다.The
서버(20)는 왼쪽 눈에 대한 판단결과와 오른쪽 눈에 대한 판단결과를 종합하여, 최종적으로 양쪽 눈에 대한 결막 충혈여부를 판단한다. 예를 들어, 왼쪽 눈과 오른쪽 눈 중 하나 이상에 대해 결막 충혈이 있다고 판단된 경우, 서버(20)는 최종적으로 결막 충혈이 있다고 판단한다.The
이어서, 서버(20)는 서버(20)는 상기 제1 전처리 이미지(제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지)를 제2 예측모델에 순차적으로 입력한다. 서버(20)는 제1 좌안 전처리 이미지에 대한 제2 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 왼쪽 눈에 대한 결막 부종 여부에 대해서 판단한다. 아울러, 서버(20)는 제1 우안 전처리 이미지에 대한 제2 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 오른쪽 눈에 대한 결막 부종 여부에 대해서 판단한다.Subsequently, the
서버(20)는 왼쪽 눈에 대한 판단결과와 오른쪽 눈에 대한 판단결과를 종합하여, 최종적으로 양쪽 눈에 대한 결막 부종 여부를 판단한다. 예를 들어, 왼쪽 눈과 오른쪽 눈 중 하나 이상에 대해 결막 부종이 있다고 판단된 경우, 서버(20)는 최종적으로 결막 부종이 있다고 판단한다.The
계속하여, 서버(20)는 서버(20)는 상기 제1 전처리 이미지(제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지)를 제3 예측모델에 순차적으로 입력한다. 서버(20)는 제1 좌안 전처리 이미지에 대한 제3 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 왼쪽 눈에 대한 눈물언덕 부종 여부에 대해서 판단한다. 아울러, 서버(20)는 제1 우안 전처리 이미지에 대한 제3 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 오른쪽 눈에 대한 눈물언덕 부종 여부에 대해서 판단한다.Subsequently, the
서버(20)는 왼쪽 눈에 대한 판단결과와 오른쪽 눈에 대한 판단결과를 종합하여, 최종적으로 양쪽 눈에 대한 눈물언덕 부종 여부를 판단한다. 예를 들어, 왼쪽 눈과 오른쪽 눈 중 하나 이상에 대해 눈물언덕 부종이 있다고 판단된 경우, 서버(20)는 최종적으로 눈물언덕 부종이 있다고 판단한다.The
서버(20)는 상기 제2 전처리 이미지(제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지)를 제4 예측모델에 순차적으로 입력한다. 서버(20)는 제2 좌안 전처리 이미지에 대한 제4 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 왼쪽 눈에 대한 눈꺼풀 발적 여부에 대해서 판단한다. 아울러, 서버(20)는 제2 우안 전처리 이미지에 대한 제4 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 오른쪽 눈에 대한 눈꺼풀 발적 여부에 대해서 판단한다.The
서버(20)는 왼쪽 눈에 대한 판단결과와 오른쪽 눈에 대한 판단결과를 종합하여, 최종적으로 양쪽 눈에 대한 눈꺼풀 발적 여부를 판단한다. 예를 들어, 왼쪽 눈과 오른쪽 눈 중 하나 이상에 대해 눈꺼풀 발적이 있다고 판단된 경우, 서버(20)는 최종적으로 눈꺼풀 발적이 있다고 판단한다.The
서버(20)는 상기 제2 전처리 이미지(제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지)를 제5 예측모델에 순차적으로 입력한다. 서버(20)는 제2 좌안 전처리 이미지에 대한 제5 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 왼쪽 눈에 대한 눈꺼풀 부종 여부에 대해서 판단한다. 아울러, 서버(20)는 제2 우안 전처리 이미지에 대한 제5 예측모델의 결과값(확률값)을 획득하고, 그에 기초하여 오른쪽 눈에 대한 눈꺼풀 부종 여부에 대해서 판단한다.The
서버(20)는 왼쪽 눈에 대한 판단결과와 오른쪽 눈에 대한 판단결과를 종합하여, 최종적으로 양쪽 눈에 대한 눈꺼풀 부종 여부를 판단한다. 예를 들어, 왼쪽 눈과 오른쪽 눈 중 하나 이상에 대해 눈꺼풀 부종이 있다고 판단된 경우, 서버(20)는 최종적으로 눈꺼풀 부종이 있다고 판단한다.The
서버(20)는 예측모델에 의해서 증상이 있다고 판단된 경우에는, 해당 증상에 대해 미리 정해진 점수(예를 들어, 1점)을 부여할 수 있고, 서버는 5개의 예측모델들에 대한 판단 결과에 따라 5가지 증상 각각에 대한 점수를 부여할 수 있고, 또한 이 점수들을 모두 더한 값을 획득할 수 있다.When it is determined that there is a symptom by the predictive model, the
전술한 본 출원에 의해 개시되는 갑상선 안병증 임상활동점수 예측방법은 서버(20)에 의해서 수행되는 것으로 설명하였다. 그러나, 전술한 방법은 사용자 단말기(10)에서 수행될 수도 있다. 또는 전술한 방법들 중 전처리는 사용자 단말기(10)에서 수행되고 각 증상들에 대한 판단은 서버에 의해 수행될 수도 있다. 즉, 전술한 단계들은 사용자 단말기(10)와 서버(20)에 적절하게 분산되어 실시될 수 있다.It has been described that the method for predicting the thyroid ophthalmopathy clinical activity score disclosed by the above-described present application is performed by the
11. 갑상선 안병증에 관한 임상활동점수의 지속적인 모니터링에 기초한 병원 방문 추천 방법11. Recommendation method for hospital visit based on continuous monitoring of clinical activity score for thyroid ophthalmopathy
이하에서는, 본 출원에 의해 개시되는 갑상선 안병증에 관한 임상활동점수의 지속적인 모니터링 방법 및 이에 기초한 병원 방문 추천 방법에 대해 설명한다.Hereinafter, a method for continuously monitoring a clinical activity score related to thyroid eye disease disclosed by the present application and a method for recommending a hospital visit based thereon will be described.
도 29는 본 출원에 의해 개시되는 갑상선 안병증에 관한 임상활동점수의 지속적인 모니터링 방법 및 이에 기초한 병원 방문 추천 방법을 설명하기 위한 도면이다.29 is a diagram for explaining a method for continuously monitoring clinical activity scores related to thyroid eye disease and a method for recommending a hospital visit based on the method disclosed by the present application.
사용자 단말기(10)는 디스플레이(112)를 통해 얼굴 이미지 획득을 위한 가이드를 출력할 수 있다(S600).The
사용자 단말기(10)는 카메라(140)를 통해 실시간으로 캡쳐되는 이미지(예를 들어, 사용자의 얼굴을 반영하는 이미지)를 상기 디스플레이(112)를 통해 출력할 수 있으며, 이때 상기 가이드를 함께 출력할 수 있다. The
사용자 단말기(10)는 카메라(140)를 통해 사용자의 얼굴에 대한 얼굴 이미지를 획득할 수 있다(S610).The
사용자 단말기(10)는 상기 획득된 얼굴 이미지를 상기 서버(20)로 전송할 수 있다(S620).The
사용자 단말기(10)는 갑상선 안병증에 대한 임상활동점수를 판단함에 있어서 고려되는 총 7가지의 항목들 중 구후부의 자발적인 통증 (Spontaneous retrobulbar pain) 및 안구운동 시 통증 (Pain on attempted upward or downward gaze)에 대한 사용자 입력을 받기 위한 그래피컬 유저 인터페이스(graphical user interface, GUI)를 상기 디스플레이를 통해 출력할 수 있다. 이어서, 사용자 단말기(10)는 상기 2가지 항목에 대한 사용자의 응답을 입력받을 수 있다(S630). 사용자 단말기(10)는 상기 입력된 사용자의 응답에 기초하여, 각 항목들에 대해 미리 정해진 점수(예를 들어, 1점)을 부여할 수 있다. 예를 들어, 사용자가 구후부의 자발적인 통증이 있다고 입력한 경우, 상기 사용자 단말기(10)는 해당 항목에 대해 1점을 부여할 수 있으며, 또한 사용자가 안구운동 시 통증이 있다고 입력한 경우, 상기 사용자 단말기(10)는 해당 항목에 대해 1점을 부여할 수 있다.The
사용자 단말기(10)는 상기 획득된 얼굴 이미지에 기초하여, 갑상선 안병증에 대한 임상활동점수를 판단함에 있어서 고려되는 총 7가지의 항목들 중 결막의 충혈 (Redness of conjunctiva), 결막의 부종 (Swelling of conjunctiva), 눈물언덕의 부종 (Swelling of lacrimal caruncle), 눈꺼풀의 발적 (Redness of eyelid) 및 눈꺼풀의 부종 (Swelling of eyelid)에 대한 판단결과 또는 이들에 대한 합산 점수를 상기 서버(20)로부터 수신할 수 있다(S640).The
사용자 단말기(10)는 사용자 입력에 의해 결정된 점수와 서버(20)로부터 수신한 점수 또는 서버로부터 수신한 판단결과에 기초하여 결정된 점수에 기초하여, 최종적인 갑상선 안병증에 대한 임상활동점수를 산출할 수 있다(S650).The
사용자 단말기(10)는 상기 사용자의 얼굴 이미지를 획득한 시각 또는 상기 최종적인 갑상선 안병증에 대한 임상활동점수의 산출값이 획득된 시각 또는 이에 준하는 시각(이하, 측정 시각, yy/mm/dd, hh:mm)을 상기 산출된 임상활동점수와 함께 메모리(130)에 저장할 수 있다. 또는 사용자 단말기(10)는 전술한 측정 시각과 그에 대응되는 임상활동점수를 상기 서버(20)에 전송할 수 있다. 이때, 서버(20)는 상기 측정 시각 및 임상활동점수를 상기 사용자 단말기(10) 또는 상기 사용자에 대응하여 저장할 수 있다(S660).The
한편, 상기 측정 시각은 일자(date)에 대한 정보를 포함한다. 상기 측정 시각은 일자(date)에 대한 정보와 시(hour) 및/또는 분(minute)에 관한 정보를 모두 가지고 있을 수도 있고, 상기 측정 시각은 일자(date)에 대한 정보만을 가지고 있고, 시(hour) 또는 분(minute)에 관한 정보는 포함하고 있지 않을 수도 있다.Meanwhile, the measurement time includes information on a date. The measurement time may have both information about the date and information about the hour and / or minute, and the measurement time has only information about the date, and the time ( hour or minute information may not be included.
사용자 단말기(10)는 상기 산출된 임상활동점수에 기초하여, 사용자에게 병원 방문 및 정밀 검진을 받을 것을 추천하는 정보를 상기 디스플레이(112)를 통해 출력할 수 있다(S670).The
사용자 단말기(10)는 상기 산출된 임상활동점수가 3점 미만인 경우에는, 갑상선 안병증에 대한 위험이 없다는 취지의 정보를 상기 디스플레이(112)를 통해 출력할 수 있다.When the calculated clinical activity score is less than 3 points, the
사용자 단말기(10)는 상기 산출된 임상활동점수가 3점 또는 4점인 경우에는, 선택적으로 갑상선 안병증에 대한 위험이 없다는 취지의 정보를 상기 디스플레이(112)를 통해 출력하거나 또는 사용자에게 병원 방문 및 정밀 검진을 받을 것을 추천하는 정보를 상기 디스플레이(112)를 통해 출력할 수 있다.When the calculated clinical activity score is 3 or 4, the
사용자 단말기(10)는 상기 산출된 임상활동점수가 5점이상인 경우에는, 사용자에게 병원 방문 및 정밀 검진을 받을 것을 추천하는 정보를 상기 디스플레이(112)를 통해 출력할 수 있다.The
상기 산출된 임상활동점수가 3점 또는 4점인 경우에는, 해당 시점을 기준으로 미리 정해진 기간(예를 들어, 1주일) 이전에 측정된 임상활동점수를 확인하고, 해당 구간(이하, 모니터링 구간) 동안 임상활동점수가 3점 또는 4점이었던 적이 있는지 여부가 확인될 수 있다. 이때, 만약 모니터링 구간 동안 3점 또는 4점이었던 적이 한번 이상인 경우, 사용자 단말기(10)는 사용자에게 병원 방문 및 정밀 검진을 받을 것을 추천하는 정보를 상기 디스플레이(112)를 통해 출력하며, 모니터링 구간 동안 3점 또는 4점이었던 적이 없는 경우, 사용자 단말기(10)는 갑상선 안병증에 대한 위험이 없다는 취지의 정보를 상기 디스플레이(112)를 통해 출력한다.If the calculated clinical activity score is 3 or 4 points, the clinical activity score measured before a predetermined period (eg, 1 week) from the point in time is checked, and the corresponding period (hereinafter referred to as monitoring period) is checked. It can be confirmed whether the clinical activity score has ever been 3 or 4 during the period. At this time, if the number of points 3 or 4 was more than once during the monitoring period, the
다만, 사용자 단말기(10)는 상기 산출된 임상활동점수가 3점 이상인 경우에는, 과거 이력에 대한 추가 판단 없이, 사용자에게 병원 방문 및 정밀 검진을 받을 것을 추천하는 정보를 상기 디스플레이(112)를 통해 출력할 수 있다.However, when the calculated clinical activity score is 3 points or more, the
전술한 바에 의하면, 상기 사용자 단말기(10)를 통해 사용자에게 정보를 출력함에 있어서, 디스플레이(112)를 통해 시각적으로 정보를 출력하는 것을 예시하여 설명하였으나, 경우에 따라서 상기 정보는 스피커 등을 통해 청각적으로 출력될 수 있다.As described above, in outputting information to the user through the
아울러, 전술한 본 출원에 의해 개시되는 갑상선 안병증에 관한 임상활동점수의 지속적인 모니터링 방법 및 이에 기초한 병원 방문 추천 방법은 사용자 단말기(10)에 의해서 수행되는 것으로 설명하였다. 그러나, 전술한 방법의 각 단계들은 사용자 단말기(10)와 서버(20)에 적절하게 분산되어 실시될 수 있다. 예를 들어, 측정 시각 및 임상활동점수가 서버(20)에 전송되어 저장되어 있는 경우, 모니터링 구간에 3점 또는 4점이 있었는지 여부를 판단하는 것은 서버(20)에 의해 수행될 수 있다.In addition, it has been described that the continuous monitoring method of the clinical activity score related to thyroid eye disease and the method of recommending a hospital visit based thereon disclosed by the above-described present application are performed by the
12. 실험예 #112.
(1) 얼굴 이미지의 준비(1) Preparation of face image
1,020 장의 얼굴 이미지를 준비하였다. 얼굴 이미지 각각은 좌안과 우안을 모두 포함하는 이미지이며, 미리 정해진 촬영 구도에 따라서 촬영된 이미지이다.1,020 face images were prepared. Each face image is an image including both the left eye and the right eye, and is an image captured according to a predetermined photographing composition.
(2) 얼굴 이미지에 대한 라벨링 정보 확보(2) Obtaining labeling information for face images
1,020 장의 얼굴 이미지 각각에 대하여, 좌안에 대한 결막 충혈, 결막 부종, 눈물언덕 부종, 눈꺼풀 발적 및 눈꺼풀 부종에 대한 정보 및 우안에 대한 결막 충혈, 결막 부종, 눈물언덕 부종, 눈꺼풀 발적 및 눈꺼풀 부종에 대한 정보를 확보하였고, 이 데이터들을 라벨링 데이터로 활용하였다.For each of 1,020 facial images, information on conjunctival hyperemia, conjunctival edema, lacrimal edema, eyelid redness, and eyelid edema for the left eye and information on conjunctival hyperemia, conjunctival edema, lacrimal edema, eyelid erythema, and eyelid edema for the right eye. Information was obtained, and these data were used as labeling data.
1,020개의 데이터세트들 중 714개를 학습데이터 세트(training set)로, 102개를 밸리데이션 세트(validation set)로, 204개를 검증 세트(test set)로 사용하였다.Of the 1,020 datasets, 714 were used as a training set, 102 as a validation set, and 204 as a test set.
또한, 1,020개를 학습데이터 세트, 밸리데이션 세트, 검증 세트로 나누는 것을 랜덤하게 30번을 수행하였으며, 이에 따라, 제1 학습데이터 세트 그룹 내지 제30 학습데이터 세트 그룹이 생성되었다.In addition, 1,020 pieces were randomly divided into a learning data set, a validation set, and a verification set 30 times, and accordingly, the first to 30th training data set groups were generated.
(3) 얼굴 이미지에 대한 제1 전처리 이미지 및 제2 전처리 이미지 확보(3) Obtaining a first pre-processed image and a second pre-processed image of a face image
1,020 장의 얼굴 이미지 각각에 대하여, 좌안과 우안 각각에 대하여 전술한 방식으로 제1 크롭 처리(눈 아웃라인 크롭)를 하여, 제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지를 확보하였다. 이때, 제1 우안 전처리 이미지는 좌우반전된 이미지를 사용하였고, 제1 좌안 전처리 이미지는 좌우반전되지 않은 이미지를 사용하였다. 한편, 이때 제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지는 모두 전술한 제1 마스킹 처리를 한 이미지들이었다.For each of the 1,020 face images, the first cropping process (eye outline cropping) was performed on the left eye and the right eye, respectively, to secure a first left eye preprocessing image and a first right eye preprocessing image. In this case, the first right eye preprocessing image used a horizontally inverted image, and the first left eye preprocessing image used an image that was not horizontally inverted. Meanwhile, at this time, both the first left eye preprocessing image and the first right eye preprocessing image are images subjected to the above-described first masking process.
1,020 장의 얼굴 이미지 각각에 대하여, 좌안과 우안 각각에 대하여 전술한 방식으로 제2 크롭 처리(눈꺼풀 포함 크롭)를 하여, 제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지를 확보하였다. 이때, 제2 우안 전처리 이미지는 좌우반전된 이미지를 사용하였고, 제2 좌안 전처리 이미지는 좌우반전되지 않은 이미지를 사용하였다. 한편, 이때 제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지는 모두 마스킹처리를 하지 않은 이미지들이었다.For each of the 1,020 face images, the second cropping process (including eyelid cropping) was performed on the left eye and the right eye in the above-described manner to secure a second left eye preprocessing image and a second right eye preprocessing image. At this time, the left-right inverted image was used as the second right eye preprocessing image, and the left-right reversed image was used as the second left eye preprocessing image. Meanwhile, at this time, both the second left eye preprocessing image and the second right eye preprocessing image are images without masking processing.
(4) 실험예 #1에 따른 제1 내지 제5 예측모델들의 학습(4) Learning of the first to fifth predictive models according to
확보된 제1 전처리 이미지들 및 이들에 대해 확보된 라벨링 정보들, 그리고 확보된 제2 전처리 이미지들 및 이들에 대해 확보된 라벨링 정보들을 이용하여 제1 내지 제5예측모델들의 학습을 수행하였다.The first to fifth predictive models were trained using the secured first preprocessed images, the secured labeling information, and the secured second preprocessed images and the secured labeling information.
예측모델은 전술한 ViT을 백본 아키텍쳐로 사용한 모델을 사용하였으며, 각 예측모델들은 좌안 예측모델과 우안 예측모델을 분리하지 않고 하나의 모델로 일원화하여 학습시켰다.For the prediction model, a model using the aforementioned ViT as a backbone architecture was used, and each prediction model was trained by integrating the left eye prediction model and the right eye prediction model into one model without separating them.
(5) 예측모델들을 이용한 각 증상에 대한 예측 결과의 획득(5) Acquisition of prediction results for each symptom using predictive models
학습된 제1 내지 제5 예측모델들에 대해 검증 데이터 세트들을 이용하여 예측 결과를 획득하였다. 이때, 우안 이미지는 좌우반전 시킨 전처리 이미지를 사용하였고, 좌안 이미지는 좌우반전되지 않은 전처리 이미지를 사용하였다.Prediction results were obtained using the verification data sets for the first to fifth predictive models that were learned. At this time, the right-eye image was a left-right inverted preprocessing image, and the left-eye image was a left-right inverted preprocessing image.
(6) 실험예 #1에 따른 눈꺼풀 발적 예측모델의 정확도, 민감도(Sensitivity), 특이도(Specificity), 양성 예측도(Positive Predictive Value, PPV) 및 음성 예측도(Negative Predictive Value, NPV)(6) Accuracy, Sensitivity, Specificity, Positive Predictive Value (PPV) and Negative Predictive Value (NPV) of the eyelid redness prediction model according to
[표1]에 나타낸 값들은 전술한 실험예 #1에 따라 30개의 데이터세트 그룹들 각각에 대해 학습한 제1 내지 제5 예측모델들에 대해 측정된 정확도, 민감도, 특이도, PPV, NPV의 평균값들이다.The values shown in [Table 1] are the accuracy, sensitivity, specificity, PPV, and NPV measured for the first to fifth predictive models learned for each of the 30 dataset groups according to
(제1 예측 모델)conjunctival hyperemia
(First prediction model)
(제2 예측모델)conjunctival edema
(Second prediction model)
(제3 예측모델)tear hill edema
(Third prediction model)
(제4 예측모델)eyelid redness
(The 4th predictive model)
(제5 예측모델)eyelid swelling
(Fifth prediction model)
13. 실험예 #213. Experiment #2
(1) 얼굴 이미지의 준비(1) Preparation of face image
실험예 #1에서 사용한 얼굴 이미지를 그대로 사용하였다.The face image used in
(2) 얼굴 이미지에 대한 라벨링 정보 확보(2) Obtaining labeling information for face images
실험예 #1에서 사용한 얼굴 이미지에 대한 라벨링 정보들을 그대로 활용하였다.The labeling information for the face image used in
(3) 얼굴 이미지에 대한 제1 전처리 이미지 및 제2 전처리 이미지 확보 (3) Obtaining a first pre-processed image and a second pre-processed image of a face image
1,020 장의 얼굴 이미지 각각에 대하여, 좌안과 우안 각각에 대하여 전술한 방식으로 제1 크롭 처리(눈 아웃라인 크롭)를 하여, 제1 전처리 이미지들을 확보하였다. 실험예 #1과 달리, 좌우반전 되지 않은 제1 좌안 전처리 이미지, 좌우반전된 제1 좌안 전처리 이미지, 좌우반전 되지 않은 제1 우안 전처리 이미지 및 좌우반전된 제1 우안 전처리 이미지를 모두 확보하고, 이들을 학습하는 데에 사용하였다. 이때 제1 좌안 전처리 이미지 및 제1 우안 전처리 이미지는 모두 전술한 제1 마스킹 처리를 한 이미지들이었다.For each of the 1,020 face images, the first cropping process (eye outline cropping) was performed on each of the left and right eyes in the above-described manner to secure first pre-processed images. Unlike
1,020 장의 얼굴 이미지 각각에 대하여, 좌안과 우안 각각에 대하여 전술한 방식으로 제2 크롭 처리(눈꺼풀 포함 크롭)를 하여, 제2 전처리 이미지들을 확보하였다. 실험예 #1과 달리, 좌우반전 되지 않은 제2 좌안 전처리 이미지, 좌우반전된 제2 좌안 전처리 이미지, 좌우반전 되지 않은 제2 우안 전처리 이미지 및 좌우반전된 제2 우안 전처리 이미지를 모두 확보하고, 이들을 학습하는 데에 사용하였다. 이때 제2 좌안 전처리 이미지 및 제2 우안 전처리 이미지는 모두 마스킹처리를 하지 않은 이미지들이었다.For each of the 1,020 face images, the second cropping process (cropping including the eyelid) was performed on the left eye and the right eye in the above-described manner to secure second pre-processed images. Unlike
(4) 실험예 #2에 따른 제1 내지 제5 예측모델들의 학습(4) Learning of the first to fifth predictive models according to Experimental Example #2
확보된 제1 전처리 이미지들 및 이들에 대해 확보된 라벨링 정보들, 그리고 확보된 제2 전처리 이미지들 및 이들에 대해 확보된 라벨링 정보들을 이용하여 제1 내지 제5예측모델들의 학습을 수행하였다.The first to fifth predictive models were trained using the secured first preprocessed images, the secured labeling information, and the secured second preprocessed images and the secured labeling information.
예측모델은 전술한 ViT을 백본 아키텍쳐로 사용한 모델을 사용하였으며, 각 예측모델들은 좌안 예측모델과 우안 예측모델로 이원화 하여 학습시켰다. 특히, 좌안 예측모델들을 학습시킬 때, 좌우반전되지 않은 좌안 전처리 이미지와 좌우반전된 우안 전처리 이미지를 사용하였고, 우안 예측모델들을 학습시킬 때, 좌우반전되지 않은 우안 전처리 이미지와 좌우반전된 좌안 전처리 이미지를 사용하였다.For the prediction model, a model using the aforementioned ViT as a backbone architecture was used, and each prediction model was trained by dividing it into a left-eye prediction model and a right-eye prediction model. In particular, when learning the left eye prediction models, a left eye preprocessing image that is not horizontally inverted and a right eye preprocessing image that is reversed are used. was used.
(5) 예측모델들을 이용한 각 증상에 대한 예측 결과의 획득(5) Acquisition of prediction results for each symptom using predictive models
학습된 제1 내지 제5 예측모델들에 대해 검증 데이터 세트들을 이용하여 예측 결과를 획득하였다. 이때, 우안에 대한 예측 결과는 각 우안 예측모델들에 좌우반전 하지 않은 우안 전처리 이미지를 입력하여 획득하였고, 좌안에 대한 예측 결과는 각 좌안 예측모델들에 좌우반전하지 않은 좌안 전처리 이미지를 입력하여 획득하였다.Prediction results were obtained using the verification data sets for the first to fifth predictive models that were learned. At this time, the prediction result for the right eye was acquired by inputting the right eye preprocessing image that was not horizontally inverted to each right eye prediction model, and the prediction result for the left eye was obtained by inputting the left eye preprocessing image that was not horizontally inverted to each of the left eye prediction models. did
(6) 실험예 #2에 따른 눈꺼풀 발적 예측모델의 정확도, 민감도(Sensitivity), 특이도(Specificity), 양성 예측도(Positive Predictive Value, PPV) 및 음성 예측도(Negative Predictive Value, NPV)(6) Accuracy, Sensitivity, Specificity, Positive Predictive Value (PPV) and Negative Predictive Value (NPV) of the eyelid redness prediction model according to Experimental Example #2
[표2]에 나타낸 값들은 전술한 실험예 #2에 따라 30개의 데이터세트 그룹들 각각에 대해 학습한 제1 내지 제5 예측모델들에 대해 측정된 정확도, 민감도, 특이도, PPV, NPV의 평균값들이다.The values shown in [Table 2] are the accuracy, sensitivity, specificity, PPV, and NPV measured for the first to fifth predictive models learned for each of the 30 dataset groups according to Experimental Example #2 described above. are average values.
(제1 예측 모델)conjunctival hyperemia
(First prediction model)
(제2 예측모델)conjunctival edema
(Second prediction model)
(제3 예측모델)tear hill edema
(Third prediction model)
(제4 예측모델)eyelid redness
(The 4th predictive model)
(제5 예측모델)eyelid swelling
(Fifth prediction model)
1: 시스템
10: 사용자 단말기
20: 서버1: system
10: user terminal
20: server
Claims (8)
대상의 얼굴 이미지를 획득하고,
상기 얼굴 이미지로부터 제1 처리된 이미지(first processed image) 및 제2 처리된 이미지(second processed image)를 획득하고 - 이때, 상기 제1 처리된 이미지는 상기 제2 처리된 이미지와 상이함 -,
상기 제1 처리된 이미지를 상기 결막 충혈 예측 모델, 상기 결막 부종 예측 모델 및 상기 눈물언덕 부종 예측 모델에 입력하여 결막 충혈, 결막 부종 및 눈물언덕 부종 각각에 대한 예측값들을 획득하고,
상기 제2 처리된 이미지를 상기 눈꺼풀 발적 예측 모델 및 상기 눈꺼풀 부종 예측 모델에 입력하여 눈꺼풀 발적 및 눈꺼풀 부종 각각에 대한 예측값들을 획득하고,
상기 결막 충혈에 대한 상기 예측값, 상기 결막 부종에 대한 상기 예측값, 상기 눈물언덕 부종에 대한 상기 예측값, 상기 눈꺼풀 발적에 대한 상기 예측값 및 상기 눈꺼풀 부종에 대한 상기 예측값에 기초하여, 상기 대상이 갑상선 안병증 (thyroid eye disease)을 가지고 있을 가능성(possibility)을 판단하는 것을 포함하고,
상기 제1 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 눈의 아웃라인의 외부 및 상기 홍채의 아웃라인의 내부에 대응되는 영역들을 마스킹하고 상기 눈의 아웃라인을 포함하는 제1 영역을 따라서 크로핑된 이미지이며,
상기 제2 처리된 이미지는 상기 눈의 아웃라인에 대응되는 픽셀들의 위치 정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보에 기초하여, 상기 제1 영역 보다 더 넓게 확장된 제2 영역을 따라서 크로핑된 이미지인
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.Prepare a conjunctival congestion prediction model, conjunctival edema prediction model, tear hill edema prediction model, eyelid redness prediction model, and eyelid edema prediction model,
Acquire an image of the target's face,
Obtaining a first processed image and a second processed image from the face image, wherein the first processed image is different from the second processed image;
Obtaining predicted values for conjunctival hyperemia, conjunctival edema, and lacrimal edema, respectively, by inputting the first processed image to the conjunctival congestion prediction model, the conjunctival edema prediction model, and the tear hill edema prediction model,
inputting the second processed image to the eyelid redness prediction model and the eyelid edema prediction model to obtain predicted values for eyelid redness and eyelid edema, respectively;
Based on the predicted value for the conjunctival hyperemia, the predicted value for the conjunctival edema, the predicted value for the tear hill edema, the predicted value for the eyelid redness, and the predicted value for the eyelid edema, it is determined that the subject has thyroid ophthalmopathy. (including determining the possibility of having thyroid eye disease),
The first processed image is based on location information of pixels corresponding to the outline of the eye and location information of pixels corresponding to the outline of the iris included in the eye, and the outside of the outline of the eye and the iris. An image cropped along a first area including the outline of the eye by masking areas corresponding to the inside of the outline of
The second processed image is a first area that extends wider than the first area, based on location information of pixels corresponding to the outline of the eye and location information of pixels corresponding to the outline of the iris included in the eye. 2 image cropped along the region
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 눈의 아웃라인에 대응되는 픽셀들의 위치정보 및 상기 눈에 포함된 홍채의 아웃라인에 대응되는 픽셀들의 위치정보는 세그멘테이션 모델에 의해 획득되는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.According to claim 1,
Location information of pixels corresponding to the outline of the eye and location information of pixels corresponding to the outline of the iris included in the eye are obtained by a segmentation model
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 제1 처리된 이미지는 제1 처리된 좌안 이미지(first processed left eye image) 및 제1 처리된 우안 이미지(first processed right eye image)를 포함하며,
상기 제2 처리된 이미지는 제2 처리된 좌안 이미지(second processed left eye image) 및 제2 처리된 우안 이미지(second processed right eye image)를 포함하는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.According to claim 1,
The first processed image includes a first processed left eye image and a first processed right eye image,
The second processed image includes a second processed left eye image and a second processed right eye image.
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 결막 충혈 예측 모델은 좌안 결막 충혈 예측 모델 및 우안 결막 충혈 예측 모델을 포함하고,
상기 결막 부종 예측 모델은 좌안 결막 부종 예측 모델 및 우안 결막 부종 예측 모델을 포함하며,
상기 눈물언덕 부종 예측 모델은 좌안 눈물언덕 부종 예측 모델 및 우안 눈물언덕 부종 예측 모델을 포함하고,
상기 눈꺼풀 발적 예측 모델은 좌안 눈꺼풀 발적 예측 모델 및 우안 눈꺼풀 발적 예측 모델을 포함하며,
상기 눈꺼풀 부종 예측 모델은 좌안 눈꺼풀 부종 예측 모델 및 우안 눈꺼풀 부종 예측 모델을 포함하는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.According to claim 3,
The conjunctival hyperemia prediction model includes a left eye conjunctival hyperemia prediction model and a right eye conjunctival hyperemia prediction model,
The conjunctival edema prediction model includes a left eye conjunctival edema prediction model and a right eye conjunctival edema prediction model,
The lacrimal edema prediction model includes a left eye lacrimal edema prediction model and a right eye lacrimal edema prediction model,
The eyelid redness prediction model includes a left eye eyelid redness prediction model and a right eye eyelid redness prediction model,
The eyelid edema prediction model includes a left eye eyelid edema prediction model and a right eye eyelid edema prediction model
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 결막 충혈에 대한 상기 예측값은 상기 제1 처리된 좌안 이미지를 상기 좌안 결막 충혈 모델에 입력하여 획득한 결과와 상기 제1 처리된 우안 이미지를 상기 우안 결막 충혈 모델에 입력하여 획득한 결과에 기초하여 결정되고,
상기 결막 부종에 대한 상기 예측값은 상기 제1 처리된 좌안 이미지를 상기 좌안 결막 부종 모델에 입력하여 획득한 결과와 상기 제1 처리된 우안 이미지를 상기 우안 결막 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고,
상기 눈물언덕 부종에 대한 상기 예측값은 상기 제1 처리된 좌안 이미지를 상기 좌안 눈물언덕 부종 모델에 입력하여 획득한 결과와 상기 제1 처리된 우안 이미지를 상기 우안 눈물언덕 부종 모델에 입력하여 획득한 결과에 기초하여 결정되고,
상기 눈꺼풀 발적에 대한 상기 예측값은 상기 제2 처리된 좌안 이미지를 상기 좌안 눈꺼풀 발적 모델에 입력하여 획득한 결과와 상기 제2 처리된 우안 이미지를 상기 우안 눈꺼풀 발적 모델에 입력하여 획득한 결과에 기초하여 결정되며,
상기 눈꺼풀 부종에 대한 상기 예측값은 상기 제2 처리된 좌안 이미지를 상기 좌안 눈꺼풀 부종 모델에 입력하여 획득한 결과와 상기 제2 처리된 우안 이미지를 상기 우안 눈꺼풀 부종 모델에 입력하여 획득한 결과에 기초하여 결정되는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.According to claim 4,
The predicted value for the conjunctival congestion is based on a result obtained by inputting the first processed left eye image into the left eye conjunctival congestion model and a result obtained by inputting the first processed right eye image into the right eye conjunctival congestion model determined,
The predicted value for the conjunctival edema is based on a result obtained by inputting the first processed left eye image into the left eye conjunctival edema model and a result obtained by inputting the first processed right eye image into the right eye conjunctival edema model. determined,
The predicted value for the tear hill edema is a result obtained by inputting the first processed left eye image to the left eye tear hill edema model and a result obtained by inputting the first processed right eye image into the right eye tear hill edema model. is determined based on
The predicted value for the eyelid erythema is based on a result obtained by inputting the second processed left eye image into the left eye eyelid erythema model and a result obtained by inputting the second processed right eye image into the right eye eyelid erythema model. is determined,
The predicted value for the eyelid edema is based on a result obtained by inputting the second processed left eye image to the left eye eyelid edema model and a result obtained by inputting the second processed right eye image into the right eye eyelid edema model. determined
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image) 중 하나를 좌우 반전 처리하고,
상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image) 중 하나를 좌우 반전 처리하는 것을 더 포함하는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법. According to claim 3,
Left-right inversion processing of one of the first processed left eye image and the first processed right eye image;
Further comprising horizontally inverting one of the second processed left eye image and the second processed right eye image
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 결막 충혈에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 충혈 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고,
상기 결막 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 결막 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고,
상기 눈물언덕 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈물언덕 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고,
상기 눈꺼풀 발적에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 발적 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되고,
상기 눈꺼풀 부종에 대한 상기 예측값은 상기 좌우 반전 처리된 이미지와 좌우 반전 처리되지 않은 이미지를 상기 눈꺼풀 부종 모델에 각각 입력하여 획득한 결과값들에 기초하여 결정되는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.According to claim 6,
The predicted value for the conjunctival congestion is determined based on result values obtained by inputting the horizontally inverted image and the left-right inverted image into the conjunctival congestion model, respectively,
The predicted value for the conjunctival edema is determined based on result values obtained by inputting the left-right inverted image and the left-right inverted image into the conjunctival edema model, respectively,
The predicted value for the tear hill edema is determined based on result values obtained by inputting the left-right reversed image and the left-right reversed image into the tear hill edema model, respectively;
The predicted value for the eyelid erythema is determined based on result values obtained by inputting the left-right inverted image and the non-left-right inverted image to the eyelid erythema model, respectively,
The predicted value for the eyelid edema is determined based on the result values obtained by inputting the left-right inverted image and the left-right inverted image into the eyelid edema model, respectively.
A computer-implemented method for predicting thyroid ophthalmopathy.
상기 제1 처리된 좌안 이미지(first processed left eye image) 및 상기 제1 처리된 우안 이미지(first processed right eye image)를 리사이징하고,
상기 제2 처리된 좌안 이미지(second processed left eye image) 및 상기 제2 처리된 우안 이미지(second processed right eye image)를 리사이징하는 것을 더 포함하는
컴퓨터로 실행가능한 갑상선 안병증의 예측방법.
According to claim 3,
Resizing the first processed left eye image and the first processed right eye image;
Further comprising resizing the second processed left eye image and the second processed right eye image
A computer-implemented method for predicting thyroid ophthalmopathy.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023571557A JP7525851B2 (en) | 2021-06-30 | 2022-06-29 | Method for clinic visit guidance for medical treatment of active thyroid eye disease and system for carrying out same |
KR1020220079770A KR102477694B1 (en) | 2022-06-29 | 2022-06-29 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
PCT/KR2022/009356 WO2023277589A1 (en) | 2021-06-30 | 2022-06-29 | Method for guiding visit for active thyroid eye disease examination, and system for performing same |
US17/939,040 US11663719B2 (en) | 2021-06-30 | 2022-09-07 | Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same |
KR1020220171082A KR20240002668A (en) | 2022-06-29 | 2022-12-09 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
US18/094,064 US11748884B2 (en) | 2021-06-30 | 2023-01-06 | Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same |
US18/222,271 US20230360204A1 (en) | 2021-06-30 | 2023-07-14 | Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same |
JP2024110365A JP2024138393A (en) | 2021-06-30 | 2024-07-09 | Method for clinic visit guidance for medical treatment of active thyroid eye disease and system for carrying out same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220079770A KR102477694B1 (en) | 2022-06-29 | 2022-06-29 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220171082A Division KR20240002668A (en) | 2022-06-29 | 2022-12-09 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102477694B1 true KR102477694B1 (en) | 2022-12-14 |
Family
ID=84438319
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220079770A KR102477694B1 (en) | 2021-06-30 | 2022-06-29 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
KR1020220171082A KR20240002668A (en) | 2022-06-29 | 2022-12-09 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220171082A KR20240002668A (en) | 2022-06-29 | 2022-12-09 | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102477694B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118052819B (en) * | 2024-04-15 | 2024-06-14 | 深圳大学总医院 | Method, device and system for predicting thyroid-related eye diseases |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017503276A (en) * | 2014-01-02 | 2017-01-26 | イリテック インコーポレイテッド | Apparatus and method for acquiring iris recognition image using face component distance |
KR20210004695A (en) * | 2019-07-05 | 2021-01-13 | 순천향대학교 산학협력단 | Artificial Intelligence based retinal disease diagnosis apparatus and method thereof |
KR102223478B1 (en) | 2018-09-14 | 2021-03-04 | 아크소프트 코포레이션 리미티드 | Eye state detection system and method of operating the same for utilizing a deep learning model to detect an eye state |
KR20210026597A (en) * | 2019-08-30 | 2021-03-10 | 국민대학교산학협력단 | Method and device for predicting disease using segmentating vessel in eye image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102047237B1 (en) | 2017-12-13 | 2019-12-02 | (주)엔텔스 | Disease diagnosis method and system based on artificial intelligence analyzing image data |
KR102058883B1 (en) | 2019-04-11 | 2019-12-24 | 주식회사 홍복 | Method of analyzing iris image and retina image for diagnosing diabetes and pre-symptom in artificial intelligence |
KR102347551B1 (en) | 2021-04-29 | 2022-01-06 | 디몬나인 주식회사 | Method, apparatus and system for providing informations of face condition based on analysis of face image |
-
2022
- 2022-06-29 KR KR1020220079770A patent/KR102477694B1/en active IP Right Grant
- 2022-12-09 KR KR1020220171082A patent/KR20240002668A/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017503276A (en) * | 2014-01-02 | 2017-01-26 | イリテック インコーポレイテッド | Apparatus and method for acquiring iris recognition image using face component distance |
KR102223478B1 (en) | 2018-09-14 | 2021-03-04 | 아크소프트 코포레이션 리미티드 | Eye state detection system and method of operating the same for utilizing a deep learning model to detect an eye state |
KR20210004695A (en) * | 2019-07-05 | 2021-01-13 | 순천향대학교 산학협력단 | Artificial Intelligence based retinal disease diagnosis apparatus and method thereof |
KR20210026597A (en) * | 2019-08-30 | 2021-03-10 | 국민대학교산학협력단 | Method and device for predicting disease using segmentating vessel in eye image |
Also Published As
Publication number | Publication date |
---|---|
KR20240002668A (en) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4138094A1 (en) | Method for guiding hospital visit for treating active thyroid ophthalmopathy and system for performing same | |
JP3673834B2 (en) | Gaze input communication method using eye movement | |
US11494897B2 (en) | Application to determine reading/working distance | |
KR102477694B1 (en) | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same | |
JP2024138393A (en) | Method for clinic visit guidance for medical treatment of active thyroid eye disease and system for carrying out same | |
Khumdat et al. | Development of a computer system for strabismus screening | |
Giancardo | Automated fundus images analysis techniques to screen retinal diseases in diabetic patients | |
US20230337913A1 (en) | Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor | |
KR102498785B1 (en) | A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same | |
JP7513239B2 (en) | Method for clinic visit guidance for medical treatment of active thyroid eye disease and system for carrying out same | |
EP4134980A1 (en) | Method for guiding visit for active thyroid eye disease examination, and system for performing same | |
US20240020830A1 (en) | System and methods of predicting parkinson's disease based on retinal images using machine learning | |
KR20240159874A (en) | Disease diagnosis method using learned model and system performing the same | |
Sabina et al. | Convolutional Neural Network Analysis of Fundus for Glaucoma Diagnosis | |
Wu | Segmentation-based Retinal Image Analysis | |
WO2024095261A1 (en) | System and method for diagnosis and treatment of various movement disorders and diseases of the eye | |
JP2024024307A (en) | Image processing device, image processing method, and program | |
KR20220095856A (en) | Neuropsychiatric diseases and derma skin diseases diagnosing device and method thereof | |
Giancardo | Docteur de l’université |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |