KR102634008B1 - Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models - Google Patents
Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models Download PDFInfo
- Publication number
- KR102634008B1 KR102634008B1 KR1020230001865A KR20230001865A KR102634008B1 KR 102634008 B1 KR102634008 B1 KR 102634008B1 KR 1020230001865 A KR1020230001865 A KR 1020230001865A KR 20230001865 A KR20230001865 A KR 20230001865A KR 102634008 B1 KR102634008 B1 KR 102634008B1
- Authority
- KR
- South Korea
- Prior art keywords
- probability value
- occurrence
- lesion
- image
- artificial intelligence
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000000926 neurological effect Effects 0.000 title claims abstract description 11
- 230000006866 deterioration Effects 0.000 title claims abstract description 9
- 230000003902 lesion Effects 0.000 claims abstract description 82
- 210000004556 brain Anatomy 0.000 claims abstract description 79
- 238000004458 analytical method Methods 0.000 claims abstract description 75
- 238000004891 communication Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 10
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000002610 neuroimaging Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000014644 Brain disease Diseases 0.000 description 1
- 206010051290 Central nervous system lesion Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 229960000103 thrombolytic agent Drugs 0.000 description 1
- 230000002537 thrombolytic effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- High Energy & Nuclear Physics (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Neurology (AREA)
- Physiology (AREA)
- Neurosurgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
Abstract
본 발명의 일 실시예에 따르면, 복수의 인공지능 모델을 이용하여 환자의 END(조기 신경학적 악화, Early Neurological Deterioration)을 예측하는 방법은, 서버로부터 상기 환자의 원본 뇌영상 및 임상 정보를 획득하는 단계; 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 상기 원본 뇌영상을 입력하여 상기 원본 뇌영상의 병변 영상을 출력하는 단계; 상기 원본 뇌영상 및 상기 병변 영상을 제 2 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 1 확률값을 출력하는 단계; 상기 임상 정보를 제 3 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 2 확률값을 출력하는 단계; 및 상기 제 1 확률값 및 상기 제 2 확률값에 기초하여 상기 환자의 상기 END의 발생 확률인 최종 확률값을 산출하는 단계;를 포함하는, END 예측 방법이 제공될 수 있다.According to one embodiment of the present invention, a method of predicting a patient's END (Early Neurological Deterioration) using a plurality of artificial intelligence models includes obtaining the original brain image and clinical information of the patient from a server. step; Inputting the original brain image into a first artificial intelligence model that performs lesion analysis on the brain image and outputting a lesion image of the original brain image; Inputting the original brain image and the lesion image into a second artificial intelligence model to output a first probability value, which is the probability of occurrence of the END of the patient; Inputting the clinical information into a third artificial intelligence model to output a second probability value, which is the probability of occurrence of the END of the patient; And calculating a final probability value that is the probability of occurrence of the END of the patient based on the first probability value and the second probability value. A method for predicting END, including a step, may be provided.
Description
본 발명은 복수의 인공지능 모델을 이용하여 환자의 조기 신경학적 악화(END, Early Neurological Deterioration)를 예측하는 방법 및 장치에 관한 것으로, 보다 상세하게는 복수의 인공지능 모델에 서로 다른 정보를 입력하여 획득되는 출력들을 이용하여 환자의 조기 신경학적 악화를 예측하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and device for predicting early neurological deterioration (END) in a patient using multiple artificial intelligence models. More specifically, by inputting different information into multiple artificial intelligence models, It relates to a method and device for predicting early neurological deterioration of a patient using the obtained outputs.
신경계 환자의 약 15%에서 조기 신경학적 악화(이하, 'END' 라고 함)가 발생하며, END가 발생한 환자의 약 75%가 향후 스스로 일상생활이 불가능한 거동 곤란 환자가 된다.Early neurological deterioration (hereinafter referred to as 'END') occurs in approximately 15% of neurological patients, and approximately 75% of patients who develop END become patients with mobility difficulties who are unable to perform daily activities on their own in the future.
신경계 환자의 END를 예측하는 것이 환자의 예후를 개선하는데 상당한 도움이 된다는 것이 잘 알려진 사실임에도 불구하고 기존에는 END를 일으키는 원인 인자와 실제 발생 확률 간의 구체적인 수치적 상관관계가 밝혀져 있지 않았기 때문에 임상 의료진은 경험적으로 판단할 수 밖에 없는 한계가 있었으며 환자에게 구체적인 설명을 하는 것 또한 불가능 했다. 때문에 END를 예측하는 행위는 공식적으로 의료수가를 인정받는 의료행위가 아니었다.Although it is well known that predicting END in neurological patients is significantly helpful in improving the patient's prognosis, the specific numerical correlation between the causative factors causing END and the actual probability of occurrence has not been revealed, so clinical medical staff There were limitations that could only be judged empirically, and it was impossible to give a detailed explanation to the patient. Therefore, the act of predicting END was not an officially recognized medical practice.
또한, 기존 END에 관한 임상적 연구들은 환자의 뇌영상 정보만을 이용하여 예측하거나 임상 정보만을 이용하여 예측하거나 임상 정보와 뇌영상 정보를 함께 사용한다고 하더라도 영상 정보를 단순하게 해석하여 수치화한 제한적인 정보만을 사용하였다.In addition, even if existing clinical studies on END use only the patient's brain imaging information to predict, use only clinical information to predict, or use clinical and brain imaging information together, they provide limited information that is quantified by simply interpreting the image information. Only used.
이에 따라, 환자의 뇌영상 정보와 임상 정보 등을 이용하여 종래 기술 대비 환자의 END 발생을 보다 정확하게 예측할 수 있는 기술의 필요성이 증대되고 있다.Accordingly, the need for technology that can more accurately predict the occurrence of a patient's END using the patient's brain imaging information and clinical information is increasing compared to conventional technology.
본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로, 본 발명의 목적은 END 발생에 대한 예측 확률을 실시간으로 제공하고 이를 이용하여 환자에게 위험 상황을 용이하게 전달할 수 있는 방법 및 장치를 제공하기 위한 것이다.The present invention was created to solve the above problems, and the purpose of the present invention is to provide a method and device that provides a real-time predicted probability of END occurrence and can easily convey a dangerous situation to the patient using this. It is for.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 복수의 인공지능 모델을 이용하여 환자의 END(조기 신경학적 악화, Early Neurological Deterioration)를 예측하는 방법은, 서버로부터 상기 환자의 원본 뇌영상 및 임상 정보를 획득하는 단계; 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 상기 원본 뇌영상을 입력하여 상기 원본 뇌영상의 병변 영상을 출력하는 단계; 상기 원본 뇌영상 및 상기 병변 영상을 제 2 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 1 확률값을 출력하는 단계; 상기 임상 정보를 제 3 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 2 확률값을 출력하는 단계; 및 상기 제 1 확률값 및 상기 제 2 확률값에 기초하여 상기 환자의 상기 END의 발생 확률인 최종 확률값을 산출하는 단계;를 포함할 수 있다.In order to achieve the above object, a method of predicting a patient's END (Early Neurological Deterioration) using a plurality of artificial intelligence models according to an embodiment of the present invention includes the patient's original brain image and Obtaining clinical information; Inputting the original brain image into a first artificial intelligence model that performs lesion analysis on the brain image and outputting a lesion image of the original brain image; Inputting the original brain image and the lesion image into a second artificial intelligence model to output a first probability value, which is the probability of occurrence of the END of the patient; Inputting the clinical information into a third artificial intelligence model to output a second probability value, which is the probability of occurrence of the END of the patient; and calculating a final probability value, which is the probability of occurrence of the END of the patient, based on the first probability value and the second probability value.
관련하여, 상기 병변 영상을 출력하는 단계는 상기 원본 뇌영상을 2차원 원본 뇌영상으로 변환하는 단계; 상기 제 1 인공지능 모델을 통해 상기 2차원 원본 뇌영상에 대한 병변 분석을 수행하여 병변 위치 및 병변 형상의 특징을 검출하는 단계; 및 상기 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력하는 단계;를 포함할 수 있다.In relation to this, the step of outputting the lesion image includes converting the original brain image into a two-dimensional original brain image; performing lesion analysis on the two-dimensional original brain image using the first artificial intelligence model to detect lesion location and lesion shape characteristics; and outputting a 3D lesion image displaying characteristics of the detected lesion location and shape of the lesion.
한편, 상기 제 1 확률값을 출력하는 단계는, 상기 원본 뇌영상과 대응하는 병변 영상을 상기 원본 뇌영상에 이어붙여 합성 입력영상을 생성하는 단계; 상기 합성 입력영상을 상기 제 2 인공지능 모델에 입력하여 상기 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력하는 단계; 및 상기 제 1 END 발생 확률값과 상기 제 1 END 미발생 확률값의 합을 1이 되도록 정규화하는 단계;를 포함할 수 있다.Meanwhile, the step of outputting the first probability value includes generating a synthetic input image by splicing the lesion image corresponding to the original brain image to the original brain image; Inputting the synthesized input image into the second artificial intelligence model and outputting the first probability value as a first END occurrence probability value and a first END non-occurrence probability value; and normalizing the sum of the first END occurrence probability value and the first END non-occurrence probability value to be 1.
이어서, 상기 제 2 확률값을 산출하는 단계는 상기 임상 정보를 상기 제 3 인공지능 모델에 입력하여 상기 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력하는 단계; 및 상기 제 2 END 발생 확률값과 상기 제 2 END 미발생 확률값의 합을 1이 되도록 정규화하는 단계;를 포함할 수 있다.Subsequently, calculating the second probability value includes inputting the clinical information into the third artificial intelligence model and outputting the second probability value as a second END occurrence probability value and a second END non-occurrence probability value; and normalizing the sum of the second END occurrence probability value and the second END non-occurrence probability value to be 1.
한편, 상기 최종 확률값을 산출하는 단계는 상기 제 1 END 발생 확률값과 상기 제 2 END 발생 확률값에 가중치를 적용한 평균값으로 최종 END 발생 확률값을 산출하는 단계; 및 상기 제 1 END 미발생 확률값과 상기 제 2 END 미발생 확률값에 가중치를 적용한 평균값으로 최종 END 미발생 확률값을 산출하는 단계;를 포함할 수 있다.Meanwhile, calculating the final probability value includes calculating the final END occurrence probability value as a weighted average value of the first END occurrence probability value and the second END occurrence probability value; and calculating a final END non-occurrence probability value as a weighted average value of the first END non-occurrence probability value and the second END non-occurrence probability value.
본 발명의 다른 실시예에 따른 복수의 인공지능 모델을 이용하여 환자의 END(조기 신경학적 악화, Early Neurological Deterioration)를 예측하는 장치는, 서버로부터 상기 환자의 원본 뇌영상 및 임상 정보를 획득하는 통신부; 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 상기 원본 뇌영상을 입력하여 상기 원본 뇌영상의 병변 영상을 출력하는 제 1 분석부; 상기 원본 뇌영상 및 상기 병변 영상을 제 2 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 1 확률값을 출력하는 제 2 분석부; 상기 임상 정보를 제 3 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 2 확률값을 출력하는 제 3 분석부; 및 상기 제 1 확률값 및 상기 제 2 확률값에 기초하여 상기 환자의 상기 END의 발생 확률인 최종 확률값을 산출하는 최종 확률값 분석부;를 포함할 수 있다.A device for predicting a patient's END (Early Neurological Deterioration) using a plurality of artificial intelligence models according to another embodiment of the present invention includes a communication unit that obtains the patient's original brain image and clinical information from a server. ; a first analysis unit that inputs the original brain image into a first artificial intelligence model that performs lesion analysis on the brain image and outputs a lesion image of the original brain image; a second analysis unit that inputs the original brain image and the lesion image into a second artificial intelligence model and outputs a first probability value, which is the probability of occurrence of the END of the patient; a third analysis unit that inputs the clinical information into a third artificial intelligence model and outputs a second probability value, which is the probability of occurrence of the END of the patient; and a final probability value analysis unit that calculates a final probability value, which is the probability of occurrence of the END of the patient, based on the first probability value and the second probability value.
관련하여, 상기 제 1 분석부는 상기 원본 뇌영상을 2차원 원본 뇌영상으로 변환하고, 상기 제 1 인공지능 모델을 통해 상기 2차원 원본 뇌영상에 대한 병변 분석을 수행하여 병변 위치 및 병변 형상의 특징을 검출하고, 상기 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력할 수 있다.In relation to this, the first analysis unit converts the original brain image into a two-dimensional original brain image and performs lesion analysis on the two-dimensional original brain image through the first artificial intelligence model to determine the location of the lesion and the characteristics of the lesion shape. , and output a 3D lesion image displaying the detected location of the lesion and the characteristics of the lesion shape.
한편, 상기 제 2 분석부는 상기 원본 뇌영상과 대응하는 병변 영상을 상기 원본 뇌영상에 이어붙여 합성 입력영상을 생성하고, 상기 합성 입력영상을 상기 제 2 인공지능 모델에 입력하여 상기 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력하고, 상기 제 1 END 발생 확률값과 상기 제 1 END 미발생 확률값의 합을 1이 되도록 정규화할 수 있다.Meanwhile, the second analysis unit generates a synthetic input image by splicing the lesion image corresponding to the original brain image to the original brain image, and inputs the synthetic input image into the second artificial intelligence model to determine the first probability value. The 1st END occurrence probability value and the 1st END non-occurrence probability value can be output, and the sum of the 1st END occurrence probability value and the 1st END non-occurrence probability value can be normalized to be 1.
이어서, 상기 제 3 분석부는 상기 임상 정보를 상기 제 3 인공지능 모델에 입력하여 상기 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력하고, 상기 제 2 END 발생 확률값과 상기 제 2 END 미발생 확률값의 합을 1이 되도록 정규화할 수 있다.Subsequently, the third analysis unit inputs the clinical information into the third artificial intelligence model and outputs the second probability value as a second END occurrence probability value and a second END non-occurrence probability value, and the second END occurrence probability value and the first END occurrence probability value. 2 END The sum of the probability values of non-occurrence can be normalized to be 1.
한편, 상기 최종 확률값 분석부는 상기 제 1 END 발생 확률값과 상기 제 2 END 발생 확률값에 가중치를 적용한 평균값으로 최종 END 발생 확률값을 산출하고, 상기 제 1 END 미발생 확률값과 상기 제 2 END 미발생 확률값에 가중치를 적용한 평균값으로 최종 END 미발생 확률값을 산출할 수 있다.Meanwhile, the final probability value analysis unit calculates the final END occurrence probability value as a weighted average value of the first END occurrence probability value and the second END occurrence probability value, and calculates the final END occurrence probability value and the first END non-occurrence probability value and the second END non-occurrence probability value. The final END non-occurrence probability value can be calculated using the weighted average value.
상술한 본 발명의 일측면에 따르면, END 발생에 대한 예측 확률을 실시간으로 제공하고 이를 이용하여 환자에게 위험 상황을 용이하게 전달할 수 있다.According to one aspect of the present invention described above, the predicted probability of occurrence of END can be provided in real time and the risk situation can be easily communicated to the patient using this.
또한, 예측 확률을 이용하여 환자에게 위험 상황을 설명할 수 있으며 적극적인 중재 치료의 동의를 구할 수 있게 되고 궁극적으로 본 발명을 사용하지 않았을 때에 비해 더 많은 환자의 예후를 개선할 수 있다.In addition, using the predicted probability, risk situations can be explained to patients, consent to active intervention treatment can be obtained, and ultimately the prognosis of more patients can be improved compared to when the present invention is not used.
도 1은 본 발명의 일 실시예에 따른 END 예측 장치의 개략적인 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 제 1 인공지능 모델의 구조를 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 제 1 인공지능 모델의 구조 및 제 2 인공지능 모델의 구조를 개략적으로 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 제 3 인공지능 모델의 구조를 개략적으로 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 제 1 인공지능 모델 내지 제 3 인공지능 모델을 이용하여 최종 확률값을 도출하는 전체 프로세스를 개략적으로 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 END 예측 장치가 동작하는 각 단계를 도시한 흐름도이다.Figure 1 is a block diagram showing the schematic configuration of an END prediction device according to an embodiment of the present invention.
Figure 2 is a diagram schematically showing the structure of a first artificial intelligence model according to an embodiment of the present invention.
Figure 3 is a diagram schematically showing the structure of a first artificial intelligence model and a second artificial intelligence model according to an embodiment of the present invention.
Figure 4 is a diagram schematically showing the structure of a third artificial intelligence model according to an embodiment of the present invention.
Figure 5 is a diagram schematically showing the entire process of deriving the final probability value using the first to third artificial intelligence models according to an embodiment of the present invention.
Figure 6 is a flowchart showing each step in which the END prediction device operates according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein may be implemented in one embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.
이하에서는 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 END 예측 장치(100)의 개략적인 구성을 도시한 블록도이다.Figure 1 is a block diagram showing the schematic configuration of an
본 발명에서는 END 예측 장치(100)가 독립적으로 END의 발생 확률을 예측하는 실시예를 중심으로 서술하도록 하지만, END의 발생 확률을 예측하도록 동작하는 관련 서버와의 연동을 통해 실시예들을 수행할 수도 있다.In the present invention, the description is focused on embodiments in which the
즉, 일 실시예에 따른 END 예측 장치(100)와 관련 서버는 그 기능의 측면에서 통합 구현될 수 있고, 관련 서버는 생략될 수도 있으며, 어느 하나의 실시예에 제한되지 않음을 알 수 있다.That is, the
도 1에 도시된 END 예측 장치(100)의 구성 요소들은 유선 또는 무선으로 연결되어 상호 유기적으로 동작할 수 있고, END 예측 장치(100)의 내측에 구비되거나 외측에 개별적으로 구비될 수 있다. The components of the
그리고, END 예측 장치(100)는, 휴대성과 이동성이 보장되는 무선 통신 장치 및 UAV(Unmanned Aerial Vehicle) 등으로 마련될 수 있고, 이러한 무선 통신 장치는 PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Celluar), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC, VR(Virtual Reality)기기, HMD(Head Mounted Display) 등과 같은 모든 종류의 핸드헬드(Handheld)기반의 무선 통신 장치가 포함될 수 있으나, 이에 한정되지 않는다.In addition, the
다시 도 1을 참조하면, END 예측 장치(100)는 통신부(110), 제 1 분석부(120), 제 2 분석부(130), 제 3 분석부(140) 및 최종 확률값 분석부(150)를 포함할 수 있다.Referring again to FIG. 1, the
일 실시 예에서, 통신부(110)는 서버로부터 환자의 원본 뇌영상 및 임상 정보를 획득할 수 있다. 여기서, 서버는 병원 서버 등 환자의 의료 정보를 제공할 수 있는 서버를 포함할 수 있다. 또한, 원본 뇌영상은 환자의 뇌와 관련된, 가공되지 않은 원본 영상(예: Diffusion Weighted Image(DWI))일 수 있고, 뇌 병변이 표시될 수 있다. 임상 정보는 환자의 나이, BMI, 공복 혈당 등을 포함할 수 있다.In one embodiment, the
일 실시예에 따른 제 1 분석부(120)는 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델(예: 뇌영상 기반 병변 인식 딥 뉴럴 네트워크)을 포함하고, 제 1 인공지능 모델에 원본 뇌영상을 입력하여 원본 뇌영상에 대응하는 병변 영상을 출력할 수 있다.The
구체적으로, 제 1 분석부(120)는 원본 뇌영상을 2차원의 원본 뇌영상으로 변환한 후, 변환된 2차원 원본 뇌영상에 대한 병변을 분석하기 위해 제 1 인공지능 모델에 2차원 원본 뇌영상을 입력할 수 있다. 제 1 분석부(120)는 제 1 인공지능 모델의 출력으로 병변 위치 및 병변 형상의 특징을 검출하고, 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력할 수 있다. 출력되는 3차원 병변 영상의 개수는 원본 뇌영상의 개수와 대응될 수 있다.Specifically, the
제 1 분석부(120)의 제 1 인공지능 모델의 구조는 도 2를 참조하여 설명하도록 한다.The structure of the first artificial intelligence model of the
도 2는 본 발명의 일 실시예에 따른 제 1 인공지능 모델(121)의 구조를 개략적으로 도시한 도면이다.Figure 2 is a diagram schematically showing the structure of the first
도 2에 도시된 바와 같이, 제 1 인공지능 모델(121)의 구조에는 종래의 2차원 입력 영상을 다루는 UNet 구조 혹은 3차원 입력 영상을 다루는 3DUNet 구조와 달리, 3차원의 원본 뇌영상을 입력으로 사용하여 모델 내부에서 2차원 구조로 압축한 후 병변 위치 및 병변 형상의 특징을 추출하는 추상화 과정이 존재한다. 즉, 기존의 UNet 구조와 달리 제 1 인공지능 모델(121)의 연산 과정에는 입력 영상의 차원이 3차원에서 2차원으로, 다시 2차원에서 3차원으로 변환되는 과정이 수행될 수 있다. 제 1 인공지능 모델(121)은 2차원 구조로 압축된 병변 위치 및 병변 형상의 특징을 기반으로 하여, 최종적으로 병변 위치 및 병변 형상의 특징이 표시된 3차원의 병변 영상을 최종 출력할 수 있다. 제 1 인공지능 모델(121)의 딥러닝 분석은 END 예측 장치(100) 또는 관련 서버에 저장된 학습 정보에 대한 사전 학습을 통해서 수행될 수 있다.As shown in FIG. 2, the structure of the first
또한, 기존의 UNet의 경우 입력이 2차원 영상 1장이므로 출력도 2차원 영상 1장이지만, 원본 뇌영상의 경우 여러 장의 이미지로 구성된 3차원 영상이기 때문에, 입력과 출력 영상의 차원을 3차원으로 늘릴 수 있다. 히든 레이어는 2차원 구조 그대로 사용하여 상호 full-connection을 함으로써 3차원 영상들을 처리하면서도 네트워크의 파라미터 수를 크게 늘리지 않을 수 있다. 결과적으로 연산 속도 및 메모리 사용 효율을 확보하면서도 3차원 영상을 연산 가능하게 하여 성능과 기능 모두 향상이 가능하다.In addition, in the case of the existing UNet, since the input is one 2D image, the output is also one 2D image, but in the case of the original brain image, it is a 3D image composed of multiple images, so the dimensions of the input and output images are 3D. It can be increased. The hidden layer can process 3D images without significantly increasing the number of network parameters by using the 2D structure as is and making full connections to each other. As a result, it is possible to improve both performance and functionality by enabling 3D image calculation while securing calculation speed and memory usage efficiency.
일 실시예에 따른 제 2 분석부(130)는 원본 뇌영상 및 병변 영상을 제 2 인공지능 모델에 입력하여 환자의 END의 발생 확률인 제 1 확률값을 출력할 수 있다.The
구체적으로, 제 2 분석부(130)는 원본 뇌영상과 대응하는 병변 영상을 원본 뇌영상에 이어붙이는 방식으로 합성 입력영상을 생성할 수 있다. 제 2 분석부(130)는 획득된 합성 입력영상을 제 2 인공지능 모델에 입력하여 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력할 수 있다. 제 2 분석부(130)는 출력되는 제 1 END 발생 확률값과 제 1 END 미발생 확률값은 합이 1이 되도록 정규화할 수 있다.Specifically, the
이에 대해서는 도 3을 참조하여 설명하도록 한다.This will be explained with reference to FIG. 3.
도 3은 본 발명의 일 실시예에 따른 제 1 인공지능 모델의 구조 및 제 2 인공지능 모델(131)의 구조를 개략적으로 도시한 도면이다.Figure 3 is a diagram schematically showing the structure of the first artificial intelligence model and the structure of the second
도 3을 참조하면, 제 2 인공지능 모델(131)은 원본 뇌영상과 제 1 인공지능 모델의 출력인 병변 영상 기반의 합성 입력영상을 입력으로 사용할 수 있다. 제 2 인공지능 모델(131)은 합성 입력영상에 대한 딥러닝 분석을 수행하여 제 1 END 발생 확률값과 제 1 END 미발생 확률값을 출력할 수 있다. 제 2 인공지능 모델(131)은 END 예측 장치(100) 또는 관련 서버에 저장된 학습 데이터를 통한 사전 학습을 통해 마련될 수 있다.Referring to FIG. 3, the second
또한, 영상 분석을 위한 종래 모델은 1장의 영상을 입력으로 사용하지만, 제 2 인공지능 모델(131)은 입력되는 영상의 개수는 기설정 개수(예: 60개)만큼 입력으로 사용할 수 있도록 입력 차원이 개선된 모델이다. 또한, 제 2 인공지능 모델(131)은 입력되는 합성 입력영상에 대해 END가 발생할 경우(제 1 END 발생 확률값)와 아닌 경우(제 1 END 미발생 확률값)와 같이 2가지 경우만을 결정하도록 출력값을 종래 대비 감소시킬 수 있다.In addition, the conventional model for video analysis uses one image as input, but the second
또한, 제 2 분석부(130)는 제 1 END 발생 확률값과 제 1 END 미발생 확률값의 합이 1이 되도록 정규화시킬 수 있다. 이로써, 제 1 END 발생 확률값과 제 1 END 미발생 확률값이 모두 0과 1 사이의 값으로 결정될 수 있다. 예를 들면 제 1 END 발생 확률값은 0.8이고, 제 1 END 미발생 확률값은 0.2로 결정될 수 있다. 이 경우 두 값의 합은 항상 1이 되므로 END 발생 예측에 대한 확률값인 제 1 확률값을 상대적인 수치로 나타낼 수 있다.Additionally, the
일 실시예에 따른 제 3 분석부(140)는 임상 정보를 제 3 인공지능 모델에 입력하여 환자의 END의 발생 확률인 제 2 확률값을 출력할 수 있다.The
구체적으로, 제 3 분석부(140)는 환자의 임상 정보를 제 3 인공지능 모델에 입력하여 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력할 수 있다. 제 3 분석부(140)는 출력되는 제 2 END 발생 확률값과 제 2 미발생 확률값은 합이 1이 되도록 정규화할 수 있다.Specifically, the
이에 대해서는 도 4를 참조하여 설명하도록 한다.This will be explained with reference to FIG. 4.
도 4는 본 발명의 일 실시예에 따른 제 3 인공지능 모델(141)의 구조를 개략적으로 도시한 도면이다.Figure 4 is a diagram schematically showing the structure of the third
도 4를 참조하면, 제 3 분석부(140)는 나이, BMI, 공복혈당 등의 항목을 포함하는 임상 정보를 제 3 인공지능 모델(141)에 입력하여 제 2 확률값을 출력으로 획득할 수 있다. 여기서, 임상 정보는 각 환자에 대응하는 임상 정보 항목들로 구성될 수 있다. 예를 들어, 환자가 특정 조건을 만족하는 경우, 이에 대응하는 임상 정보 항목이 포함된 임상 정보가 획득될 수 있다. 특정 조건은 예를 들면 뇌질환으로 입원한 환자가 질환 관련 증상 발현 후 7일 이내 또는 이후 도착했는지 여부, IV 혈전용해제 또는 혈관 내 치료 등을 받았는지 여부 등의 각 조건들을 포함할 수 있고, 특정 조건에 만족하는지 여부에 따라 임상 정보에 포함되는 항목들이 결정될 수 있다. 제 3 인공지능 모델(141)의 딥러닝 분석은 END 예측 장치(100) 또는 관련 서버에 저장된 학습 정보에 대한 사전 학습을 통해서 수행될 수 있다.Referring to FIG. 4, the
또한, 제 3 인공지능 모델(141)은 총 10개의 히든 레이어 및 입력층, 출력층으로 구성될 수 있고, batchnormalization, dropout(50% 비율), Xavier initialization, Adam optimization 등의 기법을 이용하는 모델일 수 있다. 임상 정보들은 모두 숫자로 이루어질 수 있기 때문에, 상기 기법들을 이용하는 경우 출력값의 정확도를 향상시킬 수 있다. In addition, the third
제 3 인공지능 모델(141)은 임상 정보에 대한 분석 결과로 제 2 END 발생 확률 및 제 2 END 미발생 확률을 출력할 수 있다. 제 3 인공지능 모델(141)은 END이 발생할 경우(제 2 END 발생 확률값)와 아닌 경우(제 2 END 미발생 확률값)와 같이 2가지 경우만을 결정하도록 출력값을 종래 대비 감소시킬 수 있다.The third
또한, 제 3 분석부(140)는 제 2 END 발생 확률값과 제 2 END 미발생 확률값의 합이 1이 되도록 정규화시킬 수 있다. 이로써, 제 2 END 발생 확률값과 제 2 END 미발생 확률값이 모두 0과 1 사이의 값으로 결정될 수 있다. 예를 들면 제 2 END 발생 확률값은 0.4이고, 제 2 END 미발생 확률값은 0.6으로 결정될 수 있다. 이 경우 두 값의 합은 항상 1이 되므로 END 발생 예측에 대한 확률값인 제 2 확률값을 상대적인 수치로 나타낼 수 있다.Additionally, the
일 실시예에 따른 최종 확률값 분석부(150)는, 제 1 확률값 및 제 2 확률값에 기초하여 환자의 END의 발생 확률인 최종 확률값을 산출할 수 있다.The final probability
최종 확률값 분석부(150)가 최종 확률값을 산출하는 프로세스에 대해서는 도 5를 참조하여 설명하도록 한다.The process by which the final probability
도 5는 본 발명의 일 실시예에 따른 제 1 인공지능 모델(121) 내지 제 3 인공지능 모델(141)을 이용하여 최종 확률값을 도출하는 전체 프로세스를 개략적으로 도시한 도면이다.Figure 5 is a diagram schematically showing the entire process of deriving the final probability value using the first
도 5를 참조하면, 최종 확률값 분석부(150)는 제 2 분석부(130)에서 획득된 제 1 확률값, 제 3 분석부(140)에서 획득된 제 2 확률값을 이용하여 최종 확률값을 산출하는 프로세스로 동작할 수 있다.Referring to FIG. 5, the final probability
구체적으로, 최종 확률값 분석부(150)는 제 1 END 발생 확률값과 제 2 END 발생 확률값, 제 1 END 미발생 확률값과 제 2 END 미발생 확률값에 가중치를 적용한 평균값을 이용하여 최종 END 발생 확률값 및 최종 END 미발생 확률값을 산출할 수 있다. 일반적으로 적용되는 가중치의 비율은 1:1 비율일 수 있으나, 경우에 따라 적용되는 가중치의 비율을 상이하게 결정할 수 있다.Specifically, the final probability
최종 확률값 분석부(150)는 예를 들어 병변 영상에 표시된 병변의 위치 및 형상에 따라서 병변에 대한 위험도를 결정할 수 있고, 결정한 위험도에 기초하여 제 1 END 발생 확률값에 적용되는 가중치를 가변적으로 결정할 수 있다. For example, the final probability
또한, 예를 들어 환자의 특성(예: 나이, 관련 치료 이력 등)에 대응하도록 임상 정보의 항목에 더 높은 중요도를 부여할 수 있고, 부여한 중요도에 기초하여 가중치를 가변적으로 결정할 수 있다. 만약 환자의 특성에 따라 나이, 공복 혈당에 중요도를 높게 부여하는 경우, 중요도에 기초하여 결정한 제 2 END 발생 확률값에 적용할 가중치를 가변적으로 결정할 수 있다.Additionally, for example, higher importance may be assigned to items of clinical information to correspond to patient characteristics (e.g., age, related treatment history, etc.), and weights may be variably determined based on the assigned importance. If a high level of importance is given to age and fasting blood sugar according to the patient's characteristics, the weight to be applied to the second END occurrence probability value determined based on the level of importance can be variably determined.
제 1 END 미발생 확률값과 제 2 END 미발생 확률값에 적용되는 가중치는 상기 방식과 반대되는 방식이 적용되어 결정될 수 있다.The weights applied to the first END non-occurrence probability value and the second END non-occurrence probability value may be determined by applying a method opposite to the above method.
최종 확률값 분석부(150)는 가중치가 적용된 제 1 END 발생 확률값과 제 2 END 발생 확률값의 평균값으로 최종 END 발생 확률값을 산출하고, 제 1 END 미발생 확률값과 제 2 END 미발생 확률값의 평균값으로 최종 END 미발생 확률값을 산출할 수 있다.The final probability
예를 들어, 제 1 END 발생 확률값이 0.8, 제 1 END 미발생 확률값이 0.2이고, 제 2 END 발생 확률값이 0.4, 제 2 END 미발생 확률값이 0.6인 경우, (0.8+0.4)χ2=0.6이 되어 최종 END 발생 확률값은 60%로 결정될 수 있고, (0.2+0.6)χ2=0.4가 되어 최종 END 미발생 확률값은 40%로 결정될 수 있다.For example, if the 1st END occurrence probability value is 0.8, the 1st END non-occurrence probability value is 0.2, the 2nd END occurrence probability value is 0.4, and the 2nd END non-occurrence probability value is 0.6, (0.8+0.4) Thus, the final END occurrence probability value can be determined to be 60%, and (0.2+0.6)×2=0.4, so the final END non-occurrence probability value can be determined to be 40%.
전술한 실시 예에 따르면, END 예측 장치(100)는 결과적으로 제 1 내지 제 3 인공지능 모델(141)의 출력값을 앙상블 기법을 이용하여 최종 확률값을 획득하는 구성으로 볼 수 있다. 이 경우, 복수의 인공지능 모델의 조합을 통해 산출되는 최종 확률값의 정확도는 종래 기술 대비 현저히 향상될 수 있다.According to the above-described embodiment, the
도 6은 본 발명의 일 실시예에 따른 END 예측 장치가 동작하는 각 단계를 도시한 흐름도이다.Figure 6 is a flowchart showing each step in which the END prediction device operates according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 END 예측 방법은 도 1에 도시된 END 예측 장치(100)와 실질적으로 동일한 구성 상에서 진행되므로, 도 1의 END 예측 장치(100)와 동일한 구성요소에 대해 동일한 도면 부호를 부여하고, 반복되는 설명은 생략하기로 한다.Since the END prediction method according to an embodiment of the present invention is carried out on substantially the same configuration as the
본 발명의 END 예측 방법은 원본 뇌영상 및 임상 정보를 획득하는 단계(S210), 원본 뇌영상의 병변 영상을 출력하는 단계(S220), 제 1 확률값을 출력하는 단계(S230), 제 2 확률값을 출력하는 단계(S240) 및 최종 확률값을 산출하는 단계(S250)를 포함할 수 있다.The END prediction method of the present invention includes the steps of acquiring the original brain image and clinical information (S210), outputting the lesion image of the original brain image (S220), outputting the first probability value (S230), and calculating the second probability value. It may include an output step (S240) and a step of calculating the final probability value (S250).
원본 뇌영상 및 임상 정보를 획득하는 단계(S210)는 서버로부터 환자의 원본 뇌영상 및 임상 정보를 통신부(110)를 통해 획득하는 단계일 수 있다.The step of acquiring the original brain image and clinical information (S210) may be a step of acquiring the patient's original brain image and clinical information from the server through the
원본 뇌영상의 병변 영상을 출력하는 단계(S220)는 제 1 분석부(120)를 통해 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 원본 뇌영상을 입력하여 원본 뇌영상에 대응하는 병변 영상을 출력하는 단계일 수 있다.In the step of outputting the lesion image of the original brain image (S220), the original brain image is input to the first artificial intelligence model that performs lesion analysis on the brain image through the
또한, 원본 뇌영상의 병변 영상을 출력하는 단계(S220)는 제 1 분석부(120)가 원본 뇌영상을 2차원 원본 뇌영상으로 변환하고, 제 1 인공지능 모델을 통해 2차원 원본 뇌영상에 대한 병변 분석을 수행하여 병변 위치 및 병변 형상의 특징을 검출하고, 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력할 수 있다.In addition, in the step of outputting the lesion image of the original brain image (S220), the
한편, 제 1 확률값을 출력하는 단계(S230)는 제 2 분석부(130)를 통해 원본 뇌영상 및 병변 영상을 제 2 인공지능 모델에 입력하여 환자의 END의 발생 확률인 제 1 확률값을 출력하는 단계일 수 있다.Meanwhile, the step of outputting the first probability value (S230) inputs the original brain image and lesion image into the second artificial intelligence model through the
또한, 제 1 확률값을 출력하는 단계(S230)는 제 2 분석부(130)가 원본 뇌영상과 대응하는 병변 영상을 원본 뇌영상에 이어붙여 합성 입력영상을 생성하고, 합성 입력영상을 제 2 인공지능 모델에 입력하여 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력하고, 제 1 END 발생 확률값과 제 1 END 미발생 확률값의 합을 1이 되도록 정규화할 수 있다.In addition, in the step of outputting the first probability value (S230), the
한편, 제 2 확률값을 출력하는 단계(S240)는 제 3 분석부(140)를 통해 임상 정보를 제 3 인공지능 모델에 입력하여 환자의 END의 발생 확률인 제 2 확률값을 출력하는 단계일 수 있다.Meanwhile, the step of outputting the second probability value (S240) may be a step of inputting clinical information into a third artificial intelligence model through the
또한, 제 2 확률값을 출력하는 단계(S240)는 제 3 분석부(140)가 임상 정보를 제 3 인공지능 모델에 입력하여 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력하고, 제 2 END 발생 확률값과 제 2 END 미발생 확률값의 합을 1이 되도록 정규화할 수 있다.In addition, in the step of outputting the second probability value (S240), the
최종 확률값을 산출하는 단계(S250)는 최종 확률값 분석부(150)를 통해 제 1 확률값 및 제 2 확률값에 기초하여 환자의 END의 발생 확률인 최종 확률값을 산출하는 단계일 수 있다.The step of calculating the final probability value (S250) may be a step of calculating the final probability value, which is the probability of occurrence of the patient's END, based on the first probability value and the second probability value through the final probability
또한, 최종 확률값을 산출하는 단계(S250)는 최종 확률값 분석부(150)가 제 1 END 발생 확률값과 제 2 END 발생 확률값에 가중치를 적용한 평균값으로 최종 END 발생 확률값을 산출하고, 제 1 END 미발생 확률값과 제 2 END 미발생 확률값에 가중치를 적용한 평균값으로 최종 END 미발생 확률값을 산출할 수 있다.In addition, in the step of calculating the final probability value (S250), the final probability
이와 같은 본 발명의 END 예측 방법은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The END prediction method of the present invention can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.
이상에서는 본 발명의 다양한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although various embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and may be used in the technical field to which the invention pertains without departing from the gist of the invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.
100: END 예측 장치
110: 통신부
120: 제 1 분석부
121: 제 1 인공지능 모델
130: 제 2 분석부
131: 제 2 인공지능 모델
140: 제 3 분석부
141: 제 3 인공지능 모델
150: 최종 확률값 분석부100: END prediction device
110: Department of Communications
120: first analysis unit
121: First artificial intelligence model
130: second analysis unit
131: Second artificial intelligence model
140: Third analysis unit
141: Third artificial intelligence model
150: Final probability value analysis unit
Claims (10)
통신부에서, 서버로부터 상기 환자의 원본 뇌영상 및 임상 정보를 획득하는 단계;
제 1 분석부에서, 뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 상기 원본 뇌영상을 입력하여 상기 원본 뇌영상의 병변 영상을 출력하는 단계;
제 2 분석부에서, 상기 원본 뇌영상 및 상기 병변 영상을 제 2 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 1 확률값을 출력하는 단계;
제 3 분석부에서, 상기 임상 정보를 제 3 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 2 확률값을 출력하는 단계; 및
최종 확률값 분석부에서, 상기 제 1 확률값 및 상기 제 2 확률값에 기초하여 상기 환자의 상기 END의 발생 확률인 최종 확률값을 산출하는 단계;를 포함하는, END 예측 방법.
In the method of predicting a patient's END using a plurality of artificial intelligence models performed in an END (Early Neurological Deterioration) prediction device,
In a communication unit, obtaining original brain images and clinical information of the patient from a server;
In a first analysis unit, inputting the original brain image to a first artificial intelligence model that performs lesion analysis on the brain image and outputting a lesion image of the original brain image;
In a second analysis unit, inputting the original brain image and the lesion image into a second artificial intelligence model to output a first probability value, which is the probability of occurrence of the END of the patient;
In a third analysis unit, inputting the clinical information into a third artificial intelligence model to output a second probability value, which is the probability of occurrence of the END of the patient; and
END prediction method comprising; calculating, in a final probability value analysis unit, a final probability value that is the probability of occurrence of the END of the patient based on the first probability value and the second probability value.
상기 병변 영상을 출력하는 단계는
상기 원본 뇌영상을 2차원 원본 뇌영상으로 변환하는 단계;
상기 제 1 인공지능 모델을 통해 상기 2차원 원본 뇌영상에 대한 병변 분석을 수행하여 병변 위치 및 병변 형상의 특징을 검출하는 단계; 및
상기 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력하는 단계;를 포함하는, END 예측 방법.
According to claim 1,
The step of outputting the lesion image is
Converting the original brain image into a two-dimensional original brain image;
performing lesion analysis on the two-dimensional original brain image using the first artificial intelligence model to detect lesion location and lesion shape characteristics; and
END prediction method comprising; outputting a 3D lesion image displaying characteristics of the detected lesion location and lesion shape.
상기 제 1 확률값을 출력하는 단계는,
상기 원본 뇌영상과 대응하는 병변 영상을 상기 원본 뇌영상에 이어붙여 합성 입력영상을 생성하는 단계;
상기 합성 입력영상을 상기 제 2 인공지능 모델에 입력하여 상기 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력하는 단계; 및
상기 제 1 END 발생 확률값과 상기 제 1 END 미발생 확률값의 합을 1이 되도록 정규화하는 단계;를 포함하는, END 예측 방법.
According to claim 1,
The step of outputting the first probability value is,
generating a synthetic input image by splicing the lesion image corresponding to the original brain image to the original brain image;
Inputting the synthesized input image into the second artificial intelligence model and outputting the first probability value as a first END occurrence probability value and a first END non-occurrence probability value; and
Normalizing the sum of the probability of occurrence of the first END and the probability of non-occurrence of the first END to be 1.
상기 제 2 확률값을 산출하는 단계는
상기 임상 정보를 상기 제 3 인공지능 모델에 입력하여 상기 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력하는 단계; 및
상기 제 2 END 발생 확률값과 상기 제 2 END 미발생 확률값의 합을 1이 되도록 정규화하는 단계;를 포함하는, END 예측 방법.
According to claim 3,
The step of calculating the second probability value is
Inputting the clinical information into the third artificial intelligence model and outputting the second probability value as a second END occurrence probability value and a second END non-occurrence probability value; and
Normalizing the sum of the second END occurrence probability value and the second END non-occurrence probability value to 1. END prediction method including.
상기 최종 확률값을 산출하는 단계는
상기 제 1 END 발생 확률값과 상기 제 2 END 발생 확률값에 가중치를 적용한 평균값으로 최종 END 발생 확률값을 산출하는 단계; 및
상기 제 1 END 미발생 확률값과 상기 제 2 END 미발생 확률값에 가중치를 적용한 평균값으로 최종 END 미발생 확률값을 산출하는 단계;를 포함하는, END 예측 방법.
According to claim 4,
The step of calculating the final probability value is
calculating a final END occurrence probability value as a weighted average value of the first END occurrence probability value and the second END occurrence probability value; and
END prediction method comprising; calculating a final END non-occurrence probability value as a weighted average value of the first END non-occurrence probability value and the second END non-occurrence probability value.
서버로부터 상기 환자의 원본 뇌영상 및 임상 정보를 획득하는 통신부;
뇌영상에 대한 병변 분석을 수행하는 제 1 인공지능 모델에 상기 원본 뇌영상을 입력하여 상기 원본 뇌영상의 병변 영상을 출력하는 제 1 분석부;
상기 원본 뇌영상 및 상기 병변 영상을 제 2 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 1 확률값을 출력하는 제 2 분석부;
상기 임상 정보를 제 3 인공지능 모델에 입력하여 상기 환자의 상기 END의 발생 확률인 제 2 확률값을 출력하는 제 3 분석부; 및
상기 제 1 확률값 및 상기 제 2 확률값에 기초하여 상기 환자의 상기 END의 발생 확률인 최종 확률값을 산출하는 최종 확률값 분석부;를 포함하는, END 예측 장치.
In a device that predicts a patient's END (Early Neurological Deterioration) using multiple artificial intelligence models,
a communication unit that obtains the original brain image and clinical information of the patient from a server;
a first analysis unit that inputs the original brain image into a first artificial intelligence model that performs lesion analysis on the brain image and outputs a lesion image of the original brain image;
a second analysis unit that inputs the original brain image and the lesion image into a second artificial intelligence model and outputs a first probability value, which is the probability of occurrence of the END of the patient;
a third analysis unit that inputs the clinical information into a third artificial intelligence model and outputs a second probability value, which is the probability of occurrence of the END of the patient; and
A final probability value analysis unit that calculates a final probability value that is the probability of occurrence of the END of the patient based on the first probability value and the second probability value. END prediction device comprising a.
상기 제 1 분석부는
상기 원본 뇌영상을 2차원 원본 뇌영상으로 변환하고,
상기 제 1 인공지능 모델을 통해 상기 2차원 원본 뇌영상에 대한 병변 분석을 수행하여 병변 위치 및 병변 형상의 특징을 검출하고,
상기 검출된 병변 위치 및 병변 형상의 특징을 표시한 3차원 병변 영상을 출력하는, END 예측 장치.
According to claim 6,
The first analysis unit is
Converting the original brain image into a two-dimensional original brain image,
Perform lesion analysis on the two-dimensional original brain image through the first artificial intelligence model to detect lesion location and lesion shape characteristics,
An END prediction device that outputs a 3D lesion image displaying characteristics of the detected lesion location and lesion shape.
상기 제 2 분석부는
상기 원본 뇌영상과 대응하는 병변 영상을 상기 원본 뇌영상에 이어붙여 합성 입력영상을 생성하고,
상기 합성 입력영상을 상기 제 2 인공지능 모델에 입력하여 상기 제 1 확률값을 제 1 END 발생 확률값과 제 1 END 미발생 확률값으로 출력하고,
상기 제 1 END 발생 확률값과 상기 제 1 END 미발생 확률값의 합을 1이 되도록 정규화하는, END 예측 장치.
According to claim 6,
The second analysis unit is
Creating a synthetic input image by splicing the lesion image corresponding to the original brain image to the original brain image,
Input the synthesized input image into the second artificial intelligence model and output the first probability value as a first END occurrence probability value and a first END non-occurrence probability value,
An END prediction device that normalizes the sum of the first END occurrence probability value and the first END non-occurrence probability value to 1.
상기 제 3 분석부는
상기 임상 정보를 상기 제 3 인공지능 모델에 입력하여 상기 제 2 확률값을 제 2 END 발생 확률값과 제 2 END 미발생 확률값으로 출력하고,
상기 제 2 END 발생 확률값과 상기 제 2 END 미발생 확률값의 합을 1이 되도록 정규화하는, END 예측 장치.
According to claim 8,
The third analysis unit is
Input the clinical information into the third artificial intelligence model and output the second probability value as a second END occurrence probability value and a second END non-occurrence probability value,
An END prediction device that normalizes the sum of the second END occurrence probability value and the second END non-occurrence probability value to be 1.
상기 최종 확률값 분석부는
상기 제 1 END 발생 확률값과 상기 제 2 END 발생 확률값에 가중치를 적용한 평균값으로 최종 END 발생 확률값을 산출하고,
상기 제 1 END 미발생 확률값과 상기 제 2 END 미발생 확률값에 가중치를 적용한 평균값으로 최종 END 미발생 확률값을 산출하는, END 예측 장치.According to clause 9,
The final probability value analysis unit
Calculate the final END occurrence probability value as a weighted average value of the first END occurrence probability value and the second END occurrence probability value,
An END prediction device that calculates a final END non-occurrence probability value as a weighted average value of the first END non-occurrence probability value and the second END non-occurrence probability value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230001865A KR102634008B1 (en) | 2023-01-05 | 2023-01-05 | Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models |
PCT/KR2023/018191 WO2024147472A1 (en) | 2023-01-05 | 2023-11-13 | Method and apparatus for predicting early neurological deterioration of patient by using plurality of artificial intelligence models |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230001865A KR102634008B1 (en) | 2023-01-05 | 2023-01-05 | Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102634008B1 true KR102634008B1 (en) | 2024-02-06 |
Family
ID=89858259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230001865A KR102634008B1 (en) | 2023-01-05 | 2023-01-05 | Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102634008B1 (en) |
WO (1) | WO2024147472A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101857624B1 (en) * | 2017-08-21 | 2018-05-14 | 동국대학교 산학협력단 | Medical diagnosis method applied clinical information and apparatus using the same |
KR102020157B1 (en) | 2018-11-12 | 2019-11-04 | 사회복지법인 삼성생명공익재단 | Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102343889B1 (en) * | 2019-08-05 | 2021-12-30 | 재단법인 아산사회복지재단 | Diagnostic system for diagnosing coronary artery lesions through ultrasound image-based machine learning and the diagnostic method thereof |
KR102344157B1 (en) * | 2019-11-27 | 2021-12-28 | 연세대학교 산학협력단 | System for Processing Medical Image and Clinical Factor for Individualized Diagnosis of Stroke |
KR102165840B1 (en) * | 2020-05-21 | 2020-10-16 | 주식회사 휴런 | STROKE DIAGNOSIS APPARATUS BASED ON AI(Artificial Intelligence) AND METHOD |
CN114005537A (en) * | 2021-10-21 | 2022-02-01 | 深圳市第二人民医院(深圳市转化医学研究院) | Early warning method for early neural function deterioration and related equipment |
-
2023
- 2023-01-05 KR KR1020230001865A patent/KR102634008B1/en active IP Right Grant
- 2023-11-13 WO PCT/KR2023/018191 patent/WO2024147472A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101857624B1 (en) * | 2017-08-21 | 2018-05-14 | 동국대학교 산학협력단 | Medical diagnosis method applied clinical information and apparatus using the same |
KR102020157B1 (en) | 2018-11-12 | 2019-11-04 | 사회복지법인 삼성생명공익재단 | Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery |
Also Published As
Publication number | Publication date |
---|---|
WO2024147472A1 (en) | 2024-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Saraswat et al. | Explainable AI for healthcare 5.0: opportunities and challenges | |
US11967074B2 (en) | Method and system for computer-aided triage | |
KR102061408B1 (en) | Apparatus and method for analyzing images using semi 3d deep neural network | |
US10470510B1 (en) | Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements | |
Sengan et al. | Cost-effective and efficient 3D human model creation and re-identification application for human digital twins | |
WO2021020198A1 (en) | Information processing device, program, learned model, diagnostic assistance device, learning device, and method for generating prediction model | |
JP2019061710A (en) | Three-dimensional (3D) convolution with 3D batch normalization | |
US20230014705A1 (en) | Method and system for computer-aided triage | |
US20220076052A1 (en) | Similarity determining method and device, network training method and device, search method and device, and electronic device and storage medium | |
CN117009924B (en) | Multi-mode self-adaptive multi-center data fusion method and system guided by electronic medical records | |
Althobaiti et al. | [Retracted] Design of Optimal Deep Learning‐Based Pancreatic Tumor and Nontumor Classification Model Using Computed Tomography Scans | |
CN113724185B (en) | Model processing method, device and storage medium for image classification | |
Mohapatra et al. | Segmentation and Classification of Encephalon Tumor by Applying Improved Fast and Robust FCM Algorithm with PSO‐Based ELM Technique | |
CN116129124A (en) | Image segmentation method, system and equipment | |
KR102634008B1 (en) | Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models | |
Tsai et al. | Skin lesion classification based on multi-model ensemble with generated levels-of-detail images | |
WO2021213012A1 (en) | Weight measurement method, human body feature parameter measurement method, and device | |
CN114283110A (en) | Image processing method, device, equipment and storage medium for medical image | |
Kan et al. | Enhancing multi-channel eeg classification with gramian temporal generative adversarial networks | |
KR102284700B1 (en) | Method, program and comuting apparatus for specific the position of body sites for non-identification | |
CN112750110A (en) | Evaluation system for evaluating lung lesion based on neural network and related products | |
Taher et al. | HeCapsNet: An enhanced capsule network for automated heel disease diagnosis using lateral foot X‐Ray images | |
WO2022210473A1 (en) | Prognosis prediction device, prognosis prediction method, and program | |
Hsieh et al. | Based on DICOM RT structure and multiple loss function deep learning algorithm in organ segmentation of head and neck image | |
JP2024054748A (en) | Method for generating language feature extraction model, information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |