KR102595045B1 - Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 - Google Patents
Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 Download PDFInfo
- Publication number
- KR102595045B1 KR102595045B1 KR1020210184014A KR20210184014A KR102595045B1 KR 102595045 B1 KR102595045 B1 KR 102595045B1 KR 1020210184014 A KR1020210184014 A KR 1020210184014A KR 20210184014 A KR20210184014 A KR 20210184014A KR 102595045 B1 KR102595045 B1 KR 102595045B1
- Authority
- KR
- South Korea
- Prior art keywords
- model
- icv
- images
- sub
- computing device
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Neurology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- High Energy & Nuclear Physics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Databases & Information Systems (AREA)
- Fuzzy Systems (AREA)
- Neurosurgery (AREA)
- Psychology (AREA)
Abstract
다양한 실시예에 따른 컴퓨팅 장치가 ICV (Intra-cranial volume) 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치를 개시한다. 3D (3-dimension) 이미지 데이터를 입력 받는 단계, 및 상기 3D 이미지 데이터로부터 획득한 2D 이미지 데이터를 2D 모델에 입력하여 상기 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 단계를 포함하고, 상기 2D 모델은 2D 의사 레이블 데이터 (pseudo-label data)를 이용하여 1차 학습되고, 2D 레이블 데이터를 이용하여 2차 학습되는 방법 및 이를 위한 장치를 개시한다.
Description
컴퓨팅 장치가 2D 모델을 이용하여 ICV (Intra-cranial volume segmentation)세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치에 대한 것이다.
알츠하이머(AD, Alzheimer) 질병은 기억, 사고 및 행동에 문제를 일으키는 치매의 한 유형으로 뇌신경의 죽음으로 이어지고 뇌량을 감소시켜 심각한 기억 상실을 발생할 수 있다. 많은 사람이 알츠하이머 질병을 앓고 있으나 알츠하이머 질병에 대하여 충분한 효능 및 안정성을 가진 약물 및 치료방법은 아직 보고되지 않고 있다. 따라서, 알츠하이머 질병의 초기 단계에 있는 환자를 조기에 진단함으로써 중증으로 발전하는 것을 방지하는 것이 중요하다.
이와 같은 조기 진단은 신경망 모델에 기반한 뇌에 대한 의료 이미지에 대한 분류, 객체 검출, 객체 경계의 추출, 서로 다른 영상의 정합을 통해 수행될 수 있다. 여기서, 신경망 모델(Neural Network model)은 생물학에서의 뉴런 구조로부터 착안된 지도 학습(supervised learning) 알고리즘이다. 신경망 모델의 기본적인 작동 원리는 여러 개의 뉴런들을 상호 연결하여 입력값에 대한 최적의 출력값을 예측하는 것이다. 통계적인 관점에서 보면 신경망 모델은 입력 변수의 선형 결합에 비선형 함수를 취하는 사영추적회귀로 볼 수 있다. 특히, 의료 이미지에서의 상술한 객체 등 특징의 추출은 컨볼루션 신경망(Convolution neural networks; CNN)가 가장 많이 활용되고 있다.
- 선행기술 문헌: 미국 특허출원공개공보 US 2018-0240235 A1
- 선행기술 문헌: 미국 특허출원공개공보 US 2018-0240235 A1
해결하고자 하는 과제는 2D 모델을 2D 의사 레이블 데이터 및 2D 레이블 데이터를 통해 충분히 학습된 상기 2D 모델을 이용하여 입력된 3D 이미지 데이터에 대응하는 ICV 세그먼테이션 정보를 정확하고 신속하게 출력할 수 있는 방법 및 장치를 제공하는 것이다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
일 측면에 따른, 컴퓨팅 장치가 ICV (Intra-cranial volume) 세그먼테이션 정보를 출력하는 방법은 3D (3-dimension) 이미지 데이터를 입력 받는 단계, 및 상기 3D 이미지 데이터로부터 획득한 2D 이미지 데이터를 2D 모델에 입력하여 상기 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 단계를 포함하고, 상기 2D 모델은 2D 의사 레이블 데이터 (pseudo-label data)를 이용하여 1차 학습되고, 2D 레이블 데이터를 이용하여 2차 학습될 수 있다.
또는, 상기 2D 의사 레이블 데이터는 3D 모델을 이용하여 생성된 3D 의사 레이블 데이터로부터 획득되는 것을 특징으로 한다.
또는, 상기 2D 레이블 데이터는 3D 모델을 학습시킨 3D 레이블 데이터로부터 획득된 것을 특징으로 한다.
또는, 상기 2D 이미지 데이터는 상기 3D 이미지 데이터로부터 복수의 축 방향들 각각에 대해 획득된 복수의 2D 이미지들을 포함하는 것을 특징으로 한다.
또는, 상기 2D 모델은 상기 좌우 축 (Sagittal axis) 방향에 대한 제1 2D 이미지들이 입력되는 제1 서브 2D 모델, 상하축 (Axial axis) 방향에 대한 제2 2D 이미지들이 입력되는 제2 서브 2D 모델 및 전후 축 (Coronal axis) 방향에 대한 제3 2D 이미지들이 입력되는 제3 서브 2D 모델을 포함하는 것을 특징으로 한다.
또는, 상기 2D 모델은 상기 제1 서브 2D 모델로부터 제1 출력 이미지들, 상기 제2 서브 2D 모델로부터 제2 출력 이미지들 및 상기 제3 서브 2D 모델로부터 제3 출력 이미지들을 획득하는 것을 특징으로 한다.
또는, 상기 2D 모델은 상기 제1 출력 이미지들, 상기 제2 출력 이미지들 및 상기 제3 출력 이미지들을 이용하여 3D ICV 마스크를 생성하는 것을 특징으로 한다.
또는, 상기 2D 모델은 상기 1차 학습을 통해 사전 학습 (pre-training)되고, 상기 2차 학습을 통해 파인 튜닝 (fine-tune) 되는 것을 특징으로 한다.
또는, 상기 3D 이미지 데이터는 3D MRI (Magnetic Resonance Imaging)를 포함하는 것을 특징으로 한다.
다른 측면에 따른, ICV (Intra-cranial volume) 세그먼테이션 정보를 출력하는 컴퓨팅 장치는 통신부, 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는 3D (3-dimension) 이미지 데이터를 입력 받고, 상기 3D 이미지 데이터로부터 획득한 2D 이미지 데이터를 2D 모델에 입력하여 상기 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하고, 상기 2D 모델은 2D 의사 레이블 데이터 (pseudo-label data)를 통해 1차 학습되고, 2D 레이블 데이터를 이용하여 상기 2D 모델을 2차 학습될 수 있다.
다양한 실시예 따르면 2D 모델을 2D 의사 레이블 데이터 및 2D 레이블 데이터를 통해 충분히 학습된 상기 2D 모델을 이용하여 입력된 3D 이미지 데이터에 대응하는 ICV 세그먼테이션 정보를 정확하고 신속하게 출력할 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 2은 ICV 세그먼테이션 (Intra-cranial volume)을 출력하는 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 3은 컴퓨팅 장치가 2D 모델을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 4는 컴퓨팅 장치가 학습된 3D 모델을 이용하여 2D 모델을 위한 학습 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 5는 컴퓨팅 장치가 의사 레이블 데이터를 이용하여 2D 모델을 학습시키는 방법을 설명한다.
도 6는 컴퓨팅 장치가 1차 학습이 완료된 2D 모델에 대해 2차 학습을 수행하는 방법을 설명하기 위한 도면이다.
도 7은 컴퓨팅 장치가 복수의 축 방향들에 대한 2D 이미지들을 이용하여 2D 모델을 학습시키는 구체적인 방법을 설명하기 위한 도면이다.
도 8은 학습된 2D 모델이 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 9은 컴퓨팅 장치가 2D 모델을 학습시키고 2D 모델에 기반하여 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 10은 컴퓨팅 장치가 2D 모델을 이용하여 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 1은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 2은 ICV 세그먼테이션 (Intra-cranial volume)을 출력하는 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 3은 컴퓨팅 장치가 2D 모델을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 4는 컴퓨팅 장치가 학습된 3D 모델을 이용하여 2D 모델을 위한 학습 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 5는 컴퓨팅 장치가 의사 레이블 데이터를 이용하여 2D 모델을 학습시키는 방법을 설명한다.
도 6는 컴퓨팅 장치가 1차 학습이 완료된 2D 모델에 대해 2차 학습을 수행하는 방법을 설명하기 위한 도면이다.
도 7은 컴퓨팅 장치가 복수의 축 방향들에 대한 2D 이미지들을 이용하여 2D 모델을 학습시키는 구체적인 방법을 설명하기 위한 도면이다.
도 8은 학습된 2D 모델이 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 9은 컴퓨팅 장치가 2D 모델을 학습시키고 2D 모델에 기반하여 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 10은 컴퓨팅 장치가 2D 모델을 이용하여 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 방법을 설명하기 위한 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다.
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
자기공명영상(magnetic resonance imaging, MRI) 장치는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체 (또는, 환자)의 단층 부위에 대한 이미지를 획득하는 기기이다. 예컨대, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치는 이 MR 신호를 수신하여 MR 이미지를 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. 여기서, MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.
MRI 장치는 다른 이미징 장치들과는 다른 특징들을 포함한다. 이미지의 획득이 감지 하드웨어(detectinghardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치는 임의의 지점으로 지향된 2D 이미지 또는 3D 볼륨 이미지를 획득할 수 있다. 또한, MRI 장치는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 이미지의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 이미지, 혈관 내부(intravascular) 이미지, 근 골격(musculoskeletal) 이미지 및 종양(oncologic) 이미지 등을 획득할 수 있다.
구체적으로, 상기 MRI 장치는 T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR(Fluid attenuated inversion recovery) MRI, 및/또는, T1-w MRI, T2-w MRI, FLAIR MRI에 기반한 3D sMRI (structural MRI) 등의 MRI를 획득할 수 있다. 상기, T1-w 및 T2-w MRI는 TR (repetition time) 및 TE (time to echo)를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. 여기서, 상기 TR은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. 상기 TE는 지연시간 또는 에코시간이다 MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다.
여기서, T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY성분은 붕괴한다.
또한, T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간 (spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1 효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉, T1-w MRI가 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉, T2-w MRI가 획득된다.
FLAIR MRI는 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2-w MRI에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR MRI은 유체 감쇠 반전 복구 MRI로 지칭될 수도 있다.
상기 MRI를 통해 획득한 영상은 뇌 질환의 진단, 뇌 병변을 검출 또는 식별하는데 이용될 수 있다. 특히, T1-w MRI은 뇌실질의 구조를 살피는 데 적합한 종류의 영상이며, 이 T1-w MRI을 알츠하이머병에 대한 정보를 얻기 위하여 의료진은 그 영상에 나타난 뇌의 회백질의 크기를 측정하여 뇌의 위축 정보를 살피는데 이용될 수 있다.
상기 MRI 장치는, 도 1에 도시된 바와 같이, 2 차원 MRI (또는, 2D 미이지, 2D MRI slice (i, j), 20) 및/또는 3차원 MRI (또는, 3D 이미지, Voxel (i, j, k), 10)를 획득할 수 있다. 여기서, i 축은 좌우 축 (Sagittal axis)이고, k 축은 상하축 (Axial axis)이며, j 축은 전후 축 (Coronal axis)일 수 있다. 또는, 상기 3D MRI는 256 * 256 * 256의 해상도의 sMRI일 수 있다.
도 2은 ICV 세그먼테이션 (Intra-cranial volume)을 출력하는 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 2을 참조하면, 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 여기서, 통신부 (110)는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 송수신기와 대응하거나 상기 송수신기를 포함할 수 있다.
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 영상 처리 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 통신부(110)는 연동되는 타 영상 처리 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 프로세서(120)는 이하에서 설명하는 신경망의 기능을 수행하기 위한 명령어들을 실행할 수 있다.
컴퓨팅 장치(100)는 도 1을 참조하여 설명한 MRI (2D MRI, 3D MRI) 등의 이미지를 ICV 세그먼테이션을 출력하는 2D 모델 또는 3D 모델 (예컨대, ICV 모델)에 입력하여 알츠하이머성 치매 (Alzheimer's Disease, AD)의 진단을 위한 대뇌와 두개골 사이의 빈 공간의 부피 (Intra-cranial volume, ICV) 등에 대한 출력 정보를 획득할 수 있다.
여기서, 알츠하이머성 치매 환자군은 정상 (Cognitive normal, CN) 그룹에 비하여 대뇌의 전방위적 위축 (Whole brain atrophy)이 발생한다고 알려져 있다. 이를 고려하여, 컴퓨팅 장치 (100)는 상기 2D 모델을 이용하여 상기 MRI (2D MRI, 3D MRI)에 대한 ICV 정보 (ICV 값 또는 ICV 세그먼테이션) 획득하고, 상기 획득한 ICV 정보에 따른 알츠하이머성 치매 환자군의 위축 정도와 다른 대상체들의 위축 정도를 상대적으로 비교할 수 있다. 상기 상대적 비교를 통해, 알츠하이머성 치매 환자군에서의 위축 정도를 정규화 (normalization)시킬 수 있다.
알츠하이머성 치매 환자군에서의 위축 정도를 정규화 (normalization)를 위해, 컴퓨팅 장치 (100)는 상기 2D 모델 (또는, 상기 ICV 모델)을 이용하여 MRI (2D MRI, 3D MRI)로부터 ICV를 정확하게 세그먼테이션 (segmentation)할 필요가 있다. 그러나, 컴퓨팅 장치 (100)가 기존 ICV 세그먼테이션을 출력하는 2D 모델 (또는, 딥러닝 기반의 ICV 세그먼테이션을 위한 알고리즘, ICVMapper 등)을 이용할 경우, 기존 인공 신경망은 경질막 (dura)와 같은 뇌의 특정 영역을 정확하게 검출하지 못하여 상기 ICV를 정확하게 세그먼테이션할 수 없는 문제가 있다.
이런 문제점을 해결하기 위해서, 컴퓨팅 장치 (100)는 상기 ICV 세그먼테이션 2D 모델을 상기 뇌의 특정 영역을 고려한 다량의 매뉴얼 ICV 라벨 (manual ICV label)을 이용하여 학습시킬 수 있다. 다만, 이 경우에도 뇌에 대한 다량의 매뉴얼 MRI 데이터 (MRI들 및 이에 대한 ICV 라벨들)을 확보하기 용이하지 않은 문제가 있다.
소량의 매뉴얼 MRI 데이터로부터 다량의 학습 데이터를 확보하기 위해서 소량의 매뉴얼 3D MRI 데이터 (256 * 256 * 256 의 sMRI)를 복수의 3D 패치 (patch)들로 분할한 후, 상기 복수의 3D 패치들에 기반하여 3D 모델 (예컨대, 3D 이미지 데이터의 입력에 기반한 ICV 모델)을 위한 인공 신경망을 학습시키는 방법을 고려될 수도 있다. 이 경우, 학습 데이터를 크게 증가시킬 수 있고 체적 (volumetric) 관점에서 세그먼테이션을 위한 경계 검출 등이 보다 정확해지는 장점이 있긴 하나, 추론 시간 (inference time)이 크게 증가되는 문제가 발생할 수 있다.
따라서, 소량의 매뉴얼 3D MRI 데이터를 이용하여 상기 모델에 대한 인공 신경망을 학습시키면서 추론 시간을 최소화할 수 있는 새로운 방법을 고려할 필요가 있다.
예컨대, 3D MRI 데이터에 대한 3D 패치들을 이용하는 학습되는 3D 모델 및 3D MRI 데이터에 대한 2D 슬라이스들 (즉, 2D MRI 슬라이스들)을 이용하여 학습되는 2D 모)을 이용하여 정확도를 높이면서 추론 시간을 최소화하는 하이브리드 학습 방법을 고려해 볼 수 있다.
예컨대, 컴퓨팅 장치 (100)는 정확도 및 학습 데이터의 증가의 효과를 얻을 수 있는 3D MRI에 대한 3D 패치에 기반하여 상기 3D 모델 (또는, 3D 이미지 데이터에 기반하는 ICV 모델)을 학습시키되, 상기 3D 모델을 이용하여 레이블되지 않은 이미지 데이터에 대한 ICV와 관련된 의사 레이블을 생성할 수 있다. 컴퓨팅 장치 (100)는 상기 이미지 데이터 및 상기 의사 레이블을 포함하는 의사 레이블 데이터를 이용하여 상기 2D 모델 (2D 이미지 데이터에 기반한 ICV 모델)의 학습을 위한 다량의 2D MRI 데이터 (예컨대, 복수의 2D MRI slice들)을 확보할 수 있다. 이 경우, 컴퓨팅 장치 (100)는 상기 3D 모델을 이용하여 확보된 3D 의사 레이블 데이터로부터 다량의 2D MRI 데이터 (예컨대, 복수의 2D MRI slice들)를 획득하고, 획득한 2D MRI 데이터에 기반하여 상대적으로 적은 추론 시간을 갖는 2D MRI 슬라이스 (slice)에 기반한 2D 모델을 학습시키는 방법을 고려해 볼 수 있다.
이하에서는, 설명의 편의를 위해, ICV 세그먼테이션 정보를 출력하는 2D 모델, 또는 하여 ICV 세그먼테이션 정보를 출력하는 2D 이미지 데이터에 기반 ICV 모델을 상기 2D 모델로 가정하고, ICV 세그먼테이션 정보를 출력하는 3D 모델, 또는 3D 이미지 데이터에 기반하여 ICV 세그먼테이션 정보를 출력하는 3D 이미지 데이터에 기반 ICV 모델을 상기 3D 모델로 가정하여 설명한다.
도 3은 컴퓨팅 장치가 2D 모델을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 3를 참조하면, 2D 모델은 2D 의사 레이블 데이터에 기반하여 1차 학습을 수행할 수 있다 (S101). 2D 의사 레이블 데이터는 다양한 툴(tool)들을 이용하여 레이블되지 않은 이미지 데이터를 통해 획득할 수 있다. 예컨대, 2D 의사 레이블 데이터는 ICV 맵퍼 (mapper), ICV를 세그먼테이션 할 수 있는 인공 신경망에 기반한 다양한 모델 (예컨대, 3D 이미지 데이터를 이용하여 학습된 3D 이미지에 기반한 3D 모델) 등에 이미지 데이터 (3D 이미지 데이터 또는 2D 이미지 데이터)를 입력하여 획득될 수 있다. 예컨대, 상기 다양한 툴(tool)들은 ICV와 관련된 의사 레이블을 생성하는 의사 레이블 생성 모델일 수 있다.
상기 2D 의사 레이블 데이터는 판단자 (예컨대, 의사 등)에 의해 수동적으로 레이블이 지정된 2D 레이블 데이터 (또는, 매뉴얼 데이터) 대비 부정확한 레이블 정보를 포함하지만 상기 2D 의사 레이블 데이터 대비 상당히 많은 데이터 셋 (또는, 데이터 량)이 확보될 수 있다. 이 경우, 상기 2D 모델은 상당히 많은 데이터 셋을 갖는 상기 2D 의사 레이블 데이터를 이용하여 충분한 사전 학습 또는 1차 학습이 수행될 수 있다.
다음으로, 상기 2D 모델은 정확한 레이블 정보를 갖는 상기 2D 레이블 데이터에 기반하여 2차 학습될 수 있다. 상기 2D 레이블 데이터는 3D 이미지 데이터에 대하여 수동적으로 레이블이 지정된 3D 레이블 데이터로부터 획득될 수 있다. 또는, 2D 이미지에 대해 대응한 레이블이 수동으로 지정된 2D 레이블 데이터일 수도 있다. 예컨대, 상술한 바와 같이, 상기 2D 레이블 데이터는 ICV 맵퍼 (mapper), ICV를 세그먼테이션 할 수 있는 인공 신경망에 기반한 다양한 모델 (예컨대, 3D 이미지 데이터를 이용하여 학습된 3D 이미지에 기반한 3D 모델) 등을 학습시킨 레이블 데이터 (매뉴얼 데이터)이거나, 상기 레이블 데이터로부터 회득될 수 있다.
이와 같이, 상기 2D 모델은 충분한 데이터 량을 확보할 수 있는 2D 의사 레이블 데이터를 통해 1차 학습을 수행하고, 비교적 데이터량이 부족한 2D 레이블 데이터를 이용하여 파인 튜닝 또는 2차 학습이 수행될 수 있다.
상술한 바와 같이, 2D 모델을 학습시키기 위한 2D 의사 레이블 데이터는 다양한 방법으로 획득될 수 있다. 이하에서는, 설명의 편의를 위해 상기 2D 의사 레이블 데이터가 미리 학습된 3D 이미지에 기반한 3D 모델에 의해 생성된 3D 의사 레이블 데이터로부터 획득된 경우를 가정하여 설명한다예컨대, 컴퓨팅 장치 (100)가 소량의 매뉴얼 3D MRI 데이터 (또는, 레이블 데이터)에 기반하여 3D 모델을 학습시키고, 학습된 3D 모델을 이용하여 확보된 3D 의사 레이블 데이터 (3D 이미지 데이터 및 ICV에 대한 의사 레이블 정보를 포함하는)로부터 획득한 다량의 2D MRI 슬라이스 (slice)들에 기반하여 2D 모델의 학습시키는 방법들을 자세히 설명한다.
도 4는 컴퓨팅 장치가 학습된 3D 모델을 이용하여 2D 모델을 위한 학습 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 4 (a)을 참조하면, 상기 컴퓨팅 장치는 소량의 매뉴얼 3D MRI 데이터인 레이블 데이터 (10)를 이용하여 3D 모델 (300)을 학습시킬 수 있다. 레이블 데이터 (10)은 3D MRI 및 상기 3D MRI에 대한 레이블 정보 (ICV 값, ICV 세그먼테이션 등)를 포함할 수 있다. 상기 컴퓨팅 장치는 레이블 데이터 (10)로부터 획득한 복수의 3D 패치들을 입력하여 3D 모델 (300)를 학습시킬 수 있다. 여기서, 상기 컴퓨팅 장치는 레이블 데이터 (10)에 포함된 3D MRI에서 일부 영역이 오버랩된 상기 복수의 3D 패치들을 획득할 수 있으며, 국소 영역에 대해 상기 복수의 3D 패치들을 상기 3D MRI로부터 획득할 수 있다.
이 때, 상기 컴퓨팅 장치는 레이블 데이터 (10)로부터 획득한 복수의 3D 패치들을 3D 모델 (300)에 입력하여 3D 모델 (300)로부터 ICV 정보 (ICV 값 및/또는 ICV 세그먼테이션)를 획득할 수 있다. 상기 컴퓨팅 장치는 상기 ICV 정보에 기반한 ICV 값과 레이블 데이터 (10)의 레이블 값 (또는, 미리 결정된 ICV 값)에 기초하여 3D 모델 (300)의 손실 함수가 최소화되도록 3D 모델 (300)을 학습시킬 수 있다.
다음으로, 도 4 (b)를 참조하면, 상기 컴퓨팅 장치는 레이블 데이터 (10)에 의해 학습이 완료된 3D 모델 (310)에 레이블 정보를 포함하지 않은 3D MRI 데이터 (11)를 입력할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 상기 3D MRI 데이터 (11)로부터 획득한 복수의 3D 패치들을 3D 모델 (310)에 입력할 수 있다. 3D 모델 (310)는 입력된 복수의 3D 패치들에 기반하여 3D MRI 데이터 (11)에 대한 ICV 정보 (또는, ICV 값 및/또는 ICV 세그먼테이션)를 출력할 수 있고, 상기 컴퓨팅 장치는 3D 모델 (310)가 출력한 ICV 정보를 의사 레이블 (pseudo-label)로 이용할 수 있다. 예컨대, 의사 레이블 (pseudo-label)은 3D MRI 데이터 (11)에 대해 예측된 ICV 값 등 ICV 정보를 포함한다.
다음으로, 상기 컴퓨팅 장치는 상기 생성된 의사 레이블을 3D MRI 데이터 (11)에 포함시켜 의사 레이블 데이터(12)를 생성할 수 있다. 예컨대, 의사 레이블 데이터(12)는 상기 3D MRI 및 이에 대응하는 의사 레이블 정보를 포함할 수 있다.
이와 같이, 상기 3D 모델은 ICV와 관련된 의사 레이블을 생성하는 모델로 이용될 수 있고, 상기 3D 모델은 의사 레이블 생성 모델로 정의될 수도 있다.
상기 컴퓨팅 장치는 3D 모델 (310)을 이용하여 생성한 의사 레이블 데이터(12)를 이용하여 2D 모델을 학습 또는 사전 학습시킬 수 있으며, 이에 대한 구체적인 방법은 후술한다.
도 5는 컴퓨팅 장치가 의사 레이블 데이터를 이용하여 2D 모델을 학습시키는 방법을 설명한다.
도 5를 참조하면, 상기 컴퓨팅 장치는 도 4을 참조하여 설명한 의사 레이블 데이터 (12)에 기반하여 2D 모델 (200)을 학습시킬 수 있다. 여기서, 의사 레이블 데이터 (12)는 상술한 바와 같이 3D MRI 및 상기 3D MRI에 대한 의사 레이블에 대한 정보를 포함할 수 있다.
상기 컴퓨팅 장치는 의사 레이블 데이터 (12)를 이용하여 복수의 2D MRI 슬라이스들인 복수의 2D 이미지들을 획득할 수 있다. 여기서, 상기 컴퓨팅 장치는 의사 레이블 데이터 (12)에 포함된 의사 레이블을 상기 복수의 2D 이미지들에 대한 의사 레이블로 정의하여 2D 모델 (200)을 학습시킬 수 있다.
또는, 상기 컴퓨팅 장치는 상기 3D MRI로부터 2D 이미지들을 획득할 수 있다. 여기서, 상기 2D 이미지들은 도 1을 참조하여 설명한 상하 축 (Axial axis)의 시선 방향 (이하, 제1 축 방향), 좌우 축 (Sagittal axis)의 시선 방향 (이하, 제2 축 방향), 또는 전후 축 (Coronal axis)의 시선 방향 중 어느 하나의 방향에서 획득한 2D 이미지들일 수 있다.
한편, 상기 2D 모델 (200)은 상기 각 축 방향 별로 2D 이미지들을 입력 받는 복수의 서브 2D 모델들을 포함할 수 있으며, 이에 대해선 도 7을 참조하여 자세히 설명한다.
상기 컴퓨팅 장치는 상기 2D 이미지들을 입력하여 2D 모델 (200)을 학습시킬 수 있다. 구체적으로, 상기 컴퓨팅 장치는 의사 레이블 데이터 (12)로부터 획득한 2D 이미지들을 2D 모델 (200)에 입력할 수 있다. 2D 모델 (200)은 2D 이미지들에 기반하여 출력 이미지들을 생성 (또는, 특징들을 추출)할 수 있고, 상기 출력 이미지들 (또는, 특징들)에 기반하여 상기 2D 이미지들에 대응하는 ICV 정보 (예컨대, ICV 값 및/또는 ICV 세그먼테이션 정보)를 출력할 수 있다. 예컨대, 2D 모델 (200)은 상기 출력 이미지들을 상기 2D 이미지들과 관련된 축 방향으로 스택 (stack) 및 내적 방식으로 3D ICV 마스크를 생성하고, 상기 3D ICV 마스크에 기반하여 ICV 정보를 산출 및 출력할 수 있다. 여기서, 3D ICV 마스크는 ICV와 대응하는 영역에 대한 복셀 (Voxel)들이 1로 설정될 수 있고, 그외 영역에 대해서는 0으로 설정될 수 있다.
이 경우, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보 및 의사 레이블 데이터 (12)에 포함된 의사 레이블에 기초하여 2D 모델 (200)의 손실 함수가 최소화되도록 2D 모델 (200)를 학습 또는 사전 학습시킬 수 있다. 예컨대, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보에 기반한 ICV 값과 상기 의사 레이블에 기반한 ICV 값 간의 손실이 최소화되도록 2D 모델 (200)과 관련된 파라미터들 (또는 가중치들)을 조정하여 2D 모델 (200)을 1차 학습 또는 사전 학습시킬 수 있다.
이하에서는 1차 학습된 2D 모델을 2차 학습 또는 파인 튜닝하는 방법을 자세히 기술한다.
도 6는 컴퓨팅 장치가 1차 학습이 완료된 2D 모델에 대해 2차 학습을 수행하는 방법을 설명하기 위한 도면이다.
도 6를 참조하면, 상기 컴퓨팅 장치는 1차 학습 (또는, 사전 학습)이 완료된 2D 모델 (210)에 대해 레이블 데이터 (10)를 이용하여 (재)학습 (이하, 제2 학습)시킬 수 있다. 상기 컴퓨팅 장치는 도 4을 참조하여 설명한 매뉴얼 3D MRI 데이터인 레이블 데이터 (10)을 이용하여 2D 모델 (210)을 2차 학습시킴으로써 2D 모델 (210)을 파인 튜닝 (fine-tuning)시킬 수 있다.
구체적으로, 상기 컴퓨팅 장치는 도 5에서 설명한 바와 같이 레이블 데이터 (10)에 포함된 2D 이미지들을 획득할 수 있다. 여기서, 상기 2D 이미지들은 도 1을 참조하여 설명한 상하 축 (Axial axis)의 시선 방향 (이하, 제1 축 방향), 좌우 축 (Sagittal axis)의 시선 방향 (이하, 제2 축 방향), 또는 전후 축 (Coronal axis)의 시선 방향 중 어느 하나의 방향에서 획득한 2D 이미지들일 수 있다.
한편, 2D 모델 (210)은 상기 각 축 방향 별로 2D 이미지들을 입력 받는 복수의 서브 2D 모델들을 포함할 수 있으며, 이에 대해선 도 7을 참조하여 자세히 설명한다.
상기 컴퓨팅 장치는 상기 2D 이미지들을 2D 모델 (210)에 입력할 수 있다. 2D 모델 (210)은 상기 2D 이미지들에 대한 출력 이미지들을 생성할 수 있고, 상기 출력 이미지들에 기반하여 대응하는 ICV를 산출하기 위한 세그먼테이션을 출력할 수 있다. 예컨대, 2D 모델 (210)은 상기 출력 이미지들을 상기 2D 이미지들과 관련된 축 방향으로 스택 (stack) 및 내적 방식으로 3D ICV 마스크를 생성하고, 상기 3D ICV 마스크에 기반하여 ICV 정보를 산출 및 출력할 수 있다. 여기서, 3D ICV 마스크는 ICV와 대응하는 영역에 대한 복셀 (Voxel)들이 1로 설정될 수 있고, 그외 영역에 대해서는 0으로 설정될 수 있다. 상기 컴퓨팅 장치는 상기 ICV 정보에 기반한 ICV 값 및 레이블 데이터 (10)에 포함된 레이블 값을 이용하여 2D 모델 (210)의 손실 함수가 최소화되도록 2D 모델 (210)의 파라미터들 (또는, 가중치들)을 (재)조정하여 2D 모델 (210)를 2차 학습 또는 파인 튜닝시킬 수 있다.
도 7은 컴퓨팅 장치가 복수의 축 방향들에 대한 2D 이미지들을 이용하여 2D 모델을 학습시키는 구체적인 방법을 설명하기 위한 도면이다.
도 7 (a)을 참조하면, 컴퓨팅 장치는 도 4을 참조하여 설명한 의사 레이블 데이터 (12)에 기반하여 2D 모델 (200)을 1차 학습 또는 사전 학습시킬 수 있다.
상기 컴퓨팅 장치는 의사 레이블 데이터 (12)에 포함된 3D MRI로부터 제1 축 방향에 대한 제1 2D 이미지들 (21), 제1 축 방향에 대한 제2 2D 이미지들 (22), 제1 축 방향에 대한 제3 2D 이미지들 (23)을 획득할 수 있다. 상기 컴퓨팅 장치는 제1 2D 이미지들 (21), 제2 2D 이미지들 (22) 및 제3 2D 이미지들 (23)을 2D 모델 (200)에 입력할 수 있다. 이 때, 2D 모델 (200)은 제1 축 방향에 대한 제1 2D 이미지들 (21)를 입력 받는 제1 서브 2D 모델 (201), 제2 축 방향에 대한 제2 2D 이미지들 (22)를 입력 받는 제2 서브 2D 모델 (202) 및 상기 제3 축 방향에 대한 제3 2D 이미지들을 입력 받는 제3 서브 2D 모델 (203)을 포함할 수 있다. 이 경우, 상기 컴퓨팅 장치는 의사 레이블 데이터 (12)로부터 획득한 복수의 2D 이미지들 (21, 22, 23)을 상기 축 방향 별로 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203)에 입력할 수 있다. 제1 서브 2D 모델 (201)은 제1 2D 이미지들 (21)에 기반하여 제1 출력 이미지들 (또는, 제1 출력 정보) 출력할 수 있고, 제2 서브 2D 모델 (202)은 제2 2D 이미지들 (22)에 기반하여 제2 출력 이미지들 (또는, 제2 출력 정보)을 출력하며, 제3 서브 2D 모델 (203)은 제3 2D 이미지들 (23)에 기반하여 제3 출력 이미지들 (또는, 제3 출력 정보)를 출력할 수 있다.
다음으로, 2D 모델 (200)은 앙상블 레이어를 통해 상기 제1 출력 이미지들, 상기 제2 출력 이미지들 및 상기 제3 출력 이미지들을 통합 또는 앙상블시켜 상기 3D MRI에 대응하는 하나의 최종 ICV 마스크를 생성할 수 있다.
구체적으로, 2D 모델 (200)은 상기 제1 출력 이미지들을 상기 제1 축 방향으로 스택 (stack) 및 내적하여 제1 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성하고, 상기 제2 출력 이미지들을 상기 제2 축 방향으로 스택 및 내적하여 제2 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성하며, 상기 제3 출력 이미지들을 상기 제3 축 방향으로 스택 및 내적하여 제3 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성할 수 있다. 여기서, 상기 제1 내지 제3 3D 임시 마스크들 각각은 ICV와 관련된 영역에 대응하는 복셀들에 대해 1 값이 설정되고, ICV와 관련 없는 영역에 대응하는 복셀에 대해 0 값이 설정될 수 있다. 2D 모델 (200)은 상기 제1 3D 임시 마스크, 상기 제2 3D 임시 마스크 및 제3 3D 임시 마스크들 간의 복셀들의 평균을 산출하는 방식으로 하나의 평균 3D 마스크로 합칠 수 있다. 2D 모델 (200)은 상기 평균 3D 마스크에 기반하여 최종 ICV 마스크를 생성할 수 있다. 예컨대, 2D 모델 (200)은 상기 평균 3D 마스크에서 복셀 값이 0.5보다 큰 복셀들을 ICV와 관련된 영역의 복셀들로 설정 (예컨대, 1 값을 설정)하여 상기 최종 ICV 마스크를 생성할 수 있다. 2D 모델 (200)은 상기 최종 ICV 마스크에 기반하여 상기 3D MRI에 대한 ICV 정보 (ICV 값 또는 ICV 세그먼테이션 정보)를 출력할 수 있다.
이 경우, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보 및 의사 레이블 데이터 (12)에 포함된 의사 레이블에 기초하여 2D 모델 (200)의 손실 함수가 최소화되도록 2D 모델 (200)를 1차 학습 또는 사전 학습시킬 수 있다. 또는, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보에 기반한 ICV 값과 상기 의사 레이블에 기반한 ICV 값 간의 손실이 최소화되도록 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203) 각각과 관련된 파라미터들 (또는 가중치들)을 조정하여 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203)을 학습시킬 수 있다. 이를 통해, 상기 컴퓨팅 장치는 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203)을 사전 학습 또는 1차 학습시킬 수 있다. 또는, 상기 컴퓨팅 장치는 2D 모델 (200)을 사전 학습 또는 1차 학습시킬 수 있다.
즉, 상기 컴퓨팅 장치는 2D 모델 (200) (또는, 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203))의 학습에서 3D 모델을 이용하여 생성된 의사 레이블 데이터 (12)를 이용함으로써 2D 모델 (200) (또는, 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203))의 학습에 부족한 이미지 데이터 및 의사 레이블 정보를 다량 확보할 수 있다. 또한, 상기 컴퓨팅 장치는 3D MRI로부터 다양한 축 방향들 (제1 축 방향, 제2 축 방향 및 제3 축 방향)에 대한 2D 이미지들을 확보하여 2D 모델 (200) (또는, 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203))를 학습시킬 수 있다. 이 경우, 2D 모델 (200)은 일반적인 하나의 축 방향에 대한 2D MRI로 학습된 기존 2D 모델에서 검출하지 못하는 특정 영역 (예컨대, 경질막)까지 효과적으로 검출 또는 ICV 세그먼테이션에 고려될 수 있도록 학습될 수 있다.
이와 같이, 상기 컴퓨팅 장치는 의사 레이블 데이터 (12)을 이용하여 다양한 복수의 2D 이미지들 (21, 22, 23)를 통해 2D 모델 (200) (또는, 제1 서브 2D 모델 (201), 제2 서브 2D 모델 (202) 및 제3 서브 2D 모델 (203))을 1차적으로 또는 1차 학습 (또는, 사전 학습)시킬 수 있다. 다만, 여기서, 1차 학습은 3D 모델에서 생성된 의사 레이블에 기반하여 수행되므로, 보다 정확도를 높이기 위한 2차 학습이 필요하며, 이하에서는, 상기 컴퓨팅 장치가 1차 학습이 완료된 2D 모델 (210)을 2차 학습시켜 파인-튜닝 (fine-tuning)하는 방법을 자세히 설명한다.
도 7 (b)을 참조하면, 컴퓨팅 장치는 도 4을 참조하여 설명한 레이블 데이터 (10)에 기반하여 상기 1차 학습이 완료된 2D 모델 (210)을 2차 학습 또는 파인 튜닝시킬 수 있다.
상기 컴퓨팅 장치는 레이블 데이터 (10)에 포함된 3D MRI로부터 제1 축 방향에 대한 제1 2D 이미지들 (25), 제1 축 방향에 대한 제2 2D 이미지들 (26), 제1 축 방향에 대한 제3 2D 이미지들 (27)을 로부터 획득할 수 있다. 상기 컴퓨팅 장치는 상기 제1 2D 이미지들 (25), 제2 2D 이미지들 (26) 및 제3 2D 이미지들 (27)을 2D 모델 (210)에 입력할 수 있다. 이 때, 2D 모델 (210)은 제1 축 방향에 대한 제1 2D 이미지들 (25)를 입력 받는 제1 서브 2D 모델 (211), 제2 축 방향에 대한 제2 2D 이미지들 (26)를 입력 받는 제2 서브 2D 모델 (212) 및 상기 제3 축 방향에 대한 제3 2D 이미지들을 입력 받는 제3 서브 2D 모델 (213)을 포함할 수 있다. 이 경우, 상기 컴퓨팅 장치는 레이블 데이터 (10)로부터 획득한 복수의 2D 이미지들 (25, 26, 27)을 상기 축 방향 별로 제1 서브 2D 모델 (211), 제2 서브 2D 모델 (212) 및 제3 서브 2D 모델 (213)에 입력할 수 있다. 이 경우, 제1 서브 2D 모델 (211)은 제1 2D 이미지들 (25)에 기반하여 제1 출력 이미지들 (또는, 제1 출력 정보) 출력할 수 있고, 제2 서브 2D 모델 (212)은 제2 2D 이미지들 (26)에 기반하여 제2 출력 이미지들 (또는, 제2 출력 정보)을 출력하며, 제3 서브 2D 모델 (213)은 제3 2D 이미지들 (27)에 기반하여 제3 출력 이미지들 (또는, 제3 출력 정보)를 출력할 수 있다.
다음으로, 2D 모델 (210)은 앙상블 레이어를 통해 상기 제1 출력 이미지들, 상기 제2 출력 이미지들 및 상기 제3 출력 이미지들에 대응하는 하나의 최종 ICV 마스크를 생성할 수 있다.
구체적으로, 2D 모델 (210)은 상기 제1 출력 이미지들을 상기 제1 축 방향으로 스택 (stack) 및 내적하여 제1 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성하고, 상기 제2 출력 이미지들을 상기 제2 축 방향으로 스택 및 내적하여 제2 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성하며, 상기 제3 출력 이미지들을 상기 제3 축 방향으로 스택 및 내적하여 제3 3D 임시 마스크 (예컨대, 256*256*256의 3D 마스크)를 생성할 수 있다. 여기서, 상기 제1 내지 제3 3D 임시 마스크들 각각은 ICV와 관련된 영역에 대응하는 복셀들에 대해 1 값이 설정되고, ICV와 관련 없는 영역에 대응하는 복셀에 대해 0 값이 설정될 수 있다. 2D 모델 (210)은 상기 제1 3D 임시 마스크, 상기 제2 3D 임시 마스크 및 제3 3D 임시 마스크들 간의 복셀들의 평균을 산출하는 방식으로 하나의 평균 3D 마스크로 합칠 수 있다. 2D 모델 (210)은 상기 평균 3D 마스크에 기반하여 최종 ICV 마스크를 생성할 수 있다. 예컨대, 2D 모델 (210)은 상기 평균 3D 마스크에서 복셀 값이 0.5보다 큰 복셀들을 ICV와 관련된 영역의 복셀들로 설정하여 상기 최종 ICV 마스크를 생성할 수 있다. 2D 모델 (210)은 상기 최종 ICV 마스크에 기반하여 상기 3D MRI에 대한 ICV 정보 (ICV 값 또는 ICV 세그먼테이션 정보)를 출력할 수 있다.
이 경우, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보 및 레이블 데이터 (10)에 포함된 의사 레이블에 기초하여 2D 모델 (210)의 손실 함수가 최소화되도록 2D 모델 (210)를 2차 학습 또는 지도 학습시킬 수 있다. 또는, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보에 기반한 ICV 값과 상기 의사 레이블에 기반한 ICV 값 간의 손실이 최소화되도록 제1 서브 2D 모델 (211), 제2 서브 2D 모델 (212) 및 제3 서브 2D 모델 (213) 각각과 관련된 파라미터들 (또는 가중치들)을 조정하여 제1 서브 2D 모델, 제2 서브 2D 모델 및 제3 서브 2D 모델을 학습시킬 수 있다.
이와 같이, 상기 컴퓨팅 장치는 2D 모델 (210)의 학습에서 레이블 데이터 (10)에 포함된 레이블 및 3D MRI를 이용함으로써 학습에서 부족한 학습 데이터를 다량 확보할 수 있다. 또한, 상기 컴퓨팅 장치는 3D MRI로부터 다양한 축 방향들 (제1 축 방향, 제2 축 방향 및 제3 축 방향)에 대한 2D 이미지들을 확보하여 2D 모델 (210)를 학습시켜 일반적인 하나의 축 방향에 대한 2D MRI로 학습된 기존 2D 모델에서 검출하지 못하는 특정 영역 (예컨대, 경질막)도 효과적으로 검출 또는 고려할 수 있도록 2D 모델 (210) (또는, 제1 서브 2D 모델 (211), 제2 서브 2D 모델 (212) 및 제3 서브 2D 모델 (213) 각각)을 2차 학습 또는 파인 튜닝시킬 수 있다.
이 경우, 레이블 데이터 (10)에 기반하여 2D 모델 (210) (또는, 제1 서브 2D 모델 (211), 제2 서브 2D 모델 (212) 및 제3 서브 2D 모델 (213) 각각)을 추가적으로 2차 학습시킴으로써, 2D 모델 (210)은 1차 학습이 완료된 경우보다 정확한 ICV 정보를 출력할 수 있다. 이 때, 2D 모델 (210)은 기존 2D 모델과 비슷하게 짧은 추론 시간을 가지면서 기존 2D 모델보다 현저히 높은 정확도 (3D 모델의 정확도와 대응하거나 상회하는)로 입력된 2D 이미지에 대한 ICV 세그먼테이션을 출력할 수 있다.
도 8은 학습된 2D 모델이 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 상기 컴퓨팅 장치는 3D MRI (14) (예컨대, 256*256*256의 3D MRI)를 입력 받을 수 있다. 상기 컴퓨팅 장치는 상술한 바와 같이 3D MRI (14)로부터 제1 축 방향 (sagittal)에 대한 제1 2D 이미지들, 제2 축 방향 (Axial)에 대한 제2 2D 이미지들 및 제3 축 방향 (Coronal)에 대한 제3 2D 이미지들을 획득할 수 있다. 상기 컴퓨팅 장치는 상기 획득한 제1 2D 이미지들, 제2 2D 이미지들 및 제3 2D 이미지들 각각을 상기 1차 학습 및 상기 2 차 학습이 완료된 제1 서브 2D 모델 (221), 제2 서브 2D 모델 (222) 및 제3 서브 2D 모델 (223) 각각에 입력할 수 있다.
다음으로, 2D 모델 (220)은 도 7을 참조하여 제1 서브 2D 모델 (221), 제2 서브 2D 모델 (222) 및 제3 서브 2D 모델 (223)을 이용하여 제1 축 방향에 대한 제1 출력 이미지들, 제2 축 방향에 대한 제2 출력 이미지들 및 제3 축 방향에 대한 제3 출력 이미지들을 획득할 수 있다. 이 경우, 2D 모델 (220)은 앙상블 레이어를 통해 상기 제1 출력 이미지들, 상기 제2 출력 이미지들 및 상기 제3 출력 이미지들 통합 또는 앙상블시켜 상기 3D MRI에 대응하는 하나의 최종 ICV 마스크를 생성할 수 있고, 상기 하나의 최종 ICV 마스크에 기반하여 ICV 정보를 출력할 수 있다.
구체적으로, 2D 모델 (220)은 도 7을 참조하여 설명한 바와 같이 상기 제1 출력 이미지들을 제1 축 방향으로 스택 및 내적하여 제1 임시 3D 마스크, 상기 제2 출력 이미지들을 제2 축 방향으로 스택 및 내적하여 제2 임시 3D 마스크 및 상기 제3 출력 이미지들을 제3 축방향으로 스택 및 내적하여 제3 임시 3D 마스크를 생성 또는 획득할 수 있다. 2D 모델 (220)은 도 7을 참조하여 설명한 바와 같이 제1 임시 3D 마스크, 제2 임시 3D 마스크 및 제3 임시 3D 마스크을 앙상블 또는 통합시켜 하나의 평균 3D 마스크 (15)를 생성 및 획득하고, 하나의 평균 3D 마스크 (15)에 기반하여 (즉, 0.5 이상인 값을 갖는 복셀들에 대응하는 영역이 ICV 영역으로 표현되도록) 하나의 최종 ICV 마스크 (16)를 생성할 수 있다. 2D 모델 (220)은 상기 3D MRI에 대응하는 하나의 최종 ICV 마스크 (16)에 기반하여 ICV 정보를 산출 또는 출력할 수 있다.
다음으로, 상기 컴퓨팅 장치는 상기 ICV 정보에 기초하여 상기 3D MRI에 대응하는 ICV 값을 산출 또는 획득할 수 있다.
상술한 바와 같이, 2D 모델 (220)은 제1 서브 2D 모델 (221), 제2 서브 2D 모델 (222) 및 제3 서브 2D 모델 (223)을 통해 다양한 축 방향들에 대하여 1차 및 2차 학습이 완료된 바, 2D 모델 (220)은 기존 2D 모델에서 검출하기 어려운 뇌의 특정 영역까지 검출 또는 세그먼테이션에 반영할 수 있다. 이 경우, 2D 모델 (220)은 기존 모델보다 정확하게 세그먼테이션된 ICV 정보를 출력할 수 있다. 즉, 상기 컴퓨팅 장치는 2D 모델 (220)을 통해 정확도가 크게 향상된 ICV 정보 또는 ICV 세그먼테이션을 획득할 수 있다.
도 9은 컴퓨팅 장치가 2D 모델을 학습시키고 2D 모델에 기반하여 ICV 세그먼테이션을 출력하는 방법을 설명하기 위한 도면이다.
도 9을 참조하면, 상기 컴퓨팅 장치는 매뉴얼 데이터인 레이블 데이터 및 의사 레이블 데이터를 이용하여 3D 모델 및 2D 모델을 학습시킬 수 있다.
상기 컴퓨팅 장치는 3D 모델 (310)을 이용하여 의사 레이블 데이터를 획득 또는 생성할 수 있다. 여기서, 3D 모델 (310)은 도 4을 참조하여 설명한 바와 같이 매뉴얼 데이터인 레이블 데이터에 의해 미리 학습된 모델이다. 상기 컴퓨팅 장치는 3D 모델 (310)에 레이블 정보를 갖지 않은 3D 이미지 데이터 (11)를 입력하여, 상기 3D 이미지 데이터에 대한 의사 레이블을 생성할 수 있고, 상기 3D 이미지 데이터 및 상기 의사 레이블을 포함하는 상기 의사 레이블 데이터를 획득 또는 생성할 수 있다. 한편, 상기 3D 이미지 데이터 (11)는 256 * 256 * 256의 raw sMRI data를 포함할 수 있다.
다음으로, 상기 컴퓨팅 장치는 도 7 (a)를 참조하여 설명한 바와 같이 상기 의사 레이블 데이터로부터 다양한 축 방향에 대한 복수의 2D 이미지들 (21, 22, 23)을 획득할 수 있다. 상기 컴퓨팅 장치는 복수의 2D 이미지들 (21, 22, 23) 및 상기 의사 레이블에 기초하여 2D 모델을 사전 학습 또는 1차 학습시킬 수 있다. 구체적으로, 도 7 (a)에서 설명한 바와 같이, 상기 컴퓨팅 장치는 상기 의사 레이블 데이터로부터 제1 축 방향, 제2 축 방향, 제3 축 방향 각각에 대한 복수의 2D 이미지들 (21, 22, 23)을 획득하고, 획득한 복수의 2D 이미지들(21, 22, 23)를 축 방향 별로 대한 서브 2D 모델들에 입력할 수 있다. 이 경우, 상기 2D 모델은 각 축 방향 별로 대응하는 제1 출력 이미지들, 제2 출력 이미지들 및 제3 출력 이미지들을 상기 서브 2D 모델들로부터 획득할 수 있고, 제1 출력 이미지들, 제2 출력 이미지들 및 제3 출력 이미지들에 기반하여 하나의 최종 ICV 마스크를 생성하며, 상기 최종 ICV 마스크를 이용하여 ICV 정보 (ICV 값 또는 ICV 세그먼테이션)을 출력할 수 있다. 다음으로. 상기 컴퓨팅 장치는 상기 출력된 ICV 정보 및 상기 의사 레이블 데이터에 포함된 의사 레이블에 기반하여 상기 2D 모델의 손실 함수가 최소화되록 상기 2D 모델 (또는, 제1 서브 2D 모델, 제2 서브 2D 모델 및 제3 서브 2D 모델)의 파라미터들을 조정하여 상기 2D 모델을 1차 학습 또는 사전 학습시킬 수 있다.
다음으로, 상기 컴퓨팅 장치는 도 7 (b)를 참조하여 설명한 바와 같이 상기 레이블 데이터에 기초하여 상기 사전 학습 또는 1차 학습이 완료된 2D 모델 (210)에 대한 2차 학습 또는 지도 학습을 수행할 수 있다. 즉, 상기 컴퓨팅 장치는 1차 학습 결과로 파라미터 또는 가중치들이 조정된 2D 모델 (210)에 대한 파인 튜닝을 위해서 2차 학습을 수행할 수 있다. 구체적으로, 도 7 (b)에서 설명한 바와 같이, 상기 컴퓨팅 장치는 상기 레이블 데이터로부터 제1 축 방향, 제2 축 방향, 제3 축 방향 각각에 대한 복수의 2D 이미지들 (25, 26, 27)을 획득하고, 획득한 복수의 2D 이미지들 (25, 26, 27)을 축 방향 별로 대한 서브 2D 모델들에 입력할 수 있다. 이 경우, 상기 2D 모델은 각 축 방향 별로 대응하는 제1 출력 이미지들, 제2 출력 이미지들 및 제3 출력 이미지들을 상기 서브 2D 모델들로부터 획득할 수 있고, 제1 출력 이미지들, 제2 출력 이미지들 및 제3 출력 이미지들에 기반하여 하나의 최종 ICV 마스크를 생성하며, 상기 최종 ICV 마스크를 이용하여 ICV 정보 (ICV 값 또는 ICV 세그먼테이션)을 출력할 수 있다. 이 경우, 상기 컴퓨팅 장치는 상기 출력된 ICV 정보 및 상기 레이블 데이터에 포함된 레이블 정보에 기반하여 상기 2D 모델의 손실 함수가 최소화되록 상기 2D 모델 (또는, 제1 서브 2D 모델, 제2 서브 2D 모델 및 제3 서브 2D 모델)의 파라미터들을 (재)조정하여 상기 2D 모델을 2차 학습 또는 파인 튜닝시킬 수 있다.
다음으로, 상기 컴퓨팅 장치는 상기 1차 학습 및 상기 2 차 학습이 완료된 2D 모델 (220)을 이용하여 입력된 3D MRI에 대한 ICV 정보 또는 ICV 세그먼테이션 정보를 획득할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 3D MRI (예컨대, 256*256*256의 3D MRI)를 입력 받을 수 있다. 상기 컴퓨팅 장치는 상술한 바와 같이 3D MRI로부터 제1 축 방향에 대한 제1 2D 이미지들, 제2 축 방향에 대한 제2 2D 이미지들 및 제3 축 방향에 대한 제3 2D 이미지들을 획득할 수 있다. 상기 컴퓨팅 장치는 상기 획득한 제1 2D 이미지들, 제2 2D 이미지들 및 제3 2D 이미지들 각각을 상기 1차 학습 및 상기 2 차 학습이 완료된 제1 서브 2D 모델, 제2 서브 2D 모델 및 제3 서브 2D 모델 각각에 입력할 수 있다. 2D 모델 (220)은 상술한 바와 같이 각 서브 2D 모델로부터 획득한 제1 출력 이미지들, 제2 출력 이미지 및 제3 출력 이미지들을 앙상블시켜 상기 3D MRI에 대응하는 최종 ICV 마스크 (256*256*256 3D 마스크)를 생성하고, 상기 최종 ICV 마스크에 기반하여 ICV 정보 (ICV 값 또는 ICV 세그먼테이션)를 출력할 수 있다. 상기 컴퓨팅 장치는 상기 ICV 정보에 기초하여 상기 3D MRI에 대응하는 ICV 값을 산출 또는 획득할 수 있다.
이와 같이, 상기 컴퓨팅 장치는 3D 모델 (310)을 이용한 의사 레이블 데이터를 생성하고, 생성된 의사 레이블 데이터를 이용하여 2D 모델을 학습시킴으로써 2D 모델에 대한 부족한 학습 데이터를 충분히 확보할 수 있다. 또한, 상기 컴퓨팅 장치는 의사 레이블 데이터를 이용하여 2D 모델을 학습시킴으로써 3D 모델의 학습에 따른 추론 시간 증가의 문제를 해소할 수 있다. 나아가, 상기 컴퓨팅 장치는 다양한 축 방향들에 대한 2D 이미지들을 이용하여 상기 2D 모델 (또는, 제1 서브 2D 모델 내지 제3 서브 2D 모델)을 학습시킴으로써 기존 2D 모델에서 검출하기 어려운 뇌의 특정 영역에 대해도 검출 및 ICV 세그먼테이션에 반영시킬 수 있도록 상기 2D 모델을 학습시킬 수 있다. 이를 통해, 상기 컴퓨팅 장치는 ICV와 관련된 세그먼테이션을 출력하는 2D 모델의 학습 등에서의 추론 시간을 최소화하면서 ICV 세그먼테이션의 정확도를 크게 향상시킬 수 있다.
도 10은 컴퓨팅 장치가 2D 모델을 이용하여 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 컴퓨팅 장치는 3D 이미지 데이터를 입력 받을 수 있다 (S111). 컴퓨팅 장치는 도 4 내지 도 9에서 설명한 바와 같이 상기 3D 이미지 데이터로부터 2D 이미지 데이터를 획득할 수 있다 (S113). 컴퓨팅 장치는 상기 2D 이미지 데이터를 2D 이미지에 기반한 2D 모델에 입력하고, 상기 2D 모델로부터 상기 3D 이미지 데이터에 대응하는 ICV 세그먼테이션 정보를 획득할 수 있다 (S115).
예컨대, 상기 컴퓨팅 장치는 상기 3D 이미지 데이터인 3D MRI를 입력 받을 수 있다. 상기 컴퓨팅 장치는 상술한 바와 같이 3D MRI로부터 제1 축 방향에 대한 제1 2D 이미지들, 제2 축 방향에 대한 제2 2D 이미지들 및 제3 축 방향에 대한 제3 2D 이미지들을 포함하는 2D 이미지 데이터를 획득할 수 있다. 상기 컴퓨팅 장치는 상기 획득한 제1 2D 이미지들, 제2 2D 이미지들 및 제3 2D 이미지들 각각을 상기 2D 모델에 입력할 수 있다. 이 경우, 상기 2D 모델은 제1 서브 2D 모델, 제2 서브 2D 모델 및 제3 서브 2D 모델을 포함하고, 도 4 내지 도 9에서 설명한 바와 같이, 각 축 방향에 대한 2D 이미지들이 대응하는 축 방향에 대한 서브 2D 모델에 입력될 수 있다. 2D 모델 (220)은 상술한 바와 같이 각 서브 2D 모델로부터 획득한 제1 출력 이미지들, 제2 출력 이미지 및 제3 출력 이미지들을 앙상블시켜 상기 3D MRI에 대응하는 최종 ICV 마스크를 생성하고, 상기 최종 ICV 마스크에 기반하여 ICV 정보 (ICV 값 또는 ICV 세그먼테이션)를 출력할 수 있다. 상기 컴퓨팅 장치는 상기 ICV 정보에 기초하여 상기 3D MRI에 대응하는 ICV 값을 산출 또는 획득할 수 있다.
한편, 상술 한 바와 같이, 상기 2D 모델은 2D 의사 레이블 데이터를 이용하여 1차 학습 또는 사전 학습되고, 2D 레이블 데이터를 이용하여 2차 학습 또는 파인 튜닝된 ICV 세그먼테이션을 출력하는 모델일 수 있다.
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.
Claims (11)
- 컴퓨팅 장치가 ICV (Intra-cranial volume) 세그먼테이션 정보를 출력하는 방법에 있어서,
3D (3-dimension) 이미지 데이터를 입력 받는 단계; 및
상기 3D 이미지 데이터로부터 획득한 2D 이미지 데이터를 2D 모델에 입력하여 상기 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하는 단계를 포함하고,
상기 2D 모델은 2D 의사 레이블 데이터 (pseudo-label data)를 이용하여 1차 학습되고, 2D 레이블 데이터를 이용하여 2차 학습되고,
상기 2D 의사 레이블 데이터는 3D 패치 (patch) 기반 3D 모델로부터 출력된 ICV 세그먼테이션 예측 정보에 기반하여 생성된, 방법. - 삭제
- 제1항에 있어서,
상기 2D 레이블 데이터는 3D 모델을 학습시킨 3D 레이블 데이터로부터 획득된 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 2D 이미지 데이터는 상기 3D 이미지 데이터로부터 복수의 축 방향들 각각에 대해 획득된 복수의 2D 이미지들을 포함하는 것을 특징으로 하는, 방법 - 제4항에 있어서,
상기 2D 모델은 좌우 축 (Sagittal axis) 방향에 대한 제1 2D 이미지들이 입력되는 제1 서브 2D 모델, 상하축 (Axial axis) 방향에 대한 제2 2D 이미지들이 입력되는 제2 서브 2D 모델 및 전후 축 (Coronal axis) 방향에 대한 제3 2D 이미지들이 입력되는 제3 서브 2D 모델을 포함하는 것을 특징으로 하는, 방법. - 제5항에 있어서,
상기 2D 모델은 상기 제1 서브 2D 모델로부터 제1 출력 이미지들, 상기 제2 서브 2D 모델로부터 제2 출력 이미지들 및 상기 제3 서브 2D 모델로부터 제3 출력 이미지들을 획득하는 것을 특징으로 하는, 방법. - 제6항에 있어서,
상기 2D 모델은 상기 제1 출력 이미지들, 상기 제2 출력 이미지들 및 상기 제3 출력 이미지들을 이용하여 3D ICV 마스크를 생성하는 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 2D 모델은 상기 1차 학습을 통해 사전 학습 (pre-training)되고, 상기 2차 학습을 통해 파인 튜닝 (fine-tune) 되는 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 3D 이미지 데이터는 3D MRI (Magnetic Resonance Imaging)를 포함하는 것을 특징으로 하는, 방법. - 컴퓨팅 장치로 하여금, 제1항 또는 제3항 내지 제9항 중 어느 한 항의 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.
- ICV (Intra-cranial volume) 세그먼테이션 정보를 출력하는 컴퓨팅 장치에 있어서,
통신부; 및
상기 통신부와 연결되는 프로세서를 포함하고,
상기 프로세서는 3D (3-dimension) 이미지 데이터를 입력 받고, 상기 3D 이미지 데이터로부터 획득한 2D 이미지 데이터를 2D 모델에 입력하여 상기 3D 이미지 데이터에 대한 ICV 세그먼테이션 정보를 출력하도록 구성되고,
상기 2D 모델은 2D 의사 레이블 데이터 (pseudo-label data)를 통해 1차 학습되고, 2D 레이블 데이터를 이용하여 상기 2D 모델을 2차 학습되고,
상기 2D 의사 레이블 데이터는 3D 패치 (patch) 기반 3D 모델로부터 출력된 ICV 세그먼테이션 예측 정보에 기반하여 생성된, 컴퓨팅 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184014A KR102595045B1 (ko) | 2021-12-21 | 2021-12-21 | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 |
PCT/KR2022/018460 WO2023121004A1 (ko) | 2021-12-21 | 2022-11-22 | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184014A KR102595045B1 (ko) | 2021-12-21 | 2021-12-21 | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230094671A KR20230094671A (ko) | 2023-06-28 |
KR102595045B1 true KR102595045B1 (ko) | 2023-10-30 |
Family
ID=86902958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210184014A KR102595045B1 (ko) | 2021-12-21 | 2021-12-21 | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102595045B1 (ko) |
WO (1) | WO2023121004A1 (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210265043A1 (en) * | 2020-02-21 | 2021-08-26 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for learning semantics-enriched representations via self-discovery, self-classification, and self-restoration in the context of medical imaging |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013111101A1 (en) * | 2012-01-27 | 2013-08-01 | Koninklijke Philips N.V. | Tumor segmentation and tissue classification in 3d multi-contrast |
-
2021
- 2021-12-21 KR KR1020210184014A patent/KR102595045B1/ko active IP Right Grant
-
2022
- 2022-11-22 WO PCT/KR2022/018460 patent/WO2023121004A1/ko unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210265043A1 (en) * | 2020-02-21 | 2021-08-26 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for learning semantics-enriched representations via self-discovery, self-classification, and self-restoration in the context of medical imaging |
Also Published As
Publication number | Publication date |
---|---|
WO2023121004A1 (ko) | 2023-06-29 |
KR20230094671A (ko) | 2023-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11069056B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
Toennies | Guide to medical image analysis | |
EP3608871B1 (en) | Plane selection using localizer images | |
Wang et al. | Deep learning detection of penumbral tissue on arterial spin labeling in stroke | |
EP2991546B1 (en) | Detection of bone tissue using magnetic resonance imaging | |
US9471987B2 (en) | Automatic planning for medical imaging | |
CN108351395B (zh) | 来自磁共振图像的虚拟ct图像 | |
CN110692107B (zh) | 用于临床决策支持的对原始医学成像数据的机器学习 | |
US11580642B2 (en) | Disease region extraction apparatus, disease region extraction method, and disease region extraction program | |
Saad et al. | Review of brain lesion detection and classification using neuroimaging analysis techniques | |
US11893729B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US11730388B2 (en) | MRI image reconstruction using machine learning | |
Baxter et al. | Validation in the age of machine learning: A framework for describing validation with examples in transcranial magnetic stimulation and deep brain stimulation | |
Dong et al. | Air, bone and soft-tissue segmentation on 3D brain MRI using semantic classification random forest with auto-context model | |
KR102595045B1 (ko) | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 | |
KR102586483B1 (ko) | 인공지능에 의한 의료영상 변환방법 및 그 장치 | |
EP3965117A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
KR102597647B1 (ko) | 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 | |
Raut et al. | Using a generative adversarial network to generate synthetic MRI images for multi-class automatic segmentation of brain tumors | |
KR20230094670A (ko) | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 | |
CN113327224A (zh) | 自动视场(fov)界定的系统和方法 | |
KR20230106359A (ko) | 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 | |
US20240050054A1 (en) | System, method, and computer program product for contrast-enhanced radiology using machine learning | |
US20230293014A1 (en) | Plane selection using localizer images | |
Schiff | Assessing the utilit of lo resolution brain imaging: treatment of infant h drocephalus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |