KR102448395B1 - 치아 영상 부분 변환 방법 및 장치 - Google Patents
치아 영상 부분 변환 방법 및 장치 Download PDFInfo
- Publication number
- KR102448395B1 KR102448395B1 KR1020200114561A KR20200114561A KR102448395B1 KR 102448395 B1 KR102448395 B1 KR 102448395B1 KR 1020200114561 A KR1020200114561 A KR 1020200114561A KR 20200114561 A KR20200114561 A KR 20200114561A KR 102448395 B1 KR102448395 B1 KR 102448395B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- tooth image
- learning
- type
- tooth
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000006243 chemical reaction Methods 0.000 title claims description 40
- 230000009466 transformation Effects 0.000 claims abstract description 63
- 238000011426 transformation method Methods 0.000 claims abstract 3
- 230000001131 transforming effect Effects 0.000 claims abstract 2
- 238000012549 training Methods 0.000 claims description 58
- 230000000873 masking effect Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 description 44
- 239000010410 layer Substances 0.000 description 31
- 230000008569 process Effects 0.000 description 27
- 239000007943 implant Substances 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 230000004913 activation Effects 0.000 description 16
- 238000001994 activation Methods 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 8
- 201000010099 disease Diseases 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 241000282465 Canis Species 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 229910000497 Amalgam Inorganic materials 0.000 description 1
- CYTYCFOTNPOANT-UHFFFAOYSA-N Perchloroethylene Chemical compound ClC(Cl)=C(Cl)Cl CYTYCFOTNPOANT-UHFFFAOYSA-N 0.000 description 1
- 208000008312 Tooth Loss Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 208000002925 dental caries Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 210000004283 incisor Anatomy 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 208000028169 periodontal disease Diseases 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A61B6/14—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C8/00—Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
치아 영상 부분 변환 방법 및 장치가 개시된다. 치아 영상 부분 변환 방법은 치아 영상을 수신하는 단계, 상기 치아 영상의 변환 영역 및 타겟 타입에 대응하는 사용자 입력을 수신하는 단계 및 미리 학습된 생성 모델을 이용하여, 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 단계를 포함할 수 있다.
Description
아래 실시예들은 치아 영상 부분 변환 방법 및 장치에 관한 것으로, 구체적으로 치아 영상에서 변환되어질 부분이 주어졌을 때 가상의 치아, 또는 임플란트 등 사용자가 원하는 상태의 형태를 가상으로 생성해내는 딥 러닝 기반 이미지 프로세싱 알고리즘에 관한 것이다.
의료 현장에서 의료영상을 파악해 치료계획을 수립할 때, 전문의는 환자에게 치료 후의 상태나 치료과정을 보여줄 수 없기 때문에 환자에게 신뢰성을 확보하는 것에 어려움이 있다.
한편, 최근 딥 러닝 기술이 소프트웨어 기술로부터 금융, 경제에 이르기까지 다양한 분야에 응용되고 있으며 특히 컴퓨터 비전 및 영상처리 분야의 비약적인 발전을 선도하는 핵심 기술로 자리 잡고 있다.
이에, 이러한 딥 러닝 기술을 이용하여 치료계획 수립 과정에서, 치료후의 상태나 치료과정의 모습을 보여줄 수 있는 기술이 요구된다.
실시예들은 치아 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환함으로써 환자에게 치료 후의 상태나 치료과정을 보여주고자 한다.
실시예들은 치아 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환하는 딥 러닝 기반의 모델을 학습하고자 한다.
실시예들은 편향된 데이터의 분포를 균형 있게 맞춰주기 위해 가상의 비정상 소견 영역을 생성해 냄으로써 딥 러닝 기반의 모델들의 정확도 향상 및 일반화 성능 개선하고자 한다.
일 실시예에 따른 치아 영상 부분 변환 방법은 치아 영상을 수신하는 단계; 상기 치아 영상의 변환 영역 및 타겟 타입에 대응하는 사용자 입력을 수신하는 단계; 및 미리 학습된 생성 모델을 이용하여, 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 단계를 포함할 수 있다.
상기 출력 치아 영상을 생성하는 단계는 상기 치아 영상의 상기 변환 영역을 마스킹(masking)하는 단계; 및 상기 마스킹된 치아 영상을 상기 타겟 타입에 대응하는 생성 모델에 입력하여, 상기 치아 영상의 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 단계를 포함할 수 있다.
상기 타겟 타입은 추가적인 처리가 진행되지 않은 정상 상태에 대응하는 제1 타입, 치료를 통해 복구된 상태에 대응하는 제2 타입, 비정상 상태에 대응하는 제3 타입 및 치료 중 상태에 대응하는 제4 타입 중 적어도 하나를 포함할 수 있다.
상기 생성 모델은 원본 치아 영상 및 상기 원본 치아 영상에 대응하는 학습 영상을 이용하여 학습되고, 상기 학습 영상은 상기 원본 치아 영상에 포함되는 시맨틱 영역의 타입 별 어노테이션 정보를 포함하는 변환 정보를 통해 상기 원본 치아 영상을 변환하여 생성될 수 있다.
상기 시맨틱 영역은 상기 치아 영상에 포함된 개별 치아 영역에 대응되고, 상기 변환 정보는 정상 상태 타입의 어노테이션 정보, 치료 후 상태 타입의 어노테이션 정보, 비정상 상태 타입의 어노테이션 정보 및 치료 중 상태 타입의 어노테이션 정보 중 적어도 하나를 포함할 수 있다.
상기 학습 영상은 상기 원본 치아 영상에 포함되는 타입별 복수의 시맨틱 영역 중 적어도 하나의 마스킹 대상 영역을 선택하고, 선택된 마스킹 대상 영역을 마스킹함으로써, 상기 원본 치아 영상으로부터 생성될 수 있다.
일 실시예에 따른 생성 모델 학습 방법은 하나 이상의 원본 치아 영상을 수신하는 단계; 상기 원본 치아 영상으로부터 획득한 변환 정보에 기초하여, 상기 원본 치아 영상을 학습 영상으로 변환하는 단계; 및 상기 원본 치아 영상 및 상기 원본 치아 영상에 대응하는 상기 학습 영상을 이용하여 하나 이상의 생성 모델을 학습하는 단계를 포함할 수 있다.
상기 학습 영상으로 변환하는 단계는 상기 원본 치아 영상에 포함된 하나 이상의 시맨틱(semantic) 영역의 타입 별 어노테이션(annotation) 정보를 획득하는 단계; 상기 타입별 어노테이션 정보에 기초하여, 상기 시맨틱 영역 중 마스킹 대상 영역을 결정하는 단계; 및 상기 원본 치아 영상에서 상기 마스킹 대상 영역을 마스킹함으로써, 상기 원본 치아 영상을 상기 학습 영상으로 변환하는 단계를 포함할 수 있다.
상기 학습 영상으로 변환하는 단계는 상기 원본 치아 영상을 상기 원본 치아 영상의 타입 별 학습 영상으로 변환하는 단계를 포함할 수 있다.
상기 생성 모델을 학습하는 단계는 상기 원본 치아 영상 및 상기 원본 치아 영상의 타입 별 학습 영상을 이용하여, 상기 타입 별로 구비된 생성 모델을 학습하는 단계를 포함할 수 있다.
일 실시예에 따른 치아 영상 부분 변환 장치는 치아 영상을 수신하고, 변환 영역 및 타겟 타입에 대응하는 사용자 입력을 수신하고, 상기 치아 영상의 상기 변환 영역을 마스킹하며, 상기 마스킹된 영상을 상기 타겟 타입에 대응하는 생성 모델에 입력하여 상기 치아 영상의 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 프로세서를 포함할 수 있다.
일 실시예에 따른 생성 모델 학습 장치는 하나 이상의 원본 치아 영상을 수신하고, 상기 원본 치아 영상의 변환 정보를 획득하고, 상기 변환 정보에 기초하여, 상기 원본 치아 영상을 학습 영상으로 변환하며, 상기 원본 치아 영상 및 상기 원본 치아 영상에 대응하는 상기 학습 영상을 이용하여 하나 이상의 생성 모델을 학습하는 프로세서를 포함할 수 있다.
실시예들은 의료 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환함으로써 환자에게 치료 후의 상태나 치료과정을 보여줄 수 있다.
실시예들은 의료 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환하는 딥 러닝 기반의 모델을 학습할 수 있다.
실시예들은 편향된 데이터의 분포를 균형 있게 맞춰주기 위해 가상의 비정상 소견 영역을 생성해 냄으로써 딥 러닝 기반의 모델들의 정확도 향상 및 일반화 성능 개선할 수 있다.
도 1은 일 실시예에 따른 치아 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환함으로써 환자에게 치료 후의 상태나 치료과정을 보여주는 예시를 도시한 도면이다.
도 2는 일 실시예에 따른 생성 모델 학습 장치와 치아 영상 부분 변환 장치 사이의 관계를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 뉴럴 네트워크에서 수행되는 연산을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 치아 영상의 부분 변환 방법을 설명하기 위한 순서도이다.
도 5는 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 순서도이다.
도 6은 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 예시를 도시한 도면이다.
도 7은 일 실시예에 치아 영상 부분 변환 장치를 설명하기 위한 블록도이다.
도 8은 일 실시예에 생성 모델 학습 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 생성 모델 학습 장치와 치아 영상 부분 변환 장치 사이의 관계를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 뉴럴 네트워크에서 수행되는 연산을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 치아 영상의 부분 변환 방법을 설명하기 위한 순서도이다.
도 5는 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 순서도이다.
도 6은 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 예시를 도시한 도면이다.
도 7은 일 실시예에 치아 영상 부분 변환 장치를 설명하기 위한 블록도이다.
도 8은 일 실시예에 생성 모델 학습 장치를 설명하기 위한 블록도이다.
본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의에"와 "바로~간의에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시 된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. 예를 들어 "영상"은 X선 영상, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피사체, 즉 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 발명의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 영상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 영상의 디지털 표현물을 지칭하는 용어이다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; picture archiving and communication system)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.
도 1은 일 실시예에 따른 치아 영상에서 정해진 영역을 치료 후의 상태나 치료 과정의 모습으로 변환함으로써 환자에게 치료 후의 상태나 치료과정을 보여주는 예시를 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 치아 영상(100)은 환자의 치료 전 치아를 촬영한 CT 영상 또는 X선 파노라마 영상일 수 있다. 본원 발명에서 지칭하는 치아 영상은 앞서 설명된 예시적인 영상 이외에도 일반적으로 치아를 대상으로 하는 임의의 영상을 지칭할 수 있음은 통상의 기술자가 이해할 것이다. 전술한 바와 같이, 종래에는 의사가 환자에게 치료 후의 상태나 치료 과정을 보여줄 수 없는 문제가 있었다. 일 실시예에 따른 치아 영상 부분 변환 장치는 딥 러닝 기술을 이용하여 치료계획 수립 과정에서, 치료후의 상태나 치료과정의 모습을 보여줄 수 있다.
일 실시예에 따른 치아 영상 부분 변환 장치는 치아 영상에서 변환되어질 부분이 주어졌을 때 해당 부분(또는, 영역)을 사용자가 원하는 상태의 형태를 가상으로 생성하는 딥 러닝 기반의 이미지 프로세싱 장치일 수 있다.
예를 들어, 치아 영상 부분 변환 장치는 치아 영상(100)의 치아 손실 영역이 치료 후의 치아 또는 치료 과정 중의 치아로 변환된 출력 치아 영상(150)을 생성할 수 있다. 출력 치아 영상은 도 1의 출력 치아 영상(150)처럼 치아 영상(100)과 독립적인 형태일 수도 있고, 또는 치아 영상(100)에 출력 치아 영상(150)이 합성된 형태(160)일 수도 있다.
치아 영상 부분 변환 장치는 뉴럴 네트워크 기반의 생성 모델을 포함할 수 있다. 뉴럴 네트워크 기반의 생성 모델은 딥 러닝에 기반하여 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 출력 영상을 생성할 수 있다.
딥 러닝은 빅 데이터 세트로부터 영상 또는 음성 인식과 같은 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 최적화 문제 풀이 과정으로 이해될 수 있다. 딥 러닝의 지도식(supervised) 또는 비지도식(unsupervised) 학습을 통해 뉴럴 네트워크의 구조, 혹은 모델에 대응하는 가중치(weight)가 구해질 수 있고, 이러한 가중치를 통해 입력 데이터 및 출력 데이터가 서로 매핑될 수 있다.
생성 모델은 생성 모델 학습 장치를 통해 구축될 수 있다. 생성 모델을 구축하는 것은, 생성 모델과 연관된 뉴럴 네트워크를 학습하는 과정을 의미할 수 있다. 생성 모델을 구축할 때에 치아 영상의 특성상 비정상 소견의 데이터 확보에 어려움이 있을 수 있고, 데이터 편향으로 인해 생성 모델의 성능 저하가 발생할 수 있다.
일 실시예에 따른 생성 모델 학습 장치는 편향된 데이터의 분포를 균형 있게 맞추기 위해 학습 데이터 내에 가상의 비정상 소견 영역을 생성할 수 있고, 이를 통해 뉴럴 네트워크 기반의 생성 모델의 정확도를 향상시킬 수 있고 일반화 성능을 개선시킬 수 있다. 아래에서, 도 2를 참조하여 생성 모델 학습 장치와 치아 영상 부분 변환 장치 사이의 관계를 설명한다.
도 2는 일 실시예에 따른 생성 모델 학습 장치와 치아 영상 부분 변환 장치 사이의 관계를 설명하기 위한 도면이다.
도 2를 참조하면, 일 실시예에 따른 생성 모델 학습 장치(200)는 뉴럴 네트워크를 생성하거나, 뉴럴 네트워크를 훈련(train)(또는 학습(learn))하거나, 뉴럴 네트워크를 재훈련(retrain)하는 기능들과 같은 다양한 프로세싱 기능들을 갖는 컴퓨팅 디바이스에 해당된다. 예를 들어, 생성 모델 학습 장치(200)는 PC(personal computer), 서버 디바이스, 모바일 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있다.
생성 모델 학습 장치(200)는 주어진 초기 뉴럴 네트워크를 반복적으로 훈련(학습)시킴으로써, 훈련된 뉴럴 네트워크(210)를 생성할 수 있다. 훈련된 뉴럴 네트워크(210)를 생성하는 것은 뉴럴 네트워크 파라미터를 결정하는 것을 의미할 수 있다. 여기서, 파라미터들은 예를 들어 뉴럴 네트워크의 입/출력 액티베이션들, 웨이트들, 바이어스들 등 뉴럴 네트워크에 입/출력되는 다양한 종류의 데이터를 포함할 수 있다. 뉴럴 네트워크의 반복적인 훈련이 진행됨에 따라, 뉴럴 네트워크의 파라미터들은 주어진 입력에 대해 보다 정확한 출력을 연산하기 위해 조정될(tuned) 수 있다.
생성 모델 학습 장치(250)는 훈련된 뉴럴 네트워크(210)를 치아 영상 부분 변환 장치(250)에 전달할 수 있다. 치아 영상 부분 변환 장치(250)는 모바일 디바이스, 임베디드(embedded) 디바이스 등에 포함될 수 있다. 치아 영상 부분 변환 장치(250)는 뉴럴 네트워크의 구동을 위한 전용 하드웨어일 수 있다.
치아 영상 부분 변환 장치(250)는 훈련된 뉴럴 네트워크(210)를 그대로 구동하거나, 훈련된 뉴럴 네트워크(210)가 가공(예를 들어, 양자화)된 뉴럴 네트워크(260)를 구동할 수 있다. 가공된 뉴럴 네트워크(260)를 구동하는 치아 영상 부분 변환 장치(250)는, 생성 모델 학습 장치(200)와는 별도의 독립적인 디바이스에서 구현될 수 있다. 하지만, 이에 제한되지 않고, 치아 영상 부분 변환 장치(250)는 생성 모델 학습 장치(200)와 동일한 디바이스 내에도 구현될 수 있다.
도 3은 일 실시예에 따른 뉴럴 네트워크에서 수행되는 연산을 설명하기 위한 도면이다.
도 3을 참조하면, 뉴럴 네트워크(300)는 입력 레이어, 히든 레이어들 및 출력 레이어를 포함하는 구조를 가지며, 수신되는 입력 데이터(예를 들어, I1 및 I2)를 기초로 연산을 수행하고, 수행 결과를 기초로 출력 데이터(예를 들어, O1 및 O2)를 생성할 수 있다.
뉴럴 네트워크(300)는 2개 이상의 히든 레이어들을 포함하는 DNN 또는 n-계층 뉴럴 네트워크일 수 있다. 예를 들어, 도 2에 도시된 바와 같이, 뉴럴 네트워크(300)는 입력 레이어(Layer 1), 2개의 히든 레이어들(Layer 2 및 Layer 3) 및 출력 레이어(Layer 4)를 포함하는 DNN일 수 있다. DNN은 Convolutional Neural Networks(CNN), Recurrent Neural Networks(RNN), Deep Belief Networks, Restricted Boltzman Machines 등을 포함할 수 있으나, 이에 제한되지 않는다.
뉴럴 네트워크(300)가 DNN 아키텍처로 구현된 경우 유효한 정보를 처리할 수 있는 보다 많은 레이어들을 포함하므로, 뉴럴 네트워크(300)는 싱글 레이어를 갖는 뉴럴 네트워크보다 복잡한 데이터 집합들을 처리할 수 있다. 한편, 뉴럴 네트워크(300)는 4개의 레이어들을 포함하는 것으로 도시되어 있으나, 이는 예시에 불과할 뿐 뉴럴 네트워크(300)는 더 적거나 많은 레이어들을 포함하거나, 더 적거나 많은 채널들을 포함할 수 있다. 즉, 뉴럴 네트워크(300)는 도 3에 도시된 것과는 다른, 다양한 구조의 레이어들을 포함할 수 있다.
뉴럴 네트워크(300)에 포함된 레이어들 각각은 복수의 채널들을 포함할 수 있다. 채널은 뉴런(neuron), 프로세싱 엘리먼트(Processing element, PE), 유닛(unit) 또는 이와 유사한 용어들로 알려진, 복수의 인공 노드(artificial node)들에 해당될 수 있다. 예를 들어, 도 3에 도시된 바와 같이, Layer 1은 2개의 채널들(노드들), Layer 2 및 Layer 3 각각은 3개의 채널들을 포함할 수 있다. 다만, 이는 예시에 불과할 뿐 뉴럴 네트워크(300)에 포함된 레이어들 각각은 다양한 개수의 채널들(노드들)을 포함할 수 있다.
뉴럴 네트워크(300)의 레이어들 각각에 포함된 채널들은 서로 연결되어 데이터를 처리할 수 있다. 예를 들어, 하나의 채널은 다른 채널들로부터 데이터를 수신하여 연산할 수 있고, 연산 결과를 또 다른 채널들로 출력할 수 있다.
채널들 각각의 입력 및 출력 각각은 입력 액티베이션 및 출력 액티베이션이라고 지칭될 수 있다. 즉, 액티베이션은 한 채널의 출력임과 동시에, 다음 레이어에 포함된 채널들의 입력에 해당되는 파라미터일 수 있다. 한편, 채널들 각각은 이전 레이어에 포함된 채널들로부터 수신된 액티베이션들 및 웨이트 및 바이어스에 기초하여 자신의 액티베이션을 결정할 수 있다. 웨이트는 각 채널에서의 출력 액티베이션을 계산하기 위해 이용되는 파라미터로서, 채널들 간의 연결관계에 할당되는 값일 수 있다.
채널들 각각은 입력을 수신하여 출력 액티베이션을 출력하는 연산 유닛(computational unit) 또는 프로세싱 엘리먼트(processing element)에 의해 처리될 수 있고, 채널들 각각의 입력-출력은 매핑될 수 있다. 예를 들어, σ는 활성화 함수(activation function)이고, 는 (i-1) 번째 레이어에 포함된 k 번째 노드로부터 i 번째 레이어에 포함된 j번째 노드로의 웨이트이며, 는 i 번째 레이어에 포함된 j 번째 노드의 바이어스(bias) 값이고, 는 i 번째 레이어의 j 번째 노드의 액티베이션이라고 할 때, 액티베이션 는 다음과 같은 수학식 1을 따를 수 있다.
도 3에 도시된 바와 같이, 2번째 레이어(Layer 2)의 첫 번째 채널(CH 1)의 액티베이션은 로 표현될 수 있다. 또한, 은 수학식 1에 따라 의 값을 가질 수 있다. 다만, 앞서 설명한 수학식 1은 뉴럴 네트워크(300)에서 데이터를 처리하기 위해 이용되는 액티베이션 및 웨이트 및 바이어스를 설명하기 위한 예시일 뿐, 이에 제한되지 않는다. 액티베이션은 이전 레이어로부터 수신된 액티베이션들의 가중치 합(weighted sum)을 sigmoid 함수나 Rectified Linear Unit (ReLU) 함수 등의 액티베이션 함수에 통과시킴으로써 획득된 값일 수 있다.
도 4는 일 실시예에 따른 치아 영상의 부분 변환 방법을 설명하기 위한 순서도이다.
도 4를 참조하면, 일 실시예에 따른 단계들(410 내지 440)은 도 1 내지 도 3을 참조하여 전술한 치아 영상 부분 변환 장치(250)에 의해 수행될 수 있다. 치아 영상 부분 변환 장치(250)는 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.
단계(410)에서, 치아 영상 부분 변환 장치(250)는 치아 영상을 수신한다. 예를 들어, 치아 영상 부분 변환 장치(250)는 환자의 치료 전 치아를 촬영한 CT 영상을 수신할 수 있다.
단계(420)에서, 치아 영상 부분 변환 장치(250)는 변환 영역 및 타겟 타입에 대한 사용자 입력을 수신한다. 변환 영역은 치아 영상에서 변환되어질 영역이고, 타겟 타입은 변환될 타입을 의미할 수 있다. 예를 들어, 임플란트 식립 치료를 하는 경우, 의사는 치아 영상 부분 변환 장치(250)의 출력 인터페이스(예를 들어, 모니터)에 표시된 치아 CT 영상에서 입력 인터페이스(예를 들어, 마우스)를 이용하여 임플란트를 식립할 영역을 사각형태로 지정할 수 있고, 타겟 타입을 임플란트로 입력할 수 있다.
일 실시예에 따른 타입은 정상 상태, 비정상 상태 및 치료 중 상태를 포함할 수 있다. 정상 상태는 추가적인 처리가 진행되지 않은 정상 치아에 대응하는 정상 상태, 치료를 통해 복구된 정상 상태(예를 들어, 정상 상태는 아말감 충치 치료, 임플란트 등 임의의 치료가 완료된 정상 상태 치아일 수 있다.)로 분류될 수 있다. 비정상 상태는 비정상 유형(예를 들어, 질환 명)에 따라 분류될 수 있다. 치료 중 상태는 치료 종류 및 치료 기간의 조합에 따라 분류될 수 있다. 예들 들어, 치료 종류는 임플란트 식립, 치주 질환 치료, 충치 치료 등 치과 치료에서 수행될 수 있는 임의의 치료를 포함할 수 있으며, 치료 기간은 초반기, 중반기, 종반기 등으로 나뉠 수 있다. 다만, 치료 종류 및 기간에 관한 설명은 이해를 돕기 위한 예시적 기재일 뿐, 이에 한정하는 것으로 해석되어서는 안될 것이다. 또한, 앞서 설명된 식립할 영역의 형태와 같은 예시적인 인터페이스는 설명을 위한 것에 불과할 뿐, 본원 발명이 이에 한정되어 해석되지 않음은 통상의 기술자가 이해할 것이다.
단계(430)에서, 치아 영상 부분 변환 장치(250)는 치아 영상의 변환 영역을 마스킹(masking)한다.
단계(440)에서, 치아 영상 부분 변환 장치(250)는 마스킹된 영상을 타겟 타입에 대응하는 생성 모델에 입력하여, 치아 영상의 변환 영역이 타겟 타입으로 변환된 가상 영상인 출력 치아 영상을 생성한다. 이를 통해, 치아 영상 부분 변환 장치(250)는 치료 과정 또는 치료 후의 결과 시나리오를 제시할 수 있다.
예시적으로, 사용자 입력에 기초하여 변환 영역이 하악 우측 송곳니 영역으로 결정되고, 임플란트 식립 치료에 대응하는 타겟 타입이 결정된 경우, 치아 영상 부분 변환 장치(250)는 미리 학습된 생성 모델을 이용하여, 하악 우측 송곳니 영역에 가상의 임플란트가 식립된 형태의 가상 영상을 생성하고, 생성된 가상 영상을 출력 치아 영상으로써 출력할 수 있다. 또한, 타겟 타입 상에서 임플란트 식립 치료 기간이 중반기로 결정된 경우, 치아 영상 부분 변환 장치(250)는 임플란트 식립 치료가 이루어진 후 중반기에 해당하는 기간(예를 들어 2개월)이 소요된 형태의 가상 영상을 생성할 수 있다. 치료 기간은 예시된 바와 같이 기수 별로 입력되는 경우 뿐만 아니라, 구체적인 기간을 입력하는 방식을 통해 구현될 수 있음은 통상의 기술자가 이해할 것이다. 입력된 치료 기간에 따라 서로 다른 가상 영상을 생성함으로써, 치아 영상 부분 변환 장치(250)는 치료 결과 뿐만 아니라 치료 경과에 대한 예측 영상을 제공할 수 있어, 환자의 신뢰성을 향상시킬 수 있다.
일 실시예에 따르면, 치아 영상 부분 변환 장치(250)는 변환 영역의 크기에 따라 서로 다른 형태의 가상 영상을 생성할 수 있다. 변환 영역의 크기는 인터페이스를 통해 사용자가 자유롭게 조절할 수 있는 방식이 이용될 수 있다. 예를 들어, 치아 영상 변환 장치(250)는 변환 영역의 크기에 따라 가상 영상에 포함되는 치아(또는 임플란트 등)의 크기를 조절할 수 있다. 또한, 치아 영상 부분 변환 장치(250)는 변환 영역의 크기에 따라 서로 다른 개수의 치아(또는 임플란트 등)이 추가된 가상 영상을 생성할 수 있다. 예를 들어, 변환 영역의 크기가 소정의 임계치를 초과하는 경우, 치아 영상 변환 장치(250)는 해당 영역에 2개의 정상 치아를 포함하는 가상 영상을 생성하고, 변환 영역의 크기가 소정의 임계치 이하인 경우, 해당 영역에 1개의 정상 치아를 포함하는 가상 영상을 생성할 수 있다.
앞선 예시에서, 변환 영역의 크기에 따라 합성되는 치아의 개수, 크기가 조절되는 방식은 예시적인 것에 불과하고, 변환 영역에 크기에 따라 합성되는 치아의 개수 및 크기가 조절되는 임의의 방식으로 본원 발명은 확장될 수 있다. 예를 들어, 영역 별로 임계치는 조절됨으로써, 소정의 크기의 변환 영역이 어금니 영역에 형성되는 경우, 1개의 어금니 형태의 정상 치아가 변환 영역에 합성되지만, 소정의 크기의 변환 영역이 앞니 영역에 해당하는 경우, 2개의 앞니 형태의 치아가 변환 영역에합성될 수도 있다. 변환 영역의 위치에 따라 어금니, 송곳니 등 적합한 치아가 형성될 수 있다. 또한, 앞서 설명된 방식과 같이 본원 발명은 변환 영역의 위치에 따라 변환 영역에 적합한 크기, 형태의 치아가 합성되도록 구현될 수 있음은 통상의 기술자가 이해할 것이다.
생성 모델은 타겟 타입 별로 구축될 수 있다. 아래에서, 도 5 내지 도 6을 참조하여 생성 모델을 구축하는 방법을 설명한다.
도 5는 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 순서도이다.
도 5를 참조하면, 일 실시예에 따른 단계들(510 내지 540)은 도 1 내지 도 3을 참조하여 전술한 생성 모델 학습 장치(200)에 의해 수행될 수 있다. 생성 모델 학습 장치(200)는 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.
단계(510)에서, 생성 모델 학습 장치(200)는 하나 이상의 원본 치아 영상을 수신한다. 원본 치아 영상은 생성 모델 학습을 위해 수집된 다양한 치아 영상일 수 있다.
단계(520)에서, 생성 모델 학습 장치(200)는 원본 치아 영상의 변환 정보를 획득한다. 원본 치아 영상의 변환 정보는 원본 치아 영상에 포함된 하나 이상의 시맨틱(semantic) 영역의 타입 별 어노테이션(annotation) 정보를 포함할 수 있다. 시맨틱 영역은 원본 치아 영상에서 치아, 잇몸 등과 같은 특징들을 갖는 의미론적으로 표지된 상태 공간을 의미할 수 있다. 시맨틱 영역의 타입 별 어노테이션 정보는 시맨틱 영역 각각에 대응하는 타입 및 위치 정보(예를 들어, 좌표)를 의미할 수 있다. 여기서, 타입은 도 4를 참조하여 전술한 타입으로, 중복되는 내용의 설명은 생략한다.
단계(530)에서, 생성 모델 학습 장치(200)는 변환 정보에 기초하여, 원본 치아 영상을 학습 영상으로 변환한다. 생성 모델 학습 장치(200)는 원본 치아 영상을 원본 치아 영상의 타입 별 학습 영상으로 변환할 수 있다. 보다 구체적으로, 생성 모델 학습 장치(200)는 타입 별 어노테이션 정보에 기초하여, 원본 치아 영상을 특정 영역이 마스킹된 하나 이상의 학습 영상으로 변환할 수 있다. 생성 모델 학습 장치는 타입별 어노테이션 정보에 기초하여 복수의 시맨틱 영역 중 적어도 하나의 시맨틱 영역을 마스킹 대상 영역으로 결정하고, 원본 치아 영상에서 마스킹 대상 영역을 마스킹함으로써 원본 치아 영상을 학습 영상으로 변환할 수 있다. 생성 모델 학습 장치(200)는 복수의 시맨틱 영역 중 적어도 하나의 시맨틱 영역을 마스킹 대상 영역으로 결정하고, 해당 영역을 마스킹하는 동작을 반복적으로 수행함으로써 단일 원본 치아 영상으로부터 다양한 형태의 학습 영상을 생성할 수 있다. 예를 들어, 위 설명된 생성 동작을 통해 서로 다른 영역이 마스킹된 다양한 형태의 복수의 학습 영상이 생성될 수 있다. 생성 모델 학습 장치(200)는 앞서 설명된 방식을 통해 간이한 데이터 증강(data augmentation) 수단을 제공할 수 있다. 학습 영상으로 변환하는 과정은 타입별로 진행될 수 있다. 예를 들어, 생성 모델 학습 장치(200)는 타입에 따라서 원본 치아 영상에서 정상 치아 영역이 마스킹된 학습 영상을 생성하거나, 원본 치아 영상에서 임플란트 식립 영역이 마스킹된 학습 영상을 생성할 수 있다.
단계(540)에서, 생성 모델 학습 장치(200)는 원본 치아 영상 및 원본 치아 영상에 대응하는 학습 영상을 이용하여 하나 이상의 생성 모델을 학습한다. 뉴럴 네트워크 학습의 목적은 손실 함수를 최소화하는 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 파라미터를 결정하기 위한 지표로 이용될 수 있다. 일 실시예에 따른 손실 함수는 원본 치아 영상과 학습 영상에 기초하여 출력된 뉴럴 네트워크의 출력 치아 영상의 차이로 정의할 수 있고, 생성 모델 학습 장치(200)는 원본 치아 영상과 학습 영상에 기초하여 출력된 뉴럴 네트워크의 출력 치아 영상의 차이를 최소화하는 파라미터를 결정할 수 있다. 예를 들어, 원본 치아 영상과 출력 치아 영상의 차이는 원본 치아 영상의 시맨틱 영역의 픽셀값과 출력 영상의 시맨틱 영역의 픽셀값의 차이에 기초하여 결정될 수 있으며, 이를 통해, 생성 모델 학습 장치(200)는 원본 치아 영상 및 원본 치아 영상의 타입 별 학습 영상을 이용하여, 타입 별로 구비된 생성 모델을 학습할 수 있다.
도 6은 일 실시예에 따른 생성 모델 학습 방법을 설명하기 위한 예시를 도시한 도면이다.
도 6을 참조하면, 일 실시예에 따른 생성 모델 학습 장치(200)는 원본 치아영상(610)을 수신할 수 있다. 나아가, 생성 모델 학습 장치(200)는 원본 치아 영상(610)의 변환 정보(620)를 획득할 수 있다. 변환 정보(620)는 전술한 바와 같이 시맨틱 영역의 타입 정보 및 위치 정보를 포함할 수 있다.
보다 구체적으로, 변환 정보(620)는 정상 상태 타입(정상 치아 타입)의 어노테이션 정보(621), 치료 후 상태 타입(치료 후 치아 타입)의 어노테이션 정보(622), 임플란트 스크류 타입의 어노테이션 정보(623)를 포함할 수 있다. 도 6에서 제시된 타입은 예시적인 것에 불과하고, 타입은 질환이 존재하는 치아에 대응하는 타입으로써, 질환별로 분류되는 타입들, 치료 또는 질환의 종류와 더불어, 치료 또는 질환이 진행된 정도에 대한 정보에 기초하여 결정되는 타입들(임플란트 식립 후 1달이 경과한 상태에 대한 타입, 임플란트 식립 후 2달이 경과한 상태에 대한 타입 등)과 같이 다양한 타입들로 구현될 수 있다.
생성 모델 학습 장치(200)는 변환 정보(620)에 기초하여, 원본 치아 영상을 학습 영상으로 변환할 수 있다. 예를 들어, 생성 모델 학습 장치(200)는 정상 치아 타입의 어노테이션 정보(621)에 대응하는 학습 영상(631), 치료 후 치아 타입의 어노테이션 정보(622)에 대응하는 학습 영상(632), 임플란트 스크류 타입의 어노테이션 정보(623)에 대응하는 학습 영상(632)을 획득할 수 있다.
생성 모델 학습 장치(200)는 원본 치아 영상(610)에서 주어진 타입의 총 N개의 시맨틱 영역 중 임의의 시맨틱 영역을 마스킹 대상 영역으로 선택하여 해당 영역이 마스킹된 학습 영상을 획득할 수 있다. 예를 들어, 생성 모델 학습 장치(200)는 치료 후 치아 타입의 시맨틱 영역의 4개의 시맨틱 영역 중 임의의 시맨틱 영역을 마스킹 대상 영역으로 선택하여, 해당 영역이 마스킹된 학습 영상을 획득할 수 있다. 이 때, 생성 모델 학습 장치(200)가 선택할 수 있는 시맨틱 영역의 조합은 총 15개일 수 있다. 이를 통해, 생성 모델 학습 장치(200)는 하나의 원본 치아 영상(610)에서 다양한 학습 영상을 확보할 수 있다.
생성 모델 학습 장치(200)는 원본 치아 영상(610)과 학습 영상을 이용하여 각각의 타입 별 생성 모델을 학습할 수 있다. 예를 들어, 원본 치아 영상(610)과 정상 치아 타입의 생성 모델(641)의 출력 치아 영상(651)의 차이가 최소화되도록 정상 치아 타입의 생성 모델(641)을 학습할 수 있다. 또한, 원본 치아 영상(610)과 치료 후 치아 타입의 생성 모델(642)의 출력 치아 영상(652)의 차이가 최소화되도록 정상 치아 타입의 생성 모델(642)을 학습할 수 있다. 마찬가지로, 원본 치아 영상(610)과 임플란트 스크류 타입의 생성 모델(643)의 출력 치아 영상(653)의 차이가 최소화되도록 정상 치아 타입의 생성 모델(643)을 학습할 수 있다.
생성 모델 학습 장치(200)는 학습된 타입 별 생성 모델(641, 642, 643)을 치아 영상 부분 변환 장치(250)에 전달할 수 있고, 치아 영상 부분 변환 장치(250)는 학습된 타입 별 생성 모델(641, 642, 643)에 기초하여 가상 영상을 출력 치아 영상으로 생성할 수 있다.
도 7은 일 실시예에 치아 영상 부분 변환 장치를 설명하기 위한 블록도이다.
도 7을 참조하면, 일 실시예에 따른 치아 영상 부분 변환 장치(700)는 프로세서(720)를 포함한다. 치아 영상 부분 변환 장치(700)는 메모리(710) 및 통신 인터페이스(730)를 더 포함할 수 있다. 프로세서(720), 메모리(710) 및 통신 인터페이스(730)는 통신 버스(미도시)를 통해 서로 통신할 수 있다.
프로세서(720)는 치아 영상을 수신하고, 변환 영역 및 타겟 타입을 수신하고, 치아 영상의 변환 영역을 마스킹하며, 마스킹된 영상을 타겟 타입에 대응하는 생성 모델에 입력하여 치아 영상의 변환 영역이 타겟 타입으로 변환된 가상 영상을 생성한다.
메모리(710)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
이 밖에도, 프로세서(720)는 프로그램을 실행하고, 치아 영상 부분 변환 장치(700)를 제어할 수 있다. 프로세서(720)에 의하여 실행되는 프로그램 코드는 메모리(710)에 저장될 수 있다. 치아 영상 부분 변환 장치(700)는 입출력 장치(미도시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 치아 영상 부분 변환 장치(700)는 서버에 탑재될 수 있다.
도 8은 일 실시예에 생성 모델 학습 장치를 설명하기 위한 블록도이다.
도 8을 참조하면, 일 실시예에 따른 생성 모델 학습 장치(800)는 프로세서(820)를 포함한다. 생성 모델 학습 장치(800)는 메모리(810) 및 통신 인터페이스(830)를 더 포함할 수 있다. 프로세서(820), 메모리(810) 및 통신 인터페이스(830)는 통신 버스(미도시)를 통해 서로 통신할 수 있다.
프로세서(820)는 하나 이상의 원본 치아 영상을 수신하고, 원본 치아 영상의 변환 정보를 획득하고, 변환 정보에 기초하여, 원본 치아 영상을 학습 영상으로 변환하며, 원본 치아 영상 및 원본 치아 영상에 대응하는 학습 영상을 이용하여 하나 이상의 생성 모델을 학습한다.
메모리(810)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
이 밖에도, 프로세서(820)는 프로그램을 실행하고, 생성 모델 학습 장치(800)를 제어할 수 있다. 프로세서(820)에 의하여 실행되는 프로그램 코드는 메모리(810)에 저장될 수 있다. 생성 모델 학습 장치(800)는 입출력 장치(미도시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 생성 모델 학습 장치(800)는 서버에 탑재될 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (14)
- 컴퓨팅 장치에 의해 수행되는 치아 영상 부분 변환 방법에 있어서,
치아 영상을 수신하는 단계;
상기 치아 영상의 변환 영역 및 타겟 타입에 대응하는 사용자 입력을 수신하는 단계; 및
미리 학습된 생성 모델을 이용하여, 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 단계를 포함하고,
상기 출력 치아 영상은 상기 변환 영역이 상기 타겟 타입에 대응한 치료 기간이 경과할 경우에 예측된 치료 중 치아 영상으로 변환된, 치아 영상 부분 변환 방법. - 제1항에 있어서,
상기 출력 치아 영상을 생성하는 단계는,
상기 치아 영상의 상기 변환 영역을 마스킹(masking)하는 단계; 및
상기 마스킹된 치아 영상을 상기 타겟 타입에 대응하는 생성 모델에 입력하여, 상기 치아 영상의 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 단계
를 포함하는 치아 영상 부분 변환 방법. - 제1항에 있어서,
상기 타겟 타입은 치료 종류 및 치료 기간에 따라 복수의 타겟 타입들로 구분된, 치아 영상 부분 변환 방법. - 제1항에 있어서,
상기 미리 학습된 생성 모델은, 원본 치아 영상으로부터 변환된 학습 영상에 기초하여 미리 학습되고,
상기 학습 영상은, 상기 원본 치아 영상에 포함되는 시맨틱 영역의 타입 별 어노테이션 정보를 포함하는 변환 정보를 이용하여, 상기 원본 치아 영상을 변환함으로써 생성되는, 치아 영상 부분 변환 방법. - 제4항에 있어서,
상기 시맨틱 영역은,
상기 치아 영상에 포함된 개별 치아 영역에 대응되고,
상기 변환 정보는, 치료 종류 및 치료 기간에 따라 구분된 복수의 타겟 타입들 각각에 대한 어노테이션 정보를 포함하는, 치아 영상 부분 변환 방법. - 제4항에 있어서,
상기 학습 영상은,
상기 원본 치아 영상에 포함되는 타입별 복수의 시맨틱 영역으로부터 선택된 적어도 하나의 마스킹 대상 영역을 마스킹함으로써, 상기 원본 치아 영상으로부터 생성되는, 치아 영상 부분 변환 방법.
- 제6항에 있어서,
상기 학습 영상은,
상기 복수의 시맨틱 영역으로부터 적어도 하나의 마스킹 대상 영역을 결정하고, 상기 결정된 마스킹 대상 영역을 마스킹하는 동작을 반복함으로써 생성되고,
상기 학습 영상은, 서로 다른 영역이 마스킹된 둘 이상의 영상을 포함하는, 치아 영상 부분 변환 방법. - 제1항의 방법을 수행하기 위한 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장매체.
- 하나 이상의 원본 치아 영상을 수신하는 단계;
상기 원본 치아 영상으로부터 획득한 변환 정보에 기초하여, 상기 원본 치아 영상을 학습 영상으로 변환하는 단계; 및
상기 원본 치아 영상 및 상기 원본 치아 영상에 대응하는 상기 학습 영상을 이용하여 하나 이상의 생성 모델을 학습하는 단계를 포함하고,
상기 하나 이상의 생성 모델은 상기 학습 영상에 기초하여 치료 기간 별로 대응하는 치아 영상을 예측하도록 학습되는 생성 모델 학습 방법. - 제9항에 있어서,
상기 학습 영상으로 변환하는 단계는,
상기 원본 치아 영상에 포함된 하나 이상의 시맨틱(semantic) 영역의 변환 타입 별 어노테이션(annotation) 정보를 획득하는 단계;
상기 변환 타입 별 어노테이션 정보에 기초하여, 상기 시맨틱 영역 중 마스킹 대상 영역을 결정하는 단계; 및
상기 원본 치아 영상에서 상기 마스킹 대상 영역을 마스킹함으로써, 상기 원본 치아 영상을 상기 학습 영상으로 변환하는 단계를 포함하는, 생성 모델 학습 방법. - 제9항에 있어서,
상기 학습 영상으로 변환하는 단계는
상기 원본 치아 영상을 상기 원본 치아 영상의 변환 타입 별 학습 영상으로 변환하는 단계
를 포함하고,
상기 변환 타입은 치료 종류 및 치료 기간에 따라 구분된 복수의 변환 타입들을 포함하는, 생성 모델 학습 방법. - 제11항에 있어서,
상기 생성 모델을 학습하는 단계는
상기 원본 치아 영상 및 상기 원본 치아 영상의 변환 타입 별 학습 영상을 이용하여, 상기 타입 별로 구비된 서브 생성 모델을 학습하는 단계
를 포함하는, 생성 모델 학습 방법. - 치아 영상을 수신하고, 변환 영역 및 타겟 타입에 대응하는 사용자 입력을 수신하고, 상기 치아 영상의 상기 변환 영역을 마스킹하며, 상기 마스킹된 영상을 상기 타겟 타입에 대응하는 생성 모델에 입력하여 상기 치아 영상의 상기 변환 영역이 상기 타겟 타입으로 변환된 출력 치아 영상을 생성하는 프로세서
를 포함하고,
상기 출력 치아 영상은 상기 변환 영역이 상기 타겟 타입에 대응한 치료 기간이 경과할 경우에 예측된 치료 중 치아 영상으로 변환된, 치아 영상 부분 변환 장치. - 하나 이상의 원본 치아 영상을 수신하고, 상기 원본 치아 영상의 변환 정보를 획득하고, 상기 변환 정보에 기초하여, 상기 원본 치아 영상을 학습 영상으로 변환하며, 상기 원본 치아 영상 및 상기 원본 치아 영상에 대응하는 상기 학습 영상을 이용하여 하나 이상의 생성 모델을 학습하는 프로세서
를 포함하고,
상기 하나 이상의 생성 모델은 상기 학습 영상에 기초하여 치료 기간 별로 대응하는 치아 영상을 예측하도록 학습되는, 생성 모델 학습 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200114561A KR102448395B1 (ko) | 2020-09-08 | 2020-09-08 | 치아 영상 부분 변환 방법 및 장치 |
PCT/KR2021/011452 WO2022055158A1 (ko) | 2020-09-08 | 2021-08-26 | 치아 영상 부분 변환 방법 및 이를 위한 장치 |
US18/024,274 US20240024074A1 (en) | 2020-09-08 | 2021-08-26 | Method for converting part of dental image and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200114561A KR102448395B1 (ko) | 2020-09-08 | 2020-09-08 | 치아 영상 부분 변환 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220033082A KR20220033082A (ko) | 2022-03-16 |
KR102448395B1 true KR102448395B1 (ko) | 2022-09-29 |
Family
ID=80632303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200114561A KR102448395B1 (ko) | 2020-09-08 | 2020-09-08 | 치아 영상 부분 변환 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240024074A1 (ko) |
KR (1) | KR102448395B1 (ko) |
WO (1) | WO2022055158A1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113223140A (zh) * | 2020-01-20 | 2021-08-06 | 杭州朝厚信息科技有限公司 | 利用人工神经网络生成牙科正畸治疗效果的图像的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175486A1 (en) | 2017-03-20 | 2018-09-27 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
JP2019162426A (ja) * | 2018-03-19 | 2019-09-26 | ジェームズ アール. グライドウェル デンタル セラミックス,インコーポレーテッド | ディープラーニングを用いた歯科用cadの自動化 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3949894B1 (en) * | 2016-12-21 | 2023-09-20 | Ulab Systems, Inc. | Orthodontic planning method and system |
KR102040099B1 (ko) * | 2017-12-04 | 2019-12-05 | 울산대학교 산학협력단 | 임플란트 식립영역 선정 장치 및 방법 |
KR102086685B1 (ko) * | 2017-12-26 | 2020-03-10 | 오스템임플란트 주식회사 | 객체조정 ui를 이용한 치과용 임플란트 플래닝 방법, 이를 위한 장치 및 이를 기록한 기록매체 |
KR102160097B1 (ko) * | 2018-01-25 | 2020-09-25 | (주)바텍이우홀딩스 | 치아영역 추출 시스템 및 방법 |
KR102177369B1 (ko) * | 2018-06-18 | 2020-11-11 | 오스템임플란트 주식회사 | 치아 영상 표시 방법, 치아 영상 표시 장치 및 기록매체 |
-
2020
- 2020-09-08 KR KR1020200114561A patent/KR102448395B1/ko active IP Right Grant
-
2021
- 2021-08-26 WO PCT/KR2021/011452 patent/WO2022055158A1/ko active Application Filing
- 2021-08-26 US US18/024,274 patent/US20240024074A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018175486A1 (en) | 2017-03-20 | 2018-09-27 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
JP2019162426A (ja) * | 2018-03-19 | 2019-09-26 | ジェームズ アール. グライドウェル デンタル セラミックス,インコーポレーテッド | ディープラーニングを用いた歯科用cadの自動化 |
Also Published As
Publication number | Publication date |
---|---|
WO2022055158A1 (ko) | 2022-03-17 |
KR20220033082A (ko) | 2022-03-16 |
US20240024074A1 (en) | 2024-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697741B (zh) | 一种pet图像重建方法、装置、设备及介质 | |
Mohammad-Rahimi et al. | Deep learning: a primer for dentists and dental researchers | |
Lian et al. | Meshsnet: Deep multi-scale mesh feature learning for end-to-end tooth labeling on 3d dental surfaces | |
Murata et al. | Towards a fully automated diagnostic system for orthodontic treatment in dentistry | |
Zhu et al. | Faster-RCNN based intelligent detection and localization of dental caries | |
WO2020083298A1 (zh) | 医学影像的识别方法、装置、存储介质和电子设备 | |
Cai et al. | Lesion-harvester: Iteratively mining unlabeled lesions and hard-negative examples at scale | |
JP2022549051A (ja) | ディープラーニングモデルを用いた画像診断装置及びその方法 | |
JP6980309B2 (ja) | 再構成された画像群に基づく画像提供方法およびこれを利用した装置 | |
KR102274072B1 (ko) | 사용자의 치매 정도 결정 방법 및 장치 | |
Akinbo et al. | Ensemble machine learning algorithms for prediction and classification of medical images | |
Yasnitsky | Artificial intelligence and medicine: history, current state, and forecasts for the future | |
KR102448395B1 (ko) | 치아 영상 부분 변환 방법 및 장치 | |
Retrouvey et al. | Decoding Deep Learning applications for diagnosis and treatment planning | |
KR102290799B1 (ko) | 치아 병변 정보 제공 방법 및 이를 이용한 장치 | |
Brahmi et al. | Automatic tooth instance segmentation and identification from panoramic X-Ray images using deep CNN | |
Zhou et al. | Chest radiograph disentanglement for covid-19 outcome prediction | |
WO2024127316A1 (en) | Autoencoders for the processing of 3d representations in digital oral care | |
JP2020201941A (ja) | トランケーション部分の予測画像を取得する方法及び装置 | |
WO2024108341A1 (zh) | 基于点云理解的自动排牙方法、装置、设备及存储介质 | |
US11915401B2 (en) | Apriori guidance network for multitask medical image synthesis | |
TWI838592B (zh) | 圈選系統 | |
Rashidi Ranjbar et al. | Autonomous dental treatment planning on panoramic x-ray using deep learning based object detection algorithm | |
Elnagar et al. | Artificial Intelligence and Orthodontic Practice: The Future Unveiled | |
KR20220060746A (ko) | 의료 영상 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |