KR102714028B1 - System for orthodontic treatment information provision and method for thereof - Google Patents
System for orthodontic treatment information provision and method for thereof Download PDFInfo
- Publication number
- KR102714028B1 KR102714028B1 KR1020230106164A KR20230106164A KR102714028B1 KR 102714028 B1 KR102714028 B1 KR 102714028B1 KR 1020230106164 A KR1020230106164 A KR 1020230106164A KR 20230106164 A KR20230106164 A KR 20230106164A KR 102714028 B1 KR102714028 B1 KR 102714028B1
- Authority
- KR
- South Korea
- Prior art keywords
- dimensional
- teeth
- dental
- tooth
- orthodontic treatment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000013135 deep learning Methods 0.000 claims abstract description 57
- 230000008859 change Effects 0.000 claims abstract description 24
- 238000011017 operating method Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 22
- 239000000284 extract Substances 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 3
- 210000004513 dentition Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000036346 tooth eruption Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000001055 chewing effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004086 maxillary sinus Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003254 palate Anatomy 0.000 description 1
- 210000001738 temporomandibular joint Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
Abstract
적어도 하나의 프로세서에 의해 동작하는 교정치료 정보 제공 시스템의 동작 방법으로서, 환자에 대한 복수의 2차원 치열 이미지들을 수신하면, 수신한 복수의 2차원 치열 이미지들을 기 학습된 딥러닝 네트워크로 입력하여, 하나의 3차원 치열 데이터를 생성한다. 딥러닝 네트워크에서 생성된 상기 3차원 치열 데이터로부터 치아를 분할하여 3차원 치아 데이터를 생성하고, 환자의 초기 3차원 치아 데이터와 생성한 3차원 치아 데이터를 정합하여, 3차원 변화량을 획득한다.An operating method of an orthodontic treatment information providing system operated by at least one processor, wherein when a plurality of two-dimensional teeth images of a patient are received, the received plurality of two-dimensional teeth images are input into a pre-trained deep learning network to generate one three-dimensional teeth data. A tooth is segmented from the three-dimensional teeth data generated by the deep learning network to generate three-dimensional teeth data, and the initial three-dimensional teeth data of the patient and the generated three-dimensional teeth data are aligned to obtain a three-dimensional change amount.
Description
본 발명은 환자의 치과 교정치료를 위해 환자의 2차원적 치열을 3차원적으로 분석하고 이를 기초로 교정치료의 계획을 생성하는, 교정치료 정보 제공 시스템 및 이의 동작 방법에 관한 것이다.The present invention relates to an orthodontic treatment information providing system and an operating method thereof, which analyzes a patient's two-dimensional teeth into three dimensions for orthodontic treatment of the patient and creates an orthodontic treatment plan based on the analysis.
치열 교정은 단순히 심미적인 이유 외에도, 발음, 저작, 턱관절 등의 치아 자체 기능을 개선을 위해 필수적인 치료법이다. 치열 교정을 위해서는 환자의 치아 상태를 분석하고, 3차원 치열 데이터의 획득이 필수적이다.Orthodontic treatment is an essential treatment for improving the functions of the teeth themselves, such as pronunciation, chewing, and temporomandibular joints, in addition to simply aesthetic reasons. For orthodontic treatment, it is essential to analyze the patient's dental condition and obtain 3D dental data.
이때, 환자마다 치열 교정에 따른 치아의 움직임이 다르다. 따라서, 환자가 치열 교정을 위한 치료 기간동안 10~20회 병원으로 내원하면, 의료진이 환자의 현재의 치열 상태를 분석하고 분석한 치열 상태를 기초로 치료 계획을 갱신한다. 그러므로, 의료진이 환자의 치열 상태를 정확히 분석하는 것이, 치열 교정 결과의 정확도와 환자의 만족도를 향상시킬 수 있다.At this time, the movement of teeth due to orthodontic treatment is different for each patient. Therefore, if the patient visits the hospital 10 to 20 times during the orthodontic treatment period, the medical staff analyzes the patient's current dentition and updates the treatment plan based on the analyzed dentition. Therefore, the medical staff's accurate analysis of the patient's dentition can improve the accuracy of the orthodontic results and patient satisfaction.
치열 교정 중에 치아는 3차원으로 회전과 병진 운동하기 때문에, 정확한 치열 분석을 위해서는 치아의 움직임을 3차원적으로 분석해야 한다. 이에, 일반적인 치아의 3차원적 분석은 크게 2가지 방법으로 구분된다. During orthodontic treatment, teeth rotate and translate in three dimensions, so in order to accurately analyze the teeth, the movement of the teeth must be analyzed in three dimensions. Accordingly, three-dimensional analysis of teeth in general is largely divided into two methods.
첫 번째는 구강 스캐너를 이용한 분석 방법이다. 구강 스캐너를 이용하여 환자의 3차원 치열 데이터를 획득하고, 획득한 3차원 치열 데이터를 3차원적으로 분석하는 방법이다. 이는 정확한 치열 데이터를 획득할 수 있지만, 고가의 장비와 복잡한 촬영 절차에 따른 높은 노동력과 긴 소요시간이 필요한 단점이 있다.The first is an analysis method using an oral scanner. This is a method of obtaining 3D dental data of a patient using an oral scanner and analyzing the obtained 3D dental data in 3D. This can obtain accurate dental data, but has the disadvantage of requiring high labor and a long time due to expensive equipment and complex photographing procedures.
두 번째는 일반적인 카메라로 촬영한 2차원 치열 영상을 보고, 의료진이 경험적 지식에 의존하여 3차원적으로 해석하는 방법이다. 이는 의료진의 경험에 분석 정확도가 달라지기 때문에, 치열 분석의 정확도가 낮은 단점이 있다.The second method is to look at two-dimensional dental images taken with a general camera and have medical staff interpret them three-dimensionally based on their empirical knowledge. This has the disadvantage of low dental analysis accuracy because the accuracy of the analysis varies depending on the experience of the medical staff.
따라서, 본 발명은 2차원 치열 이미지를 이용하여 3차원 치열 데이터를 생성하고, 생성한 3차원 치열 데이터를 분석하여 치열 교정을 위한 정보로 제공하는 교정치료 정보 제공 시스템 및 이의 동작 방법을 제공한다.Accordingly, the present invention provides an orthodontic treatment information providing system and an operating method thereof, which generates three-dimensional dental data using two-dimensional dental images and analyzes the generated three-dimensional dental data to provide information for orthodontic treatment.
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 적어도 하나의 프로세서에 의해 동작하는 교정치료 정보 제공 시스템의 동작 방법으로서,As an operating method of an orthodontic treatment information providing system operated by at least one processor, which is one feature of the present invention for achieving the technical task of the present invention,
환자에 대한 복수의 2차원 치열 이미지들을 수신하는 단계, 상기 수신한 복수의 2차원 치열 이미지들을 기 학습된 딥러닝 네트워크로 입력하여, 하나의 3차원 치열 데이터를 생성하는 단계, 상기 딥러닝 네트워크에서 생성된 상기 3차원 치열 데이터로부터 치아를 분할하여 3차원 치아 데이터를 생성하는 단계, 그리고 상기 환자의 초기 3차원 치아 데이터와 상기 생성한 3차원 치아 데이터를 정합하여, 3차원 변화량을 획득하는 단계를 포함한다.The method comprises the steps of: receiving a plurality of two-dimensional dental images of a patient; inputting the received plurality of two-dimensional dental images into a pre-trained deep learning network to generate one three-dimensional dental data; segmenting teeth from the three-dimensional dental data generated by the deep learning network to generate three-dimensional dental data; and aligning the initial three-dimensional dental data of the patient with the generated three-dimensional dental data to obtain a three-dimensional variation.
상기 2차원 치열 이미지들을 수신하는 단계 이전에, 원본의 2차원 치열 이미지를 구성하는 복수의 픽셀들 각각에 광선이 지나간 위치의 집합들을 상기 딥러닝 네트워크에 입력하면, 상기 위치의 집합과 상기 위치의 컬러 그리고 밀도값을 포함하는 치열 기하학 정보가 출력되도록 상기 딥러닝 네트워크를 학습시키는 단계를 포함할 수 있다.Before the step of receiving the two-dimensional teeth images, the step of training the deep learning network so that a set of positions where light has passed through each of a plurality of pixels constituting the original two-dimensional teeth image is input to the deep learning network and teeth geometry information including the set of positions and the color and density values of the positions is output.
상기 딥러닝 네트워크는 NeRF(Neural Radiance Fields) 기반의 딥러닝 네트워크일 수 있다.The above deep learning network may be a deep learning network based on NeRF (Neural Radiance Fields).
상기 학습시키는 단계는, 각 픽셀별로 상기 치열 기하학 정보들을 합산하여 상기 각 픽셀별로 픽셀 값을 정의하는 단계, 그리고 상기 복수의 픽셀들 각각의 픽셀 값들을 합산하여 랜더링된 2차원 치열 이미지를 생성하는 단계를 더 포함할 수 있다.The above learning step may further include a step of defining a pixel value for each pixel by adding up the tooth geometry information for each pixel, and a step of generating a rendered two-dimensional tooth image by adding up the pixel values of each of the plurality of pixels.
상기 랜더링된 2차원 치열 이미지를 생성하는 단계는, 손실함수를 이용하여 상기 원본의 2차원 치열 이미지와 상기 랜더링된 2차원 치열 이미지 사이의 평균제곱오차를 계산하는 단계를 포함하고, 상기 손실함수는 상기 계산한 평균제곱오차에 상기 랜더링된 2차원 치열 이미지와 상기 원본의 2차원 치열 이미지의 윤곽선 차이를 더할 수 있다.The step of generating the rendered two-dimensional teeth image includes the step of calculating a mean square error between the original two-dimensional teeth image and the rendered two-dimensional teeth image using a loss function, and the loss function can add a difference in outlines of the rendered two-dimensional teeth image and the original two-dimensional teeth image to the calculated mean square error.
상기 복수의 2차원 치열 이미지들은 디지털 카메라 또는 휴대폰 중 어느 하나의 이미지 수집 장치를 통해 수집된 이미지일 수 있다.The above multiple two-dimensional teeth images may be images collected through an image collection device such as a digital camera or a mobile phone.
상기 3차원 치열 데이터를 생성하는 단계는, 상기 2차원 치열 이미지로부터 생성한 치열 기하학 정보에 포함된 밀도값을 3차원 메쉬 모델 생성 함수에 입력하고, 마칭 큐브 함수를 사용하여 상기 3차원 치열 데이터를 생성하는 단계를 포함할 수 있다.The step of generating the above three-dimensional teeth data may include the step of inputting a density value included in the teeth geometry information generated from the two-dimensional teeth image into a three-dimensional mesh model generation function, and generating the three-dimensional teeth data using a marching cube function.
상기 3차원 변화량을 획득하는 단계는, 상기 초기 3차원 치아 데이터에 포함된 치아 각각의 치관과 상기 생성한 3차원 치아 데이터에 포함된 치아 각각의 치관을 표면 정합하는 단계를 더 포함할 수 있다.The step of acquiring the above three-dimensional change amount may further include the step of surface-aligning the crown of each tooth included in the initial three-dimensional tooth data with the crown of each tooth included in the generated three-dimensional tooth data.
상기 표면 정합하는 단계 이후에, 각 치아의 3차원 병진값과 회전값을 상기 3차원 변화량으로 추출하는 단계를 포함할 수 있다.After the surface alignment step, a step of extracting the three-dimensional translation and rotation values of each tooth as the three-dimensional change amount may be included.
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 환자에 대한 복수의 2차원 치열 이미지들을 수신하는 인터페이스, 메모리, 그리고 상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 상기 수신한 복수의 2차원 치열 이미지들로부터 하나의 치열 기하학 정보를 생성하고, 상기 치열 기하학 정보로부터 생성된 3차원 치열 데이터로부터 3차원 치아 데이터를 생성하며, 상기 환자의 초기 3차원 치아 데이터와 상기 생성한 3차원 치아 데이터를 정합하여 3차원 변화량을 획득한다.Another feature of the present invention for achieving the technical problem of the present invention is an interface for receiving a plurality of two-dimensional dental images of a patient, a memory, and at least one processor for executing instructions of a program loaded in the memory, wherein the processor generates one dental geometry information from the received plurality of two-dimensional dental images, generates three-dimensional dental data from three-dimensional dental data generated from the dental geometry information, and aligns the initial three-dimensional dental data of the patient with the generated three-dimensional dental data to obtain a three-dimensional variation.
상기 프로세서는, 원본의 2차원 치열 이미지를 구성하는 복수의 픽셀들 각각에 광선이 지나간 위치의 집합들을 딥러닝 네트워크에 입력하면, 상기 위치의 집합과 상기 위치의 컬러 그리고 밀도값을 포함하는 치열 기하학 정보가 출력되도록 상기 딥러닝 네트워크를 학습시키고, 상기 딥러닝 네트워크는 NeRF(Neural Radiance Fields) 기반의 딥러닝 네트워크일 수 있다.The above processor trains the deep learning network to output tooth geometry information including the set of positions and the color and density values of the positions by inputting a set of positions where light has passed through each of a plurality of pixels constituting the original two-dimensional tooth image into the deep learning network, and the deep learning network may be a deep learning network based on NeRF (Neural Radiance Fields).
상기 프로세서는, 각 픽셀별로 복수의 치열 기하학 정보들을 합산하여 각 픽셀별 픽셀 값을 정의하고, 상기 복수의 픽셀들 각각의 픽셀 값들을 합산하여 랜더링된 2차원 치열 이미지를 생성할 수 있다.The above processor can define a pixel value for each pixel by adding up a plurality of pieces of tooth geometry information for each pixel, and generate a rendered two-dimensional tooth image by adding up the pixel values of each of the plurality of pixels.
상기 프로세서는, 상기 원본의 2차원 치열 이미지와 상기 랜더링된 2차원 치열 이미지 사이의 평균제곱오차를 계산하고, 상기 계산한 평균제곱오차에 상기 랜더링된 2차원 치열 이미지와 상기 원본의 2차원 치열 이미지의 윤곽선 차이를 더하여 상기 랜더링된 2차원 치열 이미지를 생성할 수 있다.The above processor can calculate a mean square error between the original two-dimensional teeth image and the rendered two-dimensional teeth image, and add a difference in outlines between the rendered two-dimensional teeth image and the original two-dimensional teeth image to the calculated mean square error to generate the rendered two-dimensional teeth image.
상기 프로세서는, 상기 치열 기하학 정보에 포함된 밀도값을 3차원 메쉬 모델 생성 함수에 입력하면, 마칭 큐브 함수를 사용하여 상기 3차원 치열 데이터를 생성할 수 있다.The above processor can generate the three-dimensional tooth data using a marching cube function by inputting the density value included in the tooth geometry information into a three-dimensional mesh model generation function.
상기 프로세서는, 상기 초기 3차원 치아 데이터에 포함된 치아 각각의 치관과 상기 생성한 3차원 치아 데이터에 포함된 치아 각각의 치관을 표면 정합하고, 각 치아의 3차원 병진값과 회전값을 상기 3차원 변화량으로 추출할 수 있다.The above processor can surface-align the crown of each tooth included in the initial 3D tooth data with the crown of each tooth included in the generated 3D tooth data, and extract the 3D translation value and rotation value of each tooth as the 3D change amount.
본 발명에 따르면, 2차원 치열 이미지로부터 3차원 치열 데이터를 획득하기 때문에, 고가의 장비나 복잡한 촬영 절차 없이 간편하게 3차원 치열 데이터를 획득할 수 있다.According to the present invention, since three-dimensional dental data is obtained from two-dimensional dental images, three-dimensional dental data can be easily obtained without expensive equipment or complex photographing procedures.
또한, 3차원 정합을 이용하여 치아의 3차원적 변화량 추적 및 분석하기 때문에, 초기 및 현재 치열의 치아 간 3차원 표면정합을 이용하여 치아의 3차원 변화량 추적이 가능하다.In addition, since the three-dimensional change amount of the teeth is tracked and analyzed using three-dimensional alignment, it is possible to track the three-dimensional change amount of the teeth using three-dimensional surface alignment between the teeth of the initial and current dentition.
또한, 치아 별 3차원적 변화량을 통하여, 치열 상태 및 치료의 효과를 정확히 분석 가능하고, 궁극적으로 치열교정 치료의 정확도 및 환자 만족도가 향상된다.In addition, through the three-dimensional change in each tooth, the dental condition and treatment effect can be accurately analyzed, ultimately improving the accuracy of orthodontic treatment and patient satisfaction.
도 1은 본 발명의 실시예에 따른 교정치료 정보 제공 시스템이 구현된 환경의 예시도이다.
도 2는 본 발명의 실시예에 따른 교정치료 정보 제공 시스템의 동작에 대한 흐름도이다.
도 3은 본 발명의 실시예에 따라 획득된 2차원 치열 이미지의 예시도이다.
도 4는 본 발명의 실시예에 따라 생성된 3차원 치열 데이터의 예시도이다.
도 5는 본 발명의 실시예에 따른 딥러닝 네트워크의 학습 과정을 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따라 3차원 치아 데이터를 분할한 예시도이다.
도 7은 본 발명의 실시예에 따라 획득한 초기 시점과 현재 시점 간 치아의 3차원 변화량의 예시도이다.
도 8은 본 발명의 실시예에 따른 교정치료 정보 제공 시스템의 구조도이다.Figure 1 is an exemplary diagram of an environment in which an orthodontic treatment information providing system according to an embodiment of the present invention is implemented.
Figure 2 is a flow chart of the operation of an orthodontic treatment information providing system according to an embodiment of the present invention.
FIG. 3 is an example of a two-dimensional tooth image obtained according to an embodiment of the present invention.
FIG. 4 is an example diagram of three-dimensional dental data generated according to an embodiment of the present invention.
Figure 5 is an exemplary diagram showing the learning process of a deep learning network according to an embodiment of the present invention.
FIG. 6 is an example diagram showing segmentation of three-dimensional tooth data according to an embodiment of the present invention.
FIG. 7 is an example of a three-dimensional change in a tooth between an initial point in time and a current point in time obtained according to an embodiment of the present invention.
Figure 8 is a structural diagram of an orthodontic treatment information providing system according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar drawing reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, whenever a part is said to "include" a component, this does not mean that it excludes other components, but rather that it may include other components, unless otherwise stated.
이하 도면을 참조로 하여 본 발명의 실시예에 따른 교정치료 정보 제공 시스템 및 이의 동작 방법에 대해 설명한다. Referring to the drawings below, a system for providing orthodontic treatment information and its operation method according to an embodiment of the present invention will be described.
도 1은 본 발명의 실시예에 따른 교정치료 정보 제공 시스템이 구현된 환경의 예시도이다.Figure 1 is an exemplary diagram of an environment in which an orthodontic treatment information providing system according to an embodiment of the present invention is implemented.
도 1에 도시된 바와 같이, 교정치료 정보 제공 시스템(100)은 복수의 2차원 치열 이미지들을 수집한다. 여기서, 2차원 치열 이미지들은 디지털 카메라, 휴대폰 등 이미지를 수집할 수 있는 다양한 형태의 이미지 수집 장치(도면 미도시)를 통해 수집되는 것을 예로 하여 설명한다.As illustrated in Fig. 1, the orthodontic treatment information providing system (100) collects a plurality of two-dimensional teeth images. Here, the two-dimensional teeth images are explained by using as an example the fact that they are collected through various types of image collection devices (not illustrated in the drawing) that can collect images, such as a digital camera and a mobile phone.
교정치료 정보 제공 시스템(100)은 입력된 2차원 치열 이미지들을 3차원 치열 데이터로 생성한다. 그리고, 교정치료 정보 제공 시스템(100)은 생성한 3차원 치열 데이터에서 치아를 분할하고, 분할한 치아를 최초 환자의 치아와 비교하여 치아의 3차원 변화량을 획득한다.The orthodontic treatment information providing system (100) generates 3D dentition data from the input 2D dentition images. Then, the orthodontic treatment information providing system (100) segments teeth from the generated 3D dentition data and compares the segmented teeth with the teeth of the original patient to obtain the 3D change amount of the teeth.
교정치료 정보 제공 시스템(100)은 획득한 치아의 3차원 변화량을 포함하는 치아 분석 정보를 제공한다. 또한, 교정치료 정보 제공 시스템(100)은 3차원 변화량을 기초로, 최종 치열 상태로 나아가기 위한 교정 치료 계획을 의료진이 세우도록, 교정치료 정보로 제공한다.The orthodontic treatment information providing system (100) provides tooth analysis information including the three-dimensional change amount of the acquired teeth. In addition, the orthodontic treatment information providing system (100) provides orthodontic treatment information so that medical staff can establish an orthodontic treatment plan to advance to the final teeth state based on the three-dimensional change amount.
이와 같은 교정치료 정보 제공 시스템(100)의 동작 방법에 대해 도 2를 참조로 설명한다.The operation method of the orthodontic treatment information providing system (100) is described with reference to FIG. 2.
도 2는 본 발명의 실시예에 따른 교정치료 정보 제공 시스템의 동작에 대한 흐름도이다.Figure 2 is a flow chart of the operation of an orthodontic treatment information providing system according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 교정치료 정보 제공 시스템(100)은 2차원 치열 이미지를 3차원 치열 데이터로 생성하기 위하여, 딥러닝 네트워크를 생성하여 학습한다(S100). As illustrated in Fig. 2, the orthodontic treatment information providing system (100) creates and trains a deep learning network to create a two-dimensional dental image into three-dimensional dental data (S100).
즉, 교정치료 정보 제공 시스템(100)은 NeRF(Neural Radiance Fields) 기반의 딥러닝 네트워크를 구축한다. 2차원의 이미지를 구성하는 픽셀들 각각은, 하나의 광선이 지나간 정보의 합으로 표현된다. NeRF는 이와 같은 물리적 현상을 모방한 딥러닝 네트워크이다.That is, the orthodontic treatment information provision system (100) constructs a deep learning network based on NeRF (Neural Radiance Fields). Each pixel constituting a two-dimensional image is expressed as the sum of information passed by one ray. NeRF is a deep learning network that imitates this physical phenomenon.
즉, NeRF 기반의 딥러닝 네트워크는 광선이 지나간 위치(p={x, y, z})들의 집합을 입력으로 받으면, 입력된 위치의 컬러와 밀도값을 포함한 3차원 치열의 기하학적 정보(infor={r, g, b, d, a})(이하, '치열 기하학 정보'라 지칭함)를 출력으로 제공한다. 여기서 치열 기하학 정보에 포함된 파라미터 r, g, b는 입력된 위치의 컬러를 나타내는 값이고, d는 깊이 정보를 의미하며, a는 밀도를 의미한다. 밀도는 픽셀의 색을 표현할 때 가중치와 같은 역할을 한다. 예를 들어, 공기는 밀도가 낮기 때문에 색 정보의 반영이 미미한 반면, 치열은 밀도가 높으므로 색 정보의 반영이 높다. 본 발명의 실시예에서는 설명의 편의를 위하여, 치열 기하학 정보를 딥러닝 네트워크 출력 정보라고도 지칭할 수 있다.That is, when the NeRF-based deep learning network receives as input a set of locations (p={x, y, z}) where a ray passed, it provides as output 3D geometric information of teeth (infor={r, g, b, d, a}) (hereinafter referred to as 'teeth geometric information') including the color and density values of the input locations. Here, the parameters r, g, and b included in the teeth geometric information are values representing the color of the input locations, d represents depth information, and a represents density. The density plays a role similar to a weight when expressing the color of a pixel. For example, air has a low density, so color information is slightly reflected, whereas teeth have a high density, so color information is highly reflected. In the embodiment of the present invention, for the convenience of explanation, teeth geometric information may also be referred to as deep learning network output information.
NeRF 기반의 딥러닝 네트워크는 입력 정보를 고차원화하기 위해, 위치 인코딩(positional encoding) 기법을 이용한다. NeRF는 일반적인 사물을 대상으로 개발된 딥러닝 네트워크로서, 고주파 영역을 강인하게 표현할 수 있는 주파수 기반의 위치 인코딩 기법을 이용한다. 그러나, 치아와 같은 생체조직은 고주파 영역대가 극히 드물기 때문에 주파수 기반의 위치 인코딩 기법은 비효율적이고, 이에 본 발명의 실시예에서는 생체조직에 적합한 보간법 기반의 위치 인코딩 기법을 이용한다. The NeRF-based deep learning network uses a positional encoding technique to increase the dimension of input information. NeRF is a deep learning network developed for general objects, and uses a frequency-based positional encoding technique that can robustly express a high-frequency range. However, since the high-frequency range is extremely rare in biological tissues such as teeth, the frequency-based positional encoding technique is inefficient, and therefore, in the embodiment of the present invention, an interpolation-based positional encoding technique suitable for biological tissues is used.
교정치료 정보 제공 시스템(100)은 보간법 기반의 위치 인코딩 기법을 적용하기 위해, 입력되는 광선의 한 점(pn)이 포함된 다양한 크기의 복수의 그리드들을 추출한다. 그리드의 크기와 개수는 사전에 정의할 수 있으며, 본 발명의 실시예에서는 크기와 개수를 어느 하나로 한정하지 않는다.The orthodontic treatment information providing system (100) extracts multiple grids of various sizes that include one point (p n ) of an input ray in order to apply an interpolation-based position encoding technique. The size and number of grids can be defined in advance, and in the embodiment of the present invention, the size and number are not limited to either one.
교정치료 정보 제공 시스템(100)은 각 그리드에서 점(pn)을 표현하기 위한 특성 벡터를 획득한다. 복수의 그리드들을 추출하고 각 그리드에서 획득한 특성 벡터는 딥러닝 네트워크를 학습시킬 때 마다 변동되는 파라미터로, 학습이 지속될수록 최적화된다. 교정치료 정보 제공 시스템(100)은 복수의 특성 벡터들을 선형 보간으로 평탄화함으로써 연속성을 부여할 수 있다. 이는 이미 알려진 기술로, 본 발명의 실시예에서는 어느 하나의 방법으로 특성 벡터들을 평탄화하거나 연속성을 부여하는 것을 한정하지 않는다.The orthodontic treatment information providing system (100) obtains a feature vector for expressing a point (p n ) in each grid. A plurality of grids are extracted, and the feature vector obtained from each grid is a parameter that changes each time a deep learning network is trained, and is optimized as training continues. The orthodontic treatment information providing system (100) can provide continuity by flattening a plurality of feature vectors by linear interpolation. This is a known technology, and the embodiment of the present invention does not limit the flattening or continuity of the feature vectors to any one method.
교정치료 정보 제공 시스템(100)은 구축한 딥러닝 네트워크를 학습시킨다. 딥러닝 네트워크의 학습을 위해, 교정치료 정보 제공 시스템(100)은 하나의 픽셀 값을 생성하기 위한 하나의 광선 위치(pn)를 딥러닝 네트워크에 입력하면, 네트워크 출력 정보(infon)들의 합산을 통해 픽셀 값을 정의한다(). 딥러닝 네트워크는 2차원 이미지의 모든 픽셀에 대하여 광선의 위치를 입력으로 받아 네트워크 출력 정보를 합산함으로써, 랜더링 된 2차원의 치열 이미지()를 생성한다.The orthodontic treatment information providing system (100) trains the constructed deep learning network. To train the deep learning network, the orthodontic treatment information providing system (100) inputs one ray position (p n ) for generating one pixel value into the deep learning network, and defines the pixel value through the sum of the network output information (info n ). ) The deep learning network receives the position of the light beam for each pixel of the two-dimensional image as input and sums the network output information to produce a rendered two-dimensional tooth image ( ) is created.
여기서, NeRF의 기본적인 손실 함수는 합성 이미지와 원본 이미지 사이의 평균제곱오차(Mean Squared Error)를 계산한다. 하지만, 치열 데이터는 치아 간 구분이 확실하게 표현되어야 하기 때문에, 본 발명의 실시예에 따른 NeRF 기반의 딥러닝 네트워크는 다음 수학식 1과 같이 손실함수에 윤곽선 정보를 추가하여 적용한다.Here, the basic loss function of NeRF calculates the mean squared error between the synthetic image and the original image. However, since the dental data must clearly express the distinction between teeth, the NeRF-based deep learning network according to the embodiment of the present invention applies contour information by adding it to the loss function as in the following mathematical expression 1.
[수학식 1][Mathematical formula 1]
여기서, 는 딥러닝 네트워크에서 출력된 정보로, 랜더링 된 2차원 치열 이미지를 의미한다. 그리고, 는 원본 이미지, mse는 두 이미지 간 평균제곱오차를 의미하고, edge는 입력된 두 이미지의 윤곽선 차이를 의미한다.Here, is the information output from the deep learning network, which means a rendered two-dimensional tooth image. And, is the original image, mse is the mean square error between the two images, and edge is the difference in outlines between the two input images.
교정치료 정보 제공 시스템(100)은 구축한 딥러닝 네트워크를 학습시킨 후, 이미지 수집 장치로부터 환자에 대한 복수의 2차원 치열 이미지들을 수신한다(S110). 본 발명의 실시예에서는 디지털 카메라, 휴대폰 등과 같은 이미지 수집 장치를 이용하여 환자의 치열이 보이도록 다양한 각도로 촬영된 복수의 2차원 치열 이미지들을 수신하는 것을 예로 하여 설명한다. 그러나 교정치료 정보 제공 시스템(100)은 환자의 치열이 보이도록 녹화된 동영상을 2차원 치열 데이터로 수신할 수도 있다.The orthodontic treatment information providing system (100) trains the constructed deep learning network, and then receives multiple two-dimensional teeth images of the patient from an image collection device (S110). In the embodiment of the present invention, a description is made by using an image collection device such as a digital camera, a mobile phone, etc. to receive multiple two-dimensional teeth images taken at various angles so that the patient's teeth can be seen as an example. However, the orthodontic treatment information providing system (100) may also receive a video recorded so that the patient's teeth can be seen as two-dimensional teeth data.
교정치료 정보 제공 시스템(100)은 S100 단계에서 학습시킨 딥러닝 네트워크를 이용하여 2차원 치열 이미지들을 3차원 치열 데이터로 생성한다(S120). The orthodontic treatment information providing system (100) uses the deep learning network trained in step S100 to generate 2D teeth images into 3D teeth data (S120).
즉, 기 학습된 딥러닝 네트워크에 2차원 치열 이미지들로부터 유래된 모든 광선의 위치를 입력하고, 광선의 위치에 대응된 공간의 치열 기하학 정보를 획득한다. That is, the positions of all rays derived from two-dimensional tooth images are input into the pre-trained deep learning network, and tooth geometry information of the space corresponding to the positions of the rays is obtained.
여기서 치열 기하학 정보 중 밀도값은 물체 특성에 따라 값이 매핑된다. 예를 들어, 공기는 밀도가 낮기 때문에 낮은 값으로 매핑되고, 치아는 높은 값으로 매핑된다. 본 발명의 실시예에서는 매핑되는 높은 값과 낮은 값의 기준을 어느 하나의 수치로 한정하지 않는다.Here, among the tooth geometry information, the density value is mapped to a value according to the object characteristics. For example, air is mapped to a low value because it has a low density, and teeth are mapped to a high value. In the embodiment of the present invention, the criteria for the high and low values to be mapped are not limited to a single numerical value.
교정치료 정보 제공 시스템(100)은 치열 기하학 정보에 포함된 밀도값을 3차원 메쉬 모델 생성 함수에 입력하여, 3차원 치열 데이터를 생성한다. 본 발명의 실시예에서는 3차원의 치열 메쉬 모델 즉, 3차원 치열 데이터를 생성하기 위해 마칭 큐브 함수를 사용하는 것을 예로 하여 설명하나, 다양한 메쉬 모델 생성 함수가 사용될 수 있다. 즉, 교정치료 정보 제공 시스템(100)은 마칭 큐브 함수에 밀도값을 입력하면, 결과로 3차원 치열 데이터를 획득한다. The orthodontic treatment information providing system (100) inputs a density value included in the dental geometry information into a three-dimensional mesh model generating function to generate three-dimensional dental data. In the embodiment of the present invention, the use of a marching cube function to generate a three-dimensional dental mesh model, i.e., three-dimensional dental data, is described as an example, but various mesh model generating functions can be used. That is, when the orthodontic treatment information providing system (100) inputs a density value into the marching cube function, it obtains three-dimensional dental data as a result.
이와 같이 3차원 치열 데이터를 생성한 후, 교정치료 정보 제공 시스템(100)은 3차원 치열 데이터로부터 치아를 분할한다(S130). 다시 말해, 교정치료 정보 제공 시스템(100)은 3차원 치열 데이터로부터 치아를 각각 분할하는 것을 예로 하여 설명하나, 다양한 인공지능 기반의 치아 분할 네트워크가 사용될 수도 있다. 또한, 3차원 치열 데이터로부터 치아를 분할하는 방법은 이미 알려진 기술이므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지 않는다.After generating the 3D dental data in this way, the orthodontic treatment information providing system (100) segments the teeth from the 3D dental data (S130). In other words, the orthodontic treatment information providing system (100) is explained by dividing each tooth from the 3D dental data as an example, but various artificial intelligence-based tooth segmentation networks may be used. In addition, since the method of segmenting teeth from the 3D dental data is already a known technology, the embodiment of the present invention does not describe it by being limited to any one method.
교정치료 정보 제공 시스템(100)은 환자의 초기 치열과 S130 단계에서 분할한 치아의 치열을 3차원 표면 정합을 수행하여, 3차원 변화량을 획득한다(S140). 즉, 치열 교정 초기 시점으로부터 현재 시점까지의 각 치아의 3차원 변화량을 획득하기 위해, 교정치료 정보 제공 시스템(100)은 초기 치열의 치아들과 S130 단계에서 획득한 치아들을 각각 표면 정합한다. The orthodontic treatment information providing system (100) performs 3D surface alignment of the patient's initial dentition and the dentition of teeth segmented at step S130 to obtain a 3D change amount (S140). That is, in order to obtain a 3D change amount of each tooth from the initial dentition to the current time point, the orthodontic treatment information providing system (100) performs surface alignment of the teeth of the initial dentition and the teeth obtained at step S130, respectively.
치열 교정 시 치아의 움직임이나 치아 머리(치관) 자체의 모양은 변하지 않는 강체에 해당한다. 따라서, 초기 치아와 최근 치아의 표면 정합에 따른 결과는 그 신뢰도가 높은 것으로 여길 수 있다. 교정치료 정보 제공 시스템(100)이 초기 치아와 최근 치아를 표면 정합하는 방법은 이미 알려진 기술로, 본 발명의 실시예에서는 상세한 설명을 생략한다.During orthodontic treatment, the movement of the teeth or the shape of the tooth head (crown) itself corresponds to a rigid body that does not change. Therefore, the results of surface alignment of the initial teeth and recent teeth can be considered to have high reliability. The method of the orthodontic treatment information providing system (100) for surface alignment of the initial teeth and recent teeth is a known technology, and a detailed description thereof is omitted in the embodiment of the present invention.
교정치료 정보 제공 시스템(100)은 표면 정합을 통해, 각 치아의 3차원 병진값과 회전값을 추출할 수 있다. 따라서, 교정치료 정보 제공 시스템(100)은 추출한 치아 각각의 병진값과 회전값을 치아 분석 정보로 의료진에게 제공할 수 있다.The orthodontic treatment information providing system (100) can extract the three-dimensional translational value and rotational value of each tooth through surface alignment. Accordingly, the orthodontic treatment information providing system (100) can provide the translational value and rotational value of each extracted tooth to the medical staff as tooth analysis information.
또한, 교정치료 정보 제공 시스템(100)은 치열교정 시 최종 치열 상태로 현재 치열이 교정되기 위한 치료 계획 정보를 제공할 수 있다. 여기서, 치료 계획 정보는 현재 치아의 위치에서 최종 치아의 위치까지 이동할 병진값과 회전값, 병진값과 회전값을 얻기 위해 필요한 기타 정보들을 포함할 수 있다. In addition, the orthodontic treatment information providing system (100) can provide treatment plan information for correcting the current teeth to the final teeth state during orthodontic treatment. Here, the treatment plan information can include translational values and rotational values to move from the current teeth position to the final teeth position, and other information necessary to obtain the translational values and rotational values.
상술한 절차 중 이미지 수집 장치가 수집한 2차원 치열 이미지들의 예에 대해 도 3을 참조로 설명하고, 교정치료 정보 제공 시스템(100)이 2차원 치열 이미지들을 이용하여 생성한 3차원 치열 데이터에 대해 도 4를 참조로 설명한다.An example of two-dimensional dental images collected by an image collection device during the above-described procedure is described with reference to FIG. 3, and three-dimensional dental data generated by an orthodontic treatment information providing system (100) using the two-dimensional dental images is described with reference to FIG. 4.
도 3은 본 발명의 실시예에 따라 획득된 2차원 치열 이미지의 예시도이고, 도 4는 본 발명의 실시예에 따라 생성된 3차원 치열 데이터의 예시도이다.FIG. 3 is an example diagram of a two-dimensional dental image obtained according to an embodiment of the present invention, and FIG. 4 is an example diagram of three-dimensional dental data generated according to an embodiment of the present invention.
먼저, 도 3에 도시된 바와 같이, 본 발명의 실시예에서는 서로 다른 각도에서 촬영된 환자의 2차원 치열 이미지를 6장 수집하여 교정치료 정보 제공 시스템(100)의 입력으로 사용하는 것을 예로 하여 설명한다. 그러나, 교정치료 정보 제공 시스템(100)은 환자의 치열이 모두 나타나도록 이미지 수집 장치가 촬영한 영상을 입력으로 받아, 영상을 복수의 2차원 치열 이미지로 생성할 수도 있다. 교정치료 정보 제공 시스템(100)이 영상을 2차원 치열 이미지로 생성하는 방법은 다양한 기술로 실행될 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다.First, as illustrated in FIG. 3, in the embodiment of the present invention, six two-dimensional dental images of a patient taken from different angles are collected and used as inputs for the orthodontic treatment information providing system (100). However, the orthodontic treatment information providing system (100) may also receive as input images taken by an image collecting device so that all of the patient's teeth are shown, and generate the images into a plurality of two-dimensional dental images. Since the method by which the orthodontic treatment information providing system (100) generates images into two-dimensional dental images can be implemented using various technologies, a detailed description thereof will be omitted in the embodiment of the present invention.
교정치료 정보 제공 시스템(100)이 도 3에 도시된 바와 같은 복수의 2차원 치열 이미지를 수신하면, 기 학습된 딥러닝 네트워크를 이용하여 3차원 치열 데이터를 생성한다.When the orthodontic treatment information providing system (100) receives a plurality of two-dimensional teeth images as illustrated in FIG. 3, it generates three-dimensional teeth data using a pre-trained deep learning network.
즉, 도 4에 도시된 바와 같이 복수의 2차원 치열 이미지들 각각을 구성하는 픽셀들 각각에 대해 광선이 지나간 위치(p={x, y, z})들의 집합이 딥러닝 네트워크로 입력되면, 딥러닝 네트워크는 치열 공간에 대한 딥러닝 네트워크 출력 정보를 획득한다. That is, when a set of locations (p={x, y, z}) where light has passed through each pixel constituting each of a plurality of two-dimensional teeth images, as illustrated in Fig. 4, is input to a deep learning network, the deep learning network obtains deep learning network output information for the teeth space.
여기서, 딥러닝 네트워크 출력 정보 중 밀도값은 물체의 특성에 따라 값이 매핑된다. 딥러닝 네트워크는 밀도값을 3차원 메쉬모델 생성 함수에 입력하여, 3차원 치열 메쉬모델을 생성한다. 이렇게 생성된 3차원 치열 메쉬 모델이 도 4에 도시한 3차원 치열 데이터에 해당한다. 3차원 치열 데이터는 치아 부분(①)과 잇몸 부분(②)을 모두 포함한다. Here, among the deep learning network output information, the density value is mapped according to the characteristics of the object. The deep learning network inputs the density value into the 3D mesh model generation function to generate a 3D dental mesh model. The 3D dental mesh model generated in this way corresponds to the 3D dental data illustrated in Fig. 4. The 3D dental data includes both the teeth part (①) and the gum part (②).
또한, 3차원 치열 데이터는 환자의 상악동에 대한 2차원 치열 이미지로부터 생성되었다면, 경구개가 포함될 수 있다. 그리고 3차원 치열 데이터는 환자의 하악동에 대한 2차원 치열 이미지로부터 생성되었다면, 환자의 혀도 포함될 수 있다. Additionally, if the 3D dental data is generated from a 2D dental image of the patient's maxillary sinus, the palate may be included. And if the 3D dental data is generated from a 2D dental image of the patient's mandibular sinus, the patient's tongue may also be included.
여기서, 2차원 치열 이미지들을 3차원 치열 데이터로 출력하는 딥러닝 네트워크의 학습 과정에 대해 도 5를 참조로 설명한다.Here, the learning process of a deep learning network that outputs two-dimensional dental images as three-dimensional dental data is described with reference to Fig. 5.
도 5는 본 발명의 실시예에 따른 딥러닝 네트워크의 학습 과정을 나타낸 예시도이다.Figure 5 is an exemplary diagram showing the learning process of a deep learning network according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 2차원의 이미지를 구성하는 픽셀(③)은, 하나의 광선이 지나간 정보의 합으로 표현된다. 그리고, NeRF 기반의 딥러닝 네트워크는 광선이 지나간 위치(p={x, y, z})들의 집합을 입력으로 받으면, 입력된 위치의 컬러와 밀도값을 포함한 3차원 치열의 치열 기하학 정보(info={r, g, b, d, a})를 출력으로 제공한다. As illustrated in Fig. 5, a pixel (③) that constitutes a two-dimensional image is expressed as the sum of information passed by a single ray. Then, when a NeRF-based deep learning network receives as input a set of locations (p={x, y, z}) where a ray passed, it provides as output the three-dimensional tooth geometry information (info={r, g, b, d, a}) including the color and density values of the input locations.
여기서 치열 기하학 정보에 포함된 파라미터 r, g, b는 입력된 위치의 컬러를 나타내는 값이고, d는 깊이 정보를 의미하며, a는 밀도 값을 의미한다. 본 발명의 실시예에서는 설명의 편의를 위하여, 기하학적 정보를 딥러닝 네트워크 출력 정보라 지칭한다.Here, the parameters r, g, and b included in the tooth geometry information are values representing the color of the input location, d represents depth information, and a represents a density value. In the embodiment of the present invention, for the convenience of explanation, the geometric information is referred to as deep learning network output information.
NeRF 기반의 딥러닝 네트워크는 입력 정보를 고차원화하기 위해, 위치 인코딩(positional encoding) 기법을 이용한다. NeRF는 일반적인 사물을 대상으로 개발된 딥러닝 네트워크로서, 고주파 영역을 강인하게 표현할 수 있는 주파수 기반의 위치 인코딩 기법을 이용한다. 그러나, 치아와 같은 생체조직은 고주파 영역대가 극히 드물기 때문에, 주파수 기반의 위치 인코딩 기법은 비효율적이고, 이에 본 발명의 실시예에서는 생체조직에 적합한 보간법 기반의 위치 인코딩 기법을 이용한다. NeRF-based deep learning networks use positional encoding techniques to increase the dimensionality of input information. NeRF is a deep learning network developed for general objects, and uses a frequency-based positional encoding technique that can robustly express high-frequency regions. However, since high-frequency regions are extremely rare in biological tissues such as teeth, the frequency-based positional encoding technique is inefficient, and therefore, in the embodiment of the present invention, an interpolation-based positional encoding technique suitable for biological tissues is used.
교정치료 정보 제공 시스템(100)은 구축한 딥러닝 네트워크를 학습시킨다. 딥러닝 네트워크의 학습을 위해, 교정치료 정보 제공 시스템(100)은 하나의 픽셀 값을 생성하기 위한 하나의 광선 위치(pn)를 딥러닝 네트워크에 입력하면, 네트워크 출력 정보(infon)들의 합산을 통해 픽셀 값을 정의한다(). 딥러닝 네트워크는 2차원 이미지의 모든 픽셀에 대하여 광선의 위치를 입력으로 받아 네트워크 출력 정보를 합산함으로써, 랜더링 된 2차원의 치열 이미지()를 생성한다.The orthodontic treatment information providing system (100) trains the constructed deep learning network. To train the deep learning network, the orthodontic treatment information providing system (100) inputs one ray position (p n ) for generating one pixel value into the deep learning network, and defines the pixel value through the sum of the network output information (info n ). ) The deep learning network receives the position of the light beam for each pixel of the two-dimensional image as input and sums the network output information to produce a rendered two-dimensional tooth image ( ) is created.
여기서, NeRF의 기본적인 손실 함수(loss)는 합성 이미지와 원본 이미지 사이의 평균제곱오차(Mean Squared Error)를 계산한다. 하지만, 치열 데이터는 치아 간 구분이 확실하게 표현되어야 하기 때문에, 본 발명의 실시예에 따른 NeRF 기반의 딥러닝 네트워크는 상술한 수학식 1과 같이 손실함수에 윤곽선 정보를 추가하여 적용한다.Here, the basic loss function of NeRF calculates the mean squared error between the synthetic image and the original image. However, since the dental data must clearly express the distinction between teeth, the NeRF-based deep learning network according to the embodiment of the present invention applies contour information by adding it to the loss function as in the mathematical expression 1 described above.
도 6은 본 발명의 실시예에 따라 3차원 치열 데이터를 분할한 예시도이다.FIG. 6 is an example diagram showing the division of three-dimensional tooth data according to an embodiment of the present invention.
도 6에 도시된 바와 같이, 교정치료 정보 제공 시스템(100)은 3차원 치열 데이터를 획득하면, 획득한 3차원 치열 데이터에서 치아만 분할하여 3차원 치아 데이터로 생성한다.As illustrated in FIG. 6, when the orthodontic treatment information providing system (100) acquires 3D dental data, it segments only the teeth from the acquired 3D dental data and creates 3D dental data.
교정치료 정보 제공 시스템(100)이 3차원 치열 데이터에서 3차원 치아 데이터를 분할하는 방법은 다양한 방법을 이용할 수 있다. 하나의 예로서, 교정치료 정보 제공 시스템(100)은 치아 데이터 분할을 위한 인공지능 기법을 이용할 수 있다.The orthodontic treatment information providing system (100) can use various methods to divide 3D tooth data from 3D dental data. As one example, the orthodontic treatment information providing system (100) can use an artificial intelligence technique for dividing tooth data.
즉, 3차원 치열 데이터를 학습된 인공지능의 모델로 입력하면, 분할된 개별의 3차원 치아 데이터를 획득할 수 있다. 여기서 3차원 치열 데이터는 점과 면으로 구성된다. 따라서, 인공지능 모델로 3차원 치열 데이터의 점들이 입력되면 해당 점들이 각각 어느 치아인지 분류가 가능하고, 결과적으로 개별의 3차원 치아를 분할할 수 있다. That is, if 3D dental data is input into a learned artificial intelligence model, individual 3D dental data can be obtained. Here, 3D dental data is composed of points and surfaces. Therefore, if points of 3D dental data are input into an artificial intelligence model, it is possible to classify which tooth each point is, and as a result, individual 3D teeth can be segmented.
이와 같은 하나의 실시예 외에도, 본 발명의 실시예에서는 3차원 치열 데이터에서 3차원 치아 데이터를 분할하는 방법을 어느 하나의 방법으로 한정하지 않는다. 또한, 교정치료 정보 제공 시스템(100)은 다양한 인공지능 기반의 치아 분할 네트워크도 이용할 수 있으나, 어느 하나의 네트워크로 한정하지 않는다.In addition to one embodiment like this, the embodiment of the present invention does not limit the method of segmenting 3D tooth data from 3D dental data to any one method. In addition, the orthodontic treatment information providing system (100) can also utilize various artificial intelligence-based tooth segmentation networks, but is not limited to any one network.
다음은 환자의 초기 시점에 획득한 치아와 현재 시점의 치아 간 3차원 변화량에 대해 도 7을 참조로 설명한다.The following describes the three-dimensional change between the teeth acquired at the initial point in time and the teeth at the current point in time with reference to Figure 7.
도 7은 본 발명의 실시예에 따라 획득한 초기 시점과 현재 시점 간 치아의 3차원 변화량의 예시도이다.FIG. 7 is an example of a three-dimensional change in a tooth between an initial point in time and a current point in time obtained according to an embodiment of the present invention.
도 7의 (a)는 환자의 초기 시점에 획득한 모든 치아들 각각의 형상이고, 도 7의 (b)는 현재 시점의 치아 머리('치관'이라고도 지칭함)들 각각의 형상을 의미한다.Figure 7 (a) shows the shape of each tooth acquired at the initial point in time of the patient, and Figure 7 (b) shows the shape of each tooth head (also referred to as 'crown') at the current point in time.
교정치료 정보 제공 시스템(100)은 치열교정 초기 시점으로부터 현재 시점까지 각 치아의 3차원 변화량을 획득을 위하여, 표면정합을 적용하고 3차원 병진/회전값 추출한다. The orthodontic treatment information provision system (100) applies surface alignment and extracts 3D translation/rotation values to obtain the 3D change amount of each tooth from the initial orthodontic treatment time to the present time.
치열교정 시 치아는 움직이나, 치아 머리 자체의 모양은 변하지 않는 강체이므로, 표면정합의 높은 신뢰도를 기대할 수 있다. 즉 초기 및 현재 시점의 치아 간 동일한 치아머리를 가졌기 때문에, 표면정합의 높은 신뢰도와 고정밀 변화량을 획득할 수 있다.During orthodontic treatment, teeth move, but the shape of the tooth head itself is a rigid body that does not change, so high reliability of surface alignment can be expected. In other words, since the teeth have the same tooth head at the initial and current time points, high reliability of surface alignment and high-precision change amount can be obtained.
도 8은 본 발명의 실시예에 따른 교정치료 정보 제공 시스템의 구조도이다.Figure 8 is a structural diagram of an orthodontic treatment information providing system according to an embodiment of the present invention.
도 8을 참고하면, 적어도 하나의 프로세서에 의해 동작하는 교정치료 정보 제공 시스템(100)에서, 본 발명의 동작을 실행하도록 기술된 명령들(instructions)이 포함된 프로그램을 실행한다. 프로그램은 컴퓨터 판독 가능한 저장매체에 저장될 수 있고, 유통될 수 있다. Referring to FIG. 8, in a correction treatment information providing system (100) operated by at least one processor, a program including instructions described to execute the operation of the present invention is executed. The program can be stored in a computer-readable storage medium and can be distributed.
교정치료 정보 제공 시스템(100)의 하드웨어는 적어도 하나의 프로세서(110), 메모리(120), 스토리지(130), 통신 인터페이스(140)를 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 교정치료 정보 제공 시스템(100)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.The hardware of the orthodontic treatment information providing system (100) may include at least one processor (110), memory (120), storage (130), and communication interface (140), and may be connected via a bus. In addition, hardware such as input devices and output devices may be included. The orthodontic treatment information providing system (100) may be equipped with various software, including an operating system capable of running a program.
프로세서(110)는 교정치료 정보 제공 시스템(100)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. The processor (110) is a device that controls the operation of the orthodontic treatment information providing system (100), and may be a processor of various types that processes commands included in the program, for example, a CPU (Central Processing Unit), an MPU (Micro Processor Unit), an MCU (Micro Controller Unit), a GPU (Graphics Processing Unit), etc.
메모리(120)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(110)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(120)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(130)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(140)는 유/무선 통신 모듈일 수 있다.The memory (120) loads the corresponding program so that the commands described to execute the operation of the present invention are processed by the processor (110). The memory (120) may be, for example, a ROM (read only memory), a RAM (random access memory), etc. The storage (130) stores various data, programs, etc. required to execute the operation of the present invention. The communication interface (140) may be a wired/wireless communication module.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims also fall within the scope of the present invention.
Claims (15)
상기 교정치료 정보 제공 시스템은,
환자에 대한 복수의 2차원 치열 이미지들을 수신하는 단계,
상기 수신한 복수의 2차원 치열 이미지들을 기 학습된 딥러닝 네트워크로 입력하여, 상기 2차원 치열 이미지로부터 생성한 치열 기하학 정보에 포함된 밀도값을 기초로 하나의 3차원 치열 데이터를 생성하는 단계,
상기 딥러닝 네트워크에서 생성된 상기 3차원 치열 데이터로부터 치아를 분할하여 3차원 치아 데이터를 생성하는 단계, 그리고
상기 환자의 초기 치열 데이터와 상기 생성한 3차원 치아 데이터를 정합하여, 3차원 변화량을 획득하는 단계
를 포함하는, 동작 방법.A method of operating an orthodontic treatment information providing system operated by at least one processor,
The above orthodontic treatment information provision system is,
A step of receiving multiple two-dimensional dental images of a patient,
A step of inputting the received multiple two-dimensional teeth images into a pre-trained deep learning network and generating one three-dimensional teeth data based on the density value included in the teeth geometry information generated from the two-dimensional teeth images.
A step of generating 3D tooth data by segmenting teeth from the 3D tooth data generated by the above deep learning network, and
A step of obtaining a 3D change amount by aligning the initial dental data of the above patient with the 3D dental data generated above.
A method of operation, comprising:
상기 2차원 치열 이미지들을 수신하는 단계 이전에,
원본의 2차원 치열 이미지를 구성하는 복수의 픽셀들 각각에 광선이 지나간 위치의 집합들을 상기 딥러닝 네트워크에 입력하면, 상기 위치의 집합과 상기 위치의 컬러 그리고 밀도값을 포함하는 치열 기하학 정보가 출력되도록 상기 딥러닝 네트워크를 학습시키는 단계
를 포함하는, 동작 방법.In the first paragraph,
Before the step of receiving the above two-dimensional dental images,
A step of training the deep learning network so that when a set of positions where light has passed through each of a plurality of pixels constituting the original two-dimensional teeth image is input to the deep learning network, teeth geometry information including the set of positions and the color and density value of the positions is output.
A method of operation, comprising:
상기 딥러닝 네트워크는 NeRF(Neural Radiance Fields) 기반의 딥러닝 네트워크인, 동작 방법.In the second paragraph,
The above deep learning network is a deep learning network based on NeRF (Neural Radiance Fields), and its operation method.
상기 학습시키는 단계는,
각 픽셀별로 상기 치열 기하학 정보들을 합산하여 상기 각 픽셀별로 픽셀 값을 정의하는 단계, 그리고
상기 복수의 픽셀들 각각의 픽셀 값들을 합산하여 랜더링된 2차원 치열 이미지를 생성하는 단계
를 더 포함하는, 동작 방법.In the second paragraph,
The above learning steps are:
A step of defining a pixel value for each pixel by summing the above-mentioned tooth geometry information for each pixel, and
A step of generating a rendered two-dimensional teeth image by adding up the pixel values of each of the above plurality of pixels.
A method of operation, further comprising:
상기 랜더링된 2차원 치열 이미지를 생성하는 단계는,
손실함수를 이용하여 상기 원본의 2차원 치열 이미지와 상기 랜더링된 2차원 치열 이미지 사이의 평균제곱오차를 계산하는 단계,
를 포함하고,
상기 손실함수는 상기 계산한 평균제곱오차에 상기 랜더링된 2차원 치열 이미지와 상기 원본의 2차원 치열 이미지의 윤곽선 차이를 더하는, 동작 방법.In paragraph 4,
The step of generating the above rendered two-dimensional teeth image is:
A step of calculating the mean square error between the original two-dimensional teeth image and the rendered two-dimensional teeth image using a loss function,
Including,
The above loss function is an operating method that adds the difference in outline between the rendered two-dimensional tooth image and the original two-dimensional tooth image to the calculated mean square error.
상기 복수의 2차원 치열 이미지들은 디지털 카메라 또는 휴대폰 중 어느 하나의 이미지 수집 장치를 통해 수집된 이미지인, 동작 방법.In the first paragraph,
A method of operation, wherein the above plurality of two-dimensional teeth images are images collected through an image collection device, either a digital camera or a mobile phone.
상기 3차원 치열 데이터를 생성하는 단계는,
상기 밀도값을 3차원 메쉬 모델 생성 함수에 입력하고, 마칭 큐브 함수를 사용하여 상기 3차원 치열 데이터를 생성하는 단계
를 포함하는, 동작 방법.In the first paragraph,
The step of generating the above 3D dental data is:
A step of inputting the above density value into a 3D mesh model generation function and generating the 3D tooth data using a marching cube function.
A method of operation, comprising:
상기 3차원 변화량을 획득하는 단계는,
상기 초기 치열 데이터에 포함된 치아 각각의 치관과 상기 생성한 3차원 치아 데이터에 포함된 치아 각각의 치관을 표면 정합하는 단계
를 더 포함하는, 동작 방법.In the first paragraph,
The step of obtaining the above three-dimensional change amount is:
A step of surface-aligning the crown of each tooth included in the initial dental data with the crown of each tooth included in the generated 3D dental data.
A method of operation, further comprising:
상기 표면 정합하는 단계 이후에,
각 치아의 3차원 병진값과 회전값을 상기 3차원 변화량으로 추출하는 단계
를 포함하는, 동작 방법.In Article 8,
After the above surface alignment step,
Step of extracting the 3D translation and rotation values of each tooth as the 3D change amount
A method of operation, comprising:
메모리, 그리고
상기 메모리에 로드된 프로그램의 명령들(instructions)을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로세서는
상기 수신한 복수의 2차원 치열 이미지들로부터 하나의 치열 기하학 정보를 생성하고, 상기 치열 기하학 정보에 포함된 밀도값으로부터 생성된 3차원 치열 데이터로부터 3차원 치아 데이터를 생성하며, 상기 환자의 초기 3차원 치열 데이터와 상기 생성한 3차원 치아 데이터를 정합하여 3차원 변화량을 획득하는, 교정치료 정보 제공 시스템.An interface for receiving multiple two-dimensional dental images of a patient,
memory, and
comprising at least one processor that executes instructions of a program loaded into the memory;
The above processor
An orthodontic treatment information providing system that generates single dental geometric information from the plurality of received two-dimensional dental images, generates three-dimensional dental data from three-dimensional dental data generated from density values included in the dental geometric information, and obtains a three-dimensional change amount by aligning the patient's initial three-dimensional dental data with the generated three-dimensional dental data.
상기 프로세서는,
원본의 2차원 치열 이미지를 구성하는 복수의 픽셀들 각각에 광선이 지나간 위치의 집합들을 딥러닝 네트워크에 입력하면, 상기 위치의 집합과 상기 위치의 컬러 그리고 상기 밀도값을 포함하는 치열 기하학 정보가 출력되도록 상기 딥러닝 네트워크를 학습시키고,
상기 딥러닝 네트워크는 NeRF(Neural Radiance Fields) 기반의 딥러닝 네트워크인, 교정치료 정보 제공 시스템.In Article 10,
The above processor,
When a set of locations where light has passed through each of a plurality of pixels constituting the original two-dimensional teeth image is input to a deep learning network, the deep learning network is trained to output teeth geometry information including the set of locations, the color of the locations, and the density value.
The above deep learning network is a deep learning network based on NeRF (Neural Radiance Fields), an orthodontic treatment information providing system.
상기 프로세서는,
각 픽셀별로 복수의 치열 기하학 정보들을 합산하여 각 픽셀별 픽셀 값을 정의하고, 상기 복수의 픽셀들 각각의 픽셀 값들을 합산하여 랜더링된 2차원 치열 이미지를 생성하는, 교정치료 정보 제공 시스템.In Article 11,
The above processor,
An orthodontic treatment information providing system that defines a pixel value for each pixel by adding up multiple pieces of dental geometric information for each pixel, and generates a rendered two-dimensional dental image by adding up the pixel values of each of the multiple pixels.
상기 프로세서는,
상기 원본의 2차원 치열 이미지와 상기 랜더링된 2차원 치열 이미지 사이의 평균제곱오차를 계산하고, 상기 계산한 평균제곱오차에 상기 랜더링된 2차원 치열 이미지와 상기 원본의 2차원 치열 이미지의 윤곽선 차이를 더하여 상기 랜더링된 2차원 치열 이미지를 생성하는, 교정치료 정보 제공 시스템.In Article 12,
The above processor,
An orthodontic treatment information providing system, which calculates the mean square error between the original two-dimensional teeth image and the rendered two-dimensional teeth image, and generates the rendered two-dimensional teeth image by adding the difference in outlines between the rendered two-dimensional teeth image and the original two-dimensional teeth image to the calculated mean square error.
상기 프로세서는,
상기 치열 기하학 정보에 포함된 밀도값을 3차원 메쉬 모델 생성 함수에 입력하면, 마칭 큐브 함수를 사용하여 상기 3차원 치열 데이터를 생성하는, 교정치료 정보 제공 시스템.In Article 13,
The above processor,
An orthodontic treatment information providing system that inputs the density value included in the above dental geometric information into a three-dimensional mesh model generation function and generates the above three-dimensional dental data using a marching cube function.
상기 프로세서는,
상기 초기 3차원 치열 데이터에 포함된 치아 각각의 치관과 상기 생성한 3차원 치아 데이터에 포함된 치아 각각의 치관을 표면 정합하고, 각 치아의 3차원 병진값과 회전값을 상기 3차원 변화량으로 추출하는, 교정치료 정보 제공 시스템.In Article 14,
The above processor,
An orthodontic treatment information providing system that surfaces-aligns the crown of each tooth included in the initial 3D dental data with the crown of each tooth included in the generated 3D dental data, and extracts the 3D translation value and rotation value of each tooth as the 3D change amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230106164A KR102714028B1 (en) | 2023-08-14 | 2023-08-14 | System for orthodontic treatment information provision and method for thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230106164A KR102714028B1 (en) | 2023-08-14 | 2023-08-14 | System for orthodontic treatment information provision and method for thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102714028B1 true KR102714028B1 (en) | 2024-10-04 |
Family
ID=93119061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230106164A Active KR102714028B1 (en) | 2023-08-14 | 2023-08-14 | System for orthodontic treatment information provision and method for thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102714028B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102273438B1 (en) * | 2021-01-27 | 2021-07-07 | 주식회사 에이치디엑스윌 | Apparatus and method for automatic registration of oral scan data and computed tomography image using crown segmentation of oral scan data |
US20220327774A1 (en) * | 2019-11-26 | 2022-10-13 | Sdc U.S. Smilepay Spv | Systems and Methods for Constructing a Three-Dimensional Model From Two-Dimensional Images |
KR102462185B1 (en) | 2020-02-03 | 2022-11-03 | (주)어셈블써클 | Method for providing information about orthodontics and device for providing information about orthodontics using deep learning ai algorithm |
KR102496449B1 (en) * | 2021-12-29 | 2023-02-07 | 이마고웍스 주식회사 | Automated method for tooth segmentation of three dimensional scan data using tooth boundary curve and computer readable medium having program for performing the method |
KR20230066220A (en) | 2021-11-06 | 2023-05-15 | 신현욱 | Carbon emission collection and management system |
-
2023
- 2023-08-14 KR KR1020230106164A patent/KR102714028B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220327774A1 (en) * | 2019-11-26 | 2022-10-13 | Sdc U.S. Smilepay Spv | Systems and Methods for Constructing a Three-Dimensional Model From Two-Dimensional Images |
KR102462185B1 (en) | 2020-02-03 | 2022-11-03 | (주)어셈블써클 | Method for providing information about orthodontics and device for providing information about orthodontics using deep learning ai algorithm |
KR102273438B1 (en) * | 2021-01-27 | 2021-07-07 | 주식회사 에이치디엑스윌 | Apparatus and method for automatic registration of oral scan data and computed tomography image using crown segmentation of oral scan data |
KR20230066220A (en) | 2021-11-06 | 2023-05-15 | 신현욱 | Carbon emission collection and management system |
KR102496449B1 (en) * | 2021-12-29 | 2023-02-07 | 이마고웍스 주식회사 | Automated method for tooth segmentation of three dimensional scan data using tooth boundary curve and computer readable medium having program for performing the method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111784754B (en) | Tooth orthodontic method, device, equipment and storage medium based on computer vision | |
US11735306B2 (en) | Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches | |
Tian et al. | DCPR-GAN: dental crown prosthesis restoration using two-stage generative adversarial networks | |
CN109903396B (en) | Tooth three-dimensional model automatic segmentation method based on curved surface parameterization | |
US20060127854A1 (en) | Image based dentition record digitization | |
US9418474B2 (en) | Three-dimensional model refinement | |
KR101744079B1 (en) | The face model generation method for the Dental procedure simulation | |
CN105427385A (en) | High-fidelity face three-dimensional reconstruction method based on multilevel deformation model | |
CN103733226A (en) | Fast articulated motion tracking | |
US11704819B2 (en) | Apparatus and method for aligning 3-dimensional data | |
CN108992188B (en) | Single tooth grid model repairing algorithm | |
Abdulqawi et al. | A computer method for generating 3D point cloud from 2D digital image | |
CN118512278B (en) | AI modeling method and device used before tooth 3D printing | |
CN117934885B (en) | Coordinate automatic matching method and system based on CBCT data and three-dimensional facial scan data | |
Lessard et al. | Dental restoration using a multi-resolution deep learning approach | |
CN116749522A (en) | 3D printing system and method for orthodontic correction tool | |
KR102692396B1 (en) | Apparatus and Method for Automatically Detecting 3D Cephalometric Landmarks using Dental Computerized Tomography | |
CN107564097A (en) | A kind of remains of the deceased three-dimensional rebuilding method based on direct picture | |
KR102714028B1 (en) | System for orthodontic treatment information provision and method for thereof | |
US8352059B2 (en) | Method for the manufacturing of a reproduction of an encapsulated head of a foetus and objects obtained by the method | |
KR20240029725A (en) | Automated method for generating prosthesis from three dimensional scan data and computer readable medium having program for performing the method | |
JP2024031920A (en) | A computer-readable recording medium that stores a method for automatically generating a prosthesis from three-dimensional scan data and a program for causing a computer to execute this method. | |
Knyaz et al. | Machine learning for approximating unknown face | |
KR20200012707A (en) | Method for predicting anatomical landmarks and device for predicting anatomical landmarks using the same | |
KR102075079B1 (en) | Motion tracking apparatus with hybrid cameras and method there |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230814 |
|
PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20230814 Comment text: Patent Application |
|
PA0302 | Request for accelerated examination |
Patent event date: 20240202 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240424 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240926 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240930 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240930 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |