KR20230083966A - Teeth condition analyzing method and system based on deep learning - Google Patents
Teeth condition analyzing method and system based on deep learning Download PDFInfo
- Publication number
- KR20230083966A KR20230083966A KR1020220028936A KR20220028936A KR20230083966A KR 20230083966 A KR20230083966 A KR 20230083966A KR 1020220028936 A KR1020220028936 A KR 1020220028936A KR 20220028936 A KR20220028936 A KR 20220028936A KR 20230083966 A KR20230083966 A KR 20230083966A
- Authority
- KR
- South Korea
- Prior art keywords
- tooth
- calculus
- caries
- tooth image
- learning
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 230000009193 crawling Effects 0.000 claims abstract description 7
- 208000002925 dental caries Diseases 0.000 claims description 99
- 238000004458 analytical method Methods 0.000 claims description 79
- 238000002372 labelling Methods 0.000 claims description 24
- 238000007781 pre-processing Methods 0.000 claims description 16
- 208000006558 Dental Calculus Diseases 0.000 claims description 8
- 229910000497 Amalgam Inorganic materials 0.000 claims description 5
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 claims description 5
- 229910052737 gold Inorganic materials 0.000 claims description 5
- 239000010931 gold Substances 0.000 claims description 5
- 206010044029 Tooth deposit Diseases 0.000 claims 1
- 230000036541 health Effects 0.000 abstract description 7
- 210000000214 mouth Anatomy 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 5
- 208000025157 Oral disease Diseases 0.000 description 4
- 208000030194 mouth disease Diseases 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003449 preventive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4547—Evaluating teeth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Psychiatry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physical Education & Sports Medicine (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 딥러닝 기반의 치아상태 분석 방법 및 시스템에 관한 것으로, 보다 상세하게는 사용자의 충치와 치석의 유무 및 위치를 판별하여 사용자로 하여금 치아 상태를 파악하도록 하는 딥러닝 기반의 치아상태 분석 방법 및 시스템에 관한 것이다.The present invention relates to a deep learning-based dental condition analysis method and system, and more particularly, a deep learning-based dental condition analysis method that allows the user to determine the dental condition by determining the presence and location of tooth decay and calculus of a user. and system.
구강 질환은 적절한 예방 치료 및 꾸준한 관리를 통해서 높은 예방 효과를 얻을 수 있지만, 많은 구강 질환 환자들은 구강 건강에 문제가 발생하지 않으면 의사에게 진단을 받거나 치료를 의뢰하지 않는 등 아직까지는 구강 예방에 대해 인식이 부족한 실정이다.Oral diseases can have a high preventive effect through proper preventive treatment and steady management, but many patients with oral diseases are still unaware of oral prevention, such as not consulting a doctor or requesting treatment unless there is a problem with oral health. this is lacking.
또한, 환자의 현재 구강 상태를 예측함에 있어 치과 의사나 치위생사의 주관적 견해가 아닌, 정확한 검사 및 진단 결과와 그에 따른 객관적 수치 정보가 필요하지만 구강의 건강 상태를 객관적으로 산출하는 시스템이 부재한 상황이다.In addition, in predicting the patient's current oral condition, accurate test and diagnosis results and objective numerical information are required, not the subjective opinions of dentists or dental hygienists, but there is no system that objectively calculates the oral health condition. .
특히, 충치는 많은 현대인이 겪는 질환 중 하나로 초기에 치료하지 않으면 발치, 신경치료를 해야 하는 질환이며, 치석은 양치질로 쉽게 제거되지 않으며 해 세균, 풍치 군의 좋은 번씩 처로 잇몸의 염증 반응과 괴사의 원인이 된다. In particular, tooth decay is one of the diseases that many modern people suffer from, and if not treated early, tooth extraction and nerve treatment are required. cause
충치, 치석과 같은 질환은 꾸준한 관리와 초기에 판별하여 치료하는 것이 중요하다. 많은 사람들이 충치와 치석이 있는지 판별이 어려워 구강건강 관리에 어려움을 겪고 있다.It is important to identify and treat diseases such as tooth decay and tartar on a regular basis and at an early stage. Many people struggle with oral health management because it is difficult to determine whether they have cavities or tartar.
따라서 이러한 구강 질환의 상태를 사전에 진단하고, 이를 기반으로 구강건강 증진 및 구강질환 예방을 위한 다양한 방법들이 연구 및 제안되고 있다.Therefore, the state of these oral diseases is diagnosed in advance, and based on this, various methods for improving oral health and preventing oral diseases have been studied and proposed.
그러나, 종래의 기술들은 사용자가 실시간으로 자신의 치아 상태를 파악하기 어려운 문제점이 있다.However, conventional techniques have a problem in that it is difficult for the user to grasp the state of his/her teeth in real time.
종래기술로는 대한민국 공개특허 제 10-2017-0050467호 "사용자 맞춤형 구강 관리 서비스 제공 방법 및 구강 관리 서비스 제공서버"가 있다.Prior art includes Korean Patent Publication No. 10-2017-0050467 "User-customized oral care service providing method and oral care service providing server".
따라서 본 발명은 상기와 같은 문제점을 해결하기 위해, 사용자의 충치와 치석의 유무 및 위치를 판별하여 사용자로 하여금 치아 상태를 파악하도록 하는 딥러닝 기반의 치아상태 분석 방법 및 시스템을 제공하는데 목적이 있다.Therefore, in order to solve the above problems, the present invention aims to provide a deep learning-based tooth condition analysis method and system that determines the presence and location of the user's tooth decay and calculus and allows the user to grasp the tooth condition. .
상기와 같은 과제를 해결하기 위하여, 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 방법은 사용자 단말로부터 치아 이미지를 수신하는 수신단계; 치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집하는 수집단계; 상기 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 상기 수신단계에서 수신한 치아 이미지로부터 사용자의 치아상태를 분석하는 분석단계를 포함하며, 상기 분석단계는, 상기 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 충치분석단계 및 상기 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 치석분석단계를 포함할 수 있다. In order to solve the above problems, a deep learning-based dental condition analysis method according to an embodiment of the present invention includes a receiving step of receiving a tooth image from a user terminal; A collection step of collecting a tooth image database from dentistry and web crawling; And an analysis step of learning the collected tooth image database and analyzing the user's tooth condition from the tooth image received in the receiving step based on the learning result, wherein the analysis step includes an object detection method from the tooth image. It may include a tooth decay analysis step of discriminating tooth decay by using the teeth and a calculus analysis step of discriminating calculus by classifying the tooth image in pixel units.
또한, 상기 분석단계는, 정확도에 대한 학습결과가 기설정된 수치 이하일 경우 치아 이미지 데이터베이스에 대한 학습을 반복하고, 기설정된 수치를 초과할 경우 상기 사용자의 치아상태를 분석하는 것을 특징으로 한다. In addition, the analysis step is characterized by repeating the learning on the tooth image database when the learning result for accuracy is less than a preset value, and analyzing the user's tooth condition when it exceeds the preset value.
또한, 상기 충치분석단계는, 상기 수집된 치아 이미지 데이터베이스를 라벨링하여 충치 데이터 셋을 확보하는 충치 라벨링단계; 상기 충치 데이터 셋의 데이터 양을 증대시키고, 해상도를 조절하는 충치판별 전처리단계; 상기 전처리된 충치 데이터 셋을 학습하여 충치판별 모델을 구축하는 충치판별 학습단계 및 상기 치아 이미지로부터 상기 충치판별 모델을 통해 충치를 판별하는 충치판별단계를 포함할 수 있다.In addition, the cavity analysis step may include a cavity labeling step of securing a cavity data set by labeling the collected tooth image database; a caries determination pre-processing step of increasing the data amount of the caries data set and adjusting the resolution; A caries discrimination learning step of constructing a caries discrimination model by learning the preprocessed caries data set, and a caries discrimination step of discriminating caries from the tooth image through the caries discrimination model.
또한, 상기 충치 라벨링단계는, 상기 수집된 치아 이미지 데이터베이스에 대하여 충치, 금 및 아말감으로 각각 라벨링하여 세 가지 클래스로 상기 충치 데이터 셋을 확보하는 것을 특징으로 한다. In addition, the dental caries labeling step is characterized in that the caries data set is secured in three classes by labeling the collected tooth image database with caries, gold, and amalgam, respectively.
또한, 상기 치석분석단계는, 상기 수집된 치아 이미지 데이터베이스로부터 치석을 표기한 주석(Annotation)을 저장하여 치석 데이터 셋을 확보하는 치석 라벨링단계; 상기 주석이 표기된 치석 데이터 셋의 해상도를 조절하는 치석판별 전처리단계; 상기 전처리된 치석 데이터 셋을 학습하여 치석판별 모델을 구축하는 치석판별 학습단계 및 상기 치아 이미지로부터 상기 치석판별 모델을 통해 치석을 판별하는 치석판별단계를 포함할 수 있다. In addition, the calculus analysis step may include a calculus labeling step of securing a calculus data set by storing an annotation indicating calculus from the collected tooth image database; Calculus determination pre-processing step of adjusting the resolution of the calculus data set marked with the annotation; It may include a calculus discrimination learning step of constructing a calculus discrimination model by learning the preprocessed calculus data set, and a calculus discrimination step of discriminating calculus from the tooth image through the calculus discrimination model.
또한, 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 시스템은 사용자로부터 치아 이미지를 입력받는 사용자 단말; 상기 사용자 단말로부터 치아 이미지를 수신하여 치아 상태를 딥러닝 기반으로 분석하여 치아분석정보를 생성하고, 생성된 상기의 치아분석정보를 상기 사용자 단말에 전송하는 서버를 포함할 수 있다. In addition, the dental condition analysis system based on deep learning according to an embodiment of the present invention includes a user terminal receiving a tooth image from a user; It may include a server that receives a tooth image from the user terminal, analyzes the tooth state based on deep learning, generates tooth analysis information, and transmits the generated tooth analysis information to the user terminal.
또한, 상기 서버는, 치아 이미지를 수신하는 수신부; 치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집하는 수집부 및 상기 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 상기 수신부로부터 수신한 치아 이미지로부터 사용자의 치아상태를 분석하는 분석부를 포함하며, 상기 분석부는, 상기 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 충치부 및 상기 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 치석부를 포함할 수 있다. In addition, the server, a receiving unit for receiving a tooth image; A collection unit that collects a tooth image database from dentistry and web crawling and an analysis unit that learns the collected tooth image database and analyzes a user's tooth condition from the tooth image received from the receiver based on a learning result, wherein the The analysis unit may include a tooth decay unit that determines tooth decay using an object detection method from the tooth image, and a calculus unit that classifies the tooth image in pixel units to determine calculus.
또한, 상기 충치부는, 상기 수집된 치아 이미지 데이터베이스를 라벨링하여 충치 데이터 셋을 확보하는 충치 라벨링부; 상기 충치 데이터 셋의 데이터 양을 증대시키고, 해상도를 조절하는 충치판별 전처리부; 상기 전처리된 충치 데이터 셋을 학습하여 충치판별 모델을 구축하는 충치판별 학습부 및 상기 치아 이미지로부터 상기 충치판별 모델을 통해 충치를 판별하는 충치판별부를 포함할 수 있다. In addition, the tooth decay unit may include a tooth decay labeling unit for securing a tooth decay data set by labeling the collected tooth image database; a caries determination pre-processing unit increasing the data amount of the caries data set and adjusting the resolution; It may include a caries discrimination learning unit for constructing a caries discrimination model by learning the preprocessed caries data set, and a caries discrimination unit for discriminating caries from the tooth image through the caries discrimination model.
또한, 상기 치석부는, 상기 수집된 치아 이미지 데이터베이스로부터 치석을 표기한 주석(Annotation)을 저장하여 치석 데이터 셋을 확보하는 치석 라벨링부; 상기 주석이 표기된 치석 데이터 셋의 해상도를 조절하는 치석판별 전처리부; 상기 전처리된 치석 데이터 셋을 학습하여 치석판별 모델을 구축하는 치석판별 학습부 및 상기 치아 이미지로부터 상기 치석판별 모델을 통해 치석을 판별하는 치석판별부를 포함할 수 있다. In addition, the calculus unit may include a calculus labeling unit for securing a calculus data set by storing annotations indicating calculus from the collected tooth image database; Calculus determination pre-processing unit for adjusting the resolution of the calculus data set marked with the annotation; It may include a calculus discrimination learning unit for learning the preprocessed calculus data set to build a calculus discrimination model, and a calculus discrimination unit for discriminating calculus from the tooth image through the calculus discrimination model.
본 발명에 의하면 딥러닝 기반의 치아상태 분석 방법 및 시스템은 사용자에게 치아분석정보를 제공함으로써, 사용자가 자신의 충치 및 치석의 유무와 위치를 파악하도록 하여 구강 건강 악화를 사전에 예방할 수 있도록 하는 장점이 있다.According to the present invention, the deep learning-based dental condition analysis method and system provides tooth analysis information to the user, allowing the user to identify the presence and location of tooth decay and calculus, thereby preventing oral health deterioration in advance. there is
도 1은 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 방법의 흐름도.
도 2는 도 1의 충치분석단계의 흐름도.
도 3a는 치아 이미지를 나타낸 예시도이고, 도 3b는 도 2의 충치분석단계를 통해 검출된 충치를 나타낸 예시도.
도 4는 도 1의 치석분석단계의 흐름도.
도 5는 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 시스템의 구성도.1 is a flowchart of a deep learning-based tooth condition analysis method according to an embodiment of the present invention.
Figure 2 is a flow chart of the caries analysis step of Figure 1;
Figure 3a is an exemplary view showing a tooth image, Figure 3b is an exemplary view showing the caries detected through the caries analysis step of FIG.
Figure 4 is a flow chart of the calculus analysis step of Figure 1;
5 is a configuration diagram of a tooth condition analysis system based on deep learning according to an embodiment of the present invention.
이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various transformations may be applied and various embodiments may be applied. In addition, the content described below should be understood to include all conversions, equivalents, or substitutes included in the spirit and scope of the present invention.
이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as first and second are terms used to describe various components, and are not limited in meaning per se, and are used only for the purpose of distinguishing one component from another.
본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.Like reference numbers used throughout this specification indicate like elements.
본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In addition, terms such as "include", "include" or "have" described below are intended to designate that features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist. should be construed, and understood not to preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
이하, 본 발명의 실시 예를 첨부한 도 1 내지 5를 참조하여 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5 attached.
도 1은 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 방법의 흐름도이고, 도 2는 도 1의 충치분석단계의 흐름도이고, 도 3a는 치아 이미지를 나타낸 예시도이고, 도 3b는 도 2의 충치분석단계를 통해 검출된 충치를 나타낸 예시도이며, 도 4는 도 1의 치석분석단계의 흐름도이다.1 is a flowchart of a tooth condition analysis method based on deep learning according to an embodiment of the present invention, FIG. 2 is a flowchart of a tooth decay analysis step in FIG. 1, FIG. 3A is an exemplary view showing a tooth image, and FIG. 3B is a diagram It is an exemplary view showing the tooth decay detected through the tooth decay analysis step of 2, and FIG. 4 is a flow chart of the calculus analysis step of FIG.
도 1을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 방법은 수신단계(S10), 수집단계(S20) 및 분석단계(S30)를 포함할 수 있다.Referring to FIG. 1 , the deep learning-based tooth condition analysis method according to an embodiment of the present invention may include a receiving step (S10), a collecting step (S20), and an analysis step (S30).
수신단계(S10)는 사용자 단말(10)로부터 치아 이미지를 수신하는 단계이다. Receiving step (S10) is a step of receiving a tooth image from the user terminal (10).
이때, 사용자 단말(10)은 통신이 가능하고 정보의 입출력이 가능하며, 카메라가 구비된 장치로, 스마트폰의 형태가 바람직하나, 이에 한정하지 않고 상기에 기재된 기능을 할 수 있는 데스크탑 PC, 노트북, 태블릿 PC 등의 형태도 가능하다. 이하에서는, 설명의 편의를 위하여 사용자 단말(10)을 스마트폰으로 가정하여 설명하고자 한다.At this time, the
또한, 사용자 단말(10)은 본 발명의 딥러닝 기반의 치아상태 분석 시스템에 따른 서비스를 제공받기 위한 어플리케이션이 미리 설치될 수 있다. 상기에서 어플리케이션은 본 발명의 딥러닝 기반의 치아상태 분석 시스템을 기반으로 생성된 안드로이드, iOS기반의 일반 어플리케이션을 의미하고, 제공방법으로는 사용자 단말(10)가 딥러닝 기반의 치아상태 분석 시스템의 서버(20)에 접속하여 다운로드 받거나 온라인 어플 마켓(예컨대, 안드로이드 마켓, 애플 스토어, 통신사의 온라인 마켓 등)을 통해 다운로드 받아 설치할 수 있다. In addition, the
치아 이미지는 상기와 같은 사용자 단말(10)을 통해 촬영하여 얻거나, 사용자 단말(10)에 미리 저장되어 있는 이미지일 수 있으며, 이에 한정하지 않는다. The tooth image may be obtained by photographing through the
수집단계(S20)는 치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집하는 단계이다.Collecting step (S20) is a step of collecting a tooth image database from dentistry and web crawling.
이때, 치아 이미지 데이터베이스는 개인 정보를 제외한 치아 이미지를 의미할 수 있다.In this case, the tooth image database may refer to tooth images excluding personal information.
분석단계(S30)는 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 S10단계에서 수신한 치아 이미지로부터 사용자의 치아상태를 분석하는 단계이다.The analysis step (S30) is a step of learning the collected tooth image database and analyzing the user's tooth condition from the tooth image received in step S10 based on the learning result.
이때, 분석단계(S30)는 학습결과가 기설정된 수치 이하일 경우 치아 이미지 데이터베이스에 대한 학습을 반복하고, 기설정된 수치를 초과할 경우 사용자의 치아상태를 분석할 수 있다.At this time, in the analysis step (S30), if the learning result is less than or equal to a preset value, learning on the tooth image database is repeated, and if the value exceeds the preset value, the user's tooth condition may be analyzed.
보다 구체적으로, 분석단계는 학습결과에 따라 기설정된 수치 이하일 경우, 전처리단계와 학습단계를 반복하게 되며, 이에 대한 구체적은 설명은 하기에서 하고자 한다.More specifically, the analysis step repeats the preprocessing step and the learning step when the value is less than or equal to a predetermined value according to the learning result, and a detailed description of this will be given below.
이처럼, 본 발명은 치아 이미지 데이터베이스가 충분히 확보되지 않을 경우, 치아 이미지 데이터베이스를 수집하고 학습하는 과정을 반복함으로써, 분석단계(S30)의 정확도를 높일 수 있다.As such, the present invention can increase the accuracy of the analysis step (S30) by repeating the process of collecting and learning the tooth image database when the tooth image database is not sufficiently secured.
분석단계(S30)는 치아 이미지로부터 충치 및 치석을 각각 분석하여 합산하고 치아분석정보를 생성할 수 있다. 이를 위해 분석단계(S30)는 충치분석단계(S31) 및 치석분석단계(S32)를 포함할 수 있다.In the analysis step (S30), tooth decay and tartar are analyzed and summed from the tooth image, respectively, and tooth analysis information may be generated. To this end, the analysis step (S30) may include a cavity analysis step (S31) and a calculus analysis step (S32).
먼저, 도 2를 참조하면, 충치분석단계(S31)는 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 단계이다.First, referring to FIG. 2, the tooth decay analysis step (S31) is a step of determining tooth decay using an object detection method from a tooth image.
여기서, 객체 탐지 방법은 위치(Localization) 정보와 이미지 분류(Classification) 정보를 동시에 파악할 수 있는 방법이다.Here, the object detection method is a method of simultaneously grasping localization information and image classification information.
본 발명에 따른 S31단계는 위치 판별과 이미지 분류가 동시에 이루어지는 1-Stage Detector의 종류 중 하나인 YOLO(You Only Look Once)모델을 이용하였고, 그 중 속도가 빠른 YOLOv5를 이용하였다.Step S31 according to the present invention uses a YOLO (You Only Look Once) model, one of the types of 1-Stage Detector that performs location discrimination and image classification at the same time, and YOLOv5, which is fast among them, is used.
YOLO는 객체탐지 모델로서, 단일 네트워크 연산을 통해서 위치정보를 가지고 있는 Bounding Box와 사물의 클래스를 추출해낼 수 있다. YOLO is an object detection model that can extract bounding boxes and object classes that have location information through a single network operation.
본 발명에서 YOLOv5는 Feature map을 추출하는 부분인 Backbone 구조로 CSP-DarkNet을 이용하였으며, 추출된 Feature map은 Head 부분에서 Anchor Box 정보를 추출하고 최종적으로 Bounding Box를 구하였다. 이때, YOLOv5의 loss는 Binary Cross Entropy(BCE, 이진 크로스 엔트로피) loss에 sigmoid를 결합한 BCE with logits loss와 학습 중 클래스 불균형 문제를 해결하기 위한 Focal loss를 이용하였다.In the present invention, YOLOv5 uses CSP-DarkNet as a backbone structure, which is a part that extracts feature maps, and extracts anchor box information from the head part of the extracted feature map and finally obtains a bounding box. At this time, the loss of YOLOv5 used BCE with logits loss, which is a combination of Binary Cross Entropy (BCE) loss and sigmoid, and Focal loss to solve the class imbalance problem during learning.
보다 구체적으로, S31단계는 충치 라벨링단계(S310), 충치판별 전처리단계(S311), 충치판별 학습단계(S312) 및 충치판별단계(S313)를 포함할 수 있다.More specifically, step S31 may include a cavity labeling step (S310), a cavity determination preprocessing step (S311), a cavity determination learning step (S312), and a cavity determination step (S313).
충치 라벨링단계(S310)는 수집된 치아 이미지 데이터베이스를 라벨링하여 충치 데이터 셋을 확보하는 단계이다.The dental caries labeling step (S310) is a step of securing a dental caries data set by labeling the collected tooth image database.
보다 구체적으로, S310단계는 수집된 치아 이미지 데이터베이스에 대하여 충치, 금 및 아말감으로 각각 라벨링하여 세 가지 클래스로 충치 데이터 셋을 확보할 수 있다.More specifically, in step S310 , caries data sets of three classes may be secured by labeling the collected tooth image database as caries, gold, and amalgam, respectively.
충치판별 전처리단계(S311)는 충치 데이터 셋의 양을 증대시키고, 해상도를 조절하는 단계이다.The caries determination preprocessing step (S311) is a step of increasing the amount of caries data set and adjusting the resolution.
S311단계는 충치 데이터 셋의 양이 적은 단점을 극복하기 위해 수행되는 것으로 Rotation, Scale, Flip, Translate, Gamma 등의 Augmentation기법을 사용할 수 있다.Step S311 is performed to overcome the disadvantage of a small amount of dental caries data set, and augmentation techniques such as Rotation, Scale, Flip, Translate, and Gamma can be used.
또한, S311단계는 충치 데이터 셋의 이미지 해상도를 500 내지 700ppi로 설정할 수 있고, 640ppi인 것이 가장 바람직하나, 이에 한정하지 않는다.In addition, in step S311, the image resolution of the dental caries data set may be set to 500 to 700 ppi, and most preferably 640 ppi, but is not limited thereto.
이때, 충치 데이터 셋의 이미지 해상도가 500ppi미만일 경우 충치 판별의 정확도가 떨어지는 문제가 발생할 수 있으며, 700ppi를 초과할 경우 과적합이 발생해 충치, 금 및 아말감이 아닌 경우도 맞다고 판별하는 문제가 발생할 수 있어 바람직하지 않다.At this time, if the image resolution of the dental caries data set is less than 500 ppi, there may be a problem with the accuracy of caries discrimination. It is not desirable to have
또한, S311단계는 배치 사이즈(Batch size)가 20 내지 30으로 설정될 수 있으며, 24인 것이 가장 바람직하나, 이에 한정하지 않는다.In addition, in step S311, the batch size may be set to 20 to 30, and most preferably 24, but is not limited thereto.
여기서 배치 사이즈(Batch size)는 전체 트레이닝 데이터 셋을 여러 작은 그룹을 나누었을 때 하나의 소그룹에 속하는 데이터 수를 의미하는 것이다.Here, the batch size means the number of data belonging to one small group when the entire training data set is divided into several small groups.
이처럼, S311단계는 배치 사이즈를 상기와 같은 수치로 설정함으로써 가장 좋은 충치판별 성능을 확인할 수 있었다.As such, in step S311, the best caries discrimination performance was confirmed by setting the batch size to the above numerical values.
충치판별 학습단계(S312)는 전처리된 충치 데이터 셋을 학습하여 충치판별 모델을 구축하는 단계이다.The caries discrimination learning step (S312) is a step of building a caries discrimination model by learning the preprocessed caries data set.
보다 구체적으로, S312단계는 SGD(Stochastoc gradient descent) optimizer와 학습속도(Learning rate)의 값을 0.01 내지 0.05로 설정하여 수행할 수 있으며, 0.01로 설정하는 것이 가장 바람직하나, 이에 한정하지 않는다.More specifically, step S312 can be performed by setting the value of the SGD (Stochastoc gradient descent) optimizer and the learning rate to 0.01 to 0.05, and it is most preferable to set it to 0.01, but not limited thereto.
이처럼, S312단계는 상기와 같이 구축한 충치판별 모델의 학습결과에 따라, 기설정된 수치 이하일 경우, S311단계로 돌아가 충치 데이터 셋의 전처리 과정을 다시 수행할 수 있다. 이후 S312단계를 재수행하게 되고, 학습결과가 기설정된 수치를 초과할 경우 다음 단계를 통해 치아 이미지로부터 충치를 판별할 수 있다.As such, in step S312, if the value is less than or equal to a predetermined value according to the learning result of the caries discrimination model built as described above, the preprocessing process of the caries data set may be performed again by returning to step S311. Thereafter, step S312 is performed again, and when the learning result exceeds a predetermined value, caries can be determined from the tooth image through the next step.
충치판별단계(S313)는 상기에서 설명한 YOLOv5 모델을 이용하여 충치의 유무와 위치를 판별하는 단계이다.The caries determination step (S313) is a step of determining the presence and location of caries using the YOLOv5 model described above.
보다 구체적으로 S313단계는 치아 이미지로부터 충치판별 모델을 통해 충치를 판별하여, 사용자로 하여금 충치의 유무와 위치를 파악하도록 할 수 있다.More specifically, in step S313, caries can be determined from the tooth image through a caries discrimination model, and the user can determine the presence and location of caries.
이와 같이, 본 발명에 따른 충치분석단계(S31)는 도 3에 도시된 바와 같이, 치아 이미지로부터 충치를 검출할 수 있다.In this way, caries analysis step (S31) according to the present invention, as shown in Figure 3, can detect caries from the tooth image.
이처럼 상기와 같은 단계를 통해 구축된 충치판별 모델은 객체 탐지에서 정확도 지표로 사용되는 Precision과 mAP(mean Average Precision, 평균정밀도), IoU(Intersection over Union)을 이용하여 정확도에 대한 학습결과를 측정할 수 있다.In this way, the caries discrimination model built through the above steps can measure the learning result for accuracy using Precision, mAP (mean Average Precision), and IoU (Intersection over Union), which are used as accuracy indicators in object detection. can
상기의 수식에 따라, IoU 값이 본 발명의 충치판별 모델에서 설정해놓은 Threshold값인 0.7을 기준으로 하기 표와 같이 예측 결과에 대한 TP(True Positive), FN(False Negative), FP(False Positive) 및 TN(True Negative)값을 구할 수 있다.According to the above formula, the IoU value is TP (True Positive), FN (False Negative), FP (False Positive) and FP (False Positive) and TN (True Negative) value can be obtained.
또한, 상기의 식과 같이 Recall과 Precision은 반비례 관계를 가지는데, Recall을 0 부터 1까지 11개의 값으로 나눈 뒤, Precison 값을 평균 내서 AP(Average Precision)를 구할 수 있다. 모든 클래스에 대해서 AP 값을 구한 뒤 평균을 내서 mAP값을 도출할 수 있다.In addition, as shown in the above formula, Recall and Precision have an inversely proportional relationship. Average Precision (AP) can be obtained by dividing Recall into 11 values from 0 to 1 and averaging the Precison values. After obtaining AP values for all classes, the mAP value can be derived by averaging.
표 2를 참조하면, 본 발명에 따른 충치판별모델의 학습결과는 모든 클래스에 대하여 전체적으로 높은 정확도를 가지는 것을 확인할 수 있었다. 충치의 경우 다양한 형태가 존재함으로 인해, 색상과 모양이 어느 정도 고정된 다른 클래스에 비해 mAP@.5 값이 다소 낮은 것을 확인할 수 있었다. Referring to Table 2, it was confirmed that the learning results of the dental caries discrimination model according to the present invention had overall high accuracy for all classes. In the case of caries, due to the existence of various shapes, it was confirmed that the value of mAP@.5 was slightly lower than that of other classes in which the color and shape were fixed to some extent.
도 4를 참조하면, 치석분석단계(S32)는 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 단계이다.Referring to Figure 4, the calculus analysis step (S32) is a step of determining the calculus by classifying the tooth image in pixel units.
보다 구체적으로, S32단계는 Image Segmentation 모델 중 Instance Segmentation 모델을 이용하여 치아 이미지 데이터베이스로부터 치석을 분리하였고, 2-Stage Detector인 Mask R-CNN 모델을 적용하여 치석을 판별하였다.More specifically, in step S32, calculus was separated from the tooth image database using the Instance Segmentation model among the Image Segmentation models, and calculus was discriminated by applying the 2-Stage Detector Mask R-CNN model.
여기서 Instance Segmentation 모델은 이미지에서 모든 객체를 찾고 동시에 Instance에 대해서 픽셀 단위로 분류하는 모델이며, Mask R-CNN은 Faster R-CNN에서 Instance에 대해 픽셀 단위로 찾기 위해 확장된 모델이다. Here, the Instance Segmentation model is a model that finds all objects in the image and classifies the instances in pixel units at the same time, and Mask R-CNN is an extended model from Faster R-CNN to find instances in pixel units.
이때, Faster R-CNN은 기존의 R-CNN에서 약 2,000개에 가까운 Region Proposal을 생성해야 하는 점을 뉴럴 네트워크로 해결한 모델이다. Faster R-CNN은 Region Proposal을 생성하는 방법 자체를 CNN 내부에 네트워크 구조로 넣어놓은 모델인데, 이 네트워크를 RPN(Region Proposal Network)이라고 한다. RPN을 통해서, RoI Pooling을 수행하는 레이어와 Bounding Box를 추출하는 레이어가 같은 특징을 공유할 수 있다. Faster R-CNN에서는 Classification 과 Bounding Box Regression 두 가지만 구하는데 Mask R-CNN에서는 Mask를 추가적으로 얻을 수 있다. 이 Mask 값은 Faster R-CNN에서는 입력 이미지의 원본 위치정보가 왜곡되는 ROI pooling을 사용해서 구할 수 없었는데 Mask R-CNN에서는 ROI align을 통해서 위치정보를 손실하지 않고 Mask 값을 구할 수 있다. 구체적으로, Fast R-CNN은 object detection을 위한 모델이었기 때문에 ROI Pooling에서 정확한 위치 정보를 담는 것이 중요하지 않았으나, 소수점을 반올림한 좌표를 가지고 Pooling을 해주면 input image의 원본 위치 정보가 왜곡되는 문제가 발생되므로, 이를 해결하기 위해 Mask R-CNN 에서는 ROI Pooling 대신에 ROI Align을 사용하는 것이다.At this time, Faster R-CNN is a model that solves the need to generate about 2,000 Region Proposals in the existing R-CNN with a neural network. Faster R-CNN is a model that puts the method of generating Region Proposal itself into a network structure inside CNN, and this network is called RPN (Region Proposal Network). Through RPN, a layer performing RoI pooling and a layer extracting a bounding box can share the same characteristics. In Faster R-CNN, only Classification and Bounding Box Regression are obtained, but in Mask R-CNN, a mask can be additionally obtained. This mask value could not be obtained using ROI pooling in which the original location information of the input image is distorted in Faster R-CNN, but in Mask R-CNN, the mask value can be obtained without loss of location information through ROI align. Specifically, Fast R-CNN was a model for object detection, so it was not important to include accurate location information in ROI Pooling. Therefore, to solve this problem, Mask R-CNN uses ROI Align instead of ROI Pooling.
이에, 본 발명에서 Mask R-CNN은 RPN(Region Proposal Network)를 통해 치석의 위치정보를 추출할 수 있고, Classification와 Mask를 구하는 방식인 2-Stage Detector를 통해 속도는 느리지만 정확하게 치석을 검출할 수 있는 장점이 있다.Therefore, in the present invention, Mask R-CNN can extract the location information of calculus through RPN (Region Proposal Network), and detect calculus accurately through slow but accurate 2-Stage Detector, which is a method of obtaining classification and mask. There are advantages to being able to
치석분석단계(S32)의 Faster R-CNN는"치석을 예측하는 branch", "치석의 bounding box를 뽑아내는 branch" 및 "각 치석의 mask 값을 뽑아내는 branch"를 포함할 수 있다. "각 치석의 mask 값을 뽑아내는 branch"는 FCN(Fully Convolutional Network)을 통해 구현될 수 있다. Faster R-CNN of the calculus analysis step (S32) may include "branch to predict calculus", "branch to extract the bounding box of calculus" and "branch to extract the mask value of each calculus". "Branch extracting the mask value of each calculus" can be implemented through Fully Convolutional Network (FCN).
여기서, FCN은 컨벌루션 계층(Convolution layer)들을 여러 차례 거치면서 입력된 이미지의 크기가 줄어들게 하고, 이미지 내의 특징(Feature)이 추출된 뒤에, 풀리 커넥티드 계층(Fully-Connected Layer)를 거치면서 이미지가 분류할 수 있다. Here, FCN reduces the size of the input image by going through several convolution layers, extracts features in the image, and then goes through a Fully-Connected Layer to transform the image. can be classified.
S32단계는 치석 라벨링단계(S320), 치석판별 전처리단계(S321), 치석판별 학습단계(S322) 및 치석판별단계(S323)를 포함할 수 있다.Step S32 may include a calculus labeling step (S320), a tartar discrimination preprocessing step (S321), a tartar discrimination learning step (S322), and a tartar discrimination step (S323).
치석 라벨링단계(S320)는 수집된 치아 이미지 데이터베이스로부터 치석을 표기한 주석(Annotation)을 저장하여 치석 데이터 셋을 확보할 수 있다.In the calculus labeling step (S320), a calculus data set may be secured by storing an annotation indicating calculus from the collected tooth image database.
치석판별 전처리단계(S321)는 학습의 정확도를 높이기 위해 주석이 표기된 치석 데이터 셋의 해상도를 조절하여 고정하는 단계이다.The calculus discrimination preprocessing step (S321) is a step of adjusting and fixing the resolution of the calculus data set marked with annotations to increase the accuracy of learning.
이때, S321단계는 충치분석단계(S31)의 S311단계와 동일하게 수행될 수 있으나, 이에 한정하지 않는다.At this time, step S321 may be performed in the same manner as step S311 of cavity analysis step (S31), but is not limited thereto.
치석판별 학습단계(S322)는 전처리된 치석 데이터 셋을 학습하여 치석판별 모델을 구축하는 단계이다.The calculus discrimination learning step (S322) is a step of building a calculus discrimination model by learning the preprocessed calculus data set.
보다 구체적으로, S322단계에서 Mask R-CNN모델은 Classification 손실함수, Bounding Box 손실함수, Mask손실함수를 포함하는 손실함수를 기초하여 학습될 수 있다. 이때, 손실함수는 Classification 손실함수, Bounding Box 손실함수, Mask손실함수를 각각 구한 후 평균을 내는 방식을 취할 수 있다.More specifically, in step S322, the Mask R-CNN model may be learned based on a loss function including a classification loss function, a bounding box loss function, and a mask loss function. At this time, the loss function can take a method of calculating the average after obtaining the classification loss function, the bounding box loss function, and the mask loss function.
또한, S322단계는 상기에서 설명한 Mask R-CNN모델의 Backbone 구조로 ResNet-101을 이용하여 치석판별 모델을 구축할 수 있다.In addition, in step S322, a calculus discrimination model can be built using ResNet-101 with the Backbone structure of the Mask R-CNN model described above.
마지막으로 치석판별단계(S323)는 치아 이미지로부터 상기 치석판별 모델을 통해 치석을 판별하는 단계이다.Finally, the calculus discrimination step (S323) is a step of discriminating tartar from the tooth image through the calculus discrimination model.
보다 구체적으로 S323단계는 치아 이미지로부터 치석판별 모델을 통해 치석을 판별하여, 사용자로 하여금 치석의 유무와 위치를 파악하도록 할 수 있다.More specifically, in step S323, calculus is determined from the tooth image through a calculus discrimination model, and the user can determine the presence and location of calculus.
이처럼 상기와 같이 구축된 치석분석단계(S32)는 충치분석단계(S31)과 동일한 방법으로 정확도에 대한 학습결과를 도출할 수 있으며, 이에 대한 자세한 설명은 생략하기로 한다.Thus, the calculus analysis step (S32) constructed as above can derive the learning result for accuracy in the same way as the cavity analysis step (S31), and a detailed description thereof will be omitted.
도 5는 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 시스템의 구성도이다.5 is a configuration diagram of a tooth condition analysis system based on deep learning according to an embodiment of the present invention.
도 5를 참조하면 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 시스템은 사용자 단말(10) 및 서버(20)를 포함할 수 있다. Referring to FIG. 5 , a deep learning-based dental condition analysis system according to an embodiment of the present invention may include a
사용자 단말(10)은 사용자로부터 치아 이미지를 입력받을 수 있다. 여기서, 사용자 단말(10) 및 치아 이미지는 상기의 딥러닝 기반의 치아상태 분석 방법에 설명한 것과 동일하므로, 설명을 생략하기로 한다. The
서버(20)는 사용자 단말로부터 치아 이미지를 수신하여 치아 상태를 딥러닝 기반으로 분석하여 치아분석정보를 생성하고, 생성된 상기의 치아분석정보를 사용자 단말(10)에 전송할 수 있다. 이를 위해 서버(20)는 수신부(21), 수집부(22) 및 분석부(23)를 포함할 수 있다.The
수신부(21)는 사용자 단말(10)로부터 치아 이미지를 수신할 수 있다.The receiving unit 21 may receive a tooth image from the
수집부(22)는 치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집할 수 있다. 이때, 치아 이미지 데이터베이스는 개인정보가 제외된 치아 이미지를 의미할 수 있다.The collecting
분석부(23)는 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 수신부(21)가 수신한 치아 이미지로부터 사용자의 치아상태를 분석하여 치아분석정보를 생성하고 사용자 단말(10)에 전송할 수 있다.The
보다 구체적으로, 분석부(23)는 충치부 및 치석부를 포함할 수 있다.More specifically, the
충치부는 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 것으로, 충치 라벨링부, 충치판별 전처리부, 충치판별 학습부 및 충치판별부를 포함할 수 있다.The caries unit determines caries by using an object detection method from a tooth image, and may include a caries labeling unit, a caries determination pre-processing unit, a caries determination learning unit, and a caries determination unit.
치석부는 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 것으로, 치석 라벨링부, 치석판별 전처리부, 치석판별 학습부 및 치석판별부를 포함할 수 있다.The calculus unit classifies the tooth image in pixel units to determine calculus, and may include a calculus labeling unit, a calculus determination pre-processing unit, a calculus determination learning unit, and a calculus determination unit.
충치부와 치석부에 대한 구체적인 설명은 상기 치아 분석 방법에서 설명하였으므로 생략하기로 한다.A detailed description of the cavity and calculus will be omitted since it has been described in the tooth analysis method.
이처럼, 본 발명의 실시예에 따른 딥러닝 기반의 치아상태 분석 방법 및 시스템은 충치와 치석을 판별하는 YOLOv5와 Mask R-CNN을 적용한 딥러닝 모델을 통해 누구나 쉽고 빠르고 정확하게 구강건강을 관리하도록 하는 장점이 있다.As such, the deep learning-based dental condition analysis method and system according to an embodiment of the present invention is an advantage that anyone can easily, quickly and accurately manage oral health through a deep learning model using YOLOv5 and Mask R-CNN that discriminate between tooth decay and calculus. there is
이상에서 설명하는 본 발명의 실시예는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경하여 구현할 수 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.The embodiments of the present invention described above can be implemented by various substitutions, modifications, and changes without departing from the technical spirit of the present invention, and such implementations can be made by experts in the technical field to which the present invention belongs from the description of the above-described embodiments. If so, it is easy to implement.
10: 사용자 단말
20 : 서버
21 : 수신부
22 : 수집부
23 : 분석부10: user terminal
20: server
21: receiver
22: collection unit
23: analysis unit
Claims (9)
치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집하는 수집단계;
상기 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 상기 수신단계에서 수신한 치아 이미지로부터 사용자의 치아상태를 분석하는 분석단계를 포함하며,
상기 분석단계는,
상기 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 충치분석단계 및
상기 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 치석분석단계를 포함하는 딥러닝 기반의 치아상태 분석 방법.
A receiving step of receiving a tooth image from a user terminal;
A collection step of collecting a tooth image database from dentistry and web crawling;
An analysis step of learning the collected tooth image database and analyzing the user's tooth condition from the tooth image received in the receiving step based on the learning result,
The analysis step is
A tooth decay analysis step of determining tooth decay using an object detection method from the tooth image, and
Deep learning-based dental condition analysis method comprising a calculus analysis step of classifying the tooth image in pixel units to determine calculus.
상기 분석단계는,
정확도에 대한 학습결과가 기설정된 수치 이하일 경우 치아 이미지 데이터베이스에 대한 학습을 반복하고, 기설정된 수치를 초과할 경우 상기 사용자의 치아상태를 분석하는 것을 특징으로 하는 딥러닝 기반의 치아상태 분석 방법.
According to claim 1,
The analysis step is
Deep learning-based tooth condition analysis method, characterized by repeating learning on the tooth image database when the learning result for accuracy is less than a preset value, and analyzing the user's tooth condition when it exceeds the preset value.
상기 충치분석단계는,
상기 수집된 치아 이미지 데이터베이스를 라벨링하여 충치 데이터 셋을 확보하는 충치 라벨링단계;
상기 충치 데이터 셋의 데이터 양을 증대시키고, 해상도를 조절하는 충치판별 전처리단계;
상기 전처리된 충치 데이터 셋을 학습하여 충치판별 모델을 구축하는 충치판별 학습단계 및
상기 치아 이미지로부터 상기 충치판별 모델을 통해 충치를 판별하는 충치판별단계를 포함하는 딥러닝 기반의 치아상태 분석 방법.
According to claim 1,
The cavity analysis step,
a cavity labeling step of securing a cavity data set by labeling the collected tooth image database;
a caries determination pre-processing step of increasing the data amount of the caries data set and adjusting the resolution;
A caries discrimination learning step of building a caries discrimination model by learning the preprocessed caries data set, and
A tooth condition analysis method based on deep learning comprising a tooth decay determination step of determining tooth decay from the tooth image through the tooth decay determination model.
상기 충치 라벨링단계는,
상기 수집된 치아 이미지 데이터베이스에 대하여 충치, 금 및 아말감으로 각각 라벨링하여 세 가지 클래스로 상기 충치 데이터 셋을 확보하는 것을 특징으로 하는 딥러닝 기반의 치아상태 분석 방법.
According to claim 3,
The cavity labeling step,
Deep learning-based tooth condition analysis method, characterized in that for securing the cavity data set in three classes by labeling the collected tooth image database with caries, gold and amalgam, respectively.
상기 치석분석단계는,
상기 수집된 치아 이미지 데이터베이스로부터 치석을 표기한 주석(Annotation)을 저장하여 치석 데이터 셋을 확보하는 치석 라벨링단계;
상기 주석이 표기된 치석 데이터 셋의 해상도를 조절하는 치석판별 전처리단계;
상기 전처리된 치석 데이터 셋을 학습하여 치석판별 모델을 구축하는 치석판별 학습단계 및
상기 치아 이미지로부터 상기 치석판별 모델을 통해 치석을 판별하는 치석판별단계를 포함하는 딥러닝 기반의 치아상태 분석 방법.
According to claim 1,
The calculus analysis step,
A calculus labeling step of securing a calculus data set by storing an annotation indicating calculus from the collected tooth image database;
Calculus determination pre-processing step of adjusting the resolution of the calculus data set marked with the annotation;
A calculus discrimination learning step of building a calculus discrimination model by learning the preprocessed calculus data set, and
Deep learning-based dental condition analysis method comprising a calculus discrimination step of discriminating calculus from the tooth image through the calculus discrimination model.
상기 사용자 단말로부터 치아 이미지를 수신하여 치아 상태를 딥러닝 기반으로 분석하여 치아분석정보를 생성하고, 생성된 상기의 치아분석정보를 상기 사용자 단말에 전송하는 서버를 포함하고,
상기 서버는,
치아 이미지를 수신하는 수신부;
치과 및 웹 크롤링으로부터 치아 이미지 데이터베이스를 수집하는 수집부 및
상기 수집된 치아 이미지 데이터베이스를 학습하고, 학습결과에 근거하여 상기 수신부로부터 수신한 치아 이미지로부터 사용자의 치아상태를 분석하는 분석부를 포함하는 딥러닝 기반의 치아상태 분석 시스템.
A user terminal receiving a tooth image from a user;
A server for receiving a tooth image from the user terminal, analyzing a tooth state based on deep learning, generating tooth analysis information, and transmitting the generated tooth analysis information to the user terminal;
The server,
Receiving unit for receiving a tooth image;
A collection unit for collecting tooth image databases from dentistry and web crawling; and
A deep learning-based dental condition analysis system comprising an analysis unit that learns the collected tooth image database and analyzes the user's tooth condition from the tooth image received from the receiver based on the learning result.
상기 분석부는,
상기 치아 이미지로부터 객체 탐지 방법을 이용하여 충치를 판별하는 충치부 및
상기 치아 이미지를 픽셀 단위로 분류하여 치석을 판별하는 치석부를 포함하는 딥러닝 기반의 치아상태 분석 시스템.
According to claim 6,
The analysis unit,
A tooth decay unit for determining tooth decay using an object detection method from the tooth image, and
Deep learning-based dental condition analysis system comprising a calculus unit for classifying the tooth image in pixel units to determine calculus.
상기 충치부는,
상기 수집된 치아 이미지 데이터베이스를 라벨링하여 충치 데이터 셋을 확보하는 충치 라벨링부;
상기 충치 데이터 셋의 데이터 양을 증대시키고, 해상도를 조절하는 충치판별 전처리부;
상기 전처리된 충치 데이터 셋을 학습하여 충치판별 모델을 구축하는 충치판별 학습부 및
상기 치아 이미지로부터 상기 충치판별 모델을 통해 충치를 판별하는 충치판별부를 포함하는 딥러닝 기반의 치아상태 분석 시스템.
According to claim 7,
The tooth decay department,
a caries labeling unit to secure a caries data set by labeling the collected tooth image database;
a caries determination pre-processing unit increasing the data amount of the caries data set and adjusting the resolution;
A caries discrimination learning unit that learns the preprocessed caries data set to build a caries discrimination model; and
A dental condition analysis system based on deep learning including a caries discriminating unit for discriminating caries from the tooth image through the caries discriminating model.
상기 치석부는,
상기 수집된 치아 이미지 데이터베이스로부터 치석을 표기한 주석(Annotation)을 저장하여 치석 데이터 셋을 확보하는 치석 라벨링부;
상기 주석이 표기된 치석 데이터 셋의 해상도를 조절하는 치석판별 전처리부;
상기 전처리된 치석 데이터 셋을 학습하여 치석판별 모델을 구축하는 치석판별 학습부 및
상기 치아 이미지로부터 상기 치석판별 모델을 통해 치석을 판별하는 치석판별부를 포함하는 딥러닝 기반의 치아상태 분석 시스템.
According to claim 7,
The dental calculus,
A calculus labeling unit that secures a calculus data set by storing annotations indicating calculus from the collected tooth image database;
Calculus determination pre-processing unit for adjusting the resolution of the calculus data set marked with the annotation;
A calculus discrimination learning unit that learns the preprocessed calculus data set to build a calculus discrimination model, and
Deep learning-based dental condition analysis system including a calculus discriminating unit for discriminating calculus from the tooth image through the calculus discriminating model.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210171874 | 2021-12-03 | ||
KR1020210171874 | 2021-12-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230083966A true KR20230083966A (en) | 2023-06-12 |
Family
ID=86770295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220028936A KR20230083966A (en) | 2021-12-03 | 2022-03-07 | Teeth condition analyzing method and system based on deep learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230083966A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118230068A (en) * | 2024-04-30 | 2024-06-21 | 北京大学口腔医学院 | Deep learning-based tooth abrasion degree grading judgment method and system |
-
2022
- 2022-03-07 KR KR1020220028936A patent/KR20230083966A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118230068A (en) * | 2024-04-30 | 2024-06-21 | 北京大学口腔医学院 | Deep learning-based tooth abrasion degree grading judgment method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563887B (en) | Intelligent analysis method and device for oral cavity image | |
US20190167115A1 (en) | Method and system for processing an image of the teeth and gums | |
CN109190540A (en) | Biopsy regions prediction technique, image-recognizing method, device and storage medium | |
KR20200110878A (en) | A system and method for early diagnosing dental caries based on the deep learning | |
CN113469987A (en) | Dental X-ray image lesion area positioning system based on deep learning | |
CN117152507B (en) | Tooth health state detection method, device, equipment and storage medium | |
CN111370059A (en) | Prediction system and method for tumor mutation load | |
CN111798445B (en) | Tooth image caries identification method and system based on convolutional neural network | |
Antolin et al. | Tooth condition classification for dental charting using convolutional neural network and image processing | |
CN113397485A (en) | Scoliosis screening method based on deep learning | |
KR20230083966A (en) | Teeth condition analyzing method and system based on deep learning | |
Jaiswal et al. | An intelligent deep network for dental medical image processing system | |
Sathyavathi et al. | Human age estimation using deep convolutional neural network based on dental images (orthopantomogram) | |
Hemalatha et al. | A modified machine learning classification for dental age assessment with effectual ACM-JO based segmentation | |
Datta et al. | Neutrosophic set-based caries lesion detection method to avoid perception error | |
JP2011115393A (en) | Skin feature determination system, skin feature determination method, and skin feature determination program | |
KR20200058316A (en) | Automatic tracking method of cephalometric point of dental head using dental artificial intelligence technology and service system | |
Nassar | A prototype automatic dental identification system (ADIS) | |
CN117808731A (en) | Tooth wear degree prediction method, device, equipment and storage medium | |
CN116313021A (en) | Medical treatment management system and method for hospital | |
CN111612755B (en) | Lung focus analysis method, device, electronic equipment and storage medium | |
US7848551B2 (en) | Method and system for analysis of bone density | |
CN116113984A (en) | Skin surface analysis device and skin surface analysis method | |
CN112086193A (en) | Face recognition health prediction system and method based on Internet of things | |
El Bagoury et al. | Dental Disease Detection based on CNN for Panoramic Dental Radiographs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |