[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022012198A - Identification device, scanner system, identification method, and identification program - Google Patents

Identification device, scanner system, identification method, and identification program Download PDF

Info

Publication number
JP2022012198A
JP2022012198A JP2020113850A JP2020113850A JP2022012198A JP 2022012198 A JP2022012198 A JP 2022012198A JP 2020113850 A JP2020113850 A JP 2020113850A JP 2020113850 A JP2020113850 A JP 2020113850A JP 2022012198 A JP2022012198 A JP 2022012198A
Authority
JP
Japan
Prior art keywords
identification
tooth
type
dimensional data
identification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020113850A
Other languages
Japanese (ja)
Other versions
JP7267974B2 (en
Inventor
亮佑 鍛治
Ryosuke Kaji
巳貴則 西村
Mikinori Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2020113850A priority Critical patent/JP7267974B2/en
Publication of JP2022012198A publication Critical patent/JP2022012198A/en
Application granted granted Critical
Publication of JP7267974B2 publication Critical patent/JP7267974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)

Abstract

To enhance possibility of a three-dimensional scanner in a dental field, and widen an application of three-dimensional data acquired by a three-dimensional scanner.SOLUTION: An identification device 100 comprises: an input part 1102 into which three-dimensional data including positional information on each of plural points forming a shape of an oral cavity, is input; a processing kind identification part 1132 for identifying a processing site, on the basis of the three-dimensional data input from the input part 1102, and a processing kind estimation model 114 including a first NNW 1142 for estimating the processing site on the basis of the three-dimensional data; and an output part 1103 for outputting the identification result by the processing kind identification part 1132.SELECTED DRAWING: Figure 5

Description

本開示は、識別装置、当該識別装置を備えるスキャナシステム、識別方法、および識別用プログラムに関する。 The present disclosure relates to an identification device, a scanner system including the identification device, an identification method, and an identification program.

従来、歯科分野において、補綴物などをコンピュータ上でデジタル設計するために、歯牙の三次元形状を取得する三次元カメラを内蔵した三次元スキャナが公知である。たとえば、特許文献1には、三次元カメラを用いて歯牙を撮像することで、歯牙の形状を記録する技術が開示されている。 Conventionally, in the field of dentistry, a three-dimensional scanner having a built-in three-dimensional camera that acquires a three-dimensional shape of a tooth has been known in order to digitally design a prosthesis or the like on a computer. For example, Patent Document 1 discloses a technique for recording the shape of a tooth by photographing the tooth with a three-dimensional camera.

特開2000-74635号公報Japanese Unexamined Patent Publication No. 2000-74635

このように、三次元スキャナは、補綴物などをデジタル設計することに利用されてきた。しかし、三次元スキャナによって得られる情報を、他の用途で利用することは鑑みられていなかった。 In this way, three-dimensional scanners have been used for digitally designing prostheses and the like. However, it has not been considered that the information obtained by the three-dimensional scanner can be used for other purposes.

本開示は、三次元スキャナによって得られる三次元データの用途を広げることであって、歯科分野における三次元スキャナの可能性を高めることを目的とする。 The present disclosure is to expand the use of the three-dimensional data obtained by the three-dimensional scanner, and aims to enhance the possibility of the three-dimensional scanner in the dental field.

本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別装置が提供される。識別装置は、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを備える。 According to the present disclosure, there is provided an identification device for identifying a processed site with respect to a biological site in the oral cavity. The identification device is used for an input unit in which three-dimensional data including three-dimensional position information at each of a plurality of points constituting the shape in the oral cavity is input, a three-dimensional data input from the input unit, and three-dimensional data. Based on an estimation model including a neural network for estimating a processed portion based on the machined portion, an identification unit for identifying the processed portion and an output unit for outputting the identification result by the identification unit are provided.

本開示に従えば、口腔内の形状情報を取得するスキャナシステムが提供される。スキャナシステムは、三次元カメラを用いて口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、識別装置は、三次元スキャナによって取得された三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを含む。 According to the present disclosure, a scanner system for acquiring shape information in the oral cavity is provided. The scanner system uses a three-dimensional camera to acquire three-dimensional data including three-dimensional position information at each of a plurality of points constituting the shape of the oral cavity, and a three-dimensional scanner acquired by the three-dimensional scanner. Based on the data, it is equipped with an identification device that identifies the processed part with respect to the biological part in the oral cavity, and the identification device includes an input unit into which the three-dimensional data acquired by the three-dimensional scanner is input and a tertiary input from the input unit. Based on the original data and an estimation model including a neural network for estimating the processed portion based on the three-dimensional data, the identification unit for identifying the processed portion and the output unit for outputting the identification result by the identification unit are included.

本開示に従えば、コンピュータによる口腔内の生体部位に対する加工部位を識別する識別方法が提供される。識別方法は、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを含む。 According to the present disclosure, a computer-based identification method for identifying a processed site with respect to a biological site in the oral cavity is provided. The identification method includes a step in which three-dimensional data including three-dimensional position information at each of a plurality of points constituting the shape in the oral cavity is input, a three-dimensional data input by the input step, and three-dimensional data. It includes a step of identifying a machined part and a step of outputting an identification result by the step of identifying the machined part based on an estimation model including a neural network for estimating a machined part based on.

本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別用プログラムは提供される。識別用プログラムは、コンピュータに、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを実行させる。 According to the present disclosure, an identification program for identifying a processed site with respect to a biological site in the oral cavity is provided. The identification program includes a step in which three-dimensional data including three-dimensional position information at each of a plurality of points constituting the shape in the oral cavity is input to the computer, and a step in which the three-dimensional data input by the input step is input. , The step of identifying the machined part and the step of outputting the identification result by the step of identifying the machined part are executed based on the estimation model including the neural network for estimating the machined part based on the three-dimensional data.

本開示によれば、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データから、口腔内の加工部位を識別することができ、加工部位を識別するという新たな用途を提供できる。 According to the present disclosure, it is possible to identify a processed portion in the oral cavity from three-dimensional data including three-dimensional position information at each of a plurality of points constituting the shape of the oral cavity, and it is possible to identify the processed portion. Can provide various uses.

実施形態1にかかるスキャナシステム10の全体構成を示す模式図である。It is a schematic diagram which shows the whole structure of the scanner system 10 which concerns on Embodiment 1. FIG. 実施形態1にかかるスキャナシステム10の適用例を示す模式図である。It is a schematic diagram which shows the application example of the scanner system 10 which concerns on Embodiment 1. FIG. 実施形態1にかかるスキャナシステム10を適用可能なシステムの全体構成を示す模式図である。It is a schematic diagram which shows the whole structure of the system to which the scanner system 10 which concerns on Embodiment 1 can apply. 実施形態1にかかる識別装置100のハードウェア構成を示す模式図である。It is a schematic diagram which shows the hardware composition of the identification apparatus 100 which concerns on Embodiment 1. FIG. 実施形態1にかかる識別装置100の機能構成を示す模式図である。It is a schematic diagram which shows the functional structure of the identification apparatus 100 which concerns on Embodiment 1. FIG. 実施形態1にかかる識別装置100による識別処理を説明するための模式図である。It is a schematic diagram for demonstrating the identification process by the identification apparatus 100 which concerns on Embodiment 1. FIG. 実施形態1にかかる学習用データの生成を説明するための模式図である。It is a schematic diagram for demonstrating the generation of learning data which concerns on Embodiment 1. FIG. 実施形態1にかかる学習用データの一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of learning data which concerns on Embodiment 1. FIG. 実施形態1にかかる識別装置100が実行する加工種用の学習処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the learning process for the processing type executed by the identification apparatus 100 which concerns on Embodiment 1. FIG. 実施形態1にかかる識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the service provision process executed by the identification apparatus 100 which concerns on Embodiment 1. FIG. 測定中の出力例を示す図である。It is a figure which shows the output example during measurement. 測定中の出力例の変形例を示す図である。It is a figure which shows the modification of the output example during measurement. 実施形態2にかかるスキャナシステム10aの測定中に機能する機能構成を示す模式図である。It is a schematic diagram which shows the functional structure which functions during the measurement of the scanner system 10a which concerns on Embodiment 2. 実施形態2にかかる識別装置100aの測定後にカルテを生成する際に機能する機能構成を示す模式図である。It is a schematic diagram which shows the functional structure which functions when the medical record is generated after the measurement of the identification apparatus 100a which concerns on Embodiment 2. 加工部位の歯牙の種類を推定する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of estimating the type of the tooth of a processed part. 実施形態2にかかる学習用データセット116aの一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the learning data set 116a which concerns on Embodiment 2. FIG. 実施形態2にかかる学習用データセット116aに基づく学習済モデル115aの生成を説明するための模式図である。It is a schematic diagram for demonstrating the generation of the trained model 115a based on the learning data set 116a which concerns on Embodiment 2. FIG. 実施形態2にかかる識別装置100aが実行する歯牙種用の学習処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the learning process for the tooth type executed by the identification apparatus 100a which concerns on Embodiment 2. FIG. 実施形態2にかかる識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the service provision process executed by the identification apparatus 100a which concerns on Embodiment 2. FIG. 実施形態2にかかる識別装置100aが実行するカルテ生成処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the medical record generation processing executed by the identification apparatus 100a which concerns on Embodiment 2. FIG. 実施形態3にかかるスキャナシステム10bの測定中に機能する機能構成を示す模式図である。It is a schematic diagram which shows the functional structure which functions during the measurement of the scanner system 10b which concerns on Embodiment 3. FIG. 測定後にカルテを生成する際に機能する識別装置100bの機能構成を示す模式図である。It is a schematic diagram which shows the functional structure of the identification apparatus 100b which functions at the time of generating a medical record after measurement. 実施形態3にかかる学習用データセット116bに基づく学習済モデル115bの生成を説明するための模式図である。It is a schematic diagram for demonstrating the generation of the trained model 115b based on the learning data set 116b which concerns on Embodiment 3. FIG. 実施形態3にかかる識別装置100bが実行する病変用の学習処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the learning process for a lesion performed by the identification apparatus 100b which concerns on Embodiment 3. FIG. 実施形態3にかかる識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the service provision process executed by the identification apparatus 100b which concerns on Embodiment 3. FIG. 実施形態3にかかる識別装置100bが実行するカルテ生成処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the medical record generation processing executed by the identification apparatus 100b which concerns on Embodiment 3. FIG. 変形例にかかる学習用データセットの一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the learning data set which concerns on a modification. 変形例にかかる学習用データセットを説明するための図である。It is a figure for demonstrating the learning data set which concerns on a modification. 変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of a service provision process executed by the identification apparatus 100c which concerns on a modification.

本開示の実施形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 The embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated.

<実施形態1>
[スキャナシステム10の概略]
図1~図3を参照しながら、実施形態1にかかるスキャナシステム10の概略について説明する。図1は、実施形態1にかかるスキャナシステム10の全体構成を示す模式図である。図2は、実施形態1にかかるスキャナシステム10の適用例を示す模式図である。図3は、実施形態1にかかるスキャナシステム10を適用可能なシステムの全体構成を示す模式図である。
<Embodiment 1>
[Outline of Scanner System 10]
The outline of the scanner system 10 according to the first embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is a schematic diagram showing the overall configuration of the scanner system 10 according to the first embodiment. FIG. 2 is a schematic diagram showing an application example of the scanner system 10 according to the first embodiment. FIG. 3 is a schematic diagram showing an overall configuration of a system to which the scanner system 10 according to the first embodiment can be applied.

図1を参照して、実施形態1にかかるスキャナシステム10は、三次元スキャナ200と、識別装置100と、ディスプレイ300とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象の三次元データ122を取得する。具体的には、三次元スキャナ200は、口腔内をスキャンすることで、三次元データ122として、口腔内の形状を構成する複数の点のそれぞれの位置情報(縦方向,横方向,高さ方向の各軸の座標)を、光学センサなどを用いて取得する。あるいは、三次元スキャナ200は、口腔内の印象採得によって作成された模型に対してスキャンすることで、三次元データとして、スキャン対象部分を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。識別装置100は、三次元スキャナ200によって取得された三次元データ122に基づき、任意の視点からの歯牙などの像を含む二次元画像、またはホログラムなどによる立体的な歯牙などの画像を含む三次元画像を生成し、生成した三次元画像をディスプレイ300に表示する。 Referring to FIG. 1, the scanner system 10 according to the first embodiment includes a three-dimensional scanner 200, an identification device 100, and a display 300. The three-dimensional scanner 200 acquires the three-dimensional data 122 to be scanned by the built-in three-dimensional camera. Specifically, the three-dimensional scanner 200 scans the inside of the oral cavity to obtain the three-dimensional data 122, and the position information (vertical direction, horizontal direction, height direction) of each of the plurality of points constituting the shape in the oral cavity. (Coordinates of each axis) are acquired using an optical sensor or the like. Alternatively, the three-dimensional scanner 200 scans the model created by taking an impression in the oral cavity to obtain position information (for example, vertical) of each of a plurality of points constituting the scan target portion as three-dimensional data. The X-axis along the direction, the Y-axis along the horizontal direction, and the Z-axis coordinates along the height direction) are acquired using an optical sensor or the like. The identification device 100 is based on the three-dimensional data 122 acquired by the three-dimensional scanner 200, and has a two-dimensional image including an image of teeth or the like from an arbitrary viewpoint, or a three-dimensional image including a three-dimensional tooth or the like by a hologram or the like. An image is generated, and the generated three-dimensional image is displayed on the display 300.

実施形態1にかかるスキャナシステム10は、識別装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データ122に基づき、加工部位を自動的に識別する処理を実行するように構成されている。「加工部位を識別する」とは、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は当該加工部位の種類を識別することを意味する。なお、以下では、識別装置100による三次元データ122に対応する部位がどのような部位であるかを識別する処理を「識別処理」とも称する。 The scanner system 10 according to the first embodiment automatically identifies a machined portion based on the three-dimensional data 122 acquired by the three-dimensional scanner 200 by using AI (artificial intelligence) possessed by the identification device 100. It is configured to perform the processing to be performed. "Identifying the machined part" means identifying whether or not the part corresponding to the three-dimensional data 122 is a machined part, and if it is a machined part, identifying the type of the machined part. In the following, the process of identifying what kind of site the portion corresponding to the three-dimensional data 122 by the identification device 100 is referred to as "identification process".

なお、「加工部位」は、口腔内の生体部位に対して治療を施すために加工された部位を意味する。また、「口腔内の生体部位」には、歯牙だけに限られず、歯肉部分を含み得る。加工部位には、歯牙に対して補綴物または人工歯を取り付けた部位に限られず、顎骨に対してインプラント体を取り付けた部位を含み得る。また、加工部位には、インプラント体、または補綴物といった人工的に生成した物(人工物)が取り付けられた部位に限らず、支台歯や窩洞形成歯のように天然歯を削った部位を含み得る。 The "processed site" means a site processed to treat a biological part in the oral cavity. Further, the "living part in the oral cavity" is not limited to the teeth, but may include the gingival part. The processed site is not limited to the site where the prosthesis or the artificial tooth is attached to the tooth, but may include the site where the implant body is attached to the jawbone. In addition, the processed part is not limited to the part where an artificially generated object (artificial object) such as an implant body or a prosthesis is attached, but also a part where a natural tooth is shaved such as an abutment tooth or a cavity-forming tooth. Can include.

図2を参照して、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内の生体部位をスキャンすると、三次元データ122が識別装置100に入力される。識別装置100は、入力された三次元データ122およびニューラルネットワークを含む推定モデルに基づき、入力された三次元データ122に対応する部位がどのような部位であるかを識別する識別処理を実行する。実施形態1においては、識別装置100は、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する識別処理を実行する。 With reference to FIG. 2, when the user 1 scans the biological part in the oral cavity of the subject 2 using the three-dimensional scanner 200, the three-dimensional data 122 is input to the identification device 100. The identification device 100 executes an identification process for identifying what kind of part corresponds to the input three-dimensional data 122 based on the estimation model including the input three-dimensional data 122 and the neural network. In the first embodiment, the identification device 100 discriminates whether or not the part corresponding to the three-dimensional data 122 is a machined part, and if it is a machined part, executes an identification process for identifying the type of the machined part. ..

「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含む。たとえば、「推定モデル」は、入力データである加工部位の三次元データと、当該三次元データに対応する加工部位の種類を示す正解データとを含む教師データを利用してパラメータが最適化される。 The "estimation model" includes the neural network and the parameters used by the neural network. For example, in the "estimation model", the parameters are optimized by using the teacher data including the three-dimensional data of the machined part which is the input data and the correct answer data indicating the type of the machined part corresponding to the three-dimensional data. ..

ここで、表1に、正解データとして設定され得る加工部位の種類を示す。表1に示すように、加工部位の種類は、大分類として、たとえば、「インプラント」、「窩洞形成歯」、「支台歯」、および「補綴物」などを含む。「インプラント」は、歯根部分に相当する「インプラント体」および支台部分に相当する「アバットメント」などに分類され得る。また、「インプラント体」および「アバットメント」は、どのような補綴物が取り付けられるかによって、分類され得る。「支台歯」および「窩洞形成歯」は、さらに、どのような補綴物が取り付けられるかによって、分類され得る。「補綴物」は、さらに、インレー、アンレー、クラウン、ブリッジ、ベニア、デンチャーなどに分類され得る。 Here, Table 1 shows the types of processed parts that can be set as correct answer data. As shown in Table 1, the types of processed sites include, for example, "implants", "cavity-forming teeth", "abutment teeth", "prostheses" and the like as major categories. The "implant" can be classified into an "implant body" corresponding to a tooth root portion and an "abutment" corresponding to an abutment portion. Also, "implant bodies" and "abutments" can be classified according to what prosthesis is attached. "Abutment teeth" and "cavity-forming teeth" can be further classified according to what prosthesis is attached. "Prosthesis" can be further classified into inlays, onlays, crowns, bridges, veneers, dentures and the like.

Figure 2022012198000002
Figure 2022012198000002

表1に示すように、「加工部位」は、任意に細分化することができ、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」というように分類してもよく、また、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」の各々をさらに細分化して分類してもよい。すなわち、加工部位の分類方法は、任意に設計可能である。 As shown in Table 1, the "processed site" can be arbitrarily subdivided, and can be classified into "abutment tooth", "cavity-forming tooth", "prosthesis", and "implant". Often, each of the "abutment tooth", "cavity-forming tooth", "prosthesis", and "implant" may be further subdivided and classified. That is, the method for classifying the processed portion can be arbitrarily designed.

加工部位の分類方法は、任意に設計可能である。そのため、教師データに含まれる加工部位の種類を示す情報は、特定の分類方法によって分類された種類に加えて、さらに別の分類方法によって分類された場合の種類を含んでいてもよい。たとえば、加工部位の種類を示す情報は、「支台歯」と、「インレー適用の支台歯」とを含んでいてもよい。 The method for classifying the processed parts can be arbitrarily designed. Therefore, the information indicating the type of the processed portion included in the teacher data may include the type classified by another classification method in addition to the type classified by a specific classification method. For example, the information indicating the type of the machined portion may include "abutment tooth" and "inlay-applied abutment tooth".

また、加工部位は、治療中の加工部位と、治療が完了している加工部位とに大別することもできる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療中」であるのか「治療済み」であるのかを特定可能な情報を含んでいてもよい。 Further, the processed portion can be roughly classified into a processed portion being treated and a processed portion having been treated. Therefore, the correct answer data may include information that can identify whether the patient is "under treatment" or "treated" in addition to the information indicating the type of the processed portion.

また、加工部位の種類によって、歯牙に施されている治療内容が異なる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療内容」を示す情報を含んでいても良い。 In addition, the treatment content applied to the teeth differs depending on the type of processed part. Therefore, the correct answer data may include information indicating "treatment content" in addition to information indicating the type of the processed portion.

また、教師データは、加工部位ではない生体部位(たとえば、天然歯、歯肉)の三次元データと、当該三次元データが加工部位ではないことを示す正解データとを含み得る。 Further, the teacher data may include three-dimensional data of a biological part (for example, natural tooth, gingiva) that is not a processed part, and correct answer data indicating that the three-dimensional data is not a processed part.

なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。 The process of learning such an estimation model is also referred to as "learning process". In addition, the estimation model optimized by the learning process is also referred to as a "trained model" in particular. That is, the pre-trained estimation model and the trained estimation model are collectively referred to as an "estimation model", while the trained estimation model is also referred to as a "trained model".

図2を参照して、スキャナシステム10を適用可能な場面について説明する。ユーザ1は、スキャナシステム10を用いることで、対象者2が有する歯牙を含む三次元形状のデータ(以下、「三次元データ」とも称する)を取得できる。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、スキャナシステム10を用いる者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、スキャナシステム10の対象となる者であればいずれであってもよい。 A scene in which the scanner system 10 can be applied will be described with reference to FIG. By using the scanner system 10, the user 1 can acquire three-dimensional shape data (hereinafter, also referred to as “three-dimensional data”) including teeth possessed by the subject 2. The "user" is any person who uses the scanner system 10, such as a surgeon such as a dentist, a dental assistant, a teacher or student at a dental school, a dental technician, a maker engineer, or a worker at a manufacturing factory. May be. The "subject" may be any person who is the target of the scanner system 10, such as a patient in a dental clinic or a subject in a dental school.

識別装置100によって学習済モデルを用いて識別処理が実行されると、その識別結果が、ディスプレイ300に出力される。 When the identification process is executed by the identification device 100 using the trained model, the identification result is output to the display 300.

ディスプレイ300は、識別結果に対応する画像、文字、数字、アイコン、および記号の少なくともいずれか1つを表示する。 The display 300 displays at least one of an image, a letter, a number, an icon, and a symbol corresponding to the identification result.

識別装置100は、三次元データ122および識別結果に基づいて、識別結果が反映された口腔内の三次元画像を生成してディスプレイ300に出力する。たとえば、識別装置100は、加工部位の種類に応じた色で加工部位をディスプレイ300に表示することで、識別結果を三次元画像に反映する。 The identification device 100 generates a three-dimensional image of the oral cavity reflecting the identification result based on the three-dimensional data 122 and the identification result, and outputs the three-dimensional image to the display 300. For example, the identification device 100 reflects the identification result on the three-dimensional image by displaying the processed portion on the display 300 in a color corresponding to the type of the processed portion.

三次元スキャナ200は、補綴物などをデジタル設計することに利用されてきた。識別装置100は、三次元データから口腔内の加工部位の種類を識別することで、三次元スキャナ200に対して加工部位の種類を識別するという新たな用途を提供できる。 The three-dimensional scanner 200 has been used for digitally designing prostheses and the like. The identification device 100 can provide the three-dimensional scanner 200 with a new application of identifying the type of the processed portion by identifying the type of the processed portion in the oral cavity from the three-dimensional data.

たとえば、口腔内の生体部位に対する加工部位の種類が識別され、その識別結果が出力されることで、ユーザ1は、スキャンをしながら判断した自身の診察結果と識別結果とを比較しながら、カルテの入力を行うことができる。また、自身の診察結果と識別結果とが異なり、加工部位を再度確認する場合であっても、ユーザ1は、ディスプレイ300に表示された識別結果を確認することで、口腔内における加工部位のおおよその位置を把握できる。その結果、対象者2が口を開いている時間を短くでき、対象者2の負担を軽減できる。 For example, the type of the processed part with respect to the biological part in the oral cavity is identified, and the identification result is output, so that the user 1 can compare his / her own examination result determined while scanning with the identification result and perform a medical record. Can be entered. Further, even if the examination result and the identification result are different from each other and the processed portion is confirmed again, the user 1 confirms the identification result displayed on the display 300 to roughly confirm the processed portion in the oral cavity. You can grasp the position of. As a result, the time during which the subject 2 is open can be shortened, and the burden on the subject 2 can be reduced.

また、スキャンした後にユーザ1が診療をする場合も、加工部位の種類という診察を補助する情報を得られるため、ユーザ1の個人の能力による診察結果の差を減らすことができる。 Further, even when the user 1 performs medical examination after scanning, information such as the type of the processed portion that assists the examination can be obtained, so that the difference in the examination result due to the individual ability of the user 1 can be reduced.

また、ユーザ1は、識別結果の反映された三次元画像をディスプレイ300に表示させながら、対象者2に診察結果を説明できる。これにより、対象者2は、自身の歯の状態を客観的に確認できる。 Further, the user 1 can explain the examination result to the subject 2 while displaying the three-dimensional image reflecting the identification result on the display 300. As a result, the subject 2 can objectively confirm the condition of his / her teeth.

図1および図3を参照して、識別装置100による識別結果は、識別処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力されてもよい。 With reference to FIGS. 1 and 3, the identification result by the identification device 100 may be output as scan information to the server device 500 arranged in the dental laboratory and the management center together with the three-dimensional data used in the identification process. good.

たとえば、図3に示すように、スキャナシステム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、スキャナシステム10を利用して対象者2である患者の歯牙および歯肉を少なくとも含む口腔内の三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,識別結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。 For example, as shown in FIG. 3, the scanner system 10 is arranged in each of a plurality of locals A to C. For example, local A and local B are dental clinics, and in the dental clinic, the surgeon or dental assistant who is the user 1 uses the scanner system 10 to at least remove the teeth and gingiva of the patient who is the subject 2. Acquire 3D data in the oral cavity including. Further, the local C is a dental school, and in the dental school, the teacher or the student who is the user 1 acquires the three-dimensional data in the oral cavity of the subject who is the subject 2. The scan information (three-dimensional data, identification result) acquired in each of the locals A to C is output to the server device 500 located in the dental laboratory and the management center, which is the local D, via the network 5.

なお、識別装置100による識別結果と、ユーザ1による診察結果とが一致しない場合、ユーザ1は、カルテに入力するなどして、当該識別結果を修正する場合がある。このような場合に、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果と、修正後の識別結果との両方をスキャン情報に含めてサーバ装置500に出力してもよい。また、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果を含めることなく、修正後の識別結果をスキャン情報に含めてサーバ装置500に出力してもよい。 If the identification result by the identification device 100 and the examination result by the user 1 do not match, the user 1 may correct the identification result by inputting to a medical record or the like. In such a case, even if the scanner system 10 arranged in each of the locals A to C includes both the identification result before the modification and the identification result after the modification in the scan information and outputs the scan information to the server device 500. good. Further, the scanner system 10 arranged in each of the locals A to C may include the identification result after the modification in the scan information and output it to the server device 500 without including the identification result before the modification.

歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。 At the dental laboratory, a dental technician or the like creates a prosthesis or the like that supplements the missing portion of the tooth of the subject 2 based on the scan information acquired from each of the locals A to C. In the management center, the server device 500 accumulates and stores the scan information acquired from each of the locals A to C, and holds it as big data.

なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数の識別装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数の識別装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。 The server device 500 is not limited to the one arranged in the management center different from the local one in the dental clinic, and may be arranged in the local one. For example, the server device 500 may be arranged in any one of the locals A to C. Further, a plurality of identification devices 100 may be arranged in one local, and further, a server device 500 capable of communicating with the plurality of identification devices 100 may be arranged in the one local. Further, the server device 500 may be realized in the form of a cloud service.

歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。 In the dental laboratory, scan information is collected from various places such as locals A to C. Therefore, the scan information held in the dental laboratory may be transmitted to the management center via the network 5, or the removable disk 550 such as a CD (Compact Disc) and a USB (Universal Serial Bus) memory. May be sent to the management center via.

なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。 Note that scan information may be sent from each of the locals A to C to the management center via the removable disk 550 without going through the network 5. Further, scan information may be sent to each other between the locals A to C via the network 5 or the removable disk 550.

各ローカルA~Cの識別装置100は、各自で推定モデルを保持しており、識別処理時に各自が保持する推定モデルを使用して加工部位の種類を識別する。各ローカルA~Cの識別装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cの識別装置100に当該学習済モデルを配布する。 The identification device 100 of each local A to C holds an estimation model by itself, and identifies the type of the machined portion by using the estimation model held by each of them during the identification process. The identification device 100 of each local A to C generates a trained model by learning its own estimation model by its own learning process. Further, in the present embodiment, the server device 500 also holds the estimation model. The server device 500 generates a trained model by learning an estimation model by a learning process using the identification device 100 of each local A to C and the scan information acquired from the dental laboratory, and generates a trained model of each local A to C. The trained model is distributed to the identification device 100.

また、各ローカルA~Cの識別装置100は、ユーザ1により識別結果が修正された場合、修正後の識別結果を正解データとして、各自の推定モデルについて再度学習してもよい。 Further, when the identification result is corrected by the user 1, the identification devices 100 of the locals A to C may relearn about their own estimation model using the corrected identification result as correct answer data.

なお、本実施の形態においては、各ローカルA~Cの識別装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cの識別装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cの識別装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cの識別装置100で共通化される。 In the present embodiment, both the identification device 100 of each local A to C and the server device 500 execute the learning process, but only the identification device 100 of each local A to C executes the learning process. Or may be a form in which only the server device 500 executes the learning process. When only the server device 500 executes the learning process, the estimation model (learned model) held by the identification devices 100 of each local A to C is common to the identification devices 100 of each local A to C. Will be done.

また、サーバ装置500が識別装置100における識別処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける加工部位の種類の識別結果を算出してもよい。そして、サーバ装置500は、それぞれの識別結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した推定結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく推定結果を得ることができる。 Further, the server device 500 may have a function of identification processing in the identification device 100. For example, each local A to C transmits the acquired three-dimensional data to the server device 500, and the server device 500 is based on the respective three-dimensional data received from each local A to C, and the type of the processing site in each is different. The identification result may be calculated. Then, the server device 500 may transmit each identification result to each local A to C, and each local A to C may output the estimation result received from the server device 500 to a display or the like. In this way, each local A to C and the server device 500 may be configured in the form of a cloud service. In this way, as long as the server device 500 holds the estimation model (trained model), each local A to C can obtain the estimation result without holding the estimation model (trained model). can.

このように、本実施の形態に係るスキャナシステム10によれば、識別装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき加工部位の種類が識別される。 As described above, according to the scanner system 10 according to the present embodiment, the type of the machined portion is identified based on the three-dimensional data acquired by the three-dimensional scanner 200 by using the AI possessed by the identification device 100.

なお、以下では、各ローカルA~Cに配置されたスキャナシステム10の識別装置100について説明するものの、サーバ装置500は、識別装置100が実行可能な処理を同様に実行できるものとして、サーバ装置500が実行する処理については説明を省略する。また、実施形態2および実施形態3についても同様に、サーバ装置500は、識別装置100a,識別装置100bの各々が実行可能な処理を同様に実行できるものとする。 Although the identification device 100 of the scanner system 10 arranged in each of the locals A to C will be described below, the server device 500 assumes that the identification device 100 can similarly execute the processes that can be executed by the server device 500. The description of the process executed by is omitted. Similarly, in the second and third embodiments, the server device 500 can similarly execute the processes that can be executed by each of the identification device 100a and the identification device 100b.

[識別装置100のハードウェア構成]
図4を参照しながら、実施形態1にかかる識別装置100のハードウェア構成の一例を説明する。図4は、実施形態1にかかる識別装置100のハードウェア構成を示す模式図である。識別装置100は、たとえば、汎用コンピュータで実現されてもよいし、スキャナシステム10専用のコンピュータで実現されてもよい。
[Hardware configuration of identification device 100]
An example of the hardware configuration of the identification device 100 according to the first embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram showing a hardware configuration of the identification device 100 according to the first embodiment. The identification device 100 may be realized by, for example, a general-purpose computer or a computer dedicated to the scanner system 10.

図4に示すように、識別装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、周辺機器インターフェース105と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。 As shown in FIG. 4, the identification device 100 has, as main hardware elements, a scanner interface 102, a display interface 103, a peripheral device interface 105, a media reader 107, a PC display 108, a memory 109, and the like. It includes a storage 110 and a computing device 130.

スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、識別装置100と三次元スキャナ200との間のデータの入出力を実現する。 The scanner interface 102 is an interface for connecting the three-dimensional scanner 200, and realizes data input / output between the identification device 100 and the three-dimensional scanner 200.

ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、識別装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。 The display interface 103 is an interface for connecting the display 300, and realizes input / output of data between the identification device 100 and the display 300. The display 300 is composed of, for example, an LCD (Liquid Crystal Display) or an organic ELD (Electroluminescence) display.

周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、識別装置100と周辺機器との間のデータの入出力を実現する。 The peripheral device interface 105 is an interface for connecting peripheral devices such as a keyboard 601 and a mouse 602, and realizes data input / output between the identification device 100 and the peripheral device.

メディア読取装置107は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reading device 107 reads various data such as scan information stored in the removable disk 550.

PCディスプレイ108は、識別装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、実施形態1においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。 The PC display 108 is a display dedicated to the identification device 100. The PC display 108 is composed of, for example, an LCD or an organic EL display. In the first embodiment, the PC display 108 is separate from the display 300, but may be shared with the display 300.

メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。 The memory 109 provides a storage area for temporarily storing a program code, a work memory, or the like when the arithmetic unit 130 executes an arbitrary program. The memory 109 is composed of, for example, a volatile memory device such as a DRAM (Dynamic Random Access Memory) or a SRAM (Static Random Access Memory).

ストレージ110は、識別処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。 The storage 110 provides a storage area for storing various data necessary for identification processing, learning processing, and the like. The storage 110 is composed of, for example, a hard disk or a non-volatile memory device such as an SSD (Solid State Drive).

ストレージ110は、スキャン情報112と、加工種推定モデル114(学習済モデル115)と、学習用データセット116と、色分類データ118と、識別用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。 The storage 110 includes scan information 112, a machined species estimation model 114 (learned model 115), a learning data set 116, color classification data 118, an identification program 120, a learning program 121, and an OS (Operating). System) 127 and is stored.

スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された識別処理による加工部位の種類を示す識別結果124とを含む。識別結果124は、識別処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、加工種推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。識別用プログラム120は、識別処理を実行するためのプログラムである。学習用プログラム121は、加工種推定モデル114の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。 The scan information 112 includes the three-dimensional data 122 acquired by the three-dimensional scanner 200 and the identification result 124 indicating the type of the machined portion by the identification process executed based on the three-dimensional data 122. The identification result 124 is stored in the storage 110 in association with the three-dimensional data 122 used for the identification process. The training data set 116 is a group of training data used in the training process of the processed species estimation model 114. The color classification data 118 is data used for generation and training processing of the training data set 116. The identification program 120 is a program for executing the identification process. The learning program 121 is a program for executing the learning process of the processing type estimation model 114, and a part thereof includes a program for executing the identification process.

演算装置130は、各種のプログラムを実行することで、識別処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。 The arithmetic unit 130 is an arithmetic unit that executes various processes such as identification processing and learning processing by executing various programs, and is an example of a computer. The arithmetic unit 130 is composed of, for example, a CPU (Central Processing Unit) 132, an FPGA (Field-Programmable Gate Array) 134, a GPU (Graphics Processing Unit) 136, and the like.

[識別装置100による識別処理]
図5および図6を参照しながら、実施形態1にかかる識別装置100による識別処理の一例を説明する。図5は、実施形態1にかかる識別装置100の機能構成を示す模式図である。図6は、実施形態1にかかる識別装置100による識別処理を説明するための模式図である。
[Identification processing by the identification device 100]
An example of the identification process by the identification device 100 according to the first embodiment will be described with reference to FIGS. 5 and 6. FIG. 5 is a schematic diagram showing a functional configuration of the identification device 100 according to the first embodiment. FIG. 6 is a schematic diagram for explaining the identification process by the identification device 100 according to the first embodiment.

図5に示すように、識別装置100は、識別処理にかかる機能部として、入力部1102と、加工種識別部1132と、出力部1103とを有する。これらの各機能は、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。 As shown in FIG. 5, the identification device 100 has an input unit 1102, a processing type identification unit 1132, and an output unit 1103 as functional units related to the identification process. Each of these functions is realized by the arithmetic unit 130 of the identification device 100 executing the OS 127 and the identification program 120.

入力部1102には、三次元スキャナ200によって取得された三次元データが入力される。加工種識別部1132は、入力部1102に入力された三次元データに基づき、加工種推定モデル114(学習済モデル115)を用いて、入力された三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に当該加工部位の種類を識別する識別処理を実行する。 The three-dimensional data acquired by the three-dimensional scanner 200 is input to the input unit 1102. The machining type identification unit 1132 uses the machining type estimation model 114 (learned model 115) based on the three-dimensional data input to the input unit 1102, and the portion corresponding to the input three-dimensional data is the machining portion. In addition to identifying whether or not it is a machined part, an identification process for identifying the type of the machined part when it is a machined part is executed.

加工種推定モデル114は、第1ニューラルネットワーク(Neural Network:NNW)1142と、当該第1NNW1142によって用いられるパラメータ1144とを含む。パラメータ1144は、第1NNW1142による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。出力部1103は、加工種識別部1132による識別結果を、ディスプレイ300に出力する。 The processing type estimation model 114 includes a first neural network (NNW) 1142 and a parameter 1144 used by the first NNW 1142. The parameter 1144 includes a weighting coefficient used in the calculation by the first NNW 1142 and a determination value used in the determination of identification. The output unit 1103 outputs the identification result by the processing type identification unit 1132 to the display 300.

ここで、図6に示すように、入力部1102に入力される三次元データには、口腔内の形状を構成する各点における三次元の位置情報と、口腔内の形状を構成する各点における色情報とが含まれる。実施形態1にかかる識別処理においては、位置情報が用いられる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、口腔内の予め定められた位置を原点として、X軸、Y軸、Z軸の各軸における絶対位置の座標を含む。原点は、たとえば、測定開始時の所定の測定点を原点としてもよい。なお、位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離を示す三次元における相対位置の座標を含んでいてもよい。 Here, as shown in FIG. 6, the three-dimensional data input to the input unit 1102 includes three-dimensional position information at each point constituting the shape in the oral cavity and each point constituting the shape in the oral cavity. Contains color information. In the identification process according to the first embodiment, the position information is used. The position information includes the coordinates of the absolute position in three dimensions with respect to the predetermined position. For example, the position information includes the coordinates of the absolute position in each of the X-axis, Y-axis, and Z-axis with the predetermined position in the oral cavity as the origin. The origin may be, for example, a predetermined measurement point at the start of measurement as the origin. The position information is not limited to the coordinates of the absolute position in three dimensions with respect to the predetermined position, and may include, for example, the coordinates of the relative position in three dimensions indicating the distance from the adjacent points.

インプラント体や歯牙に形成された窩洞部のように、治療途中の状態であれば、ユーザ1は、一見して、加工部位を識別できる。しかし、歯科の分野では、審美性の確保という観点から、天然歯と遜色のない審美性の優れた加工部品の開発が進んでいる。そのため、治療完了後の状態で加工部位をユーザ1の目で識別することが徐々に難しくなっている。 If the condition is in the middle of treatment, such as an implant body or a tooth cavity formed in a tooth, the user 1 can identify the processing site at a glance. However, in the field of dentistry, from the viewpoint of ensuring aesthetics, the development of processed parts having excellent aesthetics comparable to those of natural teeth is progressing. Therefore, it is gradually becoming difficult for the user 1 to identify the processed portion in the state after the treatment is completed.

人工物と天然物とでは、人の目で識別しにくいものの、表面の凹凸、全体的な形状に僅かな差異が生まれる場合がある。また、歯に補綴物を被せている場合には、補綴物が被さっていない場合と比べて、歯肉と補綴物との境目の形状に差異が生まれる場合がある。 Although it is difficult for human eyes to distinguish between artificial and natural products, there may be slight differences in surface irregularities and overall shape. Further, when the tooth is covered with the prosthesis, there may be a difference in the shape of the boundary between the gingiva and the prosthesis as compared with the case where the prosthesis is not covered.

識別装置100は、加工部位の特徴的な形状および大きさが数値化された三次元データに基づき、加工種推定モデル114を用いて当該三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する。 The identification device 100 uses the machined type estimation model 114 based on the three-dimensional data in which the characteristic shape and size of the machined part are quantified, and whether or not the part corresponding to the three-dimensional data is the machined part. And, if it is a machined part, identify the type of machined part.

このように、AIを利用することで、人の目で識別し難い加工物の特徴を見出すことができる。そして、ユーザ1の知見という、人によってばらつきのある情報に頼ることなく、精度良く加工部位を識別できる。また、加工部位の種類が識別されることにより、ユーザ1のカルテ入力を補助することができ、初診時の診察を容易にできる。 In this way, by using AI, it is possible to find out the characteristics of the processed product that are difficult for the human eye to identify. Then, the machined portion can be accurately identified without relying on the information that varies from person to person, such as the knowledge of the user 1. Further, by identifying the type of the processed portion, it is possible to assist the user 1 in inputting the medical record, and it is possible to facilitate the medical examination at the time of the first medical examination.

また、補綴物は、被せる範囲、被せ方などによって、複数に分類される。窩洞部や支台歯に被せる補綴物の種類は、窩洞部および支台歯の形状などによって異なり、行う治療内容が異なることがある。また、被せられた補綴物の種類によって、治療経過も変わる。しかし、補綴物の種類を識別するためには、ユーザ1の高い知見が必要である。また、ユーザ1は、狭い口腔内を観察して識別する必要があり、対象者2への負担も大きくなる。 Further, the prosthesis is classified into a plurality of types according to the covering range, the covering method, and the like. The type of prosthesis to be placed on the tooth cavity and abutment tooth differs depending on the shape of the tooth cavity and the abutment tooth, and the treatment content to be performed may differ. In addition, the course of treatment varies depending on the type of prosthesis covered. However, in order to identify the type of prosthesis, the high knowledge of user 1 is required. In addition, the user 1 needs to observe and identify the narrow oral cavity, which increases the burden on the subject 2.

取り付けられた補綴物の種類、および窩洞部または支台歯に取り付ける補綴物の種類など、加工部位の種類をより細かく識別できると、より細やかな診察を実現できる。 More detailed examination can be realized if the type of machined part can be identified in more detail, such as the type of prosthesis attached and the type of prosthesis to be attached to the tooth cavity or abutment tooth.

図5に示すように、加工種推定モデル114は、第1NNW1142を含む。第1NNW1142においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、第1NNW1142においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、第1NNW1142においては、その計算および判定の結果が識別結果として出力層から出力される。なお、第1NNW1142による計算および判定については、三次元データに基づき三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に加工部位の種類を識別できるものであれば、いずれの手法が用いられてもよい。 As shown in FIG. 5, the processed species estimation model 114 includes the first NNW 1142. In the first NNW 1142, the value of the position information included in the three-dimensional data input to the input unit 1102 is input to the input layer. Then, in the first NNW 1142, for example, the intermediate layer multiplies the input position information value by a weighting coefficient, adds a predetermined bias, and performs a calculation by a predetermined function, and the calculation result is obtained. Is compared with the judgment value. Then, in the first NNW 1142, the result of the calculation and the determination is output from the output layer as the identification result. Regarding the calculation and determination by the first NNW1142, it is possible to identify whether or not the part corresponding to the three-dimensional data is a machined part based on the three-dimensional data, and if it is a machined part, the type of the machined part can be identified. If so, any method may be used.

加工種推定モデル114の第1NNW1142においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。実施形態1においては、3次元画像に特化した識別処理を行う識別用プログラム120として、たとえば、VoxNet、3DShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、第1NNW1142の仕組みには既存のものが適用されてもよい。 In the first NNW 1142 of the processing type estimation model 114, the intermediate layer has a multi-layer structure, so that processing by deep learning is performed. In the first embodiment, examples of the identification program 120 that performs identification processing specialized for a three-dimensional image include VoxNet, 3DShapeNets, Multi-View CNN, RotationNet, OctNet, FusionNet, PointNet, PointNet ++, SSCNet, and MarrNet. Although used, other programs may be used. Further, the existing mechanism of the first NNW 1142 may be applied.

このような構成において、識別装置100は、複数の歯牙が含まれる三次元画像に対応する三次元データが入力されると、当該三次元データに基づいて、加工部位の特徴を加工種推定モデル114の第1NNW1142を用いて抽出し、抽出した特徴に基づき、加工部位の種類を識別できる。なお、識別装置100は、第1NNW1142を用いて加工部位の特徴に加えて、加工の施されていない生体部位(たとえば、天然歯、歯肉)の特徴を抽出し、抽出結果に基づいて加工部位であるか否か識別してもよい。 In such a configuration, when the three-dimensional data corresponding to the three-dimensional image including a plurality of teeth is input, the identification device 100 determines the characteristics of the processed portion based on the three-dimensional data in the processed type estimation model 114. The type of the processed portion can be identified based on the extracted characteristics obtained by extracting using the first NNW1142 of the above. The identification device 100 uses the first NNW1142 to extract the characteristics of the unprocessed biological part (for example, natural tooth and gingiva) in addition to the characteristics of the processed part, and based on the extraction result, the processed part is used. It may be identified whether or not it exists.

実施形態1においては、識別装置100は、第1NNW1142を用いて加工部位の特徴を抽出し、抽出した特徴から加工部位の種類を識別するものとする。 In the first embodiment, the identification device 100 uses the first NNW1142 to extract the characteristics of the processed portion, and identifies the type of the processed portion from the extracted characteristics.

[学習用データの生成]
図7および図8を参照しながら、学習用データの生成の一例を説明する。図7は、実施形態1にかかる学習用データの生成を説明するための模式図である。図8は、実施形態1にかかる学習用データの一例を説明するための模式図である。
[Generation of training data]
An example of generating learning data will be described with reference to FIGS. 7 and 8. FIG. 7 is a schematic diagram for explaining the generation of learning data according to the first embodiment. FIG. 8 is a schematic diagram for explaining an example of learning data according to the first embodiment.

図7に示すように、まず、三次元スキャナ200によって三次元データが取得される(STEP1)。三次元スキャナ200によって取得された三次元データには、当該三次元データに対応する口腔内の形状を構成する各点における三次元の位置情報と、各点における色情報(RGB値)とが含まれる。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、図7(a)に示すように実際の色が付された歯牙を含む三次元画像が生成される。 As shown in FIG. 7, first, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). The three-dimensional data acquired by the three-dimensional scanner 200 includes three-dimensional position information at each point constituting the shape in the oral cavity corresponding to the three-dimensional data, and color information (RGB values) at each point. Is done. When a three-dimensional image is generated based on the three-dimensional data acquired by the three-dimensional scanner 200, a three-dimensional image including the actual colored teeth is generated as shown in FIG. 7 (a).

次に、後述する各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、実施形態1においては、三次元データに対応する3次元画像がグレースケール化される(STEP2)。3次元画像のグレースケール化は、ユーザ1(この場合、学習用データを生成するメーカの技術者または製造工場の作業者など)によって行われる。三次元画像がグレースケール化されると、図7(b)に示すようにグレースケール化された三次元画像が生成される。また、三次元画像のグレースケール化に応じて、三次元データに対応する各点における色情報(RGB値)がグレースケールに対応する値に変更される。 Next, a noise reduction process is performed in preparation for the color-coded process of each tooth, which will be described later. For example, in the first embodiment, the three-dimensional image corresponding to the three-dimensional data is grayscaled (STEP 2). Grayscale of the three-dimensional image is performed by user 1 (in this case, an engineer of a manufacturer or a worker of a manufacturing factory that generates learning data). When the three-dimensional image is grayscaled, a grayscaled three-dimensional image is generated as shown in FIG. 7 (b). Further, the color information (RGB value) at each point corresponding to the three-dimensional data is changed to the value corresponding to the gray scale according to the gray scale of the three-dimensional image.

次に、三次元データに対応する三次元画像に含まれる各部位に対して予め定められた色が塗布されることで各部位が加工部位の種類に応じた色で色分けされる(STEP3)。塗布する色は、部位ごとに予め割り当てられている。割り当て内容は、色分類データ118としてストレージ110内に格納されている。また、図7に示す例では、加工の施されていない部位に対して、いずれの種類の加工部位に対しても割り当てられていない白色が塗布されたものとする。色分類データ118には、加工の施されていない部位に対して割り当てられる色に関する情報が含まれていてもよい。 Next, by applying a predetermined color to each part included in the three-dimensional image corresponding to the three-dimensional data, each part is color-coded according to the type of the processed part (STEP 3). The color to be applied is pre-assigned to each part. The allocation contents are stored in the storage 110 as the color classification data 118. Further, in the example shown in FIG. 7, it is assumed that the unprocessed portion is coated with white that is not assigned to any type of processed portion. The color classification data 118 may include information about colors assigned to unprocessed portions.

各部位に対する色の塗布は、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各部位が加工部位であるか否か、および加工部位である場合は加工部位の種類を識別し、識別した部位に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該部位の画像に塗布する。 The application of color to each part is performed by user 1 (particularly, a person having dental knowledge such as a dentist or a dental technician). Specifically, the user 1 identifies whether or not each part included in the three-dimensional image is a processed part based on his / her own knowledge, and if it is a processed part, identifies the type of the processed part, and determines the identified part. The corresponding color is specified with reference to the color classification data 118, and the specified color is applied to the image of the relevant portion.

たとえば、ユーザ1は、三次元画像に含まれる部位が加工の施されていない生体部位であると識別すると、当該部位の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位がインプラントであると識別すると、当該部位の画像に色aを塗布する。また、ユーザ1は、三次元画像に含まれる部位が補綴物であると識別すると、当該部位の画像に色bを塗布する。三次元画像に含まれる各歯牙および歯肉に対して色が塗布されると、図7(c)および図8に示すように各部位に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では色a、bがハッチングで表されている。 For example, when the user 1 identifies that the part included in the three-dimensional image is an unprocessed biological part, the user 1 applies white to the image of the part. Further, when the user 1 identifies that the site included in the three-dimensional image is an implant, the user 1 applies the color a to the image of the site. Further, when the user 1 identifies that the portion included in the three-dimensional image is a prosthesis, the user 1 applies the color b to the image of the portion. When a color is applied to each tooth and gingiva included in the three-dimensional image, a three-dimensional image in which a predetermined color is applied to each part as shown in FIGS. 7 (c) and 8 is obtained. Generated. For the sake of clarity, the colors a and b are represented by hatching on the drawing.

また、各部位の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が塗布された色に対応する値に変更される。これにより、三次元データに対応する各点に対して、予め定められた色情報(RGB値)が関連付けられる。 Further, the color information (RGB value) at each point of the tooth corresponding to the three-dimensional data is changed to the value corresponding to the applied color according to the color coding of each part. As a result, predetermined color information (RGB values) is associated with each point corresponding to the three-dimensional data.

各部位に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態1にかかる学習用データにおいては、識別処理で参照される位置情報に対して、当該位置情報がいずれの部位に対応する位置情報であるかを示す色情報が関連付けられる(ラベリングされる)。このような学習用データを複数生成し、生成した複数の学習用データの集まりが学習用データセット116として、識別装置100に保持される。 When predetermined color information is associated with each part, the three-dimensional data includes position information and color information corresponding to the applied color, and such three-dimensional data is obtained. It is adopted as learning data. That is, in the learning data according to the first embodiment, the color information indicating which part the position information corresponds to is associated with the position information referred to in the identification process (labeled). Ru). A plurality of such learning data are generated, and a collection of the generated plurality of learning data is held in the identification device 100 as a learning data set 116.

なお、実施形態1においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2の治療歴などを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。 In the first embodiment, the user 1 manually applies a color to each part included in the three-dimensional image based on his / her own knowledge, but the user 1 confirms the treatment history of the subject 2 and the like. Color may be manually applied to each part included in the 3D image. It is also possible to supplement some work with software.

また、実施形態1においては、ノイズ除去処理としてグレースケール化が行われたが、ノイズ除去処理は、行われなくともよく、また、グレースケール化とは別の処理によって実現されてもよい。 Further, in the first embodiment, grayscale is performed as the noise reduction process, but the noise reduction process may not be performed, and may be realized by a process different from the grayscale process.

なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、色情報に限られない。たとえば、色を塗布することで正解データを入力した上で、入力された正解データを色情報とは異なる別の識別情報に変換することで学習用データを作成してもよい。この場合、RGB値よりもデータ量の低い情報を正解データとすることが好ましい。これにより、色を塗布するという直感的に分かりやすい作業でユーザ1に正解データを対応付けさせることができるとともに、学習用データのデータ量を減らすことができる。 Although the color information is associated with each position information as the identification information which is the correct answer data, the identification information is not limited to the color information. For example, learning data may be created by inputting correct answer data by applying a color and then converting the input correct answer data into identification information different from the color information. In this case, it is preferable to use information having a data amount lower than the RGB value as the correct answer data. As a result, the correct answer data can be associated with the user 1 in an intuitively easy-to-understand operation of applying a color, and the amount of learning data can be reduced.

なお、図7および図8に示した正解データの生成方法は、一例である。たとえば、加工部位であると識別した部位だけに、加工部位の種類に応じた色を塗布し、色が塗布されていない部位の三次元データは、正解データとして利用しないようにしてもよい。 The method of generating the correct answer data shown in FIGS. 7 and 8 is an example. For example, the color corresponding to the type of the processed portion may be applied only to the portion identified as the processed portion, and the three-dimensional data of the portion to which the color is not applied may not be used as the correct answer data.

また、図8に示した例では、加工部位を、「インプラント」、「窩洞部」、「支台歯」、および「補綴物」といった大分類に従って仕分けたものの、上記表1に示した小分類に従って仕分けてもよい。 Further, in the example shown in FIG. 8, the processed parts were sorted according to the major classifications such as “implant”, “cavity cavity”, “abutment tooth”, and “prosthesis”, but the minor classifications shown in Table 1 above. You may sort according to.

[識別装置100の学習処理]
図9を参照しながら、識別装置100が実行する学習処理について説明する。図9は、実施形態1にかかる識別装置100が実行する加工種用の学習処理の一例を説明するためのフローチャートである。図9に示す各ステップは、識別装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。
[Learning process of identification device 100]
The learning process executed by the identification device 100 will be described with reference to FIG. FIG. 9 is a flowchart for explaining an example of the learning process for the processing type executed by the identification device 100 according to the first embodiment. Each step shown in FIG. 9 is realized by the arithmetic unit 130 of the identification device 100 executing the OS 127 and the learning program 121.

図9に示すように、識別装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する(S1)。なお、識別装置100は、学習用データセット116の中から、一の学習用データを選択しても、複数の学習用データを選択してもよい。また、識別装置100は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 9, the identification device 100 selects learning data to be used for learning from the learning data set 116 (S1). The identification device 100 may select one learning data or a plurality of learning data from the learning data set 116. Further, the identification device 100 is not limited to the one that automatically selects the learning data, and the learning data selected by the user 1 may be used for the learning process.

識別装置100は、選択した学習用データに含まれる三次元データの位置情報を加工種推定モデル114に入力する(S2)。このとき、識別装置100は、三次元データにラベリングされた正解データは入力しない。識別装置100は、加工種推定モデル114を用いて三次元データの特徴を抽出し、三次元データに対応する部位の加工部位の種類を識別する識別処理を実行する(S3)。 The identification device 100 inputs the position information of the three-dimensional data included in the selected learning data into the processing type estimation model 114 (S2). At this time, the identification device 100 does not input the correct answer data labeled in the three-dimensional data. The identification device 100 extracts the features of the three-dimensional data using the processing type estimation model 114, and executes an identification process for identifying the type of the processing portion of the portion corresponding to the three-dimensional data (S3).

識別装置100は、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、加工種推定モデル114のパラメータ1144を更新する(S4)。 The identification device 100 updates the parameter 1144 of the processing type estimation model 114 based on the error between the identification result by the identification process and the correct answer data corresponding to the learning data used in the learning process (S4).

たとえば、識別装置100は、入力された位置情報に基づき識別した結果、当該入力された位置情報が示す部位に対応する色情報を推定する。識別装置100は、学習用データに含まれる当該入力された位置情報が示す部位に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば加工種推定モデル114のパラメータ1144を維持する一方で、不正解であれば両者が一致するように加工種推定モデル114のパラメータ1144を更新する。 For example, the identification device 100 estimates the color information corresponding to the portion indicated by the input position information as a result of identification based on the input position information. The identification device 100 compares the color information (correct answer data) corresponding to the portion indicated by the input position information included in the learning data with the color information estimated by itself, and if they match, the processing type estimation model 114 While maintaining the parameter 1144 of the above, if the answer is incorrect, the parameter 1144 of the machining type estimation model 114 is updated so that the two match.

次に、識別装置100は、全ての学習用データに基づき学習したか否かを判定する(S5)。識別装置100は、全ての学習用データに基づき学習していない場合(S5でNO)、S1の処理に戻る。 Next, the identification device 100 determines whether or not learning has been performed based on all the learning data (S5). When the identification device 100 has not learned based on all the learning data (NO in S5), the identification device 100 returns to the process of S1.

一方、識別装置100は、全ての学習用データに基づき学習した場合(S5でYES)、学習済みの加工種推定モデル114を学習済モデル115として記憶し(S6)、本処理を終了する。 On the other hand, when the identification device 100 learns based on all the learning data (YES in S5), the discriminator 100 stores the trained processed species estimation model 114 as the trained model 115 (S6), and ends this process.

このように、識別装置100は、学習用データに含まれる三次元データに関連付けられた色情報を正解データとして、当該三次元データを用いた識別処理による識別結果に基づき、加工種推定モデル114を学習することで、学習済モデル115を生成する。 As described above, the identification device 100 uses the color information associated with the three-dimensional data included in the learning data as the correct answer data, and uses the processing type estimation model 114 based on the identification result by the identification process using the three-dimensional data. By training, a trained model 115 is generated.

[識別装置100のサービス提供処理]
図10を参照しながら、識別装置100が実行するサービス提供処理について説明する。図10は、実施形態1にかかる識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。図10に示す各ステップは、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。サービス提供処理が実行されることで、三次元スキャナ200によって取得された三次元データに対する識別結果の関連付けがされる。
[Service provision process of identification device 100]
The service provision process executed by the identification device 100 will be described with reference to FIG. 10. FIG. 10 is a flowchart for explaining an example of the service providing process executed by the identification device 100 according to the first embodiment. Each step shown in FIG. 10 is realized by the arithmetic unit 130 of the identification device 100 executing the OS 127 and the identification program 120. By executing the service provision process, the identification result is associated with the three-dimensional data acquired by the three-dimensional scanner 200.

図10に示すように、識別装置100は、所定の点に対応する三次元データが入力されたか否かを判定する(S11)。たとえば、識別装置100は、ストレージ110に識別結果と関連付けられてない三次元データが格納されている場合に、所定の点に対応する三次元データが入力されたと判定する。 As shown in FIG. 10, the identification device 100 determines whether or not three-dimensional data corresponding to a predetermined point has been input (S11). For example, the identification device 100 determines that the three-dimensional data corresponding to a predetermined point has been input when the storage 110 stores the three-dimensional data not associated with the identification result.

識別装置100は、三次元スキャナ200から三次元データが送られるとストレージ110に当該三次元データを格納していく。サービス提供処理は、任意の呼出サイクルで実行され、ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされるまで繰り返し実行される。ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされると、識別装置100は、所定の点に対応する三次元データが入力されていないと判断して(S11でNO)、サービス提供処理を終了する。 When the three-dimensional data is sent from the three-dimensional scanner 200, the identification device 100 stores the three-dimensional data in the storage 110. The service provision process is executed in an arbitrary call cycle, and is repeatedly executed until the identification result is associated with all the three-dimensional data stored in the storage 110. When the identification result is associated with all the three-dimensional data stored in the storage 110, the identification device 100 determines that the three-dimensional data corresponding to the predetermined point is not input (NO in S11). ), End the service provision process.

一方、識別装置100は、所定の点に対応する三次元データが入力された場合(S11でYES)、三次元データ(位置情報)を学習済モデル115に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S12)。 On the other hand, when the three-dimensional data corresponding to a predetermined point is input (YES in S11), the identification device 100 inputs the three-dimensional data (position information) to the trained model 115 and uses the trained model 115. The identification process for identifying the type of the machined portion is executed (S12).

識別装置100は、識別処理によって得られた識別結果を、S11で入力された三次元データに関連付ける(S13)。具体的には、識別装置100は、三次元データに含まれる位置情報に対して、識別結果を示す色情報(色a~色d、または白色を示す色情報)を関連付ける。これにより、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果が関連付けられる。 The identification device 100 associates the identification result obtained by the identification process with the three-dimensional data input in S11 (S13). Specifically, the identification device 100 associates the position information included in the three-dimensional data with the color information indicating the identification result (color a to color d, or color information indicating white). As a result, the identification result indicating the state (whether or not the processing is performed, the processing content) of the portion corresponding to the point is associated with the point corresponding to the input three-dimensional data.

識別装置100は、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100は、本処理を終了する。 The identification device 100 outputs the result of the association to the outside (for example, the display 300) (S14). Specifically, the result of the association with respect to the points corresponding to the input three-dimensional data is displayed on the display 300. After that, the identification device 100 ends this process.

[測定中にディスプレイ300に出力される表示の一例]
図11および図12を参照して、測定中にディスプレイ300に出力される表示の一例を説明する。図11は、測定中の出力例を示す図である。図12は、測定中の出力例の変形例を示す図である。
[Example of display output to display 300 during measurement]
An example of the display output to the display 300 during the measurement will be described with reference to FIGS. 11 and 12. FIG. 11 is a diagram showing an example of output during measurement. FIG. 12 is a diagram showing a modified example of the output example during measurement.

識別装置100は、サービス提供処理を実行して、所定の点に対応する三次元データが入力されたタイミングで、識別結果に基づく当該三次元データに対する関連付けを行う。ユーザ1は、三次元スキャナ200を口腔内で徐々に動かしながら、順々にスキャンしていく。そのため、識別装置100は、三次元スキャナ200が動かされて新たな三次元データを取得すると、取得した各三次元データに対応する複数の点のそれぞれに識別結果を関連付ける。識別結果が関連付けた三次元データは、関連付けられた識別結果を示す態様でディスプレイ300に出力される。 The identification device 100 executes a service provision process and associates with the three-dimensional data based on the identification result at the timing when the three-dimensional data corresponding to a predetermined point is input. The user 1 scans the three-dimensional scanner 200 in sequence while gradually moving it in the oral cavity. Therefore, when the three-dimensional scanner 200 is moved to acquire new three-dimensional data, the identification device 100 associates the identification result with each of the plurality of points corresponding to the acquired three-dimensional data. The three-dimensional data associated with the identification result is output to the display 300 in a manner indicating the associated identification result.

たとえば、図11(a)に示すように、加工の施されていない天然歯をスキャンすると、スキャンして得られた各三次元データに対応する複数の点のそれぞれが、白色で表示される。なお、図11(a)において、便宜上、白色で出力された点を、三角形で表している。 For example, as shown in FIG. 11A, when an unprocessed natural tooth is scanned, each of the plurality of points corresponding to each of the three-dimensional data obtained by scanning is displayed in white. In FIG. 11A, the points output in white are represented by triangles for convenience.

その後、新たに加工部位を含む生体部位がスキャンされると、図11(b)に示すように、スキャンして得られた各三次元データに対応する複数の点のうち、インプラントに対応する三次元データは、色aの点(図中の黒丸の点)で表示される一方、加工の施されていない部位に対応する三次元データは、白色の点(図中の三角形の点)で表される。なお、図11には示していないものの、補綴物、窩洞形成歯、支台歯といった、他の種類の加工部位に対応する三次元データは、各々の種類に応じた色の点で表示される。 After that, when a biological part including a newly processed part is scanned, as shown in FIG. 11B, among a plurality of points corresponding to each three-dimensional data obtained by scanning, the tertiary part corresponding to the implant is obtained. The original data is displayed as a point of color a (black circle in the figure), while the 3D data corresponding to the unprocessed part is represented by a white point (triangular point in the figure). Will be done. Although not shown in FIG. 11, the three-dimensional data corresponding to other types of processed parts such as the prosthesis, the cavity-forming tooth, and the abutment tooth are displayed as colored dots corresponding to each type. ..

なお、識別装置100は、三次元データに対応する複数の点を、それぞれ、点でディスプレイ300に表示するものとしたが、得られた三次元データをポリゴンメッシュを用いてディスプレイ300に表示してもよい。ポリゴンメッシュとは、たとえば、三角形および四角形など、ポリゴンを画面上に配置することでオブジェクトを表示する手法である。 The identification device 100 is supposed to display a plurality of points corresponding to the three-dimensional data on the display 300 at each point, but the obtained three-dimensional data is displayed on the display 300 using a polygon mesh. May be good. A polygon mesh is a method of displaying an object by arranging polygons on the screen, such as triangles and quadrangles.

具体的には、図12に示すように、識別装置100は、入力された三次元データに対応する複数の点を、ポリゴンに置き換えることで、当該複数の点に識別結果を関連付けた結果をディスプレイ300に表示してもよい。 Specifically, as shown in FIG. 12, the identification device 100 replaces a plurality of points corresponding to the input three-dimensional data with polygons, and displays the result of associating the identification results with the plurality of points. It may be displayed at 300.

このように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示されるため、ユーザ1は、入力されたタイミングで入力された三次元データに対応する部位の種類を確認できる。また、識別装置100は、加工部位の種類に応じた表示態様でディスプレイ300に表示するため、各加工部位の境目を分かり易くユーザ1に示すことができる。 In this way, since the identification results for the acquired 3D data are sequentially displayed on the display 300 at the timing when the 3D data is acquired, the user 1 corresponds to the 3D data input at the input timing. You can check the type of part to be used. Further, since the identification device 100 displays on the display 300 in a display mode according to the type of the processed portion, the boundary of each processed portion can be shown to the user 1 in an easy-to-understand manner.

なお、三次元スキャナ200による口腔内のスキャンが開始した当初においては、得られた三次元データの数が少ないため、識別装置100は、三次元データに基づいて識別結果を出すことができない。そのため、識別装置100は、関連付けができていないこと、すなわち識別結果が出せていないことを示す態様で三次元データに対応する画像(点またはポリゴン)をディスプレイ300に表示してもよい。そして、三次元スキャナ200による口腔内のスキャンが進み、得られた三次元データの数が増えたタイミングで、再度、サービス提供処理を実行して、識別結果を出すことを試みるようにしてもよい。この場合、識別装置100は、識別結果が出せた場合には、既に表示していた三次元データに対応する画像の表示態様を識別結果に応じた態様に切り替える。 At the beginning of the intraoral scanning by the three-dimensional scanner 200, the number of obtained three-dimensional data is small, so that the identification device 100 cannot produce an identification result based on the three-dimensional data. Therefore, the identification device 100 may display an image (point or polygon) corresponding to the three-dimensional data on the display 300 in a manner indicating that the association is not established, that is, the identification result cannot be obtained. Then, at the timing when the scan in the oral cavity by the three-dimensional scanner 200 progresses and the number of the obtained three-dimensional data increases, the service provision process may be executed again to try to obtain the identification result. .. In this case, when the identification result can be obtained, the identification device 100 switches the display mode of the image corresponding to the three-dimensional data already displayed to the mode corresponding to the identification result.

以上のように、実施形態1にかかる識別装置100は、AIを利用することで、人の目では識別し難い加工物の特徴を見いだし、人によってばらつきのあるユーザの知見に頼ることなく、精度良く加工部位の種類を識別できる。 As described above, the identification device 100 according to the first embodiment finds the characteristics of the workpiece that are difficult for the human eye to identify by using AI, and the accuracy does not depend on the knowledge of the user, which varies from person to person. The type of machined part can be identified well.

<実施形態2>
図13~図20を参照して、実施形態2にかかる識別装置100aについて説明する。実施形態1において、ユーザ1は、識別結果を参照することでカルテを生成するものとした。実施形態2にかかる識別装置100aは、識別結果に従い、さらにカルテを自動的に生成してもよい。
<Embodiment 2>
The identification device 100a according to the second embodiment will be described with reference to FIGS. 13 to 20. In the first embodiment, the user 1 generates a medical record by referring to the identification result. The identification device 100a according to the second embodiment may further automatically generate a medical record according to the identification result.

識別装置100aは、識別装置100と比較して、加工部位の種類を識別することに加えて、歯牙の種類の識別を行う。これにより、識別装置100aは、加工部位に対応する歯牙の種類の推定を行う。また、識別装置100aは、加工部位の種類を示す識別結果に基づいて、当該加工部位に施された治療内容を推定する。このように、識別装置100aは、加工部位に対応する歯牙の種類、および加工部位に施された治療内容を推定することで、対象者2のカルテを生成する。 The identification device 100a identifies the type of tooth in addition to identifying the type of the processed portion as compared with the identification device 100. As a result, the identification device 100a estimates the type of tooth corresponding to the processed portion. Further, the identification device 100a estimates the treatment content applied to the processed portion based on the identification result indicating the type of the processed portion. In this way, the identification device 100a generates a medical record of the subject 2 by estimating the type of tooth corresponding to the processed portion and the treatment content applied to the processed portion.

なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。 The "types of teeth" include middle premolars on the right side of the upper jaw, lateral cut teeth, dog teeth, first premolars, second premolars, first premolars, second premolars, third premolars, and left side of the upper jaw. Middle premolars, lateral premolars, dog teeth, first premolars, second premolars, first premolars, second premolars, and third premolars, right middle premolars, lateral premolars, dog teeth, 1st premolar, 2nd premolar, 1st premolar, 2nd premolar, and 3rd premolar, left middle premolar, lateral incision, dog tooth, 1st premolar, 2nd premolar, 1st It means the type of each tooth such as 1 premolar, 2nd premolar, and 3rd premolar.

[測定中に機能する構成]
図13は、実施形態2にかかるスキャナシステム10aの測定中に機能する機能構成を示す模式図である。図13を参照して、スキャナシステム10aは、識別装置100に替えて識別装置100aを備える点で実施形態1にかかるスキャナシステム10と異なる。また、識別装置100aは、歯牙種識別部1134をさらに備え、さらに、三次元データに加えてプロファイルデータ119が識別処理に利用される点で、実施形態1にかかる識別装置100と異なる。
[Configuration that works during measurement]
FIG. 13 is a schematic diagram showing a functional configuration that functions during measurement of the scanner system 10a according to the second embodiment. With reference to FIG. 13, the scanner system 10a differs from the scanner system 10 according to the first embodiment in that the identification device 100a is provided in place of the identification device 100. Further, the identification device 100a is different from the identification device 100 according to the first embodiment in that the tooth type identification unit 1134 is further provided and the profile data 119 is used for the identification process in addition to the three-dimensional data.

プロファイルデータ119は、対象者2の年齢、性別、人種、身長、体重、および居住地といったプロファイルを示す情報である。なお、プロファイルデータ119は、必ずしも必要な情報ではなく、歯牙の種類を識別する際の精度を上げるために利用される情報である。また、プロファイルデータ119は、初診の際に対象者2から得られる情報であって、カルテの情報に含まれる。 The profile data 119 is information showing a profile such as age, gender, race, height, weight, and place of residence of the subject 2. The profile data 119 is not necessarily necessary information, but is information used to improve the accuracy in identifying the type of tooth. Further, the profile data 119 is information obtained from the subject 2 at the time of the first medical examination, and is included in the medical record information.

歯牙種識別部1134は、入力部1102に入力された三次元データと、プロファイルデータ119とに基づき、歯牙種推定モデル114a(学習済モデル115a)を用いて、歯牙の種類を識別する。歯牙種推定モデル114aは、第2NNW1142aと、当該第2NNW1142aによって用いられるパラメータ1144aとを含む。なお、第2NNW1142aおよびパラメータ1144aは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。 The tooth type identification unit 1134 identifies the tooth type using the tooth type estimation model 114a (learned model 115a) based on the three-dimensional data input to the input unit 1102 and the profile data 119. The tooth species estimation model 114a includes a second NNW 1142a and a parameter 1144a used by the second NNW 1142a. Since the second NNW 1142a and the parameter 1144a are common to the first NNW 1142 and the parameter 1144 described in the first embodiment, the description thereof will be omitted.

加工部位は、生体部位に対して加工を施した部位であるため、天然の歯牙とは形状の特徴などが異なる。そのため、加工部位をスキャンして得られた三次元データに基づいて歯牙種識別部1134が歯牙の種類を識別する識別処理をした場合、歯牙の種類を識別できないことがある。本実施の形態において、識別装置100aは、歯牙種識別部1134によって歯牙の種類が識別できなかった場合に、入力部1102に入力された三次元データに対応する部位が加工部位であるとして、加工種識別部1132が加工部位の種類を識別する識別処理を実行する。 Since the processed part is a part that has been processed for a living body part, its shape characteristics and the like are different from those of natural teeth. Therefore, when the tooth type identification unit 1134 performs an identification process for identifying the tooth type based on the three-dimensional data obtained by scanning the processed portion, the tooth type may not be identified. In the present embodiment, the identification device 100a processes the processing portion assuming that the portion corresponding to the three-dimensional data input to the input unit 1102 is the processing portion when the tooth type cannot be identified by the tooth type identification unit 1134. The species identification unit 1132 executes an identification process for identifying the type of the machined portion.

出力部1103は、歯牙種識別部1134および加工種識別部1132の各々による識別結果をディスプレイ300に出力する。 The output unit 1103 outputs the identification results of each of the tooth type identification unit 1134 and the processing type identification unit 1132 to the display 300.

また、識別装置100aが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124とが格納される。 Further, the storage 110 included in the identification device 100a shows the three-dimensional data 122, the identification result 124a indicating the type of tooth of the portion corresponding to the three-dimensional data 122, and the type of the processed portion corresponding to the three-dimensional data 122. The identification result 124 is stored.

[測定後に機能する構成]
図14および図15を参照して、カルテの生成にかかる機能について説明する。図14は、実施形態2にかかる識別装置100aの測定後にカルテを生成する際に機能する機能構成を示す模式図である。図15は、加工部位の歯牙の種類を推定する方法を説明するための模式図である。
[Configuration that works after measurement]
A function related to the generation of a medical record will be described with reference to FIGS. 14 and 15. FIG. 14 is a schematic diagram showing a functional configuration that functions when a medical record is generated after the measurement of the identification device 100a according to the second embodiment. FIG. 15 is a schematic diagram for explaining a method of estimating the type of tooth at the processing site.

図14を参照して、測定後にカルテを生成する際の機能として、識別装置100aは、治療推定部1152、歯牙種推定部1154、およびカルテ生成部1156を備える。 With reference to FIG. 14, as a function for generating a medical record after measurement, the identification device 100a includes a treatment estimation unit 1152, a tooth type estimation unit 1154, and a medical record generation unit 1156.

治療推定部1152は、加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する。 The treatment estimation unit 1152 estimates the treatment content applied to the processed site based on the identification result 124 indicating the type of the processed site.

加工種識別部1132は、三次元データに対応する部位の加工部位の種類を識別する。生体部位に対する加工は、治療のために行われる。そのため、加工部位の種類と、治療内容とは対応関係にある。加工部位の種類と治療内容との関係を表2に示す。 The processing type identification unit 1132 identifies the type of the processing portion of the portion corresponding to the three-dimensional data. Processing on biological parts is performed for treatment. Therefore, there is a correspondence between the type of processed part and the treatment content. Table 2 shows the relationship between the type of processed part and the treatment content.

Figure 2022012198000003
Figure 2022012198000003

表2を参照して、「加工部位」は、治療途中の加工部位と、治療済の加工部位とに分類できる。たとえば、「インプラント」、「窩洞形成歯」および「支台歯」は、治療中の加工部位であり、「補綴物」は、治療済の加工部位である。加工部位の種類と治療内容の種類とは互いに対応しているため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて対象者2に対して行われた治療内容を推定できる。また、加工部位は、治療途中の加工部位と治療済の加工部位とに分類される。そのため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて治療の途中であるのか、あるいは治療が完了しているのかを推定できる。 With reference to Table 2, the "processed site" can be classified into a processed site during treatment and a processed site that has been treated. For example, an "implant", a "cavity-forming tooth" and an "abutment tooth" are processed sites being treated and a "prosthesis" is a treated processed site. Since the type of the processed site and the type of the treatment content correspond to each other, the treatment estimation unit 1152 can estimate the treatment content performed on the subject 2 based on the identification result 124 indicating the type of the processed site. .. Further, the processed portion is classified into a processed portion during treatment and a processed portion that has been treated. Therefore, the treatment estimation unit 1152 can estimate whether the treatment is in the middle or the treatment is completed based on the identification result 124 indicating the type of the processed portion.

治療推定部1152は、表2に示すようなテーブルを参照して治療内容を推定してもよく、また、加工部位の種類を示す識別結果124を入力値としてディープラーニングを行うことで識別結果124に対応する治療内容を推定してもよい。治療内容の推定をディープラーニングで行う場合、治療推定部1152は、加工部位の種類に対して正解データとして治療内容を対応付けた教師データを利用してパラメータを最適化させたニューラルネットワークを利用して治療内容を推定する。 The treatment estimation unit 1152 may estimate the treatment content by referring to a table as shown in Table 2, and may perform deep learning using the identification result 124 indicating the type of the processed portion as an input value to perform the identification result 124. The treatment content corresponding to the above may be estimated. When estimating the treatment content by deep learning, the treatment estimation unit 1152 uses a neural network in which parameters are optimized by using teacher data associated with the treatment content as correct answer data for the type of processed part. Estimate the treatment content.

歯牙種推定部1154は、加工部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位に対応する歯牙の種類を推定する。「加工部位に対応する歯牙」とは、補綴物が取り付けられた歯牙に限らず、天然歯の代わりに人工歯が取り付けられている場合には元の天然歯の歯牙を意味する。また、「加工部位に対応する歯牙」とは、インプラントが取り付けられている場合には当該インプラントを取り付ける前に存在していた歯牙を意味する。 The tooth type estimation unit 1154 estimates the type of tooth corresponding to the processed portion. The tooth type estimation unit 1154 estimates the type of tooth corresponding to the processed portion from the type of the tooth corresponding to the processed portion or the adjacent tooth. The "tooth corresponding to the processed part" is not limited to the tooth to which the prosthesis is attached, but means the tooth of the original natural tooth when an artificial tooth is attached instead of the natural tooth. Further, the “tooth corresponding to the processed portion” means a tooth that was present before the implant was attached, if the implant was attached.

カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類と、治療推定部1152が推定した治療内容とに基づいて、カルテ150を生成する。 The medical record generation unit 1156 generates a medical record 150 based on the type of tooth corresponding to the processed portion estimated by the tooth type estimation unit 1154 and the treatment content estimated by the treatment estimation unit 1152.

カルテ150には、プロファイルデータ119から特定される対象者2の基本情報を示すプロファイル表示領域152と、加工部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。なお、カルテ生成部1156は、歯式表示領域158に、歯式に変えて、または歯式とともに、三次元データに基づいて任意の視点からみた加工部位を含めた歯牙の像を含む二次元画像を表示してもよい。 The chart 150 includes a profile display area 152 showing basic information of the subject 2 specified from the profile data 119, a tooth type display area 154 showing the type of tooth corresponding to the processing site, and the displayed tooth. It includes a comment display area 156 showing the treatment content and a dentition display area 158 showing the dentition. In addition, the chart generation unit 1156 is a two-dimensional image including an image of a tooth including a processed portion viewed from an arbitrary viewpoint based on three-dimensional data in the tooth type display area 158 by changing to the tooth type or together with the tooth type. May be displayed.

図15を参照して、加工部位に対応する歯牙の種類を推定する方法を具体的に説明する。まず、三次元スキャナ200によって三次元データが取得される(STEP1)。次に、識別装置100aは、歯牙種識別部1134による識別処理によって歯牙の種類を識別する(STEP2)。たとえば、図15のSTEP2に示す例では、識別装置100aは、下顎右側および上顎右側に位置する各歯牙の種類を識別している。具体的には、識別装置100aは、識別処理によって、下顎右側については第二大臼歯、第一大臼歯、第二小臼歯、および第一小臼歯を、上顎右側については第二大臼歯、第二小臼歯、および第一小臼歯を、それぞれ特定する。 With reference to FIG. 15, a method of estimating the type of tooth corresponding to the processed portion will be specifically described. First, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). Next, the identification device 100a identifies the type of tooth by the identification process by the tooth type identification unit 1134 (STEP 2). For example, in the example shown in STEP 2 of FIG. 15, the identification device 100a identifies the type of each tooth located on the right side of the mandible and the right side of the maxilla. Specifically, the identification device 100a uses the identification process to display the second molars, the first molars, the second premolars, and the first premolars on the right side of the lower jaw, and the second molars and the second premolars on the right side of the upper jaw. Identify the two premolars and the first premolar, respectively.

ここで、口腔内に加工部位が存在する場合、識別装置100aの歯牙種識別部1134は識別処理によって、加工部位に対応する歯牙の種類を識別できないことがある。しかし、歯牙種識別部1134は、加工部位に対応する歯牙に隣り合う隣接歯牙および、加工部位に対応する歯牙に対向する対向歯牙については、識別処理によってその種類を推定できる。歯牙種推定部1154は、隣接歯牙および対向歯牙の種類に基づいて、加工部位に対応する歯牙の種類を推定する(STEP3)。 Here, when the processed portion is present in the oral cavity, the tooth type identification unit 1134 of the identification device 100a may not be able to identify the type of tooth corresponding to the processed portion by the identification process. However, the tooth type identification unit 1134 can estimate the types of adjacent teeth adjacent to the tooth corresponding to the processed portion and opposed teeth facing the tooth corresponding to the processed portion by identification processing. The tooth type estimation unit 1154 estimates the type of tooth corresponding to the processing site based on the types of adjacent teeth and opposite teeth (STEP 3).

たとえば、図15のSTEP3に示す例では、歯牙種識別部1134は、上顎右側において第二大臼歯と第二小臼歯との間の加工部位に対応する歯牙の種類を識別できない。しかし、歯牙種識別部1134は、上顎右側において第二大臼歯および第二小臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、それらの間の歯牙が上顎右側の第一大臼歯であると推定できる。あるいは、歯牙種識別部1134は、加工部位に対応する歯牙に対向する下顎右側の第一大臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、下顎右側の第一大臼歯に対向する歯牙が上顎右側の第一大臼歯であると推定できる。 For example, in the example shown in STEP 3 of FIG. 15, the tooth type identification unit 1134 cannot identify the type of tooth corresponding to the processing site between the second molar and the second premolar on the right side of the maxilla. However, the tooth species identification unit 1134 at least identifies the second molar and the second premolar on the right side of the maxilla. Therefore, the tooth species estimation unit 1154 can presume that the tooth between them is the maxillary right first molar. Alternatively, the tooth species identification unit 1134 at least identifies the first molar on the right side of the mandible facing the tooth corresponding to the machined site. Therefore, the tooth type estimation unit 1154 can presume that the tooth facing the first molar on the right side of the mandible is the first molar on the right side of the upper jaw.

なお、歯牙種推定部1154、加工部位の種類がインレー、アンレー、クラウンといった、歯の一部に取り付けられた補綴物である場合には、加工部位と識別された三次元データの周囲の、歯牙の種類が識別された三次元データに基づいて加工部位に対応する歯牙の種類を識別してもよい。たとえば、加工部位の三次元データに対応する歯牙の種類は、当該加工部位の三次元データの周囲の歯牙の三次元データに対応付けられた歯牙の種類と同じであると推定される。 If the tooth type estimation unit 1154 and the type of the processed part are a prosthesis attached to a part of the tooth such as an inlay, an inlay, or a crown, the tooth around the three-dimensional data identified as the processed part. The type of tooth corresponding to the machined portion may be identified based on the three-dimensional data in which the type of tooth is identified. For example, it is presumed that the type of tooth corresponding to the three-dimensional data of the processed portion is the same as the type of tooth associated with the three-dimensional data of the teeth surrounding the three-dimensional data of the processed portion.

[歯牙種推定モデル114a(学習済モデル115a)の生成]
図16~図18を参照して、学習済モデル115aを生成するための学習処理について説明する。図16は、実施形態2にかかる学習用データセット116aの一例を説明するための模式図である。図17は、実施形態2にかかる学習用データセット116aに基づく学習済モデル115aの生成を説明するための模式図である。図18は、実施形態2にかかる識別装置100aが実行する歯牙種用の学習処理の一例を説明するためのフローチャートである。なお、加工種推定モデル114の学習済モデル115を生成するための学習処理は、実施形態1において説明した学習済モデル115を生成するための学習処理(図9参照)と共通するため、説明を省略する。
[Generation of tooth type estimation model 114a (learned model 115a)]
A learning process for generating the trained model 115a will be described with reference to FIGS. 16 to 18. FIG. 16 is a schematic diagram for explaining an example of the learning data set 116a according to the second embodiment. FIG. 17 is a schematic diagram for explaining the generation of the trained model 115a based on the learning data set 116a according to the second embodiment. FIG. 18 is a flowchart for explaining an example of the learning process for the tooth type executed by the identification device 100a according to the second embodiment. The learning process for generating the trained model 115 of the processed species estimation model 114 is common to the learning process for generating the trained model 115 described in the first embodiment (see FIG. 9). Omit.

歯牙の種類を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら歯牙の種類を識別し、識別した歯牙の種類に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、歯牙の種類ごとに予め割り当てられている。割り当て内容は、色分類データ118aとしてストレージ110内に格納されている。 When generating learning data to identify the type of tooth, user 1 (especially a person with dental knowledge such as a dentist or a dental technician) checks the type of tooth while checking the three-dimensional image. Is identified, and the position information and the identification information are associated with each other by applying a color corresponding to the type of the identified tooth to the three-dimensional image. The color to be applied is assigned in advance for each type of tooth. The assigned contents are stored in the storage 110 as the color classification data 118a.

たとえば、ユーザ1は、三次元画像に含まれる歯牙が第二大臼歯であると識別すると、当該歯牙の画像に赤色を塗布する。また、三次元画像に含まれる歯牙が第一大臼歯であると識別すると、当該歯牙の画像に緑色を塗布する。三次元画像に含まれる各歯牙に対して予め定められた色が塗布されると、図16に示すように各歯牙に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では各色がハッチングで表されている。 For example, when the user 1 identifies that the tooth included in the three-dimensional image is a second molar, the user 1 applies red color to the image of the tooth. Further, when the tooth included in the three-dimensional image is identified as the first molar, green is applied to the image of the tooth. When a predetermined color is applied to each tooth included in the three-dimensional image, a three-dimensional image in which the predetermined color is applied to each tooth is generated as shown in FIG. For the sake of clarity, each color is represented by hatching on the drawing.

各歯牙に対して予め定められた色情報(識別情報)が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態2にかかる歯牙種推定モデル114aの学習用データにおいては、識別処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116aとして、識別装置100aに保持される。 When predetermined color information (identification information) is associated with each tooth, the three-dimensional data includes position information and color information (identification information) corresponding to the applied color. , Such three-dimensional data is adopted as learning data. That is, in the learning data of the tooth type estimation model 114a according to the second embodiment, the color information corresponding to the tooth type is associated (labeled) with the position information referred to in the identification process. Further, the color information is associated with the three-dimensional data so that the range of each of the plurality of teeth corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each position information corresponding to each tooth. Such a collection of learning data is held in the identification device 100a as a learning data set 116a.

なお、実施形態2においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出できる。 In the second embodiment, the user 1 manually applies a color to each tooth included in the three-dimensional image based on his / her own knowledge, but it is also possible to supplement some of the work with software. For example, the boundary between the tooth to be labeled and the tooth adjacent to the tooth and the boundary between the tooth to be labeled and the gingiva may be specified by edge detection. Only the teeth to be labeled can be extracted.

図17に示すように、学習用データセット116aは、当該学習用データセット116aを生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類できる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別できる。 As shown in FIG. 17, the learning data set 116a can be classified into categories based on the profile of the subject 2 to be scanned when the learning data set 116a is generated. For example, age (minors, active generation, elderly), gender (male, female), race (Asian, Western, African), height (less than 150 cm, 150 or more), weight (less than 50 kg, 50 kg). The above) and the place of residence (resident in Japan, living outside Japan) can be assigned a learning data set generated from three-dimensional data including the teeth of the corresponding subject 2. The stratification of each category can be set as appropriate. For example, regarding age, more details such as by a predetermined age difference (in this case, every 3 years), specifically, 0 to 3 years, 4 to 6 years, 7 to 9 years, and so on. Can be stratified into.

識別装置100aは、カテゴリごとに分類できる複数の学習用データセット116aを用いて歯牙種推定モデル114aを学習させることで、学習済モデル115aを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて歯牙種推定モデル114aを学習させればよい。 The identification device 100a generates a trained model 115a by training a tooth type estimation model 114a using a plurality of learning data sets 116a that can be classified by category. The training data may be duplicated depending on how the categories are classified, but if the training data is duplicated, the tooth type estimation model 114a should be trained using only one of the training data. Just do it.

一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、実施形態2のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別できる学習済モデルを生成できる。 In general, the shape of teeth varies in characteristics depending on heredity or living environment such as age, gender, race, height, weight, and place of residence. For example, in general, adult permanent teeth are larger than children's deciduous teeth, and both differ in shape. Also, in general, male teeth are larger than female teeth, and their shapes are different. Also, in general, Westerners' teeth tend to have sharp tips to make it easier to bite hard meat and bread, while Japanese teeth have tips to make it easier to grind soft rice and vegetables. Tends to be smooth. Therefore, if the learning process is executed based on the profile data as in the second embodiment, it is possible to generate a learned model that can identify the type of tooth in consideration of heredity or living environment.

図18に示すように、識別装置100aは、学習済モデル115aを生成するために歯牙種用の学習処理を実行する。歯牙種用の学習処理は、利用する推定モデルが歯牙種推定モデル114aである点、および、歯牙種推定モデル114aに入力する情報が三次元データの位置情報に加えて、学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを入力する(S2a)点で、実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。 As shown in FIG. 18, the identification device 100a performs a learning process for the tooth species in order to generate the trained model 115a. In the learning process for tooth species, the estimation model to be used is the tooth species estimation model 114a, and the information input to the tooth species estimation model 114a is added to the position information of the three-dimensional data to generate learning data. It differs from the learning process for the type of processing (see FIG. 9) executed by the identification device 100 according to the first embodiment in that the profile data of the subject 2 to be scanned is input (S2a).

具体的に、識別装置100aは、学習用データセット116aの中から、学習に用いる学習用データを選択する(S1a)。識別装置100aは、選択した学習用データに含まれる三次元データの位置情報、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを歯牙種推定モデル114aに入力する(S2a)。識別装置100は、三次元データに対応する歯牙の特徴に基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する識別処理を実行する(S3a)。識別処理において、識別装置100は、三次元データに加えてプロファイルデータに基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する。 Specifically, the identification device 100a selects learning data to be used for learning from the learning data set 116a (S1a). The identification device 100a inputs the position information of the three-dimensional data included in the selected learning data and the profile data of the subject 2 to be scanned when generating the learning data into the tooth type estimation model 114a. (S2a). The identification device 100 executes an identification process for identifying the tooth type using the tooth type estimation model 114a based on the characteristics of the tooth corresponding to the three-dimensional data (S3a). In the identification process, the identification device 100 identifies the type of the tooth by using the tooth type estimation model 114a based on the profile data in addition to the three-dimensional data.

識別装置100aは、識別処理によって識別した歯牙の種類の識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、歯牙種推定モデル114aのパラメータ1144aを更新する(S4a)。 The identification device 100a updates the parameter 1144a of the tooth type estimation model 114a based on the error between the identification result of the tooth type identified by the identification process and the correct answer data corresponding to the learning data used in the learning process (S4a). ).

次に、識別装置100aは、全ての学習用データに基づき学習したか否かを判定する(S5a)。識別装置100aは、全ての学習用データに基づき学習していない場合(S5aでNO)、S1aの処理に戻る。 Next, the identification device 100a determines whether or not learning has been performed based on all the learning data (S5a). When the identification device 100a has not learned based on all the learning data (NO in S5a), the identification device 100a returns to the process of S1a.

一方、識別装置100aは、全ての学習用データに基づき学習した場合(S5aでYES)、学習済みの歯牙種推定モデル114aを学習済モデル115aとして記憶し(S6a)、本処理を終了する。 On the other hand, when the identification device 100a learns based on all the learning data (YES in S5a), the learning tooth type estimation model 114a is stored as the learned model 115a (S6a), and this process ends.

このように、識別装置100aは、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する識別情報(たとえば、色情報)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の種類の識別結果に基づき、歯牙種推定モデル114aを学習することで、学習済モデル115aを生成できる。 As described above, the identification device 100a uses the identification information (for example, color information) corresponding to the tooth type associated with the three-dimensional data included in the learning data as the correct answer data, and uses the three-dimensional data by the identification process. The trained model 115a can be generated by learning the tooth type estimation model 114a based on the identification result of the tooth type.

さらに、識別装置100aは、学習処理において、学習用データに加えてプロファイルデータを考慮して歯牙種推定モデル114aを学習するため、対象者2のプロファイルを考慮した学習済モデル115aを生成できる。 Further, since the identification device 100a learns the tooth type estimation model 114a in consideration of the profile data in addition to the learning data in the learning process, the learned model 115a in consideration of the profile of the subject 2 can be generated.

なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、歯牙の名称または歯牙の番号など、色情報とは異なる情報であってもよい。 Although the color information is associated with each position information as the identification information which is the correct answer data, the identification information may be information different from the color information such as the name of the tooth or the number of the tooth.

[サービス提供処理]
図19は、実施形態2にかかる識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態2にかかる識別装置100aが実行するサービス提供処理は、S12に代わりS121~S126が実行される点で、図10に示した実施形態1にかかる識別装置100が実行するサービス提供処理と異なる。以下、識別装置100が実行するサービス提供処理と異なる点を中心に説明する。
[Service provision process]
FIG. 19 is a flowchart for explaining an example of the service providing process executed by the identification device 100a according to the second embodiment. The service providing process executed by the identification device 100a according to the second embodiment is different from the service providing process executed by the identification device 100 according to the first embodiment shown in FIG. 10 in that S121 to S126 are executed instead of S12. .. Hereinafter, the points different from the service provision process executed by the identification device 100 will be mainly described.

識別装置100aは、所定の点に対応する三次元データが入力された場合(S11でYES)、プロファイルデータがあるか否かを判定する(S121)。識別装置100aは、プロファイルデータがない場合(S121でNO)、三次元データ(位置情報)を学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S123)。一方、識別装置100aは、プロファイルデータがある場合(S121でYES)、三次元データ(位置情報)およびプロファイルデータを学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S122)。 When the three-dimensional data corresponding to a predetermined point is input (YES in S11), the identification device 100a determines whether or not there is profile data (S121). When there is no profile data (NO in S121), the identification device 100a inputs three-dimensional data (position information) into the trained tooth type estimation model 114a (learned model 115a) (S123). On the other hand, when the identification device 100a has profile data (YES in S121), the three-dimensional data (position information) and the profile data are input to the trained tooth type estimation model 114a (trained model 115a) (S122).

S122およびS123のあと、識別装置100aは、三次元データに対応する歯牙の特徴に基づき、学習済の歯牙種推定モデル114a(学習済モデル115a)を用いて当該歯牙の種類を識別する識別処理を実行する(S124)。このとき、S122でプロファイルデータが学習済モデル115aに入力されていた場合、識別装置100aは、三次元データに加えてプロファイルデータに基づき、学習済モデル115aを用いて当該歯牙の種類を識別する。 After S122 and S123, the identification device 100a performs an identification process for identifying the tooth type using the learned tooth type estimation model 114a (learned model 115a) based on the characteristics of the tooth corresponding to the three-dimensional data. Execute (S124). At this time, when the profile data is input to the trained model 115a in S122, the identification device 100a identifies the type of the tooth by using the trained model 115a based on the profile data in addition to the three-dimensional data.

識別装置100aは、歯牙の種類を識別できたか否かを判定する(S125)。識別できたか否かは、たとえば、パラメータ1144aに含まれる判定値と計算結果との比較に基づいて判断される。 The identification device 100a determines whether or not the type of tooth can be identified (S125). Whether or not the identification was possible is determined based on, for example, a comparison between the determination value included in the parameter 1144a and the calculation result.

識別装置100aは、歯牙の種類を識別できた場合(S125においてYES)、S13以降の処理を実行する。一方、識別装置100aは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。 When the identification device 100a can identify the type of tooth (YES in S125), the identification device 100a executes the processing after S13. On the other hand, when the identification device 100a cannot identify the type of tooth (NO in S125), the three-dimensional data is input to the trained processed type estimation model 114 (trained model 115), and the trained model 115 is input. It is used to execute an identification process for identifying the type of the machined portion (S126).

S125およびS126のあと、識別装置100aは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、識別装置100aは、歯牙の種類が識別できた場合、三次元データに含まれる位置情報に対して、歯牙の種類を示す識別結果124aを示す色情報(赤色、緑色などを示す色情報)を関連付ける。一方、歯牙の種類を識別できず、加工部位の種類を識別できた場合、識別装置100aは、三次元データに含まれる位置情報に対して、加工部位の種類を示す識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。 After S125 and S126, the identification device 100a associates the identification result with the three-dimensional data input in S11 (S13). For example, when the identification device 100a can identify the type of tooth, the color information indicating the identification result 124a indicating the type of tooth (color information indicating red, green, etc.) with respect to the position information included in the three-dimensional data. To associate. On the other hand, when the type of the tooth cannot be identified and the type of the processed portion can be identified, the identification device 100a indicates the color information indicating the identification result 124 indicating the type of the processed portion with respect to the position information included in the three-dimensional data. (Color information indicating color a, color b, etc.) is associated.

識別装置100aは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100aは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。 The identification device 100a outputs the result of the association to the outside (for example, the display 300) (S14). Specifically, with respect to the point corresponding to the input three-dimensional data, the result of the association with the portion corresponding to the point is displayed on the display 300. After that, the identification device 100a ends this process. For example, as in the output example during measurement shown in FIGS. 11 and 12, at the timing when the three-dimensional data is acquired, the identification results for the acquired three-dimensional data are sequentially displayed on the display 300.

以上のように、実施形態2において、識別装置100aは、歯牙種識別部1134が歯牙の種類を識別できなかった場合に、加工種識別部1132による加工部位の種類を識別する処理を実行し、歯牙種識別部1134が歯牙の種類を識別できた場合には、加工種識別部1132による加工部位の種類を識別する処理を実行しない。 As described above, in the second embodiment, when the tooth type identification unit 1134 cannot identify the type of tooth, the identification device 100a executes a process of identifying the type of the processed portion by the processed type identification unit 1132. If the tooth type identification unit 1134 can identify the type of tooth, the processing type identification unit 1132 does not execute the process of identifying the type of the processed portion.

図19に示したサービス提供処理において、識別装置100aは、歯牙の種類を識別できなかった場合に、S126において、加工部位ではないと識別した場合には、S13において、識別できなかったことを示す情報を三次元データに対応付けるようにしてもよい。 In the service providing process shown in FIG. 19, when the identification device 100a cannot identify the type of tooth, and when it identifies that it is not a processed part in S126, it indicates that it could not be identified in S13. Information may be associated with three-dimensional data.

[カルテ生成処理]
図20は、実施形態2にかかる識別装置100aが実行するカルテ生成処理の一例を説明するためのフローチャートである。カルテ生成処理は、三次元スキャナ200による三次元データの取得が完了した後であって、当該三次元データに対する識別処理(サービス提供処理)が完了したときに行われる。
[Medical record generation process]
FIG. 20 is a flowchart for explaining an example of the medical record generation process executed by the identification device 100a according to the second embodiment. The medical record generation process is performed after the acquisition of the three-dimensional data by the three-dimensional scanner 200 is completed and when the identification process (service provision process) for the three-dimensional data is completed.

カルテ生成処理において、識別装置100aは、加工部位に対応する歯牙種と、当該加工部位に施された治療内容を推定し、推定した歯牙種に対応付けて加工部位に施された治療内容をカルテとして出力する。 In the medical record generation process, the identification device 100a estimates the tooth type corresponding to the processed site and the treatment content applied to the processed site, and records the treatment content applied to the processed site in association with the estimated tooth type. Is output as.

図20を参照して、識別装置100aは、歯牙種および治療内容の推定がされていない加工部位があるか否かを判定する(S21)。歯牙種および治療内容の推定がされていない加工部位がないと判定した場合(S21においてNO)、すなわち、すべての加工部位に対して、当該加工部位に対応する歯牙種の推定と、治療内容の推定とがされたと判定した場合、識別装置100aは、S26の処理を実行して、カルテ生成処理を終了する。 With reference to FIG. 20, the identification device 100a determines whether or not there is a processed portion for which the tooth type and the treatment content have not been estimated (S21). When it is determined that there is no processed part for which the tooth type and treatment content have not been estimated (NO in S21), that is, for all processed parts, the tooth type corresponding to the processed part is estimated and the treatment content is estimated. If it is determined that the estimation has been made, the identification device 100a executes the process of S26 and ends the medical record generation process.

歯牙種および治療内容の推定がされていない加工部位があると判定した場合(S21においてYES)、識別装置100aは、加工部位の三次元データに基づき、当該加工部位に隣接する歯牙の種類を識別結果124a(歯牙の種類を示す識別結果)から取得する(S22)。 When it is determined that there is a processed part for which the tooth type and the treatment content have not been estimated (YES in S21), the identification device 100a identifies the type of tooth adjacent to the processed part based on the three-dimensional data of the processed part. Obtained from the result 124a (identification result indicating the type of tooth) (S22).

識別装置100aは、取得した歯牙の種類から、加工部位に対応する歯牙の種類を推定する(S23)。識別装置100aは、当該加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する(S24)。識別装置100aは、推定した治療内容と推定した歯牙の種類とを対応付けてカルテに反映する(S25)。識別装置100aは、カルテに反映したのち、S21の処理を実行し、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図14に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。 The identification device 100a estimates the type of tooth corresponding to the processed portion from the acquired type of tooth (S23). The identification device 100a estimates the treatment content applied to the processed site based on the identification result 124 indicating the type of the processed site (S24). The identification device 100a associates the estimated treatment content with the estimated tooth type and reflects them in the medical record (S25). After reflecting on the medical record, the identification device 100a executes the processing of S21, repeats S22 to S25 until the type of tooth and the treatment content are estimated for all the processed parts, and then outputs the medical record (S26). .. For example, the identification device 100a displays the chart 150 shown in FIG. 14 on the display 300, or prints the chart 150.

以上のように、実施形態2においては、加工部位に施された治療内容が推定され、さらに加工部位に対応する歯牙の種類が推定される。そして、推定された治療内容と、推定された歯牙の種類とが対応付けて出力されることで、カルテが自動的に生成される。 As described above, in the second embodiment, the treatment content applied to the processed portion is estimated, and the type of tooth corresponding to the processed portion is estimated. Then, the medical record is automatically generated by outputting the estimated treatment content and the estimated tooth type in association with each other.

なお、実施形態2において、治療推定部1152は、測定後に機能するとした。なお、治療推定部1152が実行する処理は、図19に示したサービス提供処理に組み込まれていてもよい。たとえば、識別装置100aは、S126を実行した後に、得られた識別結果に基づいて治療内容を推定する処理を実行してもよい。 In the second embodiment, the treatment estimation unit 1152 functions after the measurement. The process executed by the treatment estimation unit 1152 may be incorporated in the service provision process shown in FIG. For example, the identification device 100a may execute a process of estimating the treatment content based on the obtained identification result after executing S126.

<実施形態3>
図21~図26を参照して、実施形態3にかかる識別装置100bについて説明する。識別装置100bは、歯牙種の識別および加工部位の識別に加えて、病変部位の識別を行う。なお、「病変部位を識別する」とは、三次元データ122に対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は当該病変部位の病変内容を識別することを意味する。
<Embodiment 3>
The identification device 100b according to the third embodiment will be described with reference to FIGS. 21 to 26. The identification device 100b identifies the lesion site in addition to the identification of the tooth type and the identification of the processed site. In addition, "identifying a lesion site" means identifying whether or not the site corresponding to the three-dimensional data 122 is a lesion site, and if it is a lesion site, identifying the lesion content of the lesion site. means.

なお、「病変部位」は、口腔内の病変部位であって、たとえば、う蝕された部位、歯周病の症状が見られる部位を含む。また、「病変部位」は、実際に病気であると診断を受ける部位だけに限らず、歯石がたまっている部位のように病気を引き起こしそうな部位を含み得る。 The "lesion site" includes a lesion site in the oral cavity, for example, a carious site and a site where symptoms of periodontal disease are observed. Further, the "lesion site" is not limited to a site that is actually diagnosed as having a disease, but may include a site that is likely to cause a disease, such as a site where tartar is accumulated.

[測定中に機能する構成]
図21は、実施形態3にかかるスキャナシステム10bの測定中に機能する機能構成を示す模式図である。図21を参照して、スキャナシステム10bは、識別装置100aに替えて識別装置100bを備える点で実施形態2にかかるスキャナシステム10aと異なる。また、識別装置100bは、病変識別部1136をさらに備える点で、実施形態2にかかる識別装置100aと異なる。病変識別部1136は、入力部1102に入力された、三次元データに基づき、病変推定モデル114b(学習済モデル115b)を用いて、病変の種類を識別する。
[Configuration that works during measurement]
FIG. 21 is a schematic diagram showing a functional configuration that functions during measurement of the scanner system 10b according to the third embodiment. With reference to FIG. 21, the scanner system 10b differs from the scanner system 10a according to the second embodiment in that the identification device 100b is provided in place of the identification device 100a. Further, the identification device 100b is different from the identification device 100a according to the second embodiment in that the lesion identification unit 1136 is further provided. The lesion identification unit 1136 identifies the type of lesion using the lesion estimation model 114b (learned model 115b) based on the three-dimensional data input to the input unit 1102.

病変推定モデル114bは、第3NNW1142bと、当該第3NNW1142bによって用いられるパラメータ1144bとを含む。なお、第3NNW1142bおよびパラメータ1144bは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。 The lesion estimation model 114b includes a third NNW1142b and a parameter 1144b used by the third NNW1142b. Since the third NNW 1142b and the parameter 1144b are common to the first NNW 1142 and the parameter 1144 described in the first embodiment, the description thereof will be omitted.

出力部1103は、歯牙種識別部1134、加工種識別部1132、および病変識別部1136の各々による識別結果をディスプレイ300に出力する。 The output unit 1103 outputs the identification results of each of the tooth type identification unit 1134, the processed type identification unit 1132, and the lesion identification unit 1136 to the display 300.

また、識別装置100bが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124と、三次元データ122に対応する部位の病変内容を示す識別結果124bとが格納される。 Further, the storage 110 included in the identification device 100b shows the three-dimensional data 122, the identification result 124a indicating the type of tooth of the portion corresponding to the three-dimensional data 122, and the type of the processed portion corresponding to the three-dimensional data 122. The identification result 124 and the identification result 124b indicating the lesion content of the site corresponding to the three-dimensional data 122 are stored.

[測定後に機能する構成]
図22を参照して、カルテの生成にかかる機能について説明する。図22は、測定後にカルテを生成する際に機能する識別装置100bの機能構成を示す模式図である。
[Configuration that works after measurement]
With reference to FIG. 22, the function related to the generation of the medical record will be described. FIG. 22 is a schematic diagram showing a functional configuration of the identification device 100b that functions when generating a medical record after measurement.

図22を参照して、測定後にカルテを生成する際の機能として、識別装置100bは、実施形態2にかかる識別装置100aと同様に、治療推定部1152、歯牙種推定部1154およびカルテ生成部1156を備える。 With reference to FIG. 22, as a function of generating a medical record after measurement, the identification device 100b has a treatment estimation unit 1152, a tooth type estimation unit 1154, and a medical record generation unit 1156, similarly to the identification device 100a according to the second embodiment. To prepare for.

実施形態3にかかる歯牙種推定部1154は、加工部位に対応する歯牙の種類に加えて、病変部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位または病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位または当該病変部位に対応する歯牙の種類を推定する。「病変部位に対応する歯牙」とは、う蝕された歯牙、病変のある歯肉の近傍の歯牙を意味する。なお、治療推定部1152の機能は、実施形態2にかかる識別装置100aが備える治療推定部1152と共通する。 The tooth type estimation unit 1154 according to the third embodiment estimates the type of tooth corresponding to the lesion site in addition to the type of tooth corresponding to the processed site. The tooth type estimation unit 1154 estimates the type of tooth corresponding to the processed site or the lesion site from the type of the tooth corresponding to the processed site or the lesion site or the adjacent tooth. "Tooth corresponding to a lesion site" means a carious tooth or a tooth in the vicinity of the gingiva having a lesion. The function of the treatment estimation unit 1152 is common to the treatment estimation unit 1152 included in the identification device 100a according to the second embodiment.

カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類および治療推定部1152が推定した当該加工部位に施された治療内容、ならびに歯牙種推定部1154が推定した病変部位に対応する歯牙の種類および識別結果124bが示す病変内容に基づいて、カルテ150を生成する。 The medical record generation unit 1156 includes the type of tooth corresponding to the processing site estimated by the tooth type estimation unit 1154, the treatment content estimated by the treatment estimation unit 1152 on the processing site, and the lesion estimated by the tooth type estimation unit 1154. A medical record 150 is generated based on the type of tooth corresponding to the site and the lesion content indicated by the identification result 124b.

カルテ150には、プロファイルデータ119から特定される対象者2のプロファイルを示すプロファイル表示領域152と、加工部位または病変部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容または病変の内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。 In the chart 150, a profile display area 152 showing the profile of the subject 2 specified from the profile data 119 and a tooth type display area 154 showing the type of tooth corresponding to the processed site or the lesion site are displayed. It includes a comment display area 156 showing the content of treatment or lesion applied to the tooth and a tooth expression display area 158 showing the tooth type.

なお、病変部位に対応する歯牙の種類を推定する方法は、上記実施形態2において説明した加工部位に対応する歯牙の種類を推定する方法と共通する。たとえば、歯牙種推定部1154は、病変部位が歯牙である場合には、当該病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該病変部位に対応する歯牙の種類を推定する。また、歯牙種推定部1154は、病変部位が歯肉である場合には、当該歯肉に隣接する歯牙を当該病変部位に対応する歯牙として、当該病変部位(歯肉)に対応する歯牙の種類を推定する。 The method of estimating the type of tooth corresponding to the lesion site is the same as the method of estimating the type of tooth corresponding to the processed site described in the second embodiment. For example, when the lesion site is a tooth, the tooth type estimation unit 1154 estimates the type of tooth corresponding to the lesion site from the type of the tooth corresponding to the lesion site or the adjacent tooth. Further, when the lesion site is a gingiva, the tooth type estimation unit 1154 estimates the type of tooth corresponding to the lesion site (gingiva) by using the tooth adjacent to the gingiva as the tooth corresponding to the lesion site. ..

[病変推定モデル114b(学習済モデル115b)の生成]
図23および図24を参照して、学習済モデル115bを生成するための学習処理について説明する。図23は、実施形態3にかかる学習用データセット116bに基づく学習済モデル115bの生成を説明するための模式図である。図24は、実施形態3にかかる識別装置100bが実行する病変用の学習処理の一例を説明するためのフローチャートである。なお、歯牙種推定モデル114aの学習済モデル115a、および加工種推定モデル114の学習済モデル115を生成するための学習処理は、上記実施形態において説明した学習処理と共通するため、説明を省略する。
[Generation of lesion estimation model 114b (learned model 115b)]
A learning process for generating the trained model 115b will be described with reference to FIGS. 23 and 24. FIG. 23 is a schematic diagram for explaining the generation of the trained model 115b based on the learning data set 116b according to the third embodiment. FIG. 24 is a flowchart for explaining an example of a learning process for a lesion executed by the identification device 100b according to the third embodiment. Since the learning process for generating the trained model 115a of the tooth species estimation model 114a and the trained model 115 of the processed species estimation model 114 is common to the learning process described in the above embodiment, the description thereof will be omitted. ..

図23を参照して、病変内容を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら、病変部位を識別し、識別した病変内容に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、病変内容ごとに予め割り当てられている。割り当て内容は、色分類データ118bとしてストレージ110内に格納されている。 With reference to FIG. 23, when generating learning data to identify the lesion content, user 1 (particularly, a person with dental knowledge such as a dentist or a dental technician) displays a three-dimensional image. While confirming, the lesion site is identified, and the position information and the identification information are associated with each other by applying a color corresponding to the identified lesion content to the three-dimensional image. The color to be applied is assigned in advance for each lesion content. The allocation contents are stored in the storage 110 as color classification data 118b.

たとえば、ユーザ1は、三次元画像に含まれる部位が病変のない歯牙であると識別すると、当該歯牙の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位が初期のう歯であると識別すると、当該部位の画像に色Aを塗布する。なお、分かり易いように、図面上では色A、Cがハッチングで表されている。 For example, when the user 1 identifies that the site included in the three-dimensional image is a tooth without a lesion, the user 1 applies white color to the image of the tooth. Further, when the user 1 identifies that the portion included in the three-dimensional image is the initial dental caries, the user 1 applies the color A to the image of the portion. For the sake of clarity, the colors A and C are represented by hatching on the drawing.

位置情報に、正解データとして病変内容を示す色情報(識別情報)が対応付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態3にかかる病変推定モデル114bの学習用データにおいては、識別処理で参照される位置情報に対して、病変内容に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する病変の範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各病変部位に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116bとして、識別装置100bに保持される。 When the position information is associated with the color information (identification information) indicating the lesion content as the correct answer data, the three-dimensional data includes the position information and the color information (identification information) corresponding to the applied color. Then, such three-dimensional data is adopted as learning data. That is, in the learning data of the lesion estimation model 114b according to the third embodiment, the color information corresponding to the lesion content is associated (labeled) with the position information referred to in the identification process. Further, color information is associated with the three-dimensional data so that the range of the lesion corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each position information corresponding to each lesion site. Such a collection of learning data is held in the identification device 100b as a learning data set 116b.

なお、実施形態3においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2のカルテなどを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。たとえば、カルテに基づいて塗布する色が自動で選択されるような構成であってもよい。 In the third embodiment, the user 1 manually applies the color to each part included in the three-dimensional image based on his / her own knowledge, but the user 1 manually applies the color while checking the chart of the target person 2. Color may be applied to each part included in the three-dimensional image by work. It is also possible to supplement some work with software. For example, the color to be applied may be automatically selected based on the medical record.

識別装置100bは、このようにして生成された1または複数の学習用データセット116bを用いて病変推定モデル114bを学習させることで、学習済モデル115bを生成する。 The identification device 100b generates the trained model 115b by training the lesion estimation model 114b using the one or a plurality of learning data sets 116b thus generated.

なお、図23の色分類データ118bに示した病変内容の分類は、一例である。たとえば、歯牙について、異常なし、初期のう歯、治療が必要なう歯の3つに分類する例を示したが、当該分類に対する、臨床現場で用いられる進行度を示すC0~C4という5段階の指標で分類してもよい。同様に、歯肉について、異常なし、歯周病ありの2つに分類する例を示したが、歯周病をさらに進行度を示す複数の段階に分類してもよい。具体的には、歯肉炎、軽度歯周炎、中度歯周炎、重度歯周炎に分類してもよい。 The classification of the lesion content shown in the color classification data 118b in FIG. 23 is an example. For example, an example was shown in which teeth are classified into three categories: no abnormality, initial dental caries, and dental caries that require treatment. It may be classified by the index of. Similarly, although an example of classifying the gingiva into two categories, normal and periodontal disease, may be further classified into a plurality of stages indicating the degree of progression. Specifically, it may be classified into gingival inflammation, mild periodontitis, moderate periodontitis, and severe periodontitis.

図24に示すように、識別装置100bは、学習済モデル115bを生成するために病変用の学習処理を実行する。病変用の学習処理は、利用する推定モデルが病変推定モデル114bであり、入力する学習用データが学習用データセット116bである点で実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。 As shown in FIG. 24, the discriminator 100b performs a learning process for the lesion to generate the trained model 115b. In the learning process for lesions, the estimation model to be used is the lesion estimation model 114b, and the learning data to be input is the learning data set 116b. It is different from the processing (see FIG. 9).

具体的には、識別装置100bは、学習用データセット116bの中から、学習に用いる学習用データを選択する(S1b)。識別装置100bは、選択した学習用データに含まれる三次元データの位置情報を病変推定モデル114bに入力する(S2b)。識別装置100bは、病変推定モデル114bを用いて三次元データの特徴を抽出し、三次元データに対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は病変内容を識別する識別処理を実行する(S3b)。 Specifically, the identification device 100b selects learning data to be used for learning from the learning data set 116b (S1b). The identification device 100b inputs the position information of the three-dimensional data included in the selected learning data into the lesion estimation model 114b (S2b). The identification device 100b extracts the characteristics of the three-dimensional data using the lesion estimation model 114b, identifies whether or not the site corresponding to the three-dimensional data is the lesion site, and if it is the lesion site, determines the lesion content. The identification process for identification is executed (S3b).

識別装置100bは、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、病変推定モデル114bのパラメータ1144bを更新する(S4b)。 The identification device 100b updates the parameter 1144b of the lesion estimation model 114b based on the error between the identification result by the identification process and the correct answer data corresponding to the learning data used in the learning process (S4b).

次に、識別装置100bは、全ての学習用データに基づき学習したか否かを判定する(S5b)。識別装置100bは、全ての学習用データに基づき学習していない場合(S5bでNO)、S1bの処理に戻る。 Next, the identification device 100b determines whether or not learning has been performed based on all the learning data (S5b). When the identification device 100b has not learned based on all the learning data (NO in S5b), the identification device 100b returns to the process of S1b.

一方、識別装置100bは、全ての学習用データに基づき学習した場合(S5bでYES)、学習済みの病変推定モデル114bを学習済モデル115bとして記憶し(S6b)、本処理を終了する。 On the other hand, when the identification device 100b learns based on all the learning data (YES in S5b), the learned lesion estimation model 114b is stored as the learned model 115b (S6b), and this process ends.

[サービス提供処理]
図25は、実施形態3にかかる識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するサービス提供処理は、S127がさらに実行される点で、図19に示した実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる。以下、実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる点を中心に説明する。
[Service provision process]
FIG. 25 is a flowchart for explaining an example of the service providing process executed by the identification device 100b according to the third embodiment. The service providing process executed by the identification device 100b according to the third embodiment is different from the service providing process executed by the identification device 100a according to the second embodiment shown in FIG. 19 in that S127 is further executed. Hereinafter, the points different from the service providing process executed by the identification device 100a according to the second embodiment will be mainly described.

識別装置100bは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。 When the identification device 100b cannot identify the type of tooth (NO in S125), the three-dimensional data is input to the trained processed species estimation model 114 (trained model 115), and the trained model 115 is used. An identification process for identifying the type of the machined portion is executed (S126).

また、識別装置100bは、三次元データを学習済の病変推定モデル114b(学習済モデル115b)に入力し、当該学習済モデル115bを用いて病変内容を識別する識別処理を実行する(S127)。 Further, the identification device 100b inputs three-dimensional data into the trained lesion estimation model 114b (learned model 115b), and executes the discrimination process for discriminating the lesion content using the trained model 115b (S127).

S125およびS127のあと、識別装置100bは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別できなかった一方、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、S127において病変の種類を識別できなかった場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、かつ、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)および識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。 After S125 and S127, the identification device 100b associates the identification result with the three-dimensional data input in S11 (S13). For example, if the type of tooth cannot be identified and the type of processed site cannot be identified in S126 for the site corresponding to the input 3D data, while the type of lesion can be identified in S127, the identification device. Reference numeral 100b associates the position information included in the three-dimensional data with the color information (color information indicating color A, color B, etc.) indicating the identification result 124b. Further, when the type of the tooth cannot be identified, the type of the processed portion can be identified in S126 and the type of the lesion cannot be identified in S127 with respect to the portion corresponding to the input three-dimensional data, the identification device 100b can be used. , Color information indicating the identification result 124 (color information indicating color a, color b, etc.) is associated with the position information included in the three-dimensional data. Further, when the type of the tooth cannot be identified, the type of the processed portion can be identified in S126 and the type of the lesion can be identified in S127 with respect to the portion corresponding to the input three-dimensional data, the identification device 100b Indicates color information indicating the identification result 124 (color information indicating the color a, color b, etc.) and color information indicating the identification result 124b (color A, color B, etc.) with respect to the position information included in the three-dimensional data. Color information) is associated.

そして、識別装置100bは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100bは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。なお、三次元データに含まれる位置情報に対して、2つの識別結果(たとえば、加工部位の種類を示す識別結果124と、病変内容を示す識別結果124b)が関連付けられた場合には、2色で交互に点滅するような態様でディスプレイ300に表示されてもよい。 Then, the identification device 100b outputs the result of the association to the outside (for example, the display 300) (S14). Specifically, with respect to the point corresponding to the input three-dimensional data, the result of the association with the portion corresponding to the point is displayed on the display 300. After that, the identification device 100b ends this process. For example, as in the output example during measurement shown in FIGS. 11 and 12, at the timing when the three-dimensional data is acquired, the identification results for the acquired three-dimensional data are sequentially displayed on the display 300. When two identification results (for example, the identification result 124 indicating the type of the processed site and the identification result 124b indicating the lesion content) are associated with the position information included in the three-dimensional data, two colors are used. It may be displayed on the display 300 in such a manner that it blinks alternately with.

以上のように、実施形態3において、識別装置100bは、三次元データに対応する部位の歯牙の種類を識別したのち、歯牙の種類を識別できなかった場合には、当該部位に施された治療内容を識別する識別処理と当該部位の病変内容を識別する識別処理とを実行する。 As described above, in the third embodiment, the identification device 100b identifies the type of tooth at the site corresponding to the three-dimensional data, and if the type of tooth cannot be identified, the treatment applied to the site is performed. The identification process for identifying the content and the identification process for identifying the lesion content at the site are executed.

[カルテ生成処理]
図26は、実施形態3にかかる識別装置100bが実行するカルテ生成処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するカルテ生成処理は、S251~S254がさらに実行される点で、図20に示した実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる。以下、実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる点を中心に説明する。
[Medical record generation process]
FIG. 26 is a flowchart for explaining an example of the medical record generation process executed by the identification device 100b according to the third embodiment. The medical record generation process executed by the identification device 100b according to the third embodiment is different from the medical record generation process executed by the identification device 100a according to the second embodiment shown in FIG. 20 in that S251 to S254 are further executed. Hereinafter, the points different from the medical record generation process executed by the identification device 100a according to the second embodiment will be mainly described.

識別装置100bは、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返し、すべての加工部位に対して歯牙の種類を推定したと判定すると(S21においてNO)、S251以降の処理を実行する。 When the identification device 100b repeats S22 to S25 until the type of tooth and the treatment content are estimated for all the processed parts, and determines that the type of tooth is estimated for all the processed parts (NO in S21). The processing after S251 is executed.

識別装置100bは、歯牙種の推定がされていない病変部位があるか否かを判定する(S251)。歯牙種の推定がされていない病変部位がないと判定した場合(S251においてNO)、すなわち、すべての病変部位に対してS251~S254の処理を実行して当該病変部位に対応する歯牙種の推定がされた場合、識別装置100bは、S26の処理を実行して、カルテ生成処理を終了する。 The identification device 100b determines whether or not there is a lesion site for which the tooth type has not been estimated (S251). When it is determined that there is no lesion site for which the tooth type has not been estimated (NO in S251), that is, the treatments S251 to S254 are executed for all the lesion sites to estimate the tooth type corresponding to the lesion site. If is, the identification device 100b executes the process of S26 and ends the medical record generation process.

歯牙種の推定がされていない病変部位があると判定した場合(S251においてYES)、識別装置100bは、病変部位の三次元データに基づき、当該病変部位に隣接する歯牙の種類を識別結果124aから取得する(S252)。 When it is determined that there is a lesion site for which the tooth type has not been estimated (YES in S251), the identification device 100b identifies the type of tooth adjacent to the lesion site from the identification result 124a based on the three-dimensional data of the lesion site. Acquire (S252).

識別装置100bは、取得した歯牙の種類から、病変部位に対応する歯牙の種類を推定する(S253)。識別装置100bは、当該病変部位の病変内容を識別結果124bから取得し、取得した病変内容と推定した歯牙の種類とを対応付けてカルテに反映する(S254)。 The identification device 100b estimates the type of tooth corresponding to the lesion site from the acquired type of tooth (S253). The identification device 100b acquires the lesion content of the lesion site from the identification result 124b, associates the acquired lesion content with the estimated tooth type, and reflects it in the medical record (S254).

識別装置100bは、カルテに反映したのち、S251の処理を実行し、すべての病変部位に対して歯牙の種類を推定するまでS252~S254を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図22に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。 After reflecting on the medical record, the identification device 100b executes the processing of S251, repeats S252 to S254 until the type of tooth is estimated for all the lesion sites, and then outputs the medical record (S26). For example, the identification device 100a displays the chart 150 shown in FIG. 22 on the display 300, or prints the chart 150.

以上のように、実施形態3にかかる識別装置100bは、加工部位に加えて病変部位の識別も行う。そのため、識別装置100bは、より正確な識別処理を実行できるとともに、ユーザ1に多くの情報を提供できる。 As described above, the identification device 100b according to the third embodiment also identifies the lesion site in addition to the processed site. Therefore, the identification device 100b can execute more accurate identification processing and can provide a lot of information to the user 1.

たとえば、う蝕が進むことで形成された孔のように、病気が進行することで形状が大きく変化しているような場合、ユーザ1は、一見して病変部位を識別できる。しかし、初期のう歯、また、わずかに欠けている部位などは、一見しては分からないこともある。また、歯周病は、歯肉の腫れや垂れ下がりなどから診断される。そのため、歯周病の診断は、ユーザ1の知見によりばらつきが生じることもある。 For example, when the shape of a hole is significantly changed as the disease progresses, such as a hole formed by the progress of caries, the user 1 can identify the lesion site at first glance. However, the initial caries and the slightly missing parts may not be apparent at first glance. Periodontal disease is diagnosed from swelling and sagging of the gingiva. Therefore, the diagnosis of periodontal disease may vary depending on the knowledge of the user 1.

そこで、AIを利用することで、診断のばらつきを減らすことができるとともに、一見しては分からない病変部位についても、病変部位の特徴を見出すことができる。 Therefore, by using AI, it is possible to reduce the variation in diagnosis and to find out the characteristics of the lesion site even if the lesion site is not apparent at first glance.

また、ユーザ1は、う蝕の形状を三次元で確認できるため、口腔内を観察する場合に比べて、切削範囲の検討、治療方法の検討などを行いやすい。また、識別装置100bは、病変内容と病変部位とを識別することで、う蝕の形状を推定できる。そのため、識別装置100bは、う蝕の形状に基づいて切削範囲を自動で設定し、設定した切削範囲を表示した口腔内(歯牙)の三次元データ上に表してディスプレイ300に表示することができる。また、識別装置100bは、病変内容と病変部位とを識別することで、治療方法を自動で提案できる。 Further, since the user 1 can confirm the shape of the caries in three dimensions, it is easier to examine the cutting range and the treatment method as compared with the case of observing the inside of the oral cavity. Further, the identification device 100b can estimate the shape of caries by discriminating between the lesion content and the lesion site. Therefore, the identification device 100b can automatically set the cutting range based on the shape of the caries, display the set cutting range on the three-dimensional data of the oral cavity (tooth), and display it on the display 300. .. Further, the identification device 100b can automatically propose a treatment method by discriminating between the lesion content and the lesion site.

また、識別装置100bが歯石またはプラークなどを識別してディスプレイ300に表示すると、ユーザ1は、対象者2に対して対象者2の歯の状態を三次元的に分かり易く説明することができ、歯の磨き方の指導などを容易に行うことができる。 Further, when the identification device 100b identifies tartar or plaque and displays it on the display 300, the user 1 can explain the state of the teeth of the subject 2 to the subject 2 in a three-dimensional and easy-to-understand manner. You can easily teach how to brush your teeth.

また、ユーザ1は、ディスプレイ300に表示された口腔内の三次元画像を確認することで、歯肉と歯牙との隙間の距離を三次元的に認識できるため、歯周病の進行度合いを診断しやすい。また、歯周病の進行度合いは、識別装置100bによって、歯肉と歯牙との距離などに基づいて推定されてもよい。そして、識別装置100bは、推定した歯周病の進行度合いをディスプレイ300に表示してもよい。 Further, since the user 1 can three-dimensionally recognize the distance between the gingiva and the tooth by checking the three-dimensional image of the oral cavity displayed on the display 300, the user 1 can diagnose the progress of periodontal disease. Cheap. Further, the degree of progression of periodontal disease may be estimated by the identification device 100b based on the distance between the gingiva and the tooth. Then, the identification device 100b may display the estimated progress of periodontal disease on the display 300.

また、歯周病の初期症状として、歯肉の腫れがある。歯肉の腫れは、ユーザ1が見逃し易い症状である。そこで、識別装置100bが歯肉の形状の特徴(腫れ)に基づいて歯周病の初期症状が現れている部位を識別することで、歯周病の早期発見が実現される。 In addition, gingival swelling is an early sign of periodontal disease. Gingival swelling is a symptom that User 1 can easily overlook. Therefore, the identification device 100b identifies the site where the initial symptom of periodontal disease appears based on the characteristic (swelling) of the shape of the gingiva, so that early detection of periodontal disease is realized.

上記カルテ生成処理において、識別装置100bは、加工部位および病変部位ごとに歯牙の種類を推定した。なお、識別装置100bは、三次元データ122ごとに歯牙の種類を推定してもよい。実施形態3において、一の三次元データに対して、当該三次元データに対応する部位が加工部位であり、かつ病変部位であると識別されることもある。そのような場合に、加工部位および病変部位ごとに歯牙の種類を推定すると、処理が重複してしまうことになる。そこで、識別装置100bは、歯牙の種類を識別できなかった三次元データ122について、隣接する歯牙の種類を識別できた三次元データ122に基づいて、歯牙の種類を推定してもよい。 In the above medical record generation process, the identification device 100b estimated the type of tooth for each processed site and lesion site. The identification device 100b may estimate the type of tooth for each three-dimensional data 122. In the third embodiment, for one three-dimensional data, the site corresponding to the three-dimensional data may be identified as a processed site and a lesion site. In such a case, if the type of tooth is estimated for each processed site and lesion site, the processing will be duplicated. Therefore, the identification device 100b may estimate the tooth type of the three-dimensional data 122 that could not identify the tooth type based on the three-dimensional data 122 that could identify the type of the adjacent tooth.

[変形例]
<識別処理の変形例>
実施形態1にかかる識別装置100は、三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別した。なお、識別装置100は、実施形態2および実施形態3のように、治療内容をさらに推定してもよい。また、識別装置100は、実施形態2および実施形態3のように、歯牙の種類を識別する識別処理を実行して、歯牙の種類に基づいて加工部位に対応する歯牙の種類を推定してもよい。
[Modification example]
<Modification example of identification processing>
The identification device 100 according to the first embodiment identifies whether or not the portion corresponding to the three-dimensional data is a processed portion, and if it is a processed portion, identifies the type of the processed portion. The identification device 100 may further estimate the treatment content as in the second and third embodiments. Further, the identification device 100 may execute the identification process for identifying the tooth type as in the second and third embodiments to estimate the tooth type corresponding to the processed portion based on the tooth type. good.

実施形態2にかかる識別装置100aは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、三次元データに対応する部位を加工部位であると識別して、加工部位の種類を識別する識別処理を実行した。 The identification device 100a according to the second embodiment executes an identification process for identifying the type of tooth, and when the type of tooth cannot be identified, identifies the portion corresponding to the three-dimensional data as a processed portion. , An identification process was performed to identify the type of machined part.

なお、識別装置100aは、加工部位の種類を識別する識別処理を実行したのち、加工部位ではないと識別した場合に歯牙の種類を識別する識別処理を実行してもよい。 The identification device 100a may execute an identification process for identifying the type of the processed portion and then perform an identification process for identifying the type of the tooth when it is determined that the portion is not the processed portion.

また、識別装置100aは、得られた各三次元データに対して、歯牙の種類を識別する識別処理および加工部位を識別する識別処理の両方の処理を実行して、2つの識別結果を得るようにしてもよい。この場合に、歯牙種推定部1154は、歯牙種を識別することができなかった部位に対応する歯牙の種類を隣接する歯牙の種類に基づいて推定するようにしてもよい。識別結果を得るための各処理を実行する順番は、予め定められていればよく、歯牙種に関する識別結果124aからでも、加工部位に関する識別結果124からでもどちらでもよい。また、識別結果を得るための各処理をタスク制御で実行してもよい。 Further, the identification device 100a executes both the identification process for identifying the tooth type and the identification process for identifying the processed portion on each of the obtained three-dimensional data so as to obtain two identification results. You may do it. In this case, the tooth type estimation unit 1154 may estimate the type of tooth corresponding to the site where the tooth type could not be identified based on the type of the adjacent tooth. The order in which each process for obtaining the identification result is executed may be predetermined, and may be either from the identification result 124a regarding the tooth type or from the identification result 124 regarding the processed portion. Further, each process for obtaining the identification result may be executed by task control.

実施形態3にかかる識別装置100bは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、加工部位の種類を識別する識別処理および病変内容を識別する識別処理を実行した。なお、識別装置100bは、歯牙の種類を識別する識別処理、治療内容を識別する識別処理および病変内容を識別する識別処理のそれぞれを実行して、3つの識別結果を得てもよい。 The identification device 100b according to the third embodiment executes an identification process for identifying the type of tooth, and when the type of tooth cannot be identified, the identification process for identifying the type of the processed portion and the identification for identifying the lesion content. The process was executed. The identification device 100b may execute each of the identification process for identifying the type of tooth, the identification process for identifying the treatment content, and the identification process for identifying the lesion content, and obtain three identification results.

また、識別装置100bは、加工部位の種類を識別することができず、かつ、病変内容を識別できなかった場合に、歯牙の種類を識別する識別処理を実行してもよい。 Further, the identification device 100b may execute an identification process for identifying the type of tooth when the type of the processed portion cannot be identified and the lesion content cannot be identified.

一の三次元データに対して複数の識別結果を得る場合に、識別結果を得るための各処理を実行する順番は、予め定められていればよく、どのような順番で実行されてもよいし、タスク制御で実行してもよい。 When a plurality of identification results are obtained for one three-dimensional data, the order in which each process for obtaining the identification results is executed may be predetermined and may be executed in any order. , May be executed by task control.

また、実施形態2において、識別装置100aは、加工種推定モデル114で加工部位の種類を識別したのち、加工部位の種類に基づいて治療内容を推定した。なお、識別装置100aは、1つの推定モデルを用いて、加工部位の種類および治療内容を推定してもよい。また、識別装置100aは、2つの推定モデルを有するとしたが、1つの推定モデルを用いて、歯牙の種類および加工部位の種類(または治療内容)を識別する構成であってもよい。同様に、実施形態3にかかる識別装置100bは、3つの推定モデルを用いて、3種類の事項を識別したが、1つまたは2つの推定モデルを用いて3種類の事項を識別してもよい。 Further, in the second embodiment, the identification device 100a identifies the type of the processed portion by the processed type estimation model 114, and then estimates the treatment content based on the type of the processed portion. The identification device 100a may estimate the type of the processed portion and the treatment content by using one estimation model. Further, although it is assumed that the identification device 100a has two estimation models, one estimation model may be used to identify the type of tooth and the type of processed portion (or treatment content). Similarly, the identification device 100b according to the third embodiment has identified three types of items using three estimation models, but may identify three types of items using one or two estimation models. ..

また、実施形態1~実施形態3において、識別装置100bは、加工部位と加工部位に施された治療内容を識別するとした。なお、これらに加えて、加工部位に用いられた部品の材質、または、インプラントメーカーの品番を識別するための構成を備えていてもよい。 Further, in the first to third embodiments, the identification device 100b identifies the processed portion and the treatment content applied to the processed portion. In addition to these, the material of the part used for the processed portion or the structure for identifying the part number of the implant manufacturer may be provided.

<学習用データセットの変形例>
上記実施形態1~実施形態3のいずれにおいても、三次元データに含まれる位置情報に基づいて識別処理が行われた。なお、位置情報に加えてさらに色情報を用いて識別処理が行われてもよい。図27は、変形例にかかる学習用データセットの一例を説明するための模式図である。位置情報に加えて色情報を学習済モデルに入力して識別結果を得る場合、図27に示すように、学習用データにも色情報を含めて学習処理が実行される。学習処理においては、推定モデルに対して位置情報に加えて色分け前の色情報が入力されることで、各部位の実際の色も考慮された上で学習済モデルが生成される。
<Modification example of learning data set>
In any of the above-described first to third embodiments, the identification process is performed based on the position information included in the three-dimensional data. It should be noted that the identification process may be performed using color information in addition to the position information. FIG. 27 is a schematic diagram for explaining an example of a learning data set according to a modified example. When the color information is input to the trained model in addition to the position information to obtain the identification result, as shown in FIG. 27, the learning process is executed including the color information in the training data. In the learning process, the color information before color coding is input to the estimated model in addition to the position information, so that the trained model is generated after considering the actual color of each part.

補綴物は、通常、審美性および機能性の観点から、天然歯と遜色のない形状で歯牙に取り付けられる。そのため、形状の特徴が現れる位置情報だけでは、入力された三次元データに対応する部位が補綴物に対応する部位であるか否かを十分に識別することが難しい場合もある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良く加工部位を識別できる。 The prosthesis is usually attached to the tooth in a shape comparable to that of a natural tooth from an aesthetic and functional point of view. Therefore, it may be difficult to sufficiently identify whether or not the part corresponding to the input three-dimensional data is the part corresponding to the prosthesis only by the position information in which the feature of the shape appears. Since the estimation model can extract color features in addition to shape features, it is possible to identify the machined part more accurately.

また、歯周病の初期症状として、歯肉の腫れや、歯肉の色の変化がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できるため、より正確に歯周病の識別を行うことができる。また、う蝕の初期症状として、歯牙できる白い斑点(ホワイトスポット)がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良くう蝕を識別できる。 In addition, the initial symptoms of periodontal disease include swelling of the gingiva and change in the color of the gingiva. Since the estimation model can extract color features in addition to shape features, periodontal disease can be identified more accurately. In addition, as an initial symptom of dental caries, there are white spots (white spots) on the teeth. The estimation model can extract color features in addition to shape features, so that caries can be identified more accurately.

上記実施形態1~実施形態3のいずれにおいても、対象者2の口腔内をスキャンすることで学習用データセットを生成した。なお、加工部位を識別するために利用される学習用データセットは、加工に用いる部品をスキャンすることで生成されてもよい。 In any of the above-described first to third embodiments, a learning data set was generated by scanning the oral cavity of the subject 2. The learning data set used to identify the machined portion may be generated by scanning the parts used for machining.

図28は、変形例にかかる学習用データセットを説明するための図である。たとえば、学習用データセットは、治療をする際に用いる部品をスキャンして得られる三次元データを用いて生成されてもよい。たとえば、学習用データセットは、インプラント治療をするために利用されるインプラント体をスキャンして得られる三次元データを集め、集めた三次元データから生成されてもよい。また、学習用データセットは、支台歯をスキャンして得られた三次元データを集め、集めた三次元データから生成されてもよい。識別装置は、治療をする際に用いる部品ごとに生成した各学習用データセットを推定モデルに入力することで学習済モデルを生成してもよい。 FIG. 28 is a diagram for explaining a learning data set according to a modified example. For example, the training data set may be generated using three-dimensional data obtained by scanning a component used for treatment. For example, the learning data set may be generated from the collected 3D data by collecting the 3D data obtained by scanning the implant body used for implant treatment. Further, the learning data set may be generated from the collected three-dimensional data by collecting the three-dimensional data obtained by scanning the abutment teeth. The identification device may generate a trained model by inputting each training data set generated for each component used in the treatment into the estimation model.

<カルテ生成部の変形例>
上記実施形態2および実施形態3において、カルテ生成部1156は、歯牙種推定部1154が推定した歯牙種と、治療推定部1152が識別結果124に基づいて推定した治療内容、または病変内容を示す識別結果124bとに基づいてカルテ150を生成した。なお、カルテ生成部1156は、カルテ150という最終成果物を生成する必要はなく、たとえば、ユーザ1によるカルテの入力をアシストする機能を提供するものであってもよい。具体的には、加工部位または病変部位であると識別した部位を示す情報(たとえば、歯牙種)を出力し、ユーザ1にカルテ150の入力を促すようにしてもよい。
<Modification example of medical record generation part>
In the second and third embodiments, the medical record generation unit 1156 identifies the tooth type estimated by the tooth type estimation unit 1154 and the treatment content or lesion content estimated by the treatment estimation unit 1152 based on the identification result 124. A chart 150 was generated based on the results 124b. The medical record generation unit 1156 does not need to generate the final product of the medical record 150, and may provide, for example, a function of assisting the user 1 in inputting the medical record. Specifically, information indicating a site identified as a processed site or a lesion site (for example, tooth type) may be output, and the user 1 may be prompted to input the medical record 150.

<サービス提供処理の変形例>
実施形態1~実施形態3にかかる識別装置は、図10,図19,図25に示すように、サービス提供処理において学習処理を実行するものではない。しかし、図29に示すように、識別装置は、サービス提供処理において学習処理を実行するものであってもよい。識別装置は、所謂、協調学習(Federated Learning)を行うものであってもよい。
<Modified example of service provision processing>
As shown in FIGS. 10, 19, and 25, the identification devices according to the first to third embodiments do not execute the learning process in the service provision process. However, as shown in FIG. 29, the identification device may execute the learning process in the service providing process. The identification device may be one that performs so-called collaborative learning (Federated Learning).

図29は、変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。図29に示すS11~S14の処理は、図10に示すS11~S14の処理と同じであるため、図29においては、S11~S14の処理についての詳細な説明を省略する。なお、以下では、実施形態1にかかる識別装置100がサービス提供処理において学習処理を実行するものとして説明する。 FIG. 29 is a flowchart for explaining an example of the service providing process executed by the identification device 100c according to the modified example. Since the processes of S11 to S14 shown in FIG. 29 are the same as the processes of S11 to S14 shown in FIG. 10, detailed description of the processes of S11 to S14 will be omitted in FIG. 29. In the following, the identification device 100 according to the first embodiment will be described as executing the learning process in the service providing process.

図29に示すように、識別装置100cは、S11~S14の処理によって、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果に基づく当該点に対する関連付けの結果を出力した後、サービス提供時学習処理を実行する。具体的には、識別装置100cは、S14の後、誤り訂正のための正解データが入力されたか否かを判定する(S15)。たとえば、識別装置100cは、S12によって得られた識別結果(加工されているか否か、加工内容)が、実際にスキャン対象であった部位からユーザ1が判断する判断結果と異なる場合において、実際にスキャン対象であった部位に対するユーザ1の判断結果である正解データをユーザ1が入力することで誤りを訂正したか否かを判定する。 As shown in FIG. 29, in the identification device 100c, with respect to the point corresponding to the input three-dimensional data by the processing of S11 to S14, the state of the portion corresponding to the point (whether or not it is processed, processing). After outputting the result of the association to the relevant point based on the identification result indicating the content), the learning process at the time of service provision is executed. Specifically, the identification device 100c determines whether or not correct answer data for error correction has been input after S14 (S15). For example, the identification device 100c actually uses the identification device 100c when the identification result (whether or not it is processed, the processing content) obtained by S12 is different from the determination result determined by the user 1 from the portion actually scanned. It is determined whether or not the error has been corrected by the user 1 inputting the correct answer data which is the determination result of the user 1 for the portion to be scanned.

識別装置100cは、誤り訂正のための正解データが入力されなかった場合(S15でNO)、本処理を終了する。一方、識別装置100cは、誤り訂正のための正解データが入力された場合(S15でYES)、識別結果と正解データとに基づき報酬を付与する(S16)。 When the correct answer data for error correction is not input (NO in S15), the identification device 100c ends this process. On the other hand, when the correct answer data for error correction is input (YES in S15), the identification device 100c grants a reward based on the identification result and the correct answer data (S16).

たとえば、識別結果と正解データとの解離度が小さければ小さいほど、付与する報酬として値の小さいマイナスポイントを与え、両者の解離度が大きければ大きいほど、付与する報酬として値の大きいマイナスポイントを与えればよい。なお、報酬はマイナスポイントに限らず、プラスポイントであってもよい。 For example, the smaller the dissociation degree between the identification result and the correct answer data, the smaller the negative point given as the reward, and the larger the dissociation degree between the two, the larger the negative point given as the reward. Just do it. The reward is not limited to minus points, but may be plus points.

報酬を与える方法は、任意に設計可能である。たとえば、識別装置100cは、識別結果と正解データとの組み合わせとして考えられる複数種類の組み合わせの各々に対して予め設定された報酬の大きさに基づいて、報酬を与えてもよい。また、識別装置100cは、予め定められたルールに従って報酬を与えてもよい。具体的には、識別装置100cは、識別結果と正解データとで小分類は異なるものの大分類(表1参照)が共通していれば解離度が小さく、値の小さいマイナスポイントを与えてもよい。一方、識別装置100cは、識別結果と正解データとで小分類および大分類の両方が異なれば解離度が大きく、値の大きなマイナスポイントを与えてもよい。また、識別装置100cは、このようなルールに従った報酬の付与方法と、複数種類の組み合わせの各々に対して予め報酬を設定しておく付与方法とを組み合わせた方法で、報酬を与えても良い。 The method of rewarding can be arbitrarily designed. For example, the identification device 100c may give a reward based on a preset size of the reward for each of a plurality of types of combinations that can be considered as a combination of the identification result and the correct answer data. Further, the identification device 100c may give a reward according to a predetermined rule. Specifically, the identification device 100c may give a negative point with a small degree of dissociation and a small value as long as the identification result and the correct answer data have different minor classifications but the major classification (see Table 1) is common. .. On the other hand, the identification device 100c may give a large negative point with a large degree of dissociation if both the minor classification and the major classification are different between the identification result and the correct answer data. Further, the identification device 100c may give a reward by a method in which a reward giving method according to such a rule and a giving method in which a reward is set in advance for each of a plurality of types of combinations are combined. good.

識別装置100cは、付与した報酬に基づき、学習済モデル115のパラメータ1144を更新する(S17)。たとえば、識別装置100cは、報酬として付与したマイナスポイントが0に近づくように学習済モデル115のパラメータ1144を更新する。その後、識別装置100cは、本処理を終了する。 The identification device 100c updates the parameter 1144 of the trained model 115 based on the given reward (S17). For example, the identification device 100c updates the parameter 1144 of the trained model 115 so that the negative points given as rewards approach 0. After that, the identification device 100c ends this process.

なお、加工部位の種類だけを識別するサービス提供処理中に実行される学習処理について説明したが、識別装置は、実施形態2および実施形態3に示した複数の事項(加工部位の種類と歯牙の種類、加工部位の種類と歯牙の種類と病変内容)を識別するサービス提供処理中であっても学習処理を実行可能である。 Although the learning process executed during the service provision process for identifying only the type of the processed portion has been described, the identification device has a plurality of items (type of the processed portion and teeth) shown in the second and third embodiments. The learning process can be executed even during the service provision process for identifying the type, the type of the processing site, the type of the tooth, and the content of the lesion.

たとえば、加工部位の種類と歯牙の種類とを識別するサービス提供処理において、歯牙の種類が識別された識別結果に対して別の歯牙の種類の正解データが入力された場合、識別装置は、歯牙の種類を示す識別結果124aと正解データとに基づいて歯牙種推定モデル114aのパラメータ1144aを更新する。この場合、一例として、識別装置は、識別結果124aとして出力した歯牙と、正解データとして入力された歯牙とが隣接していれば、値の小さいマイナスポイントを与え、両者が離れていれば、値の大きいマイナスポイントを与える。 For example, in the service providing process for discriminating between the type of the processed part and the type of tooth, when the correct answer data of another tooth type is input for the identification result in which the tooth type is identified, the discriminating device uses the tooth. The parameter 1144a of the tooth type estimation model 114a is updated based on the identification result 124a indicating the type of the tooth and the correct answer data. In this case, as an example, the identification device gives a small minus point if the tooth output as the identification result 124a and the tooth input as the correct answer data are adjacent to each other, and if they are separated from each other, the value is given. Gives a big negative point.

他の例として、加工部位の種類と歯牙の種類と病変内容とを識別するサービス提供処理において、識別された病変内容に対して別の病変内容の正解データが入力された場合、識別装置は、病変内容を示す識別結果124bと正解データとに基づいて病変推定モデル114bのパラメータ1144bを更新する。この場合、一例として、識別装置は、炎症の度合い(う蝕の進行度合い、または歯肉炎の進行度合い)が近ければ値の小さいマイナスポイントを与え、炎症の度合いが遠ければ値の大きいマイナスポイントを与える。 As another example, in the service providing process for discriminating the type of the processed site, the type of tooth, and the lesion content, when the correct answer data of another lesion content is input for the identified lesion content, the identification device is used. The parameter 1144b of the lesion estimation model 114b is updated based on the identification result 124b indicating the lesion content and the correct answer data. In this case, as an example, the identification device gives a negative point with a small value if the degree of inflammation (the degree of progress of caries or the degree of progression of gingival inflammation) is close, and a negative point with a large value if the degree of inflammation is far. give.

また、複数の推定モデルを備える識別装置は、識別結果と正解データとの組み合わせに応じて再学習させる推定モデルを選択してもよい。たとえば、識別結果と正解データとがいずれも歯牙種に関する事項であれば、識別装置は、歯牙種推定モデル114aのパラメータ1144aを更新する処理を実行する。識別結果と正解データとがいずれも加工内容に関する事項であれば、識別装置は、加工種推定モデル114のパラメータ1144を更新する処理を実行する。識別結果と正解データとがいずれも病変内容に関する事項であれば、識別装置は、病変推定モデル114bのパラメータ1144bを更新する処理を実行する。また、識別装置は、加工種推定モデル114のパラメータ1144と、歯牙種推定モデル114aのパラメータ1144aと、病変推定モデル114bのパラメータ1144bとの中から複数のパラメータを更新してもよい。 Further, the identification device including a plurality of estimation models may select an estimation model to be retrained according to the combination of the identification result and the correct answer data. For example, if both the identification result and the correct answer data are matters relating to the tooth type, the identification device executes a process of updating the parameter 1144a of the tooth type estimation model 114a. If both the identification result and the correct answer data are matters related to the processing content, the identification device executes a process of updating the parameter 1144 of the processing type estimation model 114. If both the identification result and the correct answer data are matters relating to the lesion content, the identification device executes a process of updating the parameter 1144b of the lesion estimation model 114b. Further, the identification device may update a plurality of parameters from the parameter 1144 of the processed species estimation model 114, the parameter 1144a of the tooth species estimation model 114a, and the parameter 1144b of the lesion estimation model 114b.

このように、変形例に係る識別装置は、サービス提供処理においても学習処理を実行するため、ユーザ1が使用すればするほど識別処理の精度が向上し、より精度良く加工部位の種類、歯牙の種類、または病変内容を識別することができる。このような処理は、所謂、協調学習の一種である。 As described above, since the identification device according to the modified example also executes the learning process in the service provision process, the accuracy of the identification process is improved as the user 1 uses it, and the type of the processed portion and the tooth are more accurately identified. The type or lesion content can be identified. Such processing is a kind of so-called collaborative learning.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present disclosure is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims. The configurations exemplified in this embodiment and the configurations exemplified in the modified examples can be appropriately combined.

1 ユーザ、2 対象者、10,10a,10b スキャナシステム、100,100a,100b,100c 識別装置、102 スキャナインターフェース、103 ディスプレイインターフェース、105 周辺機器インターフェース、107 メディア読取装置、108 PCディスプレイ、109 メモリ、110 ストレージ、112 スキャン情報、114 加工種推定モデル、114a 歯牙種推定モデル、114b 病変推定モデル、115,115a,115b 学習済モデル、116,116a,116b 学習用データセット、118,118a,118b 色分類データ、119 プロファイルデータ、120 識別用プログラム、121 学習用プログラム、122 三次元データ、124,124a,124b 識別結果、130 演算装置、150 カルテ、152 プロファイル表示領域、154 歯牙種表示領域、156 コメント表示領域、158 歯式表示領域、200 三次元スキャナ、300 ディスプレイ、550 リムーバブルディスク、601 キーボード、602 マウス、1102 入力部、1103 出力部、1132 加工種識別部、1134 歯牙種識別部、1136 病変識別部、1142 第1NNW、1142a 第2NNW、1142b 第3NNW、1144,1144a,1144b パラメータ、1152 治療推定部、1154 歯牙種推定部、1156 カルテ生成部。 1 user, 2 subjects, 10,10a, 10b scanner system, 100,100a, 100b, 100c identification device, 102 scanner interface, 103 display interface, 105 peripheral device interface, 107 media reader, 108 PC display, 109 memory, 110 storage, 112 scan information, 114 processed species estimation model, 114a tooth species estimation model, 114b lesion estimation model, 115, 115a, 115b trained model, 116, 116a, 116b training dataset, 118, 118a, 118b color classification. Data, 119 profile data, 120 identification program, 121 learning program, 122 three-dimensional data, 124, 124a, 124b identification result, 130 arithmetic unit, 150 chart, 152 profile display area, 154 tooth type display area, 156 comment display Area, 158 Tooth Display Area, 200 Three-Dimensional Scanner, 300 Display, 550 Removable Disk, 601 Keyboard, 602 Mouse, 1102 Input, 1103 Output, 1132 Processing Type Identification, 1134 Tooth Identification, 1136 Disease Identification 1,142 1st NNW, 1142a 2nd NNW, 1142b 3rd NNW, 1144, 1144a, 1144b Parameters, 1152 Treatment estimation unit, 1154 Tooth type estimation unit, 1156 Carte generation unit.

Claims (10)

口腔内の生体部位に対する加工部位を識別する識別装置であって、
口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを備える、識別装置。
It is an identification device that identifies the processed part with respect to the living part in the oral cavity.
An input unit for inputting 3D data including 3D position information at each of a plurality of points constituting the shape of the oral cavity.
An identification unit that identifies the processed part based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the processed part based on the three-dimensional data.
An identification device including an output unit that outputs an identification result by the identification unit.
三次元データは、口腔内の形状を構成する複数の点のそれぞれにおける色情報を含む、請求項1に記載の識別装置。 The identification device according to claim 1, wherein the three-dimensional data includes color information at each of a plurality of points constituting the shape in the oral cavity. 前記ニューラルネットワークは、前記入力部から入力された三次元データに基づき加工部位を推定するとともに、当該三次元データに対応する部位の歯牙の種類を推定するためのニューラルネットワークであり、
前記識別部は、加工部位に対応する歯牙の周辺の歯牙の三次元データと前記推定モデルとに基づき、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部をさらに備える、請求項1または請求項2に記載の識別装置。
The neural network is a neural network for estimating a processed portion based on three-dimensional data input from the input unit and estimating the type of tooth of the portion corresponding to the three-dimensional data.
The identification unit identifies the type of the tooth around the tooth based on the three-dimensional data of the tooth around the tooth corresponding to the processed portion and the estimation model, and identifies the type of the tooth around the tooth.
The identification device according to claim 1 or 2, further comprising a tooth type estimation unit that estimates the type of tooth corresponding to the processed portion based on the type of the peripheral tooth identified by the identification unit.
前記出力部は、前記識別部が識別した加工部位を、前記歯牙種推定部が推定した当該加工部位に対応する歯牙の種類に対応付けて出力する、請求項3に記載の識別装置。 The identification device according to claim 3, wherein the output unit outputs the processed portion identified by the identification unit in association with the type of tooth corresponding to the processed portion estimated by the tooth type estimation unit. 前記識別部が識別した前記加工部位に基づいて、当該加工部位に施された治療内容を推定する治療推定部をさらに備える、請求項1~請求項4のうちいずれか1項に記載の識別装置。 The identification device according to any one of claims 1 to 4, further comprising a treatment estimation unit that estimates the treatment content applied to the processing site based on the processing site identified by the identification unit. .. 前記ニューラルネットワークは、前記入力部から入力された三次元データに基づき加工部位を推定するとともに、当該三次元データに対応する部位の歯牙の種類を推定するためのニューラルネットワークであり、
前記識別部は、加工部位に対応する歯牙の周辺の歯牙の三次元データと前記推定モデルとに基づき、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記加工部位に基づいて、当該加工部位に施された治療内容を推定する治療推定部と、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部とをさらに備え、
前記出力部は、前記識別部が識別した加工部位を、前記治療推定部が推定した当該加工部位に施された治療内容と、前記歯牙種推定部が推定した当該加工部位に対応する歯牙の種類とに対応付けて出力する、請求項1または請求項2に記載の識別装置。
The neural network is a neural network for estimating a processed portion based on three-dimensional data input from the input unit and estimating the type of tooth of the portion corresponding to the three-dimensional data.
The identification unit identifies the type of the tooth around the tooth based on the three-dimensional data of the tooth around the tooth corresponding to the processed portion and the estimation model, and identifies the type of the tooth around the tooth.
A treatment estimation unit that estimates the treatment content applied to the processing site based on the processing site identified by the identification unit, and a treatment estimation unit.
Further provided with a tooth type estimation unit that estimates the type of tooth corresponding to the processing site based on the type of the peripheral tooth identified by the identification unit.
In the output unit, the processing content identified by the identification unit is applied to the processing site estimated by the treatment estimation unit, and the type of tooth corresponding to the processing site estimated by the tooth type estimation unit. The identification device according to claim 1 or 2, which outputs in association with the above.
前記推定モデルは、
前記入力部から入力された三次元データに基づき加工部位を推定するための第1ニューラルネットワークを含む第1推定モデルと、
前記入力部から入力された三次元データに基づき当該三次元データに対応する部位の歯牙の種類を推定するための第2ニューラルネットワークを含む第2推定モデルとを含み、
前記識別部は、前記入力部から入力された三次元データと、前記第2推定モデルとに基づき、入力された当該三次元データに対応する部位の歯牙の種類を推定できなかった場合に、前記入力部から入力された三次元データと、前記第1推定モデルとに基づいて加工部位を識別する、請求項1~請求項6のうちいずれか1項に記載の識別装置。
The estimation model is
A first estimation model including a first neural network for estimating a machining site based on three-dimensional data input from the input unit, and a first estimation model.
A second estimation model including a second neural network for estimating the type of tooth at the site corresponding to the three-dimensional data based on the three-dimensional data input from the input unit is included.
When the identification unit cannot estimate the type of tooth of the portion corresponding to the input three-dimensional data based on the three-dimensional data input from the input unit and the second estimation model, the identification unit said. The identification device according to any one of claims 1 to 6, which identifies a machined portion based on the three-dimensional data input from the input unit and the first estimation model.
口腔内の形状情報を取得するスキャナシステムであって、
三次元カメラを用いて口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
前記三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、
前記識別装置は、
前記三次元スキャナによって取得された三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを含む、スキャナシステム。
It is a scanner system that acquires shape information in the oral cavity.
A 3D scanner that acquires 3D data including 3D position information at each of multiple points that make up the shape of the oral cavity using a 3D camera.
Based on the 3D data acquired by the 3D scanner, it is equipped with an identification device that identifies the processed part with respect to the biological part in the oral cavity.
The identification device is
An input unit into which 3D data acquired by the 3D scanner is input, and
An identification unit that identifies the processed part based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the processed part based on the three-dimensional data.
A scanner system including an output unit that outputs an identification result by the identification unit.
コンピュータによる口腔内の生体部位に対する加工部位を識別する識別方法であって、
口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを含む、識別方法。
It is a method of identifying a processed part with respect to a living part in the oral cavity by a computer.
A step in which 3D data including 3D position information at each of a plurality of points constituting the shape in the oral cavity is input, and a step.
A step of identifying the machined part based on the three-dimensional data input by the input step and an estimation model including a neural network for estimating the machined part based on the three-dimensional data.
An identification method including a step of outputting an identification result by the identification step.
口腔内の生体部位に対する加工部位を識別する識別用プログラムであって、
前記識別用プログラムは、コンピュータに、
口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを実行させる、識別用プログラム。
It is an identification program that identifies the processed part of the living body in the oral cavity.
The identification program is applied to the computer.
A step in which 3D data including 3D position information at each of a plurality of points constituting the shape in the oral cavity is input, and a step.
A step of identifying the machined part based on the three-dimensional data input by the input step and an estimation model including a neural network for estimating the machined part based on the three-dimensional data.
An identification program that executes a step of outputting an identification result by the identification step.
JP2020113850A 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM Active JP7267974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020113850A JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020113850A JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Publications (2)

Publication Number Publication Date
JP2022012198A true JP2022012198A (en) 2022-01-17
JP7267974B2 JP7267974B2 (en) 2023-05-02

Family

ID=80148571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020113850A Active JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Country Status (1)

Country Link
JP (1) JP7267974B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015523108A (en) * 2012-05-07 2015-08-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to measure dental conditions
JP2017521113A (en) * 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド Region of interest identification during intraoral scanning
US20180028294A1 (en) * 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
KR102026026B1 (en) * 2018-05-31 2019-09-26 오스템임플란트 주식회사 Method and System for Designing Of Prosthetics
JP2019208832A (en) * 2018-06-04 2019-12-12 聖士 田島 Dental analysis system and dental analysis X-ray system
JP2020096800A (en) * 2019-10-17 2020-06-25 株式会社モリタ製作所 Identification device, teeth type identification system, identification method, and identification program
WO2020129799A1 (en) * 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and identification program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015523108A (en) * 2012-05-07 2015-08-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to measure dental conditions
JP2017521113A (en) * 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド Region of interest identification during intraoral scanning
US20180028294A1 (en) * 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
KR102026026B1 (en) * 2018-05-31 2019-09-26 오스템임플란트 주식회사 Method and System for Designing Of Prosthetics
JP2019208832A (en) * 2018-06-04 2019-12-12 聖士 田島 Dental analysis system and dental analysis X-ray system
WO2020129799A1 (en) * 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and identification program
JP2020096800A (en) * 2019-10-17 2020-06-25 株式会社モリタ製作所 Identification device, teeth type identification system, identification method, and identification program

Also Published As

Publication number Publication date
JP7267974B2 (en) 2023-05-02

Similar Documents

Publication Publication Date Title
Revilla-León et al. Artificial intelligence models for tooth-supported fixed and removable prosthodontics: A systematic review
CN113520641B (en) Method for constructing a prosthesis
KR102056480B1 (en) Method and system for managing digital dental care data
KR102267197B1 (en) Method and apparatus for recording and displaying dental care data on a digital dental image
JP6650996B1 (en) Identification apparatus, scanner system, identification method, and identification program
JP2021524789A (en) Tooth virtual editing method, system, computer equipment and storage medium
JP7398512B2 (en) Data generation device, scanner system, data generation method, and data generation program
Deleat-Besson et al. Automatic segmentation of dental root canal and merging with crown shape
JP7525690B2 (en) Identification device, scanner system, identification method, and identification program
JP7030076B2 (en) Data generator, scanner system, data generation method, and data generation program
JP6831433B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6831432B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM
JP7227188B2 (en) Identification device, identification system, identification method, and identification program
JP7265359B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP6900445B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6831431B2 (en) Identification device, tooth type identification system, identification method, and identification program
Cho et al. Deep learning-designed implant-supported posterior crowns: Assessing time efficiency, tooth morphology, emergence profile, occlusion, and proximal contacts
JP7195466B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7509371B2 (en) Estimation device, estimation method, and estimation program
Wang et al. Influence of intraoral scanning coverage on the accuracy of digital implant impressions–An in vitro study
EP4371524A1 (en) Data processing apparatus, data processing method, data processing program, and data processing system
JP7496995B2 (en) Estimation device, estimation method, and estimation program
JP2022012197A (en) Data processing device, data processing system, data processing method, and program for data processing
Shelke et al. APPLICATION OF ARTIFICIAL INTELLIGENCE IN PROSTHODONTICS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R150 Certificate of patent or registration of utility model

Ref document number: 7267974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150