JP7267974B2 - IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM - Google Patents
IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM Download PDFInfo
- Publication number
- JP7267974B2 JP7267974B2 JP2020113850A JP2020113850A JP7267974B2 JP 7267974 B2 JP7267974 B2 JP 7267974B2 JP 2020113850 A JP2020113850 A JP 2020113850A JP 2020113850 A JP2020113850 A JP 2020113850A JP 7267974 B2 JP7267974 B2 JP 7267974B2
- Authority
- JP
- Japan
- Prior art keywords
- identification
- tooth
- type
- dimensional data
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Endoscopes (AREA)
Description
本開示は、識別装置、当該識別装置を備えるスキャナシステム、識別方法、および識別用プログラムに関する。 The present disclosure relates to an identification device, a scanner system including the identification device, an identification method, and an identification program.
従来、歯科分野において、補綴物などをコンピュータ上でデジタル設計するために、歯牙の三次元形状を取得する三次元カメラを内蔵した三次元スキャナが公知である。たとえば、特許文献1には、三次元カメラを用いて歯牙を撮像することで、歯牙の形状を記録する技術が開示されている。 2. Description of the Related Art Conventionally, in the field of dentistry, a 3D scanner with a built-in 3D camera for acquiring a 3D shape of a tooth is known for digital designing of a prosthesis or the like on a computer. For example, Patent Literature 1 discloses a technique for recording the shape of a tooth by capturing an image of the tooth using a three-dimensional camera.
このように、三次元スキャナは、補綴物などをデジタル設計することに利用されてきた。しかし、三次元スキャナによって得られる情報を、他の用途で利用することは鑑みられていなかった。 Thus, three-dimensional scanners have been used to digitally design prostheses and the like. However, no consideration has been given to using the information obtained by the three-dimensional scanner for other purposes.
本開示は、三次元スキャナによって得られる三次元データの用途を広げることであって、歯科分野における三次元スキャナの可能性を高めることを目的とする。 An object of the present disclosure is to expand the use of three-dimensional data obtained by a three-dimensional scanner, and to enhance the possibilities of three-dimensional scanners in the dental field.
本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別装置が提供される。識別装置は、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを備える。識別部は、推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報を直接入力する。 According to the present disclosure, an identification device is provided for identifying a processed site with respect to a living body site in the oral cavity. The identification device includes an input unit into which three-dimensional data including three-dimensional position information at each of a plurality of points representing the three-dimensional shape of the oral cavity is input, three-dimensional data input from the input unit, and three-dimensional data. and an estimating model including a neural network for estimating the machined portion based on the identification unit for identifying the machined portion, and an output unit for outputting the identification result of the identification unit. The identification unit directly inputs at least three-dimensional position information of the three-dimensional data to a neural network included in the estimation model.
本開示に従えば、口腔内の形状情報を取得するスキャナシステムが提供される。スキャナシステムは、三次元カメラを用いて口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、識別装置は、三次元スキャナによって取得された三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを含む。識別部は、推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報を直接入力する。 According to the present disclosure, a scanner system is provided for acquiring intraoral shape information. The scanner system includes a three-dimensional scanner that acquires three-dimensional data including three-dimensional position information at each of a plurality of points that indicate the three-dimensional shape of the oral cavity using a three-dimensional camera, and a three-dimensional scanner acquired by the three-dimensional scanner. and an identification device that identifies the processed part of the living body part in the oral cavity based on the original data. An identification unit for identifying a machined portion based on three-dimensional data and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data, and an output unit for outputting the identification result of the identification unit. The identification unit directly inputs at least three-dimensional position information of the three-dimensional data to a neural network included in the estimation model.
本開示に従えば、コンピュータによる口腔内の生体部位に対する加工部位を識別する識別方法が提供される。識別方法は、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを含む。推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報が直接入力される。 According to the present disclosure, a computer-assisted identification method is provided for identifying a processed portion for a biological portion within an oral cavity. The identification method includes a step of inputting three -dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity; a step of identifying a machined portion based on an estimation model including a neural network for estimating a machined portion based on data; and a step of outputting an identification result obtained by the identifying step. At least three-dimensional position information among the three-dimensional data is directly input to a neural network included in the estimation model.
本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別用プログラムは提供される。識別用プログラムは、コンピュータに、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを実行させる。推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報が直接入力される。 According to the present disclosure, an identification program is provided for identifying a processed site relative to an intraoral biometric site. The identification program includes a step of inputting three-dimensional data including three-dimensional position information of each of a plurality of points representing a three-dimensional shape of the oral cavity into the computer, and the three-dimensional data input by the input step. and an estimation model including a neural network for estimating the machined part based on the three-dimensional data. At least three-dimensional position information among the three-dimensional data is directly input to a neural network included in the estimation model.
本開示によれば、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データから、口腔内の加工部位を識別することができ、加工部位を識別するという新たな用途を提供できる。 According to the present disclosure, it is possible to identify a processed site in the oral cavity from three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the shape of the oral cavity, and to identify the processed site. can provide a variety of uses.
本開示の実施形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.
<実施形態1>
[スキャナシステム10の概略]
図1~図3を参照しながら、実施形態1にかかるスキャナシステム10の概略について説明する。図1は、実施形態1にかかるスキャナシステム10の全体構成を示す模式図である。図2は、実施形態1にかかるスキャナシステム10の適用例を示す模式図である。図3は、実施形態1にかかるスキャナシステム10を適用可能なシステムの全体構成を示す模式図である。
<Embodiment 1>
[Overview of scanner system 10]
An overview of the
図1を参照して、実施形態1にかかるスキャナシステム10は、三次元スキャナ200と、識別装置100と、ディスプレイ300とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象の三次元データ122を取得する。具体的には、三次元スキャナ200は、口腔内をスキャンすることで、三次元データ122として、口腔内の形状を構成する複数の点のそれぞれの位置情報(縦方向,横方向,高さ方向の各軸の座標)を、光学センサなどを用いて取得する。あるいは、三次元スキャナ200は、口腔内の印象採得によって作成された模型に対してスキャンすることで、三次元データとして、スキャン対象部分を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。識別装置100は、三次元スキャナ200によって取得された三次元データ122に基づき、任意の視点からの歯牙などの像を含む二次元画像、またはホログラムなどによる立体的な歯牙などの画像を含む三次元画像を生成し、生成した三次元画像をディスプレイ300に表示する。
Referring to FIG. 1 ,
実施形態1にかかるスキャナシステム10は、識別装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データ122に基づき、加工部位を自動的に識別する処理を実行するように構成されている。「加工部位を識別する」とは、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は当該加工部位の種類を識別することを意味する。なお、以下では、識別装置100による三次元データ122に対応する部位がどのような部位であるかを識別する処理を「識別処理」とも称する。
The
なお、「加工部位」は、口腔内の生体部位に対して治療を施すために加工された部位を意味する。また、「口腔内の生体部位」には、歯牙だけに限られず、歯肉部分を含み得る。加工部位には、歯牙に対して補綴物または人工歯を取り付けた部位に限られず、顎骨に対してインプラント体を取り付けた部位を含み得る。また、加工部位には、インプラント体、または補綴物といった人工的に生成した物(人工物)が取り付けられた部位に限らず、支台歯や窩洞形成歯のように天然歯を削った部位を含み得る。 The term "processed site" means a site that has been processed to treat a living body site in the oral cavity. In addition, the “biological site in the oral cavity” is not limited to teeth, and may include gums. The processed site is not limited to the site where the prosthesis or artificial tooth is attached to the tooth, and may include the site where the implant body is attached to the jawbone. In addition, the processed part is not limited to the part where an artificially produced object (artificial object) such as an implant body or prosthesis is attached, but also the part where the natural tooth is shaved such as an abutment tooth or a cavity-formed tooth. can contain.
図2を参照して、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内の生体部位をスキャンすると、三次元データ122が識別装置100に入力される。識別装置100は、入力された三次元データ122およびニューラルネットワークを含む推定モデルに基づき、入力された三次元データ122に対応する部位がどのような部位であるかを識別する識別処理を実行する。実施形態1においては、識別装置100は、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する識別処理を実行する。
With reference to FIG. 2 , when user 1 scans the intraoral biological part of
「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含む。たとえば、「推定モデル」は、入力データである加工部位の三次元データと、当該三次元データに対応する加工部位の種類を示す正解データとを含む教師データを利用してパラメータが最適化される。 An "estimation model" includes a neural network and parameters used by the neural network. For example, the "estimation model" is parameter optimized using teacher data including three-dimensional data of the machined part, which is input data, and correct data indicating the type of the machined part corresponding to the three-dimensional data. .
ここで、表1に、正解データとして設定され得る加工部位の種類を示す。表1に示すように、加工部位の種類は、大分類として、たとえば、「インプラント」、「窩洞形成歯」、「支台歯」、および「補綴物」などを含む。「インプラント」は、歯根部分に相当する「インプラント体」および支台部分に相当する「アバットメント」などに分類され得る。また、「インプラント体」および「アバットメント」は、どのような補綴物が取り付けられるかによって、分類され得る。「支台歯」および「窩洞形成歯」は、さらに、どのような補綴物が取り付けられるかによって、分類され得る。「補綴物」は、さらに、インレー、アンレー、クラウン、ブリッジ、ベニア、デンチャーなどに分類され得る。 Here, Table 1 shows types of machined parts that can be set as correct data. As shown in Table 1, the types of processed parts are broadly classified into, for example, "implant", "cavity forming tooth", "abutment tooth", and "prosthesis". An “implant” can be classified into an “implant body” corresponding to a tooth root portion, an “abutment” corresponding to an abutment portion, and the like. Also, "implant body" and "abutment" can be classified according to what kind of prosthesis is attached. "Abutment teeth" and "cavity-forming teeth" can be further classified according to what prosthesis is attached. A "prosthesis" can be further classified into inlays, onlays, crowns, bridges, veneers, dentures, and the like.
表1に示すように、「加工部位」は、任意に細分化することができ、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」というように分類してもよく、また、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」の各々をさらに細分化して分類してもよい。すなわち、加工部位の分類方法は、任意に設計可能である。 As shown in Table 1, the "processing site" can be arbitrarily subdivided, and can be classified as "abutment tooth", "cavitated tooth", "prosthesis", and "implant". Also, each of "abutment teeth", "cavitated teeth", "prostheses" and "implants" may be further subdivided and classified. In other words, the method of classifying processed parts can be arbitrarily designed.
加工部位の分類方法は、任意に設計可能である。そのため、教師データに含まれる加工部位の種類を示す情報は、特定の分類方法によって分類された種類に加えて、さらに別の分類方法によって分類された場合の種類を含んでいてもよい。たとえば、加工部位の種類を示す情報は、「支台歯」と、「インレー適用の支台歯」とを含んでいてもよい。 The method of classifying processed parts can be arbitrarily designed. Therefore, the information indicating the types of machined parts included in the training data may include the types classified by a specific classification method, as well as the types classified by another classification method. For example, the information indicating the type of machined portion may include "abutment tooth" and "inlay-applied abutment tooth".
また、加工部位は、治療中の加工部位と、治療が完了している加工部位とに大別することもできる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療中」であるのか「治療済み」であるのかを特定可能な情報を含んでいてもよい。 Also, the processed region can be broadly classified into a processed region that is being treated and a processed region that has been completely treated. Therefore, in addition to information indicating the type of processed region, the correct data may include information that can specify whether the treatment is "under treatment" or "treated".
また、加工部位の種類によって、歯牙に施されている治療内容が異なる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療内容」を示す情報を含んでいても良い。 In addition, the content of treatment applied to the tooth differs depending on the type of processed portion. Therefore, the correct answer data may include information indicating "treatment content" in addition to information indicating the type of processed region.
また、教師データは、加工部位ではない生体部位(たとえば、天然歯、歯肉)の三次元データと、当該三次元データが加工部位ではないことを示す正解データとを含み得る。 Also, the teacher data can include three-dimensional data of a living body part (for example, natural tooth, gum) that is not a machined part, and correct data indicating that the three-dimensional data is not a machined part.
なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。 Note that processing for learning such an estimation model is also referred to as “learning processing”. In addition, the estimation model optimized by the learning process is particularly called a "learned model". That is, pre-learning estimation models and trained estimation models are collectively referred to as "estimation models", while trained estimation models are also particularly referred to as "learned models".
図2を参照して、スキャナシステム10を適用可能な場面について説明する。ユーザ1は、スキャナシステム10を用いることで、対象者2が有する歯牙を含む三次元形状のデータ(以下、「三次元データ」とも称する)を取得できる。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、スキャナシステム10を用いる者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、スキャナシステム10の対象となる者であればいずれであってもよい。
A scene to which the
識別装置100によって学習済モデルを用いて識別処理が実行されると、その識別結果が、ディスプレイ300に出力される。
When identification processing is executed by
ディスプレイ300は、識別結果に対応する画像、文字、数字、アイコン、および記号の少なくともいずれか1つを表示する。
識別装置100は、三次元データ122および識別結果に基づいて、識別結果が反映された口腔内の三次元画像を生成してディスプレイ300に出力する。たとえば、識別装置100は、加工部位の種類に応じた色で加工部位をディスプレイ300に表示することで、識別結果を三次元画像に反映する。
Based on the three-
三次元スキャナ200は、補綴物などをデジタル設計することに利用されてきた。識別装置100は、三次元データから口腔内の加工部位の種類を識別することで、三次元スキャナ200に対して加工部位の種類を識別するという新たな用途を提供できる。
Three-
たとえば、口腔内の生体部位に対する加工部位の種類が識別され、その識別結果が出力されることで、ユーザ1は、スキャンをしながら判断した自身の診察結果と識別結果とを比較しながら、カルテの入力を行うことができる。また、自身の診察結果と識別結果とが異なり、加工部位を再度確認する場合であっても、ユーザ1は、ディスプレイ300に表示された識別結果を確認することで、口腔内における加工部位のおおよその位置を把握できる。その結果、対象者2が口を開いている時間を短くでき、対象者2の負担を軽減できる。
For example, by identifying the type of processed part for a living body part in the oral cavity and outputting the identification result, the user 1 can read the medical record while comparing the identification result with the diagnosis result determined while scanning. can be entered. In addition, even if the user 1 confirms the processed site again because the diagnosis result and the identification result are different from each other, the user 1 can check the recognition result displayed on the
また、スキャンした後にユーザ1が診療をする場合も、加工部位の種類という診察を補助する情報を得られるため、ユーザ1の個人の能力による診察結果の差を減らすことができる。 Also, when the user 1 performs medical examination after scanning, information such as the type of processed part that assists the medical examination can be obtained.
また、ユーザ1は、識別結果の反映された三次元画像をディスプレイ300に表示させながら、対象者2に診察結果を説明できる。これにより、対象者2は、自身の歯の状態を客観的に確認できる。
In addition, the user 1 can explain the diagnosis result to the subject 2 while causing the
図1および図3を参照して、識別装置100による識別結果は、識別処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力されてもよい。
1 and 3, the identification result by
たとえば、図3に示すように、スキャナシステム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、スキャナシステム10を利用して対象者2である患者の歯牙および歯肉を少なくとも含む口腔内の三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,識別結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。
For example, as shown in FIG. 3,
なお、識別装置100による識別結果と、ユーザ1による診察結果とが一致しない場合、ユーザ1は、カルテに入力するなどして、当該識別結果を修正する場合がある。このような場合に、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果と、修正後の識別結果との両方をスキャン情報に含めてサーバ装置500に出力してもよい。また、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果を含めることなく、修正後の識別結果をスキャン情報に含めてサーバ装置500に出力してもよい。
If the identification result by the
歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。
In the dental laboratory, a dental technician or the like creates a prosthesis or the like to replace the missing tooth portion of the subject 2 based on the scan information obtained from each of the locals A to C. In the management center, the
なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数の識別装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数の識別装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。
Note that the
歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。
In the dental laboratory, scan information is aggregated from various locations, such as local A-C. For this reason, the scan information held at the dental laboratory may be transmitted to the management center via the
なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。
The scan information may also be sent to the management center from each of the local A to C via the
各ローカルA~Cの識別装置100は、各自で推定モデルを保持しており、識別処理時に各自が保持する推定モデルを使用して加工部位の種類を識別する。各ローカルA~Cの識別装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cの識別装置100に当該学習済モデルを配布する。
Each
また、各ローカルA~Cの識別装置100は、ユーザ1により識別結果が修正された場合、修正後の識別結果を正解データとして、各自の推定モデルについて再度学習してもよい。
Further, when the identification result is corrected by the user 1, the
なお、本実施の形態においては、各ローカルA~Cの識別装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cの識別装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cの識別装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cの識別装置100で共通化される。
In the present embodiment, both
また、サーバ装置500が識別装置100における識別処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける加工部位の種類の識別結果を算出してもよい。そして、サーバ装置500は、それぞれの識別結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した推定結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく推定結果を得ることができる。
Also, the
このように、本実施の形態に係るスキャナシステム10によれば、識別装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき加工部位の種類が識別される。
As described above, according to the
なお、以下では、各ローカルA~Cに配置されたスキャナシステム10の識別装置100について説明するものの、サーバ装置500は、識別装置100が実行可能な処理を同様に実行できるものとして、サーバ装置500が実行する処理については説明を省略する。また、実施形態2および実施形態3についても同様に、サーバ装置500は、識別装置100a,識別装置100bの各々が実行可能な処理を同様に実行できるものとする。
Although the
[識別装置100のハードウェア構成]
図4を参照しながら、実施形態1にかかる識別装置100のハードウェア構成の一例を説明する。図4は、実施形態1にかかる識別装置100のハードウェア構成を示す模式図である。識別装置100は、たとえば、汎用コンピュータで実現されてもよいし、スキャナシステム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Identification Device 100]
An example of the hardware configuration of the
図4に示すように、識別装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、周辺機器インターフェース105と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。
As shown in FIG. 4, the
スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、識別装置100と三次元スキャナ200との間のデータの入出力を実現する。
The
ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、識別装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。
The
周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、識別装置100と周辺機器との間のデータの入出力を実現する。
The
メディア読取装置107は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。
The
PCディスプレイ108は、識別装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、実施形態1においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。
The
メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。
The
ストレージ110は、識別処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。
The
ストレージ110は、スキャン情報112と、加工種推定モデル114(学習済モデル115)と、学習用データセット116と、色分類データ118と、識別用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。
スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された識別処理による加工部位の種類を示す識別結果124とを含む。識別結果124は、識別処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、加工種推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。識別用プログラム120は、識別処理を実行するためのプログラムである。学習用プログラム121は、加工種推定モデル114の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。
The
演算装置130は、各種のプログラムを実行することで、識別処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。
The
[識別装置100による識別処理]
図5および図6を参照しながら、実施形態1にかかる識別装置100による識別処理の一例を説明する。図5は、実施形態1にかかる識別装置100の機能構成を示す模式図である。図6は、実施形態1にかかる識別装置100による識別処理を説明するための模式図である。
[Identification processing by identification device 100]
An example of identification processing by the
図5に示すように、識別装置100は、識別処理にかかる機能部として、入力部1102と、加工種識別部1132と、出力部1103とを有する。これらの各機能は、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。
As shown in FIG. 5, the
入力部1102には、三次元スキャナ200によって取得された三次元データが入力される。加工種識別部1132は、入力部1102に入力された三次元データに基づき、加工種推定モデル114(学習済モデル115)を用いて、入力された三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に当該加工部位の種類を識別する識別処理を実行する。
Three-dimensional data acquired by the three-
加工種推定モデル114は、第1ニューラルネットワーク(Neural Network:NNW)1142と、当該第1NNW1142によって用いられるパラメータ1144とを含む。パラメータ1144は、第1NNW1142による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。出力部1103は、加工種識別部1132による識別結果を、ディスプレイ300に出力する。
The processed
ここで、図6に示すように、入力部1102に入力される三次元データには、口腔内の形状を構成する各点における三次元の位置情報と、口腔内の形状を構成する各点における色情報とが含まれる。実施形態1にかかる識別処理においては、位置情報が用いられる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、口腔内の予め定められた位置を原点として、X軸、Y軸、Z軸の各軸における絶対位置の座標を含む。原点は、たとえば、測定開始時の所定の測定点を原点としてもよい。なお、位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離を示す三次元における相対位置の座標を含んでいてもよい。
Here, as shown in FIG. 6, the three-dimensional data input to the
インプラント体や歯牙に形成された窩洞部のように、治療途中の状態であれば、ユーザ1は、一見して、加工部位を識別できる。しかし、歯科の分野では、審美性の確保という観点から、天然歯と遜色のない審美性の優れた加工部品の開発が進んでいる。そのため、治療完了後の状態で加工部位をユーザ1の目で識別することが徐々に難しくなっている。 The user 1 can identify the processed part at a glance if it is in the middle of treatment, such as an implant body or a cavity formed in a tooth. However, in the field of dentistry, from the viewpoint of ensuring aesthetics, the development of machined parts with excellent aesthetics comparable to natural teeth is progressing. Therefore, it is gradually becoming difficult for the user 1 to visually identify the processed site after the treatment is completed.
人工物と天然物とでは、人の目で識別しにくいものの、表面の凹凸、全体的な形状に僅かな差異が生まれる場合がある。また、歯に補綴物を被せている場合には、補綴物が被さっていない場合と比べて、歯肉と補綴物との境目の形状に差異が生まれる場合がある。 Although it is difficult for the human eye to distinguish between an artificial material and a natural material, there may be slight differences in surface unevenness and overall shape. In addition, when a prosthesis is placed over a tooth, there may be a difference in the shape of the boundary between the gingiva and the prosthesis compared to when the prosthesis is not placed.
識別装置100は、加工部位の特徴的な形状および大きさが数値化された三次元データに基づき、加工種推定モデル114を用いて当該三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する。
Based on the three-dimensional data in which the characteristic shape and size of the machined part are digitized, the
このように、AIを利用することで、人の目で識別し難い加工物の特徴を見出すことができる。そして、ユーザ1の知見という、人によってばらつきのある情報に頼ることなく、精度良く加工部位を識別できる。また、加工部位の種類が識別されることにより、ユーザ1のカルテ入力を補助することができ、初診時の診察を容易にできる。 In this way, by using AI, it is possible to find out the features of a workpiece that are difficult to identify with the human eye. Then, the machined part can be accurately identified without relying on the knowledge of the user 1, which varies from person to person. In addition, by identifying the type of processed part, it is possible to assist the user 1 in entering a medical record, thereby facilitating the examination at the first visit.
また、補綴物は、被せる範囲、被せ方などによって、複数に分類される。窩洞部や支台歯に被せる補綴物の種類は、窩洞部および支台歯の形状などによって異なり、行う治療内容が異なることがある。また、被せられた補綴物の種類によって、治療経過も変わる。しかし、補綴物の種類を識別するためには、ユーザ1の高い知見が必要である。また、ユーザ1は、狭い口腔内を観察して識別する必要があり、対象者2への負担も大きくなる。
In addition, the prosthesis is classified into a plurality of types according to the covering range, covering method, and the like. The type of prosthesis to be placed over the cavity portion and the abutment tooth differs depending on the shape of the cavity portion and the abutment tooth, and the content of treatment to be performed may differ. In addition, the course of treatment changes depending on the type of prosthesis that is put on. However, in order to identify the type of prosthesis, a high level of knowledge of the user 1 is required. Moreover, the user 1 needs to observe and identify the narrow oral cavity, which increases the burden on the
取り付けられた補綴物の種類、および窩洞部または支台歯に取り付ける補綴物の種類など、加工部位の種類をより細かく識別できると、より細やかな診察を実現できる。 A finer identification of the type of work site, such as the type of prosthesis fitted and the type of prosthesis attached to the cavity or abutment, allows for a more detailed examination.
図5に示すように、加工種推定モデル114は、第1NNW1142を含む。第1NNW1142においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、第1NNW1142においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、第1NNW1142においては、その計算および判定の結果が識別結果として出力層から出力される。なお、第1NNW1142による計算および判定については、三次元データに基づき三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に加工部位の種類を識別できるものであれば、いずれの手法が用いられてもよい。
As shown in FIG. 5 , processing
加工種推定モデル114の第1NNW1142においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。実施形態1においては、3次元画像に特化した識別処理を行う識別用プログラム120として、たとえば、VoxNet、3DShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、第1NNW1142の仕組みには既存のものが適用されてもよい。
In the
このような構成において、識別装置100は、複数の歯牙が含まれる三次元画像に対応する三次元データが入力されると、当該三次元データに基づいて、加工部位の特徴を加工種推定モデル114の第1NNW1142を用いて抽出し、抽出した特徴に基づき、加工部位の種類を識別できる。なお、識別装置100は、第1NNW1142を用いて加工部位の特徴に加えて、加工の施されていない生体部位(たとえば、天然歯、歯肉)の特徴を抽出し、抽出結果に基づいて加工部位であるか否か識別してもよい。
In such a configuration, when three-dimensional data corresponding to a three-dimensional image including a plurality of teeth is input, the
実施形態1においては、識別装置100は、第1NNW1142を用いて加工部位の特徴を抽出し、抽出した特徴から加工部位の種類を識別するものとする。
In the first embodiment, the
[学習用データの生成]
図7および図8を参照しながら、学習用データの生成の一例を説明する。図7は、実施形態1にかかる学習用データの生成を説明するための模式図である。図8は、実施形態1にかかる学習用データの一例を説明するための模式図である。
[Generation of learning data]
An example of generating learning data will be described with reference to FIGS. 7 and 8. FIG. FIG. 7 is a schematic diagram for explaining generation of learning data according to the first embodiment. FIG. 8 is a schematic diagram for explaining an example of learning data according to the first embodiment;
図7に示すように、まず、三次元スキャナ200によって三次元データが取得される(STEP1)。三次元スキャナ200によって取得された三次元データには、当該三次元データに対応する口腔内の形状を構成する各点における三次元の位置情報と、各点における色情報(RGB値)とが含まれる。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、図7(a)に示すように実際の色が付された歯牙を含む三次元画像が生成される。
As shown in FIG. 7, first, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). The three-dimensional data acquired by the three-
次に、後述する各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、実施形態1においては、三次元データに対応する3次元画像がグレースケール化される(STEP2)。3次元画像のグレースケール化は、ユーザ1(この場合、学習用データを生成するメーカの技術者または製造工場の作業者など)によって行われる。三次元画像がグレースケール化されると、図7(b)に示すようにグレースケール化された三次元画像が生成される。また、三次元画像のグレースケール化に応じて、三次元データに対応する各点における色情報(RGB値)がグレースケールに対応する値に変更される。 Next, noise removal processing is performed in preparation for color-coding processing for each tooth, which will be described later. For example, in Embodiment 1, a three-dimensional image corresponding to three-dimensional data is grayscaled (STEP 2). The grayscaling of the three-dimensional image is performed by the user 1 (in this case, an engineer of the manufacturer who generates the learning data, a worker of the manufacturing plant, or the like). When the three-dimensional image is grayscaled, a grayscaled three-dimensional image is generated as shown in FIG. 7(b). In addition, according to the grayscaling of the three-dimensional image, the color information (RGB values) at each point corresponding to the three-dimensional data is changed to a value corresponding to the grayscale.
次に、三次元データに対応する三次元画像に含まれる各部位に対して予め定められた色が塗布されることで各部位が加工部位の種類に応じた色で色分けされる(STEP3)。塗布する色は、部位ごとに予め割り当てられている。割り当て内容は、色分類データ118としてストレージ110内に格納されている。また、図7に示す例では、加工の施されていない部位に対して、いずれの種類の加工部位に対しても割り当てられていない白色が塗布されたものとする。色分類データ118には、加工の施されていない部位に対して割り当てられる色に関する情報が含まれていてもよい。
Next, a predetermined color is applied to each part included in the three-dimensional image corresponding to the three-dimensional data, so that each part is color-coded according to the type of the processed part (STEP 3). The color to be applied is assigned in advance to each part. The allocation details are stored in
各部位に対する色の塗布は、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各部位が加工部位であるか否か、および加工部位である場合は加工部位の種類を識別し、識別した部位に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該部位の画像に塗布する。
Color application to each part is performed by the user 1 (particularly, a dentist, a dental technician, or other person who has knowledge of dentistry). Specifically, the user 1 identifies whether or not each part included in the three-dimensional image is a machined part based on his/her own knowledge, and if it is a machined part, identifies the type of the machined part, and identifies the identified part. The corresponding color is specified while referring to the
たとえば、ユーザ1は、三次元画像に含まれる部位が加工の施されていない生体部位であると識別すると、当該部位の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位がインプラントであると識別すると、当該部位の画像に色aを塗布する。また、ユーザ1は、三次元画像に含まれる部位が補綴物であると識別すると、当該部位の画像に色bを塗布する。三次元画像に含まれる各歯牙および歯肉に対して色が塗布されると、図7(c)および図8に示すように各部位に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では色a、bがハッチングで表されている。 For example, when the user 1 identifies that the site included in the three-dimensional image is a living body site that has not been processed, the user 1 paints the image of the site in white. Further, when the user 1 identifies that the site included in the three-dimensional image is an implant, the user 1 applies color a to the image of the site. Further, when the user 1 identifies that the site included in the three-dimensional image is a prosthesis, the user 1 applies the color b to the image of the site. When a color is applied to each tooth and gum included in the three-dimensional image, a three-dimensional image in which a predetermined color is applied to each part as shown in FIGS. 7(c) and 8 is obtained. generated. For easy understanding, the colors a and b are hatched on the drawing.
また、各部位の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が塗布された色に対応する値に変更される。これにより、三次元データに対応する各点に対して、予め定められた色情報(RGB値)が関連付けられる。 Further, the color information (RGB values) at each point of the tooth corresponding to the three-dimensional data is changed to a value corresponding to the applied color according to the color coding of each part. Thereby, predetermined color information (RGB values) is associated with each point corresponding to the three-dimensional data.
各部位に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態1にかかる学習用データにおいては、識別処理で参照される位置情報に対して、当該位置情報がいずれの部位に対応する位置情報であるかを示す色情報が関連付けられる(ラベリングされる)。このような学習用データを複数生成し、生成した複数の学習用データの集まりが学習用データセット116として、識別装置100に保持される。
When predetermined color information is associated with each part, the three-dimensional data includes position information and color information corresponding to the applied color. Adopted as training data. That is, in the learning data according to the first embodiment, the position information referred to in the identification process is associated with color information indicating to which part the position information corresponds (labeled). ). A plurality of such learning data are generated, and a collection of the generated learning data is held in the
なお、実施形態1においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2の治療歴などを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。 In the first embodiment, the user 1 manually applies colors to each part included in the three-dimensional image based on his/her own knowledge. Color may be applied manually to each part included in the three-dimensional image. It is also possible to supplement some of the work with software.
また、実施形態1においては、ノイズ除去処理としてグレースケール化が行われたが、ノイズ除去処理は、行われなくともよく、また、グレースケール化とは別の処理によって実現されてもよい。 Further, in the first embodiment, grayscaling is performed as noise removal processing, but noise removal processing may not be performed, and may be realized by processing different from grayscaling.
なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、色情報に限られない。たとえば、色を塗布することで正解データを入力した上で、入力された正解データを色情報とは異なる別の識別情報に変換することで学習用データを作成してもよい。この場合、RGB値よりもデータ量の低い情報を正解データとすることが好ましい。これにより、色を塗布するという直感的に分かりやすい作業でユーザ1に正解データを対応付けさせることができるとともに、学習用データのデータ量を減らすことができる。 Although color information is associated with each piece of position information as identification information that is correct data, identification information is not limited to color information. For example, learning data may be created by inputting correct data by applying a color and then converting the input correct data into identification information different from color information. In this case, it is preferable to use information having a data amount smaller than the RGB values as the correct data. As a result, the user 1 can be made to associate the correct data with the intuitively understandable work of applying the color, and the data amount of the learning data can be reduced.
なお、図7および図8に示した正解データの生成方法は、一例である。たとえば、加工部位であると識別した部位だけに、加工部位の種類に応じた色を塗布し、色が塗布されていない部位の三次元データは、正解データとして利用しないようにしてもよい。 Note that the method of generating the correct answer data shown in FIGS. 7 and 8 is an example. For example, a color corresponding to the type of the processed portion may be applied only to the portion identified as the processed portion, and the three-dimensional data of the portion to which the color is not applied may not be used as the correct data.
また、図8に示した例では、加工部位を、「インプラント」、「窩洞部」、「支台歯」、および「補綴物」といった大分類に従って仕分けたものの、上記表1に示した小分類に従って仕分けてもよい。 In addition, in the example shown in FIG. 8, the processed parts are classified according to the major classifications of "implant", "cavity", "abutment tooth", and "prosthesis". may be sorted according to
[識別装置100の学習処理]
図9を参照しながら、識別装置100が実行する学習処理について説明する。図9は、実施形態1にかかる識別装置100が実行する加工種用の学習処理の一例を説明するためのフローチャートである。図9に示す各ステップは、識別装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。
[Learning processing of identification device 100]
A learning process performed by the
図9に示すように、識別装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する(S1)。なお、識別装置100は、学習用データセット116の中から、一の学習用データを選択しても、複数の学習用データを選択してもよい。また、識別装置100は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。
As shown in FIG. 9, the
識別装置100は、選択した学習用データに含まれる三次元データの位置情報を加工種推定モデル114に入力する(S2)。このとき、識別装置100は、三次元データにラベリングされた正解データは入力しない。識別装置100は、加工種推定モデル114を用いて三次元データの特徴を抽出し、三次元データに対応する部位の加工部位の種類を識別する識別処理を実行する(S3)。
The
識別装置100は、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、加工種推定モデル114のパラメータ1144を更新する(S4)。
The
たとえば、識別装置100は、入力された位置情報に基づき識別した結果、当該入力された位置情報が示す部位に対応する色情報を推定する。識別装置100は、学習用データに含まれる当該入力された位置情報が示す部位に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば加工種推定モデル114のパラメータ1144を維持する一方で、不正解であれば両者が一致するように加工種推定モデル114のパラメータ1144を更新する。
For example, as a result of identification based on the input position information, the
次に、識別装置100は、全ての学習用データに基づき学習したか否かを判定する(S5)。識別装置100は、全ての学習用データに基づき学習していない場合(S5でNO)、S1の処理に戻る。
Next, the
一方、識別装置100は、全ての学習用データに基づき学習した場合(S5でYES)、学習済みの加工種推定モデル114を学習済モデル115として記憶し(S6)、本処理を終了する。
On the other hand, if the
このように、識別装置100は、学習用データに含まれる三次元データに関連付けられた色情報を正解データとして、当該三次元データを用いた識別処理による識別結果に基づき、加工種推定モデル114を学習することで、学習済モデル115を生成する。
In this way, the
[識別装置100のサービス提供処理]
図10を参照しながら、識別装置100が実行するサービス提供処理について説明する。図10は、実施形態1にかかる識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。図10に示す各ステップは、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。サービス提供処理が実行されることで、三次元スキャナ200によって取得された三次元データに対する識別結果の関連付けがされる。
[Service provision processing of identification device 100]
A service providing process executed by the
図10に示すように、識別装置100は、所定の点に対応する三次元データが入力されたか否かを判定する(S11)。たとえば、識別装置100は、ストレージ110に識別結果と関連付けられてない三次元データが格納されている場合に、所定の点に対応する三次元データが入力されたと判定する。
As shown in FIG. 10, the
識別装置100は、三次元スキャナ200から三次元データが送られるとストレージ110に当該三次元データを格納していく。サービス提供処理は、任意の呼出サイクルで実行され、ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされるまで繰り返し実行される。ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされると、識別装置100は、所定の点に対応する三次元データが入力されていないと判断して(S11でNO)、サービス提供処理を終了する。
When the three-dimensional data is sent from the three-
一方、識別装置100は、所定の点に対応する三次元データが入力された場合(S11でYES)、三次元データ(位置情報)を学習済モデル115に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S12)。
On the other hand, when three-dimensional data corresponding to a predetermined point is input (YES in S11), the
識別装置100は、識別処理によって得られた識別結果を、S11で入力された三次元データに関連付ける(S13)。具体的には、識別装置100は、三次元データに含まれる位置情報に対して、識別結果を示す色情報(色a~色d、または白色を示す色情報)を関連付ける。これにより、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果が関連付けられる。
The
識別装置100は、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100は、本処理を終了する。
The
[測定中にディスプレイ300に出力される表示の一例]
図11および図12を参照して、測定中にディスプレイ300に出力される表示の一例を説明する。図11は、測定中の出力例を示す図である。図12は、測定中の出力例の変形例を示す図である。
[Example of display output to display 300 during measurement]
An example of a display output to display 300 during measurement will be described with reference to FIGS. 11 and 12. FIG. FIG. 11 is a diagram showing an output example during measurement. FIG. 12 is a diagram showing a modified example of an output during measurement.
識別装置100は、サービス提供処理を実行して、所定の点に対応する三次元データが入力されたタイミングで、識別結果に基づく当該三次元データに対する関連付けを行う。ユーザ1は、三次元スキャナ200を口腔内で徐々に動かしながら、順々にスキャンしていく。そのため、識別装置100は、三次元スキャナ200が動かされて新たな三次元データを取得すると、取得した各三次元データに対応する複数の点のそれぞれに識別結果を関連付ける。識別結果が関連付けた三次元データは、関連付けられた識別結果を示す態様でディスプレイ300に出力される。
The
たとえば、図11(a)に示すように、加工の施されていない天然歯をスキャンすると、スキャンして得られた各三次元データに対応する複数の点のそれぞれが、白色で表示される。なお、図11(a)において、便宜上、白色で出力された点を、三角形で表している。 For example, as shown in FIG. 11(a), when an unprocessed natural tooth is scanned, each of a plurality of points corresponding to each three-dimensional data obtained by scanning is displayed in white. In addition, in FIG. 11A, for convenience, points output in white are represented by triangles.
その後、新たに加工部位を含む生体部位がスキャンされると、図11(b)に示すように、スキャンして得られた各三次元データに対応する複数の点のうち、インプラントに対応する三次元データは、色aの点(図中の黒丸の点)で表示される一方、加工の施されていない部位に対応する三次元データは、白色の点(図中の三角形の点)で表される。なお、図11には示していないものの、補綴物、窩洞形成歯、支台歯といった、他の種類の加工部位に対応する三次元データは、各々の種類に応じた色の点で表示される。 After that, when the living body part including the processed part is newly scanned, as shown in FIG. The original data are indicated by points of color a (dots of black circles in the figure), while the three-dimensional data corresponding to unprocessed parts are indicated by white points (dots of triangles in the figure). be done. Although not shown in FIG. 11, three-dimensional data corresponding to other types of processed parts such as prostheses, cavity-forming teeth, and abutment teeth are displayed with dots colored according to each type. .
なお、識別装置100は、三次元データに対応する複数の点を、それぞれ、点でディスプレイ300に表示するものとしたが、得られた三次元データをポリゴンメッシュを用いてディスプレイ300に表示してもよい。ポリゴンメッシュとは、たとえば、三角形および四角形など、ポリゴンを画面上に配置することでオブジェクトを表示する手法である。
Although the
具体的には、図12に示すように、識別装置100は、入力された三次元データに対応する複数の点を、ポリゴンに置き換えることで、当該複数の点に識別結果を関連付けた結果をディスプレイ300に表示してもよい。
Specifically, as shown in FIG. 12, the
このように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示されるため、ユーザ1は、入力されたタイミングで入力された三次元データに対応する部位の種類を確認できる。また、識別装置100は、加工部位の種類に応じた表示態様でディスプレイ300に表示するため、各加工部位の境目を分かり易くユーザ1に示すことができる。
In this way, the identification results for the acquired three-dimensional data are sequentially displayed on the
なお、三次元スキャナ200による口腔内のスキャンが開始した当初においては、得られた三次元データの数が少ないため、識別装置100は、三次元データに基づいて識別結果を出すことができない。そのため、識別装置100は、関連付けができていないこと、すなわち識別結果が出せていないことを示す態様で三次元データに対応する画像(点またはポリゴン)をディスプレイ300に表示してもよい。そして、三次元スキャナ200による口腔内のスキャンが進み、得られた三次元データの数が増えたタイミングで、再度、サービス提供処理を実行して、識別結果を出すことを試みるようにしてもよい。この場合、識別装置100は、識別結果が出せた場合には、既に表示していた三次元データに対応する画像の表示態様を識別結果に応じた態様に切り替える。
Note that at the beginning of intraoral scanning by the three-
以上のように、実施形態1にかかる識別装置100は、AIを利用することで、人の目では識別し難い加工物の特徴を見いだし、人によってばらつきのあるユーザの知見に頼ることなく、精度良く加工部位の種類を識別できる。
As described above, the
<実施形態2>
図13~図20を参照して、実施形態2にかかる識別装置100aについて説明する。実施形態1において、ユーザ1は、識別結果を参照することでカルテを生成するものとした。実施形態2にかかる識別装置100aは、識別結果に従い、さらにカルテを自動的に生成してもよい。
<
An
識別装置100aは、識別装置100と比較して、加工部位の種類を識別することに加えて、歯牙の種類の識別を行う。これにより、識別装置100aは、加工部位に対応する歯牙の種類の推定を行う。また、識別装置100aは、加工部位の種類を示す識別結果に基づいて、当該加工部位に施された治療内容を推定する。このように、識別装置100aは、加工部位に対応する歯牙の種類、および加工部位に施された治療内容を推定することで、対象者2のカルテを生成する。
Compared with the
なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。 The "types of teeth" are upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left side. central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, lower right central incisors, lateral incisors, canines, 1st premolar, 2nd premolar, 1st molar, 2nd molar, and 3rd molar, mandibular left central incisor, lateral incisor, canine, 1st premolar, 2nd premolar, 3rd molar It refers to each tooth type such as 1 molar, 2nd molar, and 3rd molar.
[測定中に機能する構成]
図13は、実施形態2にかかるスキャナシステム10aの測定中に機能する機能構成を示す模式図である。図13を参照して、スキャナシステム10aは、識別装置100に替えて識別装置100aを備える点で実施形態1にかかるスキャナシステム10と異なる。また、識別装置100aは、歯牙種識別部1134をさらに備え、さらに、三次元データに加えてプロファイルデータ119が識別処理に利用される点で、実施形態1にかかる識別装置100と異なる。
[Configuration that works during measurement]
FIG. 13 is a schematic diagram showing a functional configuration functioning during measurement of the
プロファイルデータ119は、対象者2の年齢、性別、人種、身長、体重、および居住地といったプロファイルを示す情報である。なお、プロファイルデータ119は、必ずしも必要な情報ではなく、歯牙の種類を識別する際の精度を上げるために利用される情報である。また、プロファイルデータ119は、初診の際に対象者2から得られる情報であって、カルテの情報に含まれる。
The
歯牙種識別部1134は、入力部1102に入力された三次元データと、プロファイルデータ119とに基づき、歯牙種推定モデル114a(学習済モデル115a)を用いて、歯牙の種類を識別する。歯牙種推定モデル114aは、第2NNW1142aと、当該第2NNW1142aによって用いられるパラメータ1144aとを含む。なお、第2NNW1142aおよびパラメータ1144aは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。
The tooth
加工部位は、生体部位に対して加工を施した部位であるため、天然の歯牙とは形状の特徴などが異なる。そのため、加工部位をスキャンして得られた三次元データに基づいて歯牙種識別部1134が歯牙の種類を識別する識別処理をした場合、歯牙の種類を識別できないことがある。本実施の形態において、識別装置100aは、歯牙種識別部1134によって歯牙の種類が識別できなかった場合に、入力部1102に入力された三次元データに対応する部位が加工部位であるとして、加工種識別部1132が加工部位の種類を識別する識別処理を実行する。
Since the processed part is a part obtained by processing a living body part, it differs from a natural tooth in features such as shape. Therefore, when the tooth
出力部1103は、歯牙種識別部1134および加工種識別部1132の各々による識別結果をディスプレイ300に出力する。
また、識別装置100aが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124とが格納される。
In addition, the
[測定後に機能する構成]
図14および図15を参照して、カルテの生成にかかる機能について説明する。図14は、実施形態2にかかる識別装置100aの測定後にカルテを生成する際に機能する機能構成を示す模式図である。図15は、加工部位の歯牙の種類を推定する方法を説明するための模式図である。
[Configuration that functions after measurement]
Functions related to chart generation will be described with reference to FIGS. 14 and 15. FIG. FIG. 14 is a schematic diagram showing a functional configuration that functions when generating a chart after measurement of the
図14を参照して、測定後にカルテを生成する際の機能として、識別装置100aは、治療推定部1152、歯牙種推定部1154、およびカルテ生成部1156を備える。
Referring to FIG. 14,
治療推定部1152は、加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する。
Based on the
加工種識別部1132は、三次元データに対応する部位の加工部位の種類を識別する。生体部位に対する加工は、治療のために行われる。そのため、加工部位の種類と、治療内容とは対応関係にある。加工部位の種類と治療内容との関係を表2に示す。
The processing
表2を参照して、「加工部位」は、治療途中の加工部位と、治療済の加工部位とに分類できる。たとえば、「インプラント」、「窩洞形成歯」および「支台歯」は、治療中の加工部位であり、「補綴物」は、治療済の加工部位である。加工部位の種類と治療内容の種類とは互いに対応しているため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて対象者2に対して行われた治療内容を推定できる。また、加工部位は、治療途中の加工部位と治療済の加工部位とに分類される。そのため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて治療の途中であるのか、あるいは治療が完了しているのかを推定できる。
Referring to Table 2, the "processed site" can be classified into a processed site in the middle of treatment and a processed site that has already been treated. For example, "implant", "cavity-forming tooth" and "abutment tooth" are working sites under treatment, and "prosthesis" are working sites that have been treated. Since the type of processed part and the type of treatment content correspond to each other, the
治療推定部1152は、表2に示すようなテーブルを参照して治療内容を推定してもよく、また、加工部位の種類を示す識別結果124を入力値としてディープラーニングを行うことで識別結果124に対応する治療内容を推定してもよい。治療内容の推定をディープラーニングで行う場合、治療推定部1152は、加工部位の種類に対して正解データとして治療内容を対応付けた教師データを利用してパラメータを最適化させたニューラルネットワークを利用して治療内容を推定する。
The
歯牙種推定部1154は、加工部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位に対応する歯牙の種類を推定する。「加工部位に対応する歯牙」とは、補綴物が取り付けられた歯牙に限らず、天然歯の代わりに人工歯が取り付けられている場合には元の天然歯の歯牙を意味する。また、「加工部位に対応する歯牙」とは、インプラントが取り付けられている場合には当該インプラントを取り付ける前に存在していた歯牙を意味する。
The tooth
カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類と、治療推定部1152が推定した治療内容とに基づいて、カルテ150を生成する。
The
カルテ150には、プロファイルデータ119から特定される対象者2の基本情報を示すプロファイル表示領域152と、加工部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。なお、カルテ生成部1156は、歯式表示領域158に、歯式に変えて、または歯式とともに、三次元データに基づいて任意の視点からみた加工部位を含めた歯牙の像を含む二次元画像を表示してもよい。
The
図15を参照して、加工部位に対応する歯牙の種類を推定する方法を具体的に説明する。まず、三次元スキャナ200によって三次元データが取得される(STEP1)。次に、識別装置100aは、歯牙種識別部1134による識別処理によって歯牙の種類を識別する(STEP2)。たとえば、図15のSTEP2に示す例では、識別装置100aは、下顎右側および上顎右側に位置する各歯牙の種類を識別している。具体的には、識別装置100aは、識別処理によって、下顎右側については第二大臼歯、第一大臼歯、第二小臼歯、および第一小臼歯を、上顎右側については第二大臼歯、第二小臼歯、および第一小臼歯を、それぞれ特定する。
A method for estimating the type of tooth corresponding to the machined portion will be specifically described with reference to FIG. First, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). Next, the
ここで、口腔内に加工部位が存在する場合、識別装置100aの歯牙種識別部1134は識別処理によって、加工部位に対応する歯牙の種類を識別できないことがある。しかし、歯牙種識別部1134は、加工部位に対応する歯牙に隣り合う隣接歯牙および、加工部位に対応する歯牙に対向する対向歯牙については、識別処理によってその種類を推定できる。歯牙種推定部1154は、隣接歯牙および対向歯牙の種類に基づいて、加工部位に対応する歯牙の種類を推定する(STEP3)。
Here, when there is a processed site in the oral cavity, the tooth
たとえば、図15のSTEP3に示す例では、歯牙種識別部1134は、上顎右側において第二大臼歯と第二小臼歯との間の加工部位に対応する歯牙の種類を識別できない。しかし、歯牙種識別部1134は、上顎右側において第二大臼歯および第二小臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、それらの間の歯牙が上顎右側の第一大臼歯であると推定できる。あるいは、歯牙種識別部1134は、加工部位に対応する歯牙に対向する下顎右側の第一大臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、下顎右側の第一大臼歯に対向する歯牙が上顎右側の第一大臼歯であると推定できる。
For example, in the example shown in STEP 3 of FIG. 15, the tooth
なお、歯牙種推定部1154、加工部位の種類がインレー、アンレー、クラウンといった、歯の一部に取り付けられた補綴物である場合には、加工部位と識別された三次元データの周囲の、歯牙の種類が識別された三次元データに基づいて加工部位に対応する歯牙の種類を識別してもよい。たとえば、加工部位の三次元データに対応する歯牙の種類は、当該加工部位の三次元データの周囲の歯牙の三次元データに対応付けられた歯牙の種類と同じであると推定される。
In addition, when the type of tooth
[歯牙種推定モデル114a(学習済モデル115a)の生成]
図16~図18を参照して、学習済モデル115aを生成するための学習処理について説明する。図16は、実施形態2にかかる学習用データセット116aの一例を説明するための模式図である。図17は、実施形態2にかかる学習用データセット116aに基づく学習済モデル115aの生成を説明するための模式図である。図18は、実施形態2にかかる識別装置100aが実行する歯牙種用の学習処理の一例を説明するためのフローチャートである。なお、加工種推定モデル114の学習済モデル115を生成するための学習処理は、実施形態1において説明した学習済モデル115を生成するための学習処理(図9参照)と共通するため、説明を省略する。
[Generation of tooth
The learning process for generating the trained
歯牙の種類を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら歯牙の種類を識別し、識別した歯牙の種類に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、歯牙の種類ごとに予め割り当てられている。割り当て内容は、色分類データ118aとしてストレージ110内に格納されている。
When generating learning data for identifying tooth types, user 1 (particularly, a person with dental knowledge such as a dentist or a dental technician) confirms the three-dimensional image and identifies the tooth types. is identified, and a color corresponding to the type of the identified tooth is applied to the three-dimensional image, thereby associating the position information with the identification information. The color to be applied is assigned in advance for each tooth type. The allocation contents are stored in the
たとえば、ユーザ1は、三次元画像に含まれる歯牙が第二大臼歯であると識別すると、当該歯牙の画像に赤色を塗布する。また、三次元画像に含まれる歯牙が第一大臼歯であると識別すると、当該歯牙の画像に緑色を塗布する。三次元画像に含まれる各歯牙に対して予め定められた色が塗布されると、図16に示すように各歯牙に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では各色がハッチングで表されている。 For example, when the user 1 identifies that the tooth included in the three-dimensional image is the second molar, the user 1 paints the image of the tooth in red. Further, when the tooth included in the three-dimensional image is identified as the first molar, the image of the tooth is painted green. When each tooth included in the three-dimensional image is painted with a predetermined color, a three-dimensional image is generated in which each tooth is painted with a predetermined color as shown in FIG. For easy understanding, each color is represented by hatching on the drawing.
各歯牙に対して予め定められた色情報(識別情報)が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態2にかかる歯牙種推定モデル114aの学習用データにおいては、識別処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116aとして、識別装置100aに保持される。
When predetermined color information (identification information) is associated with each tooth, the three-dimensional data includes position information and color information (identification information) corresponding to the applied color. , such three-dimensional data is employed as learning data. That is, in the learning data of the tooth
なお、実施形態2においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出できる。 In the second embodiment, the user 1 manually applies the color to each tooth included in the three-dimensional image based on his/her own knowledge, but it is also possible to supplement part of the work with software. For example, the boundary between the tooth to be labeled and the tooth adjacent to it, and the boundary between the tooth to be labeled and the gingiva may be identified by edge detection, such that: Only teeth to be labeled can be extracted.
図17に示すように、学習用データセット116aは、当該学習用データセット116aを生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類できる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別できる。
As shown in FIG. 17, the learning
識別装置100aは、カテゴリごとに分類できる複数の学習用データセット116aを用いて歯牙種推定モデル114aを学習させることで、学習済モデル115aを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて歯牙種推定モデル114aを学習させればよい。
The
一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、実施形態2のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別できる学習済モデルを生成できる。 In general, tooth shape differs depending on genetics or living environment such as age, sex, race, height, weight, place of residence, and the like. For example, the permanent teeth of adults are generally larger than the milk teeth of children, and the two have different shapes. In general, male teeth are larger than female teeth, and the two have different shapes. In general, the teeth of Westerners tend to have sharp tips so that they can easily bite off hard meat and bread, whereas the teeth of Japanese people tend to have sharp tips so that they can easily grind soft rice and vegetables. It tends to be smooth. Therefore, by performing learning processing based on profile data as in the second embodiment, it is possible to generate a trained model that can identify the type of tooth in consideration of heredity or living environment.
図18に示すように、識別装置100aは、学習済モデル115aを生成するために歯牙種用の学習処理を実行する。歯牙種用の学習処理は、利用する推定モデルが歯牙種推定モデル114aである点、および、歯牙種推定モデル114aに入力する情報が三次元データの位置情報に加えて、学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを入力する(S2a)点で、実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。
As shown in FIG. 18, the
具体的に、識別装置100aは、学習用データセット116aの中から、学習に用いる学習用データを選択する(S1a)。識別装置100aは、選択した学習用データに含まれる三次元データの位置情報、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを歯牙種推定モデル114aに入力する(S2a)。識別装置100は、三次元データに対応する歯牙の特徴に基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する識別処理を実行する(S3a)。識別処理において、識別装置100は、三次元データに加えてプロファイルデータに基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する。
Specifically, the
識別装置100aは、識別処理によって識別した歯牙の種類の識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、歯牙種推定モデル114aのパラメータ1144aを更新する(S4a)。
The
次に、識別装置100aは、全ての学習用データに基づき学習したか否かを判定する(S5a)。識別装置100aは、全ての学習用データに基づき学習していない場合(S5aでNO)、S1aの処理に戻る。
Next, the
一方、識別装置100aは、全ての学習用データに基づき学習した場合(S5aでYES)、学習済みの歯牙種推定モデル114aを学習済モデル115aとして記憶し(S6a)、本処理を終了する。
On the other hand, if the
このように、識別装置100aは、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する識別情報(たとえば、色情報)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の種類の識別結果に基づき、歯牙種推定モデル114aを学習することで、学習済モデル115aを生成できる。
In this way, the
さらに、識別装置100aは、学習処理において、学習用データに加えてプロファイルデータを考慮して歯牙種推定モデル114aを学習するため、対象者2のプロファイルを考慮した学習済モデル115aを生成できる。
Furthermore, in the learning process, the
なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、歯牙の名称または歯牙の番号など、色情報とは異なる情報であってもよい。 Although the color information is associated with each positional information as identification information, which is correct data, the identification information may be information different from the color information, such as the name of the tooth or the number of the tooth.
[サービス提供処理]
図19は、実施形態2にかかる識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態2にかかる識別装置100aが実行するサービス提供処理は、S12に代わりS121~S126が実行される点で、図10に示した実施形態1にかかる識別装置100が実行するサービス提供処理と異なる。以下、識別装置100が実行するサービス提供処理と異なる点を中心に説明する。
[Service provision processing]
FIG. 19 is a flowchart for explaining an example of service providing processing executed by the
識別装置100aは、所定の点に対応する三次元データが入力された場合(S11でYES)、プロファイルデータがあるか否かを判定する(S121)。識別装置100aは、プロファイルデータがない場合(S121でNO)、三次元データ(位置情報)を学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S123)。一方、識別装置100aは、プロファイルデータがある場合(S121でYES)、三次元データ(位置情報)およびプロファイルデータを学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S122)。
When three-dimensional data corresponding to a predetermined point is input (YES in S11), the
S122およびS123のあと、識別装置100aは、三次元データに対応する歯牙の特徴に基づき、学習済の歯牙種推定モデル114a(学習済モデル115a)を用いて当該歯牙の種類を識別する識別処理を実行する(S124)。このとき、S122でプロファイルデータが学習済モデル115aに入力されていた場合、識別装置100aは、三次元データに加えてプロファイルデータに基づき、学習済モデル115aを用いて当該歯牙の種類を識別する。
After S122 and S123, the
識別装置100aは、歯牙の種類を識別できたか否かを判定する(S125)。識別できたか否かは、たとえば、パラメータ1144aに含まれる判定値と計算結果との比較に基づいて判断される。
The
識別装置100aは、歯牙の種類を識別できた場合(S125においてYES)、S13以降の処理を実行する。一方、識別装置100aは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。
If the
S125およびS126のあと、識別装置100aは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、識別装置100aは、歯牙の種類が識別できた場合、三次元データに含まれる位置情報に対して、歯牙の種類を示す識別結果124aを示す色情報(赤色、緑色などを示す色情報)を関連付ける。一方、歯牙の種類を識別できず、加工部位の種類を識別できた場合、識別装置100aは、三次元データに含まれる位置情報に対して、加工部位の種類を示す識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。
After S125 and S126, the
識別装置100aは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100aは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。
The
以上のように、実施形態2において、識別装置100aは、歯牙種識別部1134が歯牙の種類を識別できなかった場合に、加工種識別部1132による加工部位の種類を識別する処理を実行し、歯牙種識別部1134が歯牙の種類を識別できた場合には、加工種識別部1132による加工部位の種類を識別する処理を実行しない。
As described above, in the second embodiment, when the tooth
図19に示したサービス提供処理において、識別装置100aは、歯牙の種類を識別できなかった場合に、S126において、加工部位ではないと識別した場合には、S13において、識別できなかったことを示す情報を三次元データに対応付けるようにしてもよい。
In the service providing process shown in FIG. 19, if the identifying
[カルテ生成処理]
図20は、実施形態2にかかる識別装置100aが実行するカルテ生成処理の一例を説明するためのフローチャートである。カルテ生成処理は、三次元スキャナ200による三次元データの取得が完了した後であって、当該三次元データに対する識別処理(サービス提供処理)が完了したときに行われる。
[Cart generation process]
FIG. 20 is a flowchart for explaining an example of chart generation processing executed by the
カルテ生成処理において、識別装置100aは、加工部位に対応する歯牙種と、当該加工部位に施された治療内容を推定し、推定した歯牙種に対応付けて加工部位に施された治療内容をカルテとして出力する。
In the chart generating process, the
図20を参照して、識別装置100aは、歯牙種および治療内容の推定がされていない加工部位があるか否かを判定する(S21)。歯牙種および治療内容の推定がされていない加工部位がないと判定した場合(S21においてNO)、すなわち、すべての加工部位に対して、当該加工部位に対応する歯牙種の推定と、治療内容の推定とがされたと判定した場合、識別装置100aは、S26の処理を実行して、カルテ生成処理を終了する。
Referring to FIG. 20,
歯牙種および治療内容の推定がされていない加工部位があると判定した場合(S21においてYES)、識別装置100aは、加工部位の三次元データに基づき、当該加工部位に隣接する歯牙の種類を識別結果124a(歯牙の種類を示す識別結果)から取得する(S22)。
If it is determined that there is a processed portion for which the tooth type and treatment details have not been estimated (YES in S21), the
識別装置100aは、取得した歯牙の種類から、加工部位に対応する歯牙の種類を推定する(S23)。識別装置100aは、当該加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する(S24)。識別装置100aは、推定した治療内容と推定した歯牙の種類とを対応付けてカルテに反映する(S25)。識別装置100aは、カルテに反映したのち、S21の処理を実行し、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図14に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。
The
以上のように、実施形態2においては、加工部位に施された治療内容が推定され、さらに加工部位に対応する歯牙の種類が推定される。そして、推定された治療内容と、推定された歯牙の種類とが対応付けて出力されることで、カルテが自動的に生成される。 As described above, in the second embodiment, the details of the treatment performed on the processed region are estimated, and the type of tooth corresponding to the processed region is estimated. A chart is automatically generated by outputting the estimated treatment content and the estimated tooth type in association with each other.
なお、実施形態2において、治療推定部1152は、測定後に機能するとした。なお、治療推定部1152が実行する処理は、図19に示したサービス提供処理に組み込まれていてもよい。たとえば、識別装置100aは、S126を実行した後に、得られた識別結果に基づいて治療内容を推定する処理を実行してもよい。
Note that in the second embodiment, the
<実施形態3>
図21~図26を参照して、実施形態3にかかる識別装置100bについて説明する。識別装置100bは、歯牙種の識別および加工部位の識別に加えて、病変部位の識別を行う。なお、「病変部位を識別する」とは、三次元データ122に対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は当該病変部位の病変内容を識別することを意味する。
<Embodiment 3>
An
なお、「病変部位」は、口腔内の病変部位であって、たとえば、う蝕された部位、歯周病の症状が見られる部位を含む。また、「病変部位」は、実際に病気であると診断を受ける部位だけに限らず、歯石がたまっている部位のように病気を引き起こしそうな部位を含み得る。 The “lesion site” is a lesion site in the oral cavity, and includes, for example, a carious site and a site showing symptoms of periodontal disease. In addition, the "lesion site" is not limited to a site that is actually diagnosed as having a disease, and may include a site that is likely to cause a disease, such as a site where dental calculus is accumulated.
[測定中に機能する構成]
図21は、実施形態3にかかるスキャナシステム10bの測定中に機能する機能構成を示す模式図である。図21を参照して、スキャナシステム10bは、識別装置100aに替えて識別装置100bを備える点で実施形態2にかかるスキャナシステム10aと異なる。また、識別装置100bは、病変識別部1136をさらに備える点で、実施形態2にかかる識別装置100aと異なる。病変識別部1136は、入力部1102に入力された、三次元データに基づき、病変推定モデル114b(学習済モデル115b)を用いて、病変の種類を識別する。
[Configuration that works during measurement]
FIG. 21 is a schematic diagram showing a functional configuration functioning during measurement of the
病変推定モデル114bは、第3NNW1142bと、当該第3NNW1142bによって用いられるパラメータ1144bとを含む。なお、第3NNW1142bおよびパラメータ1144bは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。
The
出力部1103は、歯牙種識別部1134、加工種識別部1132、および病変識別部1136の各々による識別結果をディスプレイ300に出力する。
また、識別装置100bが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124と、三次元データ122に対応する部位の病変内容を示す識別結果124bとが格納される。
In addition, the
[測定後に機能する構成]
図22を参照して、カルテの生成にかかる機能について説明する。図22は、測定後にカルテを生成する際に機能する識別装置100bの機能構成を示す模式図である。
[Configuration that functions after measurement]
With reference to FIG. 22, functions related to chart generation will be described. FIG. 22 is a schematic diagram showing the functional configuration of the
図22を参照して、測定後にカルテを生成する際の機能として、識別装置100bは、実施形態2にかかる識別装置100aと同様に、治療推定部1152、歯牙種推定部1154およびカルテ生成部1156を備える。
Referring to FIG. 22, as functions for generating a chart after measurement, the
実施形態3にかかる歯牙種推定部1154は、加工部位に対応する歯牙の種類に加えて、病変部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位または病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位または当該病変部位に対応する歯牙の種類を推定する。「病変部位に対応する歯牙」とは、う蝕された歯牙、病変のある歯肉の近傍の歯牙を意味する。なお、治療推定部1152の機能は、実施形態2にかかる識別装置100aが備える治療推定部1152と共通する。
The tooth
カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類および治療推定部1152が推定した当該加工部位に施された治療内容、ならびに歯牙種推定部1154が推定した病変部位に対応する歯牙の種類および識別結果124bが示す病変内容に基づいて、カルテ150を生成する。
The
カルテ150には、プロファイルデータ119から特定される対象者2のプロファイルを示すプロファイル表示領域152と、加工部位または病変部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容または病変の内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。
The
なお、病変部位に対応する歯牙の種類を推定する方法は、上記実施形態2において説明した加工部位に対応する歯牙の種類を推定する方法と共通する。たとえば、歯牙種推定部1154は、病変部位が歯牙である場合には、当該病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該病変部位に対応する歯牙の種類を推定する。また、歯牙種推定部1154は、病変部位が歯肉である場合には、当該歯肉に隣接する歯牙を当該病変部位に対応する歯牙として、当該病変部位(歯肉)に対応する歯牙の種類を推定する。
The method for estimating the type of tooth corresponding to the lesion site is the same as the method for estimating the type of tooth corresponding to the processed site described in the second embodiment. For example, when the lesion site is a tooth, the tooth
[病変推定モデル114b(学習済モデル115b)の生成]
図23および図24を参照して、学習済モデル115bを生成するための学習処理について説明する。図23は、実施形態3にかかる学習用データセット116bに基づく学習済モデル115bの生成を説明するための模式図である。図24は、実施形態3にかかる識別装置100bが実行する病変用の学習処理の一例を説明するためのフローチャートである。なお、歯牙種推定モデル114aの学習済モデル115a、および加工種推定モデル114の学習済モデル115を生成するための学習処理は、上記実施形態において説明した学習処理と共通するため、説明を省略する。
[Generation of
The learning process for generating the trained
図23を参照して、病変内容を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら、病変部位を識別し、識別した病変内容に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、病変内容ごとに予め割り当てられている。割り当て内容は、色分類データ118bとしてストレージ110内に格納されている。
Referring to FIG. 23 , when generating learning data for identifying lesion content, user 1 (particularly, a dentist, a dental technician, or other person with dental knowledge) uses a three-dimensional image to generate learning data. The positional information and the identification information are associated with each other by identifying the lesion site while confirming and applying a color corresponding to the content of the identified lesion to the three-dimensional image. The color to be applied is assigned in advance for each lesion content. The allocation contents are stored in the
たとえば、ユーザ1は、三次元画像に含まれる部位が病変のない歯牙であると識別すると、当該歯牙の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位が初期のう歯であると識別すると、当該部位の画像に色Aを塗布する。なお、分かり易いように、図面上では色A、Cがハッチングで表されている。 For example, when the user 1 identifies that the site included in the three-dimensional image is a tooth with no lesion, the user 1 paints the image of the tooth white. Further, when the user 1 identifies that a site included in the three-dimensional image is an early dental caries, the user 1 applies color A to the image of the site. For easy understanding, the colors A and C are hatched on the drawing.
位置情報に、正解データとして病変内容を示す色情報(識別情報)が対応付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態3にかかる病変推定モデル114bの学習用データにおいては、識別処理で参照される位置情報に対して、病変内容に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する病変の範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各病変部位に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116bとして、識別装置100bに保持される。
When color information (identification information) indicating lesion content is associated with position information as correct data, the three-dimensional data includes position information and color information (identification information) corresponding to the applied color. Thus, such three-dimensional data is adopted as learning data. In other words, in the training data of the
なお、実施形態3においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2のカルテなどを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。たとえば、カルテに基づいて塗布する色が自動で選択されるような構成であってもよい。 In the third embodiment, the user 1 manually applies colors to each part included in the three-dimensional image based on his/her own knowledge. A color may be applied to each part included in the three-dimensional image in the operation. It is also possible to supplement some of the work with software. For example, the configuration may be such that the color to be applied is automatically selected based on the chart.
識別装置100bは、このようにして生成された1または複数の学習用データセット116bを用いて病変推定モデル114bを学習させることで、学習済モデル115bを生成する。
The
なお、図23の色分類データ118bに示した病変内容の分類は、一例である。たとえば、歯牙について、異常なし、初期のう歯、治療が必要なう歯の3つに分類する例を示したが、当該分類に対する、臨床現場で用いられる進行度を示すC0~C4という5段階の指標で分類してもよい。同様に、歯肉について、異常なし、歯周病ありの2つに分類する例を示したが、歯周病をさらに進行度を示す複数の段階に分類してもよい。具体的には、歯肉炎、軽度歯周炎、中度歯周炎、重度歯周炎に分類してもよい。
Note that the lesion content classification shown in the
図24に示すように、識別装置100bは、学習済モデル115bを生成するために病変用の学習処理を実行する。病変用の学習処理は、利用する推定モデルが病変推定モデル114bであり、入力する学習用データが学習用データセット116bである点で実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。
As shown in FIG. 24, the
具体的には、識別装置100bは、学習用データセット116bの中から、学習に用いる学習用データを選択する(S1b)。識別装置100bは、選択した学習用データに含まれる三次元データの位置情報を病変推定モデル114bに入力する(S2b)。識別装置100bは、病変推定モデル114bを用いて三次元データの特徴を抽出し、三次元データに対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は病変内容を識別する識別処理を実行する(S3b)。
Specifically, the
識別装置100bは、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、病変推定モデル114bのパラメータ1144bを更新する(S4b)。
The
次に、識別装置100bは、全ての学習用データに基づき学習したか否かを判定する(S5b)。識別装置100bは、全ての学習用データに基づき学習していない場合(S5bでNO)、S1bの処理に戻る。
Next, the
一方、識別装置100bは、全ての学習用データに基づき学習した場合(S5bでYES)、学習済みの病変推定モデル114bを学習済モデル115bとして記憶し(S6b)、本処理を終了する。
On the other hand, if the
[サービス提供処理]
図25は、実施形態3にかかる識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するサービス提供処理は、S127がさらに実行される点で、図19に示した実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる。以下、実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる点を中心に説明する。
[Service provision processing]
FIG. 25 is a flowchart for explaining an example of service providing processing executed by the
識別装置100bは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。
If the
また、識別装置100bは、三次元データを学習済の病変推定モデル114b(学習済モデル115b)に入力し、当該学習済モデル115bを用いて病変内容を識別する識別処理を実行する(S127)。
Further, the
S125およびS127のあと、識別装置100bは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別できなかった一方、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、S127において病変の種類を識別できなかった場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、かつ、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)および識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。
After S125 and S127, the
そして、識別装置100bは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100bは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。なお、三次元データに含まれる位置情報に対して、2つの識別結果(たとえば、加工部位の種類を示す識別結果124と、病変内容を示す識別結果124b)が関連付けられた場合には、2色で交互に点滅するような態様でディスプレイ300に表示されてもよい。
The
以上のように、実施形態3において、識別装置100bは、三次元データに対応する部位の歯牙の種類を識別したのち、歯牙の種類を識別できなかった場合には、当該部位に施された治療内容を識別する識別処理と当該部位の病変内容を識別する識別処理とを実行する。
As described above, in the third embodiment, the
[カルテ生成処理]
図26は、実施形態3にかかる識別装置100bが実行するカルテ生成処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するカルテ生成処理は、S251~S254がさらに実行される点で、図20に示した実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる。以下、実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる点を中心に説明する。
[Cart generation process]
FIG. 26 is a flowchart for explaining an example of chart generation processing executed by the
識別装置100bは、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返し、すべての加工部位に対して歯牙の種類を推定したと判定すると(S21においてNO)、S251以降の処理を実行する。
The
識別装置100bは、歯牙種の推定がされていない病変部位があるか否かを判定する(S251)。歯牙種の推定がされていない病変部位がないと判定した場合(S251においてNO)、すなわち、すべての病変部位に対してS251~S254の処理を実行して当該病変部位に対応する歯牙種の推定がされた場合、識別装置100bは、S26の処理を実行して、カルテ生成処理を終了する。
The
歯牙種の推定がされていない病変部位があると判定した場合(S251においてYES)、識別装置100bは、病変部位の三次元データに基づき、当該病変部位に隣接する歯牙の種類を識別結果124aから取得する(S252)。
If it is determined that there is a lesion site for which the tooth type has not been estimated (YES in S251), the
識別装置100bは、取得した歯牙の種類から、病変部位に対応する歯牙の種類を推定する(S253)。識別装置100bは、当該病変部位の病変内容を識別結果124bから取得し、取得した病変内容と推定した歯牙の種類とを対応付けてカルテに反映する(S254)。
The
識別装置100bは、カルテに反映したのち、S251の処理を実行し、すべての病変部位に対して歯牙の種類を推定するまでS252~S254を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図22に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。
The
以上のように、実施形態3にかかる識別装置100bは、加工部位に加えて病変部位の識別も行う。そのため、識別装置100bは、より正確な識別処理を実行できるとともに、ユーザ1に多くの情報を提供できる。
As described above, the
たとえば、う蝕が進むことで形成された孔のように、病気が進行することで形状が大きく変化しているような場合、ユーザ1は、一見して病変部位を識別できる。しかし、初期のう歯、また、わずかに欠けている部位などは、一見しては分からないこともある。また、歯周病は、歯肉の腫れや垂れ下がりなどから診断される。そのため、歯周病の診断は、ユーザ1の知見によりばらつきが生じることもある。 For example, in the case where the shape of a hole is greatly changed as the disease progresses, such as a hole formed by progressing caries, the user 1 can identify the lesion site at a glance. However, early caries and slightly missing parts may not be apparent at first glance. Also, periodontal disease is diagnosed from swollen and drooping gums. Therefore, the diagnosis of periodontal disease may vary depending on the knowledge of the user 1 .
そこで、AIを利用することで、診断のばらつきを減らすことができるとともに、一見しては分からない病変部位についても、病変部位の特徴を見出すことができる。 Therefore, by using AI, it is possible to reduce the variability in diagnosis and to find out the characteristics of the lesion site even if it is not apparent at first glance.
また、ユーザ1は、う蝕の形状を三次元で確認できるため、口腔内を観察する場合に比べて、切削範囲の検討、治療方法の検討などを行いやすい。また、識別装置100bは、病変内容と病変部位とを識別することで、う蝕の形状を推定できる。そのため、識別装置100bは、う蝕の形状に基づいて切削範囲を自動で設定し、設定した切削範囲を表示した口腔内(歯牙)の三次元データ上に表してディスプレイ300に表示することができる。また、識別装置100bは、病変内容と病変部位とを識別することで、治療方法を自動で提案できる。
In addition, since the user 1 can confirm the shape of the caries three-dimensionally, it is easier for the user 1 to examine the cutting range, the treatment method, and the like than when observing the inside of the oral cavity. Further, the
また、識別装置100bが歯石またはプラークなどを識別してディスプレイ300に表示すると、ユーザ1は、対象者2に対して対象者2の歯の状態を三次元的に分かり易く説明することができ、歯の磨き方の指導などを容易に行うことができる。
In addition, when the
また、ユーザ1は、ディスプレイ300に表示された口腔内の三次元画像を確認することで、歯肉と歯牙との隙間の距離を三次元的に認識できるため、歯周病の進行度合いを診断しやすい。また、歯周病の進行度合いは、識別装置100bによって、歯肉と歯牙との距離などに基づいて推定されてもよい。そして、識別装置100bは、推定した歯周病の進行度合いをディスプレイ300に表示してもよい。
Further, by checking the three-dimensional image of the oral cavity displayed on the
また、歯周病の初期症状として、歯肉の腫れがある。歯肉の腫れは、ユーザ1が見逃し易い症状である。そこで、識別装置100bが歯肉の形状の特徴(腫れ)に基づいて歯周病の初期症状が現れている部位を識別することで、歯周病の早期発見が実現される。
Further, as an early symptom of periodontal disease, there is swelling of the gums. Swollen gums are a symptom that the user 1 tends to overlook. Therefore, early detection of periodontal disease is realized by the
上記カルテ生成処理において、識別装置100bは、加工部位および病変部位ごとに歯牙の種類を推定した。なお、識別装置100bは、三次元データ122ごとに歯牙の種類を推定してもよい。実施形態3において、一の三次元データに対して、当該三次元データに対応する部位が加工部位であり、かつ病変部位であると識別されることもある。そのような場合に、加工部位および病変部位ごとに歯牙の種類を推定すると、処理が重複してしまうことになる。そこで、識別装置100bは、歯牙の種類を識別できなかった三次元データ122について、隣接する歯牙の種類を識別できた三次元データ122に基づいて、歯牙の種類を推定してもよい。
In the chart generation process, the
[変形例]
<識別処理の変形例>
実施形態1にかかる識別装置100は、三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別した。なお、識別装置100は、実施形態2および実施形態3のように、治療内容をさらに推定してもよい。また、識別装置100は、実施形態2および実施形態3のように、歯牙の種類を識別する識別処理を実行して、歯牙の種類に基づいて加工部位に対応する歯牙の種類を推定してもよい。
[Modification]
<Modified example of identification processing>
The
実施形態2にかかる識別装置100aは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、三次元データに対応する部位を加工部位であると識別して、加工部位の種類を識別する識別処理を実行した。
The
なお、識別装置100aは、加工部位の種類を識別する識別処理を実行したのち、加工部位ではないと識別した場合に歯牙の種類を識別する識別処理を実行してもよい。
Note that the
また、識別装置100aは、得られた各三次元データに対して、歯牙の種類を識別する識別処理および加工部位を識別する識別処理の両方の処理を実行して、2つの識別結果を得るようにしてもよい。この場合に、歯牙種推定部1154は、歯牙種を識別することができなかった部位に対応する歯牙の種類を隣接する歯牙の種類に基づいて推定するようにしてもよい。識別結果を得るための各処理を実行する順番は、予め定められていればよく、歯牙種に関する識別結果124aからでも、加工部位に関する識別結果124からでもどちらでもよい。また、識別結果を得るための各処理をタスク制御で実行してもよい。
In addition, the
実施形態3にかかる識別装置100bは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、加工部位の種類を識別する識別処理および病変内容を識別する識別処理を実行した。なお、識別装置100bは、歯牙の種類を識別する識別処理、治療内容を識別する識別処理および病変内容を識別する識別処理のそれぞれを実行して、3つの識別結果を得てもよい。
The
また、識別装置100bは、加工部位の種類を識別することができず、かつ、病変内容を識別できなかった場合に、歯牙の種類を識別する識別処理を実行してもよい。
Further, the
一の三次元データに対して複数の識別結果を得る場合に、識別結果を得るための各処理を実行する順番は、予め定められていればよく、どのような順番で実行されてもよいし、タスク制御で実行してもよい。 When obtaining a plurality of identification results for one piece of three-dimensional data, the order of executing each process for obtaining the identification results may be determined in advance, and may be executed in any order. , may be executed under task control.
また、実施形態2において、識別装置100aは、加工種推定モデル114で加工部位の種類を識別したのち、加工部位の種類に基づいて治療内容を推定した。なお、識別装置100aは、1つの推定モデルを用いて、加工部位の種類および治療内容を推定してもよい。また、識別装置100aは、2つの推定モデルを有するとしたが、1つの推定モデルを用いて、歯牙の種類および加工部位の種類(または治療内容)を識別する構成であってもよい。同様に、実施形態3にかかる識別装置100bは、3つの推定モデルを用いて、3種類の事項を識別したが、1つまたは2つの推定モデルを用いて3種類の事項を識別してもよい。
Further, in the second embodiment, the
また、実施形態1~実施形態3において、識別装置100bは、加工部位と加工部位に施された治療内容を識別するとした。なお、これらに加えて、加工部位に用いられた部品の材質、または、インプラントメーカーの品番を識別するための構成を備えていてもよい。
Further, in Embodiments 1 to 3, the
<学習用データセットの変形例>
上記実施形態1~実施形態3のいずれにおいても、三次元データに含まれる位置情報に基づいて識別処理が行われた。なお、位置情報に加えてさらに色情報を用いて識別処理が行われてもよい。図27は、変形例にかかる学習用データセットの一例を説明するための模式図である。位置情報に加えて色情報を学習済モデルに入力して識別結果を得る場合、図27に示すように、学習用データにも色情報を含めて学習処理が実行される。学習処理においては、推定モデルに対して位置情報に加えて色分け前の色情報が入力されることで、各部位の実際の色も考慮された上で学習済モデルが生成される。
<Modified example of training data set>
In any one of the first to third embodiments, identification processing is performed based on the position information included in the three-dimensional data. The identification process may be performed using color information in addition to position information. FIG. 27 is a schematic diagram for explaining an example of a learning data set according to the modification; When color information is input to a learned model in addition to position information to obtain a classification result, the learning process is executed with the color information included in the learning data as shown in FIG. 27 . In the learning process, color information before color-coding is input to the estimated model in addition to position information, so that a learned model is generated after considering the actual color of each part.
補綴物は、通常、審美性および機能性の観点から、天然歯と遜色のない形状で歯牙に取り付けられる。そのため、形状の特徴が現れる位置情報だけでは、入力された三次元データに対応する部位が補綴物に対応する部位であるか否かを十分に識別することが難しい場合もある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良く加工部位を識別できる。 A prosthesis is usually attached to a tooth in a shape comparable to that of a natural tooth from the viewpoint of esthetics and functionality. Therefore, it may be difficult to sufficiently identify whether or not the site corresponding to the input three-dimensional data is a site corresponding to the prosthesis only with the positional information where the shape features appear. By using the estimation model, it is possible to extract color features in addition to shape features, so that the machined part can be identified with higher accuracy.
また、歯周病の初期症状として、歯肉の腫れや、歯肉の色の変化がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できるため、より正確に歯周病の識別を行うことができる。また、う蝕の初期症状として、歯牙できる白い斑点(ホワイトスポット)がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良くう蝕を識別できる。 In addition, early symptoms of periodontal disease include swollen gums and changes in the color of the gums. Since the estimation model can extract color features in addition to shape features, periodontal disease can be identified more accurately. Also, as an early symptom of dental caries, there are white spots that form on the teeth (white spots). By using the estimation model, it is possible to extract color features in addition to shape features, so that caries can be identified with higher accuracy.
上記実施形態1~実施形態3のいずれにおいても、対象者2の口腔内をスキャンすることで学習用データセットを生成した。なお、加工部位を識別するために利用される学習用データセットは、加工に用いる部品をスキャンすることで生成されてもよい。
In any of Embodiments 1 to 3, the learning data set was generated by scanning the oral cavity of the
図28は、変形例にかかる学習用データセットを説明するための図である。たとえば、学習用データセットは、治療をする際に用いる部品をスキャンして得られる三次元データを用いて生成されてもよい。たとえば、学習用データセットは、インプラント治療をするために利用されるインプラント体をスキャンして得られる三次元データを集め、集めた三次元データから生成されてもよい。また、学習用データセットは、支台歯をスキャンして得られた三次元データを集め、集めた三次元データから生成されてもよい。識別装置は、治療をする際に用いる部品ごとに生成した各学習用データセットを推定モデルに入力することで学習済モデルを生成してもよい。 FIG. 28 is a diagram for explaining a learning data set according to the modification; For example, the learning data set may be generated using three-dimensional data obtained by scanning parts used for treatment. For example, the learning data set may be generated from the collected three-dimensional data by collecting three-dimensional data obtained by scanning an implant body used for implant treatment. Also, the learning data set may be generated by collecting three-dimensional data obtained by scanning the abutment tooth and generating the collected three-dimensional data. The identification device may generate a learned model by inputting each learning data set generated for each part used in treatment into an estimation model.
<カルテ生成部の変形例>
上記実施形態2および実施形態3において、カルテ生成部1156は、歯牙種推定部1154が推定した歯牙種と、治療推定部1152が識別結果124に基づいて推定した治療内容、または病変内容を示す識別結果124bとに基づいてカルテ150を生成した。なお、カルテ生成部1156は、カルテ150という最終成果物を生成する必要はなく、たとえば、ユーザ1によるカルテの入力をアシストする機能を提供するものであってもよい。具体的には、加工部位または病変部位であると識別した部位を示す情報(たとえば、歯牙種)を出力し、ユーザ1にカルテ150の入力を促すようにしてもよい。
<Modified example of the medical chart generator>
In
<サービス提供処理の変形例>
実施形態1~実施形態3にかかる識別装置は、図10,図19,図25に示すように、サービス提供処理において学習処理を実行するものではない。しかし、図29に示すように、識別装置は、サービス提供処理において学習処理を実行するものであってもよい。識別装置は、所謂、協調学習(Federated Learning)を行うものであってもよい。
<Modified example of service provision processing>
As shown in FIGS. 10, 19, and 25, the identification devices according to Embodiments 1 to 3 do not perform learning processing in service providing processing. However, as shown in FIG. 29, the identification device may perform the learning process in the service providing process. The identification device may perform so-called Federated Learning.
図29は、変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。図29に示すS11~S14の処理は、図10に示すS11~S14の処理と同じであるため、図29においては、S11~S14の処理についての詳細な説明を省略する。なお、以下では、実施形態1にかかる識別装置100がサービス提供処理において学習処理を実行するものとして説明する。
FIG. 29 is a flowchart for explaining an example of service providing processing executed by the identification device 100c according to the modification. Since the processing of S11 to S14 shown in FIG. 29 is the same as the processing of S11 to S14 shown in FIG. 10, detailed description of the processing of S11 to S14 is omitted in FIG. In the following description, it is assumed that the
図29に示すように、識別装置100cは、S11~S14の処理によって、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果に基づく当該点に対する関連付けの結果を出力した後、サービス提供時学習処理を実行する。具体的には、識別装置100cは、S14の後、誤り訂正のための正解データが入力されたか否かを判定する(S15)。たとえば、識別装置100cは、S12によって得られた識別結果(加工されているか否か、加工内容)が、実際にスキャン対象であった部位からユーザ1が判断する判断結果と異なる場合において、実際にスキャン対象であった部位に対するユーザ1の判断結果である正解データをユーザ1が入力することで誤りを訂正したか否かを判定する。 As shown in FIG. 29, the identification device 100c performs the processing of S11 to S14 to determine the state of the part corresponding to the point corresponding to the input three-dimensional data (whether it has been processed, whether it has been After outputting the result of association with the point based on the identification result indicating the content), the learning process at the time of service provision is executed. Specifically, after S14, the identification device 100c determines whether correct data for error correction has been input (S15). For example, when the identification result obtained in S12 (whether or not it has been processed, details of processing) is different from the determination result determined by the user 1 based on the part that was actually scanned, the identification device 100c actually It is determined whether or not the error has been corrected by the user 1 inputting correct data, which is the determination result of the user 1 for the part to be scanned.
識別装置100cは、誤り訂正のための正解データが入力されなかった場合(S15でNO)、本処理を終了する。一方、識別装置100cは、誤り訂正のための正解データが入力された場合(S15でYES)、識別結果と正解データとに基づき報酬を付与する(S16)。 If the correct data for error correction is not input (NO in S15), the identification device 100c ends this process. On the other hand, when the correct data for error correction is input (YES in S15), the identification device 100c gives a reward based on the identification result and the correct data (S16).
たとえば、識別結果と正解データとの解離度が小さければ小さいほど、付与する報酬として値の小さいマイナスポイントを与え、両者の解離度が大きければ大きいほど、付与する報酬として値の大きいマイナスポイントを与えればよい。なお、報酬はマイナスポイントに限らず、プラスポイントであってもよい。 For example, the smaller the degree of dissociation between the identification result and the correct answer data, the smaller the negative points given as a reward, and the greater the degree of dissociation between the two, the larger the negative points given as a reward. Just do it. Note that the reward is not limited to minus points, and may be plus points.
報酬を与える方法は、任意に設計可能である。たとえば、識別装置100cは、識別結果と正解データとの組み合わせとして考えられる複数種類の組み合わせの各々に対して予め設定された報酬の大きさに基づいて、報酬を与えてもよい。また、識別装置100cは、予め定められたルールに従って報酬を与えてもよい。具体的には、識別装置100cは、識別結果と正解データとで小分類は異なるものの大分類(表1参照)が共通していれば解離度が小さく、値の小さいマイナスポイントを与えてもよい。一方、識別装置100cは、識別結果と正解データとで小分類および大分類の両方が異なれば解離度が大きく、値の大きなマイナスポイントを与えてもよい。また、識別装置100cは、このようなルールに従った報酬の付与方法と、複数種類の組み合わせの各々に対して予め報酬を設定しておく付与方法とを組み合わせた方法で、報酬を与えても良い。 The method of rewarding can be designed arbitrarily. For example, the identification device 100c may give a reward based on a preset reward size for each of a plurality of possible combinations of identification results and correct data. Also, the identification device 100c may reward according to a predetermined rule. Specifically, the identification device 100c may give negative points with a small degree of dissociation and a small value if the identification result and the correct data are in different minor categories but share the same major category (see Table 1). . On the other hand, if the identification result and the correct data are different in both the small classification and the large classification, the identification device 100c may give a large negative point with a large degree of dissociation. Further, the identification device 100c may give a reward by a method combining a reward giving method according to such a rule and a giving method in which a reward is set in advance for each of a plurality of types of combinations. good.
識別装置100cは、付与した報酬に基づき、学習済モデル115のパラメータ1144を更新する(S17)。たとえば、識別装置100cは、報酬として付与したマイナスポイントが0に近づくように学習済モデル115のパラメータ1144を更新する。その後、識別装置100cは、本処理を終了する。
The identification device 100c updates the
なお、加工部位の種類だけを識別するサービス提供処理中に実行される学習処理について説明したが、識別装置は、実施形態2および実施形態3に示した複数の事項(加工部位の種類と歯牙の種類、加工部位の種類と歯牙の種類と病変内容)を識別するサービス提供処理中であっても学習処理を実行可能である。 Although the learning process executed during the service providing process for identifying only the type of machined part has been described, the identification device is capable of handling the plurality of items shown in the second and third embodiments (the type of machined part and tooth type). The learning process can be executed even during the service providing process for identifying the type, type of machined part, type of tooth, and content of lesion).
たとえば、加工部位の種類と歯牙の種類とを識別するサービス提供処理において、歯牙の種類が識別された識別結果に対して別の歯牙の種類の正解データが入力された場合、識別装置は、歯牙の種類を示す識別結果124aと正解データとに基づいて歯牙種推定モデル114aのパラメータ1144aを更新する。この場合、一例として、識別装置は、識別結果124aとして出力した歯牙と、正解データとして入力された歯牙とが隣接していれば、値の小さいマイナスポイントを与え、両者が離れていれば、値の大きいマイナスポイントを与える。
For example, in the service providing process for identifying the type of machined part and the type of tooth, when correct data for another tooth type is input in response to the identification result in which the type of tooth is identified, the identification device The
他の例として、加工部位の種類と歯牙の種類と病変内容とを識別するサービス提供処理において、識別された病変内容に対して別の病変内容の正解データが入力された場合、識別装置は、病変内容を示す識別結果124bと正解データとに基づいて病変推定モデル114bのパラメータ1144bを更新する。この場合、一例として、識別装置は、炎症の度合い(う蝕の進行度合い、または歯肉炎の進行度合い)が近ければ値の小さいマイナスポイントを与え、炎症の度合いが遠ければ値の大きいマイナスポイントを与える。
As another example, in the service providing process for identifying the type of processed part, the type of tooth, and the content of the lesion, when correct data of different content of the lesion is input with respect to the content of the identified lesion, the identification device: The
また、複数の推定モデルを備える識別装置は、識別結果と正解データとの組み合わせに応じて再学習させる推定モデルを選択してもよい。たとえば、識別結果と正解データとがいずれも歯牙種に関する事項であれば、識別装置は、歯牙種推定モデル114aのパラメータ1144aを更新する処理を実行する。識別結果と正解データとがいずれも加工内容に関する事項であれば、識別装置は、加工種推定モデル114のパラメータ1144を更新する処理を実行する。識別結果と正解データとがいずれも病変内容に関する事項であれば、識別装置は、病変推定モデル114bのパラメータ1144bを更新する処理を実行する。また、識別装置は、加工種推定モデル114のパラメータ1144と、歯牙種推定モデル114aのパラメータ1144aと、病変推定モデル114bのパラメータ1144bとの中から複数のパラメータを更新してもよい。
Further, an identification device having a plurality of estimation models may select an estimation model to be re-learned according to a combination of identification results and correct data. For example, if both the identification result and the correct data relate to the tooth type, the identification device executes processing to update the
このように、変形例に係る識別装置は、サービス提供処理においても学習処理を実行するため、ユーザ1が使用すればするほど識別処理の精度が向上し、より精度良く加工部位の種類、歯牙の種類、または病変内容を識別することができる。このような処理は、所謂、協調学習の一種である。 In this way, the identification device according to the modification executes learning processing even in the service providing processing. The type, or lesion content, can be identified. Such processing is a kind of so-called collaborative learning.
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of claims. Note that the configurations exemplified in this embodiment and the configurations exemplified in the modifications can be combined as appropriate.
1 ユーザ、2 対象者、10,10a,10b スキャナシステム、100,100a,100b,100c 識別装置、102 スキャナインターフェース、103 ディスプレイインターフェース、105 周辺機器インターフェース、107 メディア読取装置、108 PCディスプレイ、109 メモリ、110 ストレージ、112 スキャン情報、114 加工種推定モデル、114a 歯牙種推定モデル、114b 病変推定モデル、115,115a,115b 学習済モデル、116,116a,116b 学習用データセット、118,118a,118b 色分類データ、119 プロファイルデータ、120 識別用プログラム、121 学習用プログラム、122 三次元データ、124,124a,124b 識別結果、130 演算装置、150 カルテ、152 プロファイル表示領域、154 歯牙種表示領域、156 コメント表示領域、158 歯式表示領域、200 三次元スキャナ、300 ディスプレイ、550 リムーバブルディスク、601 キーボード、602 マウス、1102 入力部、1103 出力部、1132 加工種識別部、1134 歯牙種識別部、1136 病変識別部、1142 第1NNW、1142a 第2NNW、1142b 第3NNW、1144,1144a,1144b パラメータ、1152 治療推定部、1154 歯牙種推定部、1156 カルテ生成部。
1 user, 2 subject, 10, 10a, 10b scanner system, 100, 100a, 100b, 100c identification device, 102 scanner interface, 103 display interface, 105 peripheral device interface, 107 media reader, 108 PC display, 109 memory, 110 storage, 112 scan information, 114 processed species estimation model, 114a tooth species estimation model, 114b lesion estimation model, 115, 115a, 115b learned model, 116, 116a, 116b learning data set, 118, 118a, 118b color classification data, 119 profile data, 120 identification program, 121 learning program, 122 three-dimensional data, 124, 124a, 124b identification result, 130 arithmetic device, 150 chart, 152 profile display area, 154 tooth type display area, 156
Claims (10)
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを備え、
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報を直接入力する、識別装置。 An identification device for identifying a processed part with respect to a living body part in the oral cavity,
an input unit for inputting three -dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
an identification unit that identifies the machined portion based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
An output unit that outputs the identification result by the identification unit ,
The identification device, wherein the identification unit directly inputs at least the three-dimensional position information of the three-dimensional data to the neural network included in the estimation model.
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、加工部位に対応する歯牙の周辺の歯牙の三次元データのうち少なくとも前記三次元の位置情報を直接入力して、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部をさらに備える、請求項1または請求項2に記載の識別装置。 The neural network is a neural network for estimating the processed part based on the three-dimensional data input from the input unit and estimating the type of tooth of the part corresponding to the three-dimensional data,
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data of the teeth around the tooth corresponding to the machining site into the neural network included in the estimation model , and identify the type of
3. The identifying device according to claim 1, further comprising a tooth type estimating section that estimates the type of tooth corresponding to the machining site based on the type of the peripheral tooth identified by the identifying section.
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、加工部位に対応する歯牙の周辺の歯牙の三次元データのうち少なくとも前記三次元の位置情報を直接入力して、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記加工部位に基づいて、当該加工部位に施された治療内容を推定する治療推定部と、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部とをさらに備え、
前記出力部は、前記識別部が識別した加工部位を、前記治療推定部が推定した当該加工部位に施された治療内容と、前記歯牙種推定部が推定した当該加工部位に対応する歯牙の種類とに対応付けて出力する、請求項1または請求項2に記載の識別装置。 The neural network is a neural network for estimating the processed part based on the three-dimensional data input from the input unit and estimating the type of tooth of the part corresponding to the three-dimensional data,
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data of the teeth around the tooth corresponding to the machining site into the neural network included in the estimation model , and identify the type of
a treatment estimating unit for estimating, based on the processed part identified by the identifying unit, details of treatment given to the processed part;
a tooth type estimating unit for estimating the type of tooth corresponding to the processed portion based on the type of the peripheral tooth identified by the identifying unit;
The output unit converts the processed region identified by the identifying unit to the details of the treatment performed on the processed region estimated by the treatment estimation unit, and the type of tooth corresponding to the processed region estimated by the tooth type estimation unit. 3. The identification device according to claim 1 or 2, which outputs in association with and.
前記入力部から入力された三次元データに基づき加工部位を推定するための第1ニューラルネットワークを含む第1推定モデルと、
前記入力部から入力された三次元データに基づき当該三次元データに対応する部位の歯牙の種類を推定するための第2ニューラルネットワークを含む第2推定モデルとを含み、
前記識別部は、前記入力部から入力された三次元データのうち少なくとも前記三次元の位置情報を前記第2ニューラルネットワークに直接入力し、入力された当該三次元データに対応する部位の歯牙の種類を推定できなかった場合に、前記入力部から入力された三次元データのうち少なくとも前記三次元の位置情報を前記第1ニューラルネットワークに直接入力して加工部位を識別する、請求項1~請求項6のうちいずれか1項に記載の識別装置。 The estimation model is
a first estimation model including a first neural network for estimating a machined part based on the three-dimensional data input from the input unit;
a second estimation model including a second neural network for estimating the type of tooth of the part corresponding to the three-dimensional data based on the three-dimensional data input from the input unit;
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data input from the input unit into the second neural network , and determines the type of tooth of the site corresponding to the input three-dimensional data. is not estimated, at least the three-dimensional positional information among the three-dimensional data input from the input unit is directly input to the first neural network to identify the processed part. 7. Identification device according to any one of 6.
三次元カメラを用いて口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
前記三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、
前記識別装置は、
前記三次元スキャナによって取得された三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを含み、
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報を直接入力する、スキャナシステム。 A scanner system for acquiring intraoral shape information,
A three-dimensional scanner that acquires three-dimensional data including three-dimensional positional information at each of a plurality of points representing the three-dimensional shape of the oral cavity using a three-dimensional camera;
an identification device that identifies a processed part of a living body part in the oral cavity based on the three-dimensional data acquired by the three-dimensional scanner;
The identification device
an input unit into which three-dimensional data acquired by the three-dimensional scanner is input;
an identification unit that identifies the machined portion based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
an output unit that outputs a result of identification by the identification unit ;
The scanner system , wherein the identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data to the neural network included in the estimation model.
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを含み、
前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報が直接入力される、識別方法。 An identification method for identifying a processed part of a living body part in the oral cavity by a computer,
a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
a step of identifying the machined portion based on the three-dimensional data input in the inputting step and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
and outputting an identification result from the identifying step ,
The identification method , wherein at least the three-dimensional positional information of the three-dimensional data is directly input to the neural network included in the estimation model.
前記識別用プログラムは、コンピュータに、
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを実行させ、
前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報が直接入力される、識別用プログラム。 An identification program for identifying a processed part with respect to a living body part in the oral cavity,
The identification program, in a computer,
a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
a step of identifying the machined portion based on the three-dimensional data input in the inputting step and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
a step of outputting an identification result obtained by the identifying step ;
A program for identification, wherein at least the three-dimensional positional information of the three-dimensional data is directly input to the neural network included in the estimation model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020113850A JP7267974B2 (en) | 2020-07-01 | 2020-07-01 | IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020113850A JP7267974B2 (en) | 2020-07-01 | 2020-07-01 | IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022012198A JP2022012198A (en) | 2022-01-17 |
JP7267974B2 true JP7267974B2 (en) | 2023-05-02 |
Family
ID=80148571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020113850A Active JP7267974B2 (en) | 2020-07-01 | 2020-07-01 | IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7267974B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015523108A (en) | 2012-05-07 | 2015-08-13 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | How to measure dental conditions |
JP2017521113A (en) | 2014-05-07 | 2017-08-03 | アライン テクノロジー, インコーポレイテッド | Region of interest identification during intraoral scanning |
US20180028294A1 (en) | 2016-07-27 | 2018-02-01 | James R. Glidewell Dental Ceramics, Inc. | Dental cad automation using deep learning |
JP2019208832A (en) | 2018-06-04 | 2019-12-12 | 聖士 田島 | Dental analysis system and dental analysis X-ray system |
WO2020129799A1 (en) | 2018-12-17 | 2020-06-25 | 株式会社モリタ製作所 | Identification device, scanner system, identification method, and identification program |
JP2020096800A (en) | 2019-10-17 | 2020-06-25 | 株式会社モリタ製作所 | Identification device, teeth type identification system, identification method, and identification program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102026026B1 (en) * | 2018-05-31 | 2019-09-26 | 오스템임플란트 주식회사 | Method and System for Designing Of Prosthetics |
-
2020
- 2020-07-01 JP JP2020113850A patent/JP7267974B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015523108A (en) | 2012-05-07 | 2015-08-13 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | How to measure dental conditions |
JP2017521113A (en) | 2014-05-07 | 2017-08-03 | アライン テクノロジー, インコーポレイテッド | Region of interest identification during intraoral scanning |
US20180028294A1 (en) | 2016-07-27 | 2018-02-01 | James R. Glidewell Dental Ceramics, Inc. | Dental cad automation using deep learning |
JP2019208832A (en) | 2018-06-04 | 2019-12-12 | 聖士 田島 | Dental analysis system and dental analysis X-ray system |
WO2020129799A1 (en) | 2018-12-17 | 2020-06-25 | 株式会社モリタ製作所 | Identification device, scanner system, identification method, and identification program |
JP2020096800A (en) | 2019-10-17 | 2020-06-25 | 株式会社モリタ製作所 | Identification device, teeth type identification system, identification method, and identification program |
Also Published As
Publication number | Publication date |
---|---|
JP2022012198A (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651494B2 (en) | Apparatuses and methods for three-dimensional dental segmentation using dental image data | |
Revilla-León et al. | Artificial intelligence models for tooth-supported fixed and removable prosthodontics: A systematic review | |
KR102056480B1 (en) | Method and system for managing digital dental care data | |
CN113520641B (en) | Method for constructing a prosthesis | |
DK3050534T3 (en) | TRACKING AND PREDICTING DENTAL CHANGES | |
EP2134290B1 (en) | Computer-assisted creation of a custom tooth set-up using facial analysis | |
KR102267197B1 (en) | Method and apparatus for recording and displaying dental care data on a digital dental image | |
CN102438545B (en) | System and method for effective planning, visualization, and optimization of dental restorations | |
WO2020129799A1 (en) | Identification device, scanner system, identification method, and identification program | |
JP7244113B2 (en) | Tooth virtual editing method, system, computer equipment and storage medium | |
JP7220569B2 (en) | Imaging support device, scanner system, and imaging support method | |
JP7398512B2 (en) | Data generation device, scanner system, data generation method, and data generation program | |
JP7525690B2 (en) | Identification device, scanner system, identification method, and identification program | |
JP7030076B2 (en) | Data generator, scanner system, data generation method, and data generation program | |
JP7267974B2 (en) | IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM | |
JP7227188B2 (en) | Identification device, identification system, identification method, and identification program | |
JP7265359B2 (en) | DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM | |
JP7195466B2 (en) | DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM | |
US11992380B2 (en) | System and method for providing a pediatric crown | |
JP7509371B2 (en) | Estimation device, estimation method, and estimation program | |
WO2024056719A1 (en) | 3d digital visualization, annotation and communication of dental oral health | |
JP2024072028A (en) | Data processing device, data processing method, data processing program, and data processing system | |
KR20240013207A (en) | Method for obtaining a model of a dental arch | |
KR20240102617A (en) | Low-pain treatment and reduced treatment time based on digital diagnosis dental treatment system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |