JP7492245B2 - Calculation device, sensor system, and computer program - Google Patents
Calculation device, sensor system, and computer program Download PDFInfo
- Publication number
- JP7492245B2 JP7492245B2 JP2020078654A JP2020078654A JP7492245B2 JP 7492245 B2 JP7492245 B2 JP 7492245B2 JP 2020078654 A JP2020078654 A JP 2020078654A JP 2020078654 A JP2020078654 A JP 2020078654A JP 7492245 B2 JP7492245 B2 JP 7492245B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- force
- action
- sensor
- candidate points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims description 59
- 238000004590 computer program Methods 0.000 title claims description 13
- 230000009471 action Effects 0.000 claims description 127
- 238000000034 method Methods 0.000 claims description 72
- 230000008569 process Effects 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 48
- 230000008859 change Effects 0.000 claims description 30
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000001680 brushing effect Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 9
- 210000004513 dentition Anatomy 0.000 description 5
- 230000036346 tooth eruption Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
Description
特許法第30条第2項適用 公開の事実1-1:2019年5月30日に第7回看護理工学会学術集会抄録のウェブサイト(https://nse2019.8href.com/)に掲載 公開の事実1-2:2019年6月6日の「第7回看護理工学会学術集会」にて発表 公開の事実2-1:2020年3月31日の看護理工学会誌、2020年、7巻、p.59-67(DOI:https://doi.org/10.24462/jnse.7.0_59)に掲載Application of
本開示は、演算装置、センサシステム、及び、コンピュータプログラムに関する。 This disclosure relates to a computing device, a sensor system, and a computer program.
口腔ケアにおいて磨く位置は重要であるにも関わらず、そのトレーニングにおいて、トレーナーがトレーニーに対して適切な位置を伝えることは難しい。すなわち、連続的な接触を伴う技能の教育において、被接触体に接触する位置を正確に表現することが難しい。一般的には、トレーニーはトレーナーの模範動作を見て磨く位置などの接触する位置を確認している。 Although the brushing position is important in oral care, it is difficult for trainers to convey the appropriate brushing position to trainees during training. In other words, when teaching skills that involve continuous contact, it is difficult to accurately convey the contact position for the object being brushed. Trainees generally check the brushing position and other contact positions by watching the trainer's model actions.
口腔ケア用トレーニングについて、特開2018-173504号公報(以下、特許文献1)は、歯列を構成する個々の歯に圧力センサを取り付けた口腔再現モデルを提案している。 Regarding oral care training, JP 2018-173504 A (hereinafter referred to as Patent Document 1) proposes an oral cavity reproduction model in which pressure sensors are attached to each tooth that makes up the dentition.
特許文献1のように圧力センサなどの接触を検出するセンサを用いる場合、接触した位置を正確に検出するためには、接触する位置又はその近傍にセンサを設置する必要がある。また、位置の検出精度を上げるには数多く設けることが望まれる。
When using a sensor that detects contact, such as a pressure sensor, as in
しかしながら、特許文献1のように個々の歯に圧力センサを取り付けると、圧力センサに接続された通信線が多くなり、配線や取り扱いが煩雑になる。また、サイズによっては圧力センサを取り付けることが難しい場合もある。また、薬剤を塗布したり水洗したりするような使い方が制約される場合もある。
However, if pressure sensors are attached to each tooth as in
本開示は、使い勝手を損なうことなく被接触体に接触した正確な位置を検出可能な演算装置、センサシステム、及び、コンピュータプログラムを提供するものである。 This disclosure provides a computing device, a sensor system, and a computer program that can detect the exact position of contact with a contacted object without compromising ease of use.
ある実施の形態に従うと、演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to one embodiment, the computing device performs processing using force sensing results from a first sensor capable of detecting the line of action of a force applied to a contacted body by contact, and includes an input unit capable of receiving input of the force sensing results, and a processor that executes the processing, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.
他の実施の形態に従うと、センサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the sensor system includes a sensor that can be attached to a contacted body and can detect the line of action of a force applied to the contacted body by contact, and a computing device that acquires sensing results by communicating with the sensor and performs processing using the sensing results, the processing including calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.
他の実施の形態に従うと、コンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果に含まれる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the computer program causes the computer to function as an arithmetic device that performs processing using the sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force included in the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.
更なる詳細は、後述の実施形態として説明される。 Further details are described in the embodiments below.
<1.演算装置、センサシステム、及び、コンピュータプログラムの概要> <1. Overview of the computing device, sensor system, and computer program>
(1)実施の形態に係る演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 (1) A computing device according to an embodiment of the present invention is a computing device that performs processing using force sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and includes an input unit that can accept input of the force sensing results, and a processor that executes processing. The processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.
被接触体は、接触する対象となる物体であって、例えば、口腔ケアモデルである。この場合、接触は、例えば、ブラシなどによる口腔ケアモデルに対するブラッシングである。第1のセンサは、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサであって、例えば力覚センサである。演算装置は、例えばコンピュータであって、入力部は、例えば、第1のセンサを接続し、センシング結果の入力を受け付けるインタフェースである。被接触体の形状データは、例えば、被接触体の形状を座標で表す式である。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 The contacted body is an object to be contacted, for example, an oral care model. In this case, contact is, for example, brushing the oral care model with a brush. The first sensor is a sensor capable of detecting the magnitude and direction of coordinate system components of the force applied to the attached contacted body, and the moment acting at the origin, for example, a force sensor. The arithmetic device is, for example, a computer, and the input unit is, for example, an interface to which the first sensor is connected and which accepts input of the sensing results. The shape data of the contacted body is, for example, an equation that expresses the shape of the contacted body in coordinates. The point of action at which the force is applied to the contacted body by contact is determined, thereby obtaining the exact position at which the contacted body is contacted.
(2)好ましくは、作用点を決定することは、第1のセンサでのセンシングのタイミングが異なる複数の力のセンシング結果から候補点それぞれについて位置の変化速度に相当する指標値を求め、指標値に基づいて作用点を決定することを含む。被接触体に対して連続的な接触を行っている場合、被接触体の表面の形状に応じて作用線の傾きが変化し、それによって候補点ごとに位置の変化速度が異なる。そのため、位置の変化速度を利用することで、候補点の中から作用点を決定することができる。 (2) Preferably, determining the point of action includes obtaining an index value corresponding to the rate of change of position for each candidate point from the results of sensing a plurality of forces sensed by the first sensor at different timings, and determining the point of action based on the index value. When continuous contact is made with the contacted body, the slope of the line of action changes according to the shape of the surface of the contacted body, and as a result, the rate of change of position differs for each candidate point. Therefore, by utilizing the rate of change of position, the point of action can be determined from among the candidate points.
(3)好ましくは、作用点を決定することは、複数の候補点のうち、変化速度の最も遅い候補点を作用点と決定することを含む。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。そのため、変化速度の最も遅い候補点を作用点と決定することができる。 (3) Preferably, determining the point of action includes determining, from among a plurality of candidate points, the candidate point with the slowest rate of change as the point of action. As the point of action changes, the line of action changes such that the range of the line of action expands as it moves away from the point of action, i.e., the position of contact, as the point of action changes. Therefore, the candidate point with the slowest rate of change can be determined as the point of action.
(4)好ましくは、候補点を算出することは、予め記憶している被接触体の形状データと作用線との交点を算出することを含む。これにより得られた複数の交点を候補点として得ることができる。 (4) Preferably, calculating the candidate points includes calculating the intersections between the pre-stored shape data of the contacted body and the line of action. The multiple intersections obtained in this way can be used as candidate points.
(5)好ましくは、作用点を決定することは、力のセンシング結果に含まれる力の向きを用いて、候補点のうち、力の向きから得られる成分が、各候補点に対応した許容される向きの範囲にない点を除くことを含む。これにより、候補点の数を減じることができ、計算量を減じることができる。 (5) Preferably, determining the point of action includes using the force direction included in the force sensing result to eliminate, from among the candidate points, points whose components obtained from the force direction are not within the range of allowable directions corresponding to each candidate point. This makes it possible to reduce the number of candidate points and the amount of calculations.
(6)好ましくは、許容される向きの範囲は、候補点に対する接触が可能な向きに基づいて規定される。接触によって与えられる力の作用点であるため、力の方向が接触が可能な方向のためである。 (6) Preferably, the range of allowable orientations is defined based on the orientations in which contact is possible for the candidate point, since the point of application of the force imparted by the contact is the direction of the force in which contact is possible.
(7)好ましくは、入力部は、さらに、第2のセンサによる、被接触体の形状のセンシング結果の入力を受け付け可能であり、候補点を算出することは、被接触体の形状データを形状のセンシング結果に基づいて変形させ、変形後の形状データを用いることを含む。これにより、被接触体が変形した場合であっても作用点を得ることができる。 (7) Preferably, the input unit is further capable of accepting input of the sensing result of the shape of the contacted body by the second sensor, and calculating the candidate point includes deforming the shape data of the contacted body based on the shape sensing result and using the deformed shape data. This makes it possible to obtain the point of action even if the contacted body is deformed.
(8)好ましくは、被接触体の形状データは三次元形状データである。これにより、実際の被接触体の形状により近い形状データを用いることができ、精度よく作用点を得ることができる。 (8) Preferably, the shape data of the contacted body is three-dimensional shape data. This allows the use of shape data that is closer to the actual shape of the contacted body, making it possible to obtain the point of action with high accuracy.
(9)好ましくは、被接触体の形状データは口腔ケアモデルの形状データである。これにより、口腔ケアにおけるブラッシングの位置を検出することができる。 (9) Preferably, the shape data of the contacted object is shape data of an oral care model. This makes it possible to detect the brushing position during oral care.
(10)好ましくは、処理は、決定された作用点と、力のセンシング結果に含まれる力の大きさと、を関連付けたデータを出力することをさらに含む。データの出力は、演算装置の外部への出力であって、例えば、後述のディスプレイでの表示、他の装置への送信、などである。これにより、検出結果を外部から知ることができる。 (10) Preferably, the processing further includes outputting data associating the determined point of action with the magnitude of the force included in the force sensing result. The output of the data is output to the outside of the computing device, for example, by displaying the data on a display described below, transmitting the data to another device, etc. This allows the detection result to be known from the outside.
(11)好ましくは、処理は、被接触体の単位範囲ごとに、単位時間あたりの単位範囲に含まれる作用点に与えられた力の大きさの合計値、及び、単位範囲に含まれる作用点に力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む。単位範囲は、被接触体の形状データを所定サイズに分割して設定された、出力のための単位となる範囲を指す。単位範囲ごとに出力されることで、単位範囲ごとの与えられた力の大きさや接触時間の傾向を知ることができる。 (11) Preferably, the processing includes outputting data indicating at least one of the total value of the magnitude of the force applied to the application point included in the unit range per unit time for each unit range of the contacted body, and the total value of the time during which the force was applied to the application point included in the unit range. The unit range refers to a range that is set by dividing the shape data of the contacted body into a predetermined size and serves as a unit for output. By outputting for each unit range, it is possible to know the trend of the magnitude of the applied force and the contact time for each unit range.
(12)好ましくは、データを出力することは、ディスプレイに表示させることを含む。これにより、ディスプレイの表示で把握することができる。 (12) Preferably, outputting the data includes displaying the data on a display. This allows the data to be understood from the display.
(13)好ましくは、ディスプレイに表示させることは、データとともに、被接触体を表す画像も表示させることを含む。これにより、ディスプレイの表示で作用点などを把握することができるとともに、用いた被接触体も把握できる。 (13) Preferably, displaying on the display includes displaying an image of the contacted object together with the data. This allows the point of action and the contacted object used to be identified from the display.
(14)好ましくは、第1のセンサは力覚センサである。これにより、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントが検出される。 (14) Preferably, the first sensor is a force sensor. This detects the magnitude and direction of coordinate system components of the force applied to the attached contact object, and the moment acting at the origin.
(15)実施の形態に係るセンサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 (15) A sensor system according to an embodiment includes a sensor that can be attached to a contacted body and can detect the line of action of a force applied to the contacted body by contact, and a computing device that acquires sensing results by communicating with the sensor and performs processing using the sensing results, the processing including calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points. By determining the point of action where the force is applied to the contacted body by contact, the exact position of contact with the contacted body can be obtained.
(16)好ましくは、センサは、形状データの座標系に応じた位置関係で被接触体に取り付けるための位置決め機構を有する。これにより、センサを、記憶されている形状データの座標系に応じた位置で被接触体に取り付けることができ、位置ずれによる精度の低下を防止できる。 (16) Preferably, the sensor has a positioning mechanism for attaching the sensor to the contacted body in a positional relationship according to the coordinate system of the shape data. This allows the sensor to be attached to the contacted body at a position according to the coordinate system of the stored shape data, preventing a decrease in accuracy due to misalignment.
(17)実施の形態に係るコンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。これにより、汎用のコンピュータを(1)~(14)の演算装置として機能させることができるとともに、(15),(16)のセンサシステムの構築に用いることができる。 (17) A computer program according to an embodiment is a computer program that causes a computer to function as a calculation device that performs processing using the sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points. This allows a general-purpose computer to function as the calculation device of (1) to (14), and can be used to build the sensor systems of (15) and (16).
<2.演算装置、センサシステム、及び、コンピュータプログラムの例> 2. Examples of computing devices, sensor systems, and computer programs
本実施の形態に係るセンサシステム100は、被接触体に接触によって与えられた力を検出してその検出結果を処理するシステムの一例として、口腔ケアモデルへのブラシなどの接触によって与えられた力を検出するシステムである。
The
図1を参照して、センサシステム100は、演算装置10と、センサ20と、を含む。センサ20は、被接触体に取り付け可能である。被接触体は、外周からの接触によって力を与えられる物体を指し、この例では口腔ケアモデル30である。センサ20は口腔ケアモデル30に取り付けられ、口腔ケアモデル30に接触によって与えられた力の作用線を検出可能である。
Referring to FIG. 1, the
センサ20は、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサである。好ましくは、センサ20は、z軸、y軸、及び、z軸の三次元でセンシング可能である。センサ20は、一例として力覚センサである。
センサ20は、板状の受力体21を有し、受力体21を口腔ケアモデル30の底面に接するように口腔ケアモデル30に取り付けられる。言い換えると、口腔ケアモデル30は、センサ20の受力体21に載置される。
The
口腔ケアモデル30は歯列を有して、口腔ケアの訓練、教育において、適切なブラッシングを学ぶために用いられる。トレーニーは、口腔ケアモデル30の歯列に対して、ブラシを接触させ、ブラッシングなどのトレーニングを行う。
The
センサ20は、受力体21を上面としたとき、下面には板状の支持体22が設けられ、受力体21と支持体22との間に変形体23が配置されている。センサ20は、変形体23の変形状態を電気的に検出することで、受力体21に載置された被接触体に与えられた力の大きさと、その位置及び方向と、つまり、口腔ケアモデル30に与えられた力の作用線を検出する。
When the
センサ20は、口腔ケアモデル30に取り付けるための位置決め機構を有する。位置決め機構は、一例として、図2に示されたようなガイド211~213である。詳しくは図2を参照して、口腔ケアモデル30を載置するセンサ20の受力体21の上面21Aには、口腔ケアモデル30の奥行方向を固定するガイド211,212と、横方向の中心を固定するためのガイド213と、が設けられている。ガイド211~213は、例えば、上面21Aにプリントされた線や窪み突起などである。
The
上面21Aにガイド211~213が設けられていることにより、センサ20の受力体21の上面21Aの、規定された位置に、口腔ケアモデル30を設置することができる。これにより、後述する処理における演算精度を向上させることができる。
By providing guides 211-213 on the
センサ20と演算装置10とは通信線40で接続され、センサ20のセンシング結果SGは演算装置10に入力される。センサ20と演算装置10とは無線通信を行ってもよい。演算装置10は一般的なコンピュータで構成されて、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理については後述する。
The
演算装置10には、出力装置であるディスプレイ50と、操作入力を行うための入力装置60とが接続されている。また、演算装置10には、図1に示されたように、後述するカメラ70がさらに接続されていてもよい。カメラ70は本センサシステム100に必須のものではない。演算装置10にカメラ70が接続されている場合、演算装置10は、カメラ70から撮影画像の画像データIMの入力を受け付け、後述する演算に用いてもよい。
The
演算装置10は、プロセッサ11とメモリ12とを有するコンピュータで構成される。メモリ12は、一次記憶装置であってもよいし、二次記憶装置であってもよい。メモリ12は、プロセッサ11によって実行されるコンピュータプログラム121を記憶している。
The
メモリ12は、さらに、口腔ケアモデル30のモデル形状データM1を記憶する形状データ記憶部122を有している。モデル形状データM1は後述する演算で用いられる口腔ケアモデル30の形状を表すデータである。これにより、後述する処理に口腔ケアモデル30の形状を表すデータを用いることができる。
The
なお、形状データ記憶部122は、さらに、サイズの異なるモデル形状データM2を記憶していてもよい。これにより、プロセッサ11は、処理に用いる口腔ケアモデル30の座標を適したモデル形状データとすることができる。
The shape data storage unit 122 may further store model shape data M2 of different sizes. This allows the
演算装置10は、センサ20と接続するためのセンサI/F(インタフェース)13を有する。センサI/F13は、センサ20からのセンシング結果SGの入力を受け付け可能な入力部として機能する。
The
演算装置10は、後述するカメラ70と接続するためのカメラI/F14を有する。カメラI/F14は、カメラ70からの画像データIMの入力を受け付け可能な入力部として機能する。
The
プロセッサ11は、メモリ12に記憶されているプログラム121を実行することで、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理は、センシング結果SGから得られる、口腔ケアモデル30に与えられた力の作用線と、予め記憶しているモデル形状データM1とを用いて口腔ケアモデル30の力の作用点を決定する演算を含む。
The
プロセッサ11の実行する作用点を決定する演算は、候補点算出処理111を含む。候補点算出処理111は、センサ20からのセンシング結果SGとモデル形状データM1とを用いて候補点を算出する処理である。候補点は、作用点の候補となる点である。候補点を算出することは、モデル形状データM1とセンシング結果SGに含まれる作用線との交点を算出することを含む。なお、詳細については後述する。
The calculation to determine the point of action executed by the
好ましくは、候補点算出処理111は、補正処理112を含む。補正処理112は、用いるモデル形状データM1をセンサ20と口腔ケアモデル30との位置関係に応じて補正する処理である。センサ20と口腔ケアモデル30との位置関係を識別する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいてセンサ20に対する口腔ケアモデル30の位置関係を識別することができる。他の方法によって識別してもよい。補正処理112で、プロセッサ11は、識別した位置関係に基づいてモデル形状データM1を補正する。これにより、位置関係が規定された関係よりずれた場合であっても演算精度を確保できる。
Preferably, the candidate
好ましくは、候補点算出処理111は、変形処理113を含む。変形処理113は、用いるモデル形状データM1を口腔ケアモデル30の変形に応じて変形させる処理である。口腔ケアモデル30の変形を検出する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいて口腔ケアモデル30の変形を検出することができる。他の方法によって検出してもよい。変形処理113で、プロセッサ11は、検出した変形に基づいてモデル形状データM1を変形させる。これにより、口腔ケアモデル30が変形した場合であっても演算精度を確保できる。
Preferably, the candidate
プロセッサ11の実行する作用点を決定する演算は、作用点決定処理114を含む。作用点決定処理114は、候補点算出処理111によって算出された候補点の中から作用点を決定する処理である。その際に、好ましくは、作用点決定処理114は、絞り込み処理115を含む。絞り込み処理115は、候補点算出処理111によって算出された複数の候補点を絞り込む処理であって、予め規定された絞り込み条件を用いて候補点とならない点を候補点から除く処理である。詳細は後述する。これにより、演算対象とする候補点の数を減じることができ、処理量を減らすことができる。
The calculation to determine the action point executed by the
作用点決定処理114は、速度算出処理116を含む。速度算出処理116は、センサ20でのセンシングのタイミングが異なる複数のセンシング結果SGから、候補点それぞれについて位置の変化速度に相当する指標値を求める処理である。変化速度に相当する指標値は、速度そのものであってもよい。作用点決定処理114は、候補点それぞれについての位置の変化速度に基づいて作用点を決定する。詳細は後述する。
The action
プロセッサ11はプログラム121を実行することで、さらに、表示処理117を実行する。表示処理117は、作用点決定処理114によって決定された作用点と、センシング結果SGに含まれる力の大きさと、を関連付けたデータを出力する処理であって、一例とし画面データを生成し、ディスプレイ50に表示させる処理である。他の例として、図示しない通信機を含む場合、送信データを生成して他の装置に送信させてもよい。
By executing the
図4~図10を用いて、作用点を決定する演算の原理について説明する。用いられる口腔ケアモデル30のためのモデル形状データM1,M2は3次元座標系で定義されるものであるが、ここでは、説明を簡易にするために2次元モデルを用いる。すなわち、口腔ケアモデル30の歯茎形状を2次元平面で定義する。
The principle of the calculation to determine the point of action will be explained using Figures 4 to 10. The model shape data M1 and M2 for the
始めに、図4~図6を用いて、プロセッサ11の実行する候補点算出処理111について説明する。図4を参照して、口腔ケアモデル30の歯列(歯茎)の外側及び内側、つまり、歯茎形状の外側及び内側を、長軸ai、短軸bi、及び、離心距離eiを用いて、それぞれ、式(1)及び式(2)で示される楕円T1,T2で定義する。式(1)、式(2)、及びこれらを表した図4のグラフでは、x軸を歯茎形状の奥行方向、y軸を歯茎形状の横幅方向に一致させ、x値が大きくなる方向を歯茎の前方とする。x値の閾値xthは歯茎の最も奥の位置に相当するx値である。メモリ12の形状データ記憶部122に記憶されているモデル形状データM1は、一例として、式(1)及び式(2)の組み合わせである。
First, the candidate
センサ20は、モデル形状データM1の原点Oに対応する位置に取り付けられる。センサ20は、力Fのx軸方向の成分(x成分)Fx、y軸方向の成分(y成分)Fy、及び、原点O周りのモーメントMが検出される。演算装置10は、これらの値をセンシング結果SGから得ることができる。
The
モーメントMは、x成分Fx及びy成分Fy用いて図5の式(3-1)で表される。式(3-1)を変形することで、力Fの作用線L1の式(3)が得られる。従って、演算装置10のプロセッサ11は、センサ20からのセンシング結果SGから得られるx成分Fx、y成分Fy、及び、モーメントMを用いて、式(3)で作用線L1を算出できる。
The moment M is expressed by equation (3-1) in FIG. 5 using the x-component Fx and the y-component Fy. By transforming equation (3-1), equation (3) for the line of action L1 of the force F is obtained. Therefore, the
作用点は、ブラシなどが口腔ケアモデル30の歯列の表面に接触する点であるため、式(1)及び式(2)で表された楕円T1,T2上に存在する。従って、作用点は、式(1)又は式(2)上の座標(xc,yc)で表される。また、作用点は作用線上にある。従って、図5に示されたように、作用点は、楕円T1,T2それぞれと作用線L1との交点P11,P12、及び、P13,P14で得られる。
The point of action is the point where the brush or the like comes into contact with the surface of the dentition of the
具体的には、プロセッサ11は候補点算出処理111において、図6に示されたように、式(1)と式(3)とを連立させた計算C1、及び、式(2)と式(3)とを連立させた計算C2によって、式(5)及び式(6)で表される解C3を得る。解C3は座標(xc,yc)で得られる。なお、式(5)及び式(6)中の定数C,Dは、それぞれ、図6の式(7),(8)で示されるものである。式(5),(6)より、解C3は座標(xc,yc)で表される4つの解である。つまり、候補点として交点P11,P12、及び、P13,P14が得られる。
Specifically, in the candidate
次に、図7~図9を用いて、プロセッサ11の実行する作用点決定処理114について説明する。図7は、作用点Aにおける力Fの角度関係を表している。すなわち、図7を参照して、力Fの水平に対する角度θ1は、x成分Fx及びy成分Fyを用いて式(9)で表される。また、楕円T1,T2の作用点Aにおける接線の水平に対する角度θ2は、楕円T1,T2の式(1),(2)を用いて式(10)で表される。作用点Aにおける接線TNに対する力Fの角度φは、θ1とθ2との差である式(11)で表される。また、力Fの作用点Aにおける接線TN方向の成分(接線力)Fn、及び、法線方向の成分(法線力)Fvは、角度φを用いてそれぞれ式(13),(14)で表される。
Next, the action
作用点決定処理114の絞り込み処理115では、候補点である交点P11~P14それぞれでの法線力Fvを算出し、法線力Fvが予め記憶している絞り込み条件に合致していない点を候補点から除く。絞り込み条件は、法線力の向きであって、候補点の位置ごとに予め設定されている。図8の例では、交点P11~P14それぞれについて、候補点での法線力の向きの許容範囲R1~R4が設定されている。絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除く。
In the narrowing down
法線力の向きの許容範囲は、口腔ケアモデル30にブラシ等により接触可能な向きに基づいて規定されるものである。すなわち、口腔ケアモデル30にブラシが外側から接触可能な向きに基づき、法線力が歯茎の内に向く方向となる範囲に設定されている。許容範囲は、予め設定されていてもよいし、楕円T1,T2の上の点の座標値から算出されてもよい。
The allowable range of the direction of the normal force is determined based on the direction in which the
絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除かれる。言い換えると、絞り込み処理115では、算出された複数の候補点のうち、法線力Fvの向きが歯茎から離れる向きである点が候補点から除かれる。図8の例では、交点P11~P14のうち、交点P12及び交点P13が候補点から除かれる。
In the narrowing down
なお、絞り込み処理115では、より簡易には、力Fのx成分Fx及びy成分Fyのうちの少なくとも一方を用いて、許容範囲にない点を候補点から除いてもよい。これにより、すべての候補点について法線力Fvを算出するよりも簡易に候補点の絞り込みができる。すなわち、絞り込み処理115では、力Fの向きから得られる成分が、各候補点に対応した許容範囲にない点を除く処理と言える。
In the narrowing down
次に、作用点決定処理114では、速度算出処理116を実行して候補点それぞれについての位置の変化速度を算出する。図9を用いて、位置の変化速度について説明する。口腔ケアモデル30にブラシを接触させてブラッシング動作を行う場合、ブラシが接触する位置、つまり、与えられる力Fの作用点は連続的に変化する。これに伴い、作用線の傾きが変化する。特に、口腔ケアモデル30の接触可能な面である歯茎は曲面であるため、作用点の変化に伴う作用線の傾きの時間変化が大きい。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。
Next, in the action
これに関して、図9では、同一の点とみなされる程度に歯茎表面の点Q1でわずかにブラッシング動作を行った場合を表している。点Q1に与えられる力は、力f1,f2と変化する。力f1,f2それぞれの作用線AL1,M2は、歯茎の他の位置で交点Q2,Q3を持つ。交点Q2,Q3は同一の候補点であって、センサ20でのセンシングのタイミングが異なる2つのセンシング結果それぞれで得られる候補点のうちの位置の近いものとして検出される。
In this regard, Figure 9 shows a case where a slight brushing action is performed at point Q1 on the gum surface to the extent that it is considered to be the same point. The force applied to point Q1 changes to forces f1 and f2. The action lines AL1 and M2 of forces f1 and f2, respectively, have intersection points Q2 and Q3 at other positions on the gums. Intersection points Q2 and Q3 are the same candidate point, and are detected as being close to each other among the candidate points obtained from two sensing results with different sensing timings by
点Q1は楕円上の点であって曲面を移動することから、作用線AL1,M2の方向の変化が大きい。その結果、交点Q2,Q3の間隔は、交点Q1の移動間隔よりも大きい。そのため、交点Q2,Q3に相当する候補点の位置の変化速度の方が、交点Q1に相当する候補点の位置の変化速度よりも大きい。 Since point Q1 is a point on an ellipse and moves on a curved surface, the direction of the action lines AL1 and M2 changes significantly. As a result, the distance between intersections Q2 and Q3 is greater than the distance that intersection Q1 moves. Therefore, the rate of change in the position of the candidate points corresponding to intersections Q2 and Q3 is greater than the rate of change in the position of the candidate point corresponding to intersection Q1.
この性質を利用して、算出された候補点のうち、センシングのタイミングが異なるセンシング結果から得られたそれぞれに対応した位置への変化速度の最も遅い候補点を作用点とすることができる。 By utilizing this property, the candidate point with the slowest rate of change to the corresponding position obtained from the sensing results with different sensing timing can be selected as the action point.
候補点における位置の変化速度viは、候補点(xc,yc)と、△t秒後の候補点の座標を(xciold,yciold)とを用いて、図9の式(15)で表される。速度算出処理116では、算出された各候補点、又は、算出され、絞り込み処理115によって絞り込まれた後の候補点ごとに変化速度viを算出する。そして、これらを比較して最も変化速度viの小さいものを作用点に決定する。
The velocity of change vi of the position at the candidate point is expressed by equation (15) in FIG. 9 using the candidate point (xc, yc) and the coordinates of the candidate point after Δt seconds (xciold, yciold). In the
図10の例の場合、絞り込み処理115によって絞り込まれた候補点である交点P11及びP14それぞれの変化速度v1、v2を算出する。その結果、図10に示されたようにv1<v2であるため、交点P11が作用点と決定される。
In the example of FIG. 10, the change velocities v1 and v2 of the intersections P11 and P14, which are the candidate points narrowed down by the narrowing down
なお、作用点の決定に、変化速度viに相当する他の指標値を用いてもよい。他の指標値は、例えば、点の間隔である。点の間隔を用いる場合、間隔が最も小さい候補点を作用点とする。 Note that other index values equivalent to the rate of change vi may be used to determine the point of action. The other index value may be, for example, the distance between points. When the distance between points is used, the candidate point with the smallest distance is set as the point of action.
図11は、演算装置10のプロセッサ11での処理の流れの一例を表したフローチャートである。図11の処理は、例えば、口腔ケアのトレーニングの開始と共に開始される。その際、一例として、オペレータは演算装置10の入力装置60を用いて処理の開始を指示するとともに、トレーニングに用いる口腔ケアモデル30のサイズなどを指示する。
Figure 11 is a flowchart showing an example of the processing flow in the
プロセッサ11は、入力装置60からの指示信号に従ってプログラム121を読み出して実行する。それによって処理が開始する。初めに、プロセッサ11は、入力装置60からの指示信号によって指定された口腔ケアモデル30の対応したモデル形状データM1をメモリ12から読み出す(ステップS101)。
The
好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の位置ずれに応じて補正する(ステップS103)。ステップS103でプロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30のガイド211~213からの位置ずれを検出する。位置ずれは、他の方法で検出されてもよい。ステップS103では、モデル形状データM1の座標を検出された位置ずれに応じて変換するとともに、以降のセンシング結果SGに適用する座標系も変換する。これにより、口腔ケアモデル30にセンサ20を装着する際に位置ずれが生じてもセンシング精度の低下を抑えることができる。
Preferably, the
好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の変形に応じて補正する(ステップS105、S107)。プロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30の変形を検出する。変形は、例えば、上顎の下顎に対する角度の変化である。変形が検出された場合(ステップS105でYES)、プロセッサ11は、その変形に応じてモデル形状データM1の座標を変換するとともに、以降のセンシング結果SGに適用する座標系も変換する(ステップS107)。これにより、口腔ケアモデル30に変形が生じてもセンシング精度の低下を抑えることができる。
Preferably, the
プロセッサ11は、センサ20からの、あるタイミングtにおけるセンシング結果SGを読み込む(ステップS109)。そして、プロセッサ11は、モデル形状データM1に含まれる歯茎形状を楕円T1,T2と、センシング結果SGに含まれる力Fのx成分Fx、y成分Fy、及びモーメントMから得られる力Fの作用線L1との交点P11~P14を算出し(ステップS111)、作用点の候補点とする。
The
プロセッサ11は、ステップS111で得られた候補点それぞれに対して、その点における力Fの向きから得られる成分が、その候補点に対応した方向の許容範囲であるか否かに応じて、候補点を絞り込む(ステップS113)。すなわち、ステップS113でプロセッサは、絞り込みの条件である許容範囲にない点を候補点から除き、候補点の数を減じる。これにより、以降の処理の量を減ずることができる。ステップS113で絞り込まれた候補点は、メモリ12に記憶される(ステップS115)。
For each candidate point obtained in step S111, the
メモリ12に、タイミングtより以前のタイミングのセンシング結果から得られた候補点が記憶されていない場合であって(ステップS117でNO)、次のタイミング(t+△t)のセンシング結果を読み込むことができる場合(ステップS127でYES)、プロセッサ11は、ステップS105からの処理を繰り返す。これにより、次のタイミング(t+△t)のセンシング結果から候補点が算出され、メモリ12に記憶される。
If the
この場合、前回のタイミングtでの候補点がメモリ12に記憶されているので(ステップS117でYES)、プロセッサ11は、これら2つのタイミングt,(t+△t)で得られた対応する候補点について位置の変化速度viを算出し(ステップS119)、変化速度viが最も小さい点を作用点と決定する(ステップS121)。
In this case, since the candidate points at the previous timing t are stored in the memory 12 (YES in step S117), the
以上の処理によって作用点が決定されると、プロセッサ11はディスプレイ50で表示させるための表示データを生成し(ステップS123)、ディスプレイ50に渡して表示を指示する(ステップS125)。ステップS123では、以上の処理で決定された作用点と、力Fの大きさと、を関連付けたデータを表示させる表示データを生成する。
When the point of action is determined by the above process, the
プロセッサ11は、以上の処理を繰り返す。それにより、処理が終了するまで、ステップS125の表示が更新され続ける。すなわち、口腔ケアモデル30を用いたブラッシング動作に応じて、リアルタイムにディスプレイ50に作用点、つまり、ブラシが接触した箇所と歯茎に与えられた力Fとが表示されることになる。
The
以上の処理は、一例として、センサ20からセンシング結果が入力されている間、つまり、ブラッシング動作が行われている間(ステップS127でYES)、継続される。言い換えると、センサ20からセンシング結果が入力されないと(ステップS127でNO)、プロセッサ11は処理を終了する。他の例として、プロセッサ11は、入力装置60からの指示入力に従って処理を終了してもよい。
As an example, the above process continues while the sensing result is being input from the
上記のように、モデル形状データM1は三次元形状を表す三次元座標系の形状データであってもよい。その場合、式(1)~式(15)を、z軸方向の成分を有する三次元の式とすればよい。これにより、モデル形状データM1を実際の口腔ケアモデル30に近づけることができ、作用点、つまり、ブラシを接触させる位置や力Fの方向がより分かりやすくなる。
As described above, the model shape data M1 may be shape data in a three-dimensional coordinate system that represents a three-dimensional shape. In that case, equations (1) to (15) can be three-dimensional equations that have a component in the z-axis direction. This allows the model shape data M1 to be closer to the actual
ディスプレイ50には、一例として図12に表された画面51が表示される。画面51は、モデル形状データM1が三次元座標系の形状データである場合の画面である。詳しくは、図12を参照して、画面51は、作用点と力Fの大きさとを関連付けたデータを表示する領域52を含む。
The
作用点と力Fの大きさとを関連付けたデータは、例えば、作用点の属する単位範囲ごとの、その範囲に含まれる作用点それぞれに与えられた力Fの大きさの統計値、及び、領域ごとの接触されていた合計時間、などである。単位範囲は、モデル形状データM1に対して設定された、表示のための単位となる範囲であって、図12の例では、歯茎形状を下顎、上顎それぞれの左右前後に区分した8つの範囲が設定されている。単位範囲ごとに表示されることで、単位範囲ごとの与えられた力Fの大きさや接触時間の傾向を知ることができる。 Data relating the points of action to the magnitude of the force F may be, for example, statistics on the magnitude of the force F applied to each point of action included in the unit range to which the points of action belong, and the total time of contact for each area. The unit range is a range that is set for the model shape data M1 and serves as a unit for display. In the example of FIG. 12, eight ranges are set that divide the gum shape into left and right, front and back for both the lower and upper jaws. By displaying each unit range, it is possible to know the trends in the magnitude of the applied force F and the contact time for each unit range.
与えられた力Fの大きさの統計値は、一例として、規定時間における力Fの大きさの平均値である。また、接触されていた合計時間は、一例として、その範囲に属する作用点を示すセンシング結果が得られたセンシングのタイミングの合計時間である。 The statistical value of the magnitude of the applied force F is, for example, the average value of the magnitude of the force F over a specified time. In addition, the total contact time is, for example, the total time of sensing at which a sensing result indicating a point of action that belongs to that range was obtained.
図12の例では、領域252に、単位範囲ごとにその範囲に含まれる作用点に与えられた力Fの大きさの平均値と、その範囲に接触した時間の合計時間との表示521が含まれている。好ましくは、単位範囲ごとに与える力Fの統計値、及び/又は、接触時間の合計時間の閾値を設定しておき、領域52に閾値との比較結果を併せて表示する。図12の例では、単位範囲ごとに比較結果を表す画像522が表示されて、画像522の色によって比較結果が示されている。
In the example of FIG. 12, area 252 includes a
好ましくは、画面51は、口腔ケアモデル30に対するブラッシング動作を視覚的に表示する領域53を含む。領域53は、口腔ケアモデル30の視覚的な表示531と、力Fに関する表示532と、を含む。表示532は、一例として、口腔ケアモデル30の歯茎上の点から伸びる線分であって、歯茎上の点が力Fの作用点、線分の長さ又は太さが力Fの大きさ、及び、線分の方向が力Fの方向を表すように表示531に対して配置される。
Preferably, the
領域52の表示521により、領域ごとにブラッシングの強度と時間とを知ることができる。口腔ケアなどの連続的な接触を伴う技能は、一般的に、位置や角度や強度や時間などが明確になりにくい。そのため、その適否を判定したりトレーニングなどで人に伝えたりすることが困難である。その点、本センサシステム100を用いると、口腔ケアモデル30に対する接触の位置が与えられた力Fの作用点として特定され、ディスプレイ50に表示されるなど出力される。併せて、力Fの大きさや方向や接触時間なども画面51から知ることができる。
The
例えば、トレーナーによる模範動作である場合、領域ごとのブラッシングの強度と時間との模範を表示によって数値や画像で把握できる。これにより、模範動作を見てまねるよりも正確に動作を理解することができる。また、トレーニーのトレーニング動作である場合、トレーナーがトレーニーによる領域ごとのブラッシングの強度と時間とを把握することができる。そのため、適切な指導がしやすくなる。 For example, when a trainer is modeling brushing movements, the strength and time of brushing for each area can be displayed numerically and as an image. This allows a more accurate understanding of the movements than simply watching the model and imitating it. Also, when a trainee is training with a brush, the trainer can understand the strength and time of brushing for each area by the trainee. This makes it easier to provide appropriate guidance.
さらに画像522の表示により、領域ごとに適したブラッシング動作であるか否かを一目で把握することができる。また、領域53の表示532により、口腔ケアモデル30に対して行われているブラッシング動作をディスプレイ50上で見ることができるとともに、トレーニングの状況を表す領域52の表示内容と同一の画面で表示されることで見比べることもできる。これにより、指導者がいない状態でも動作を確認することができる。
Furthermore, the display of
例えば、歯磨き指導などにおいてセンサシステム100を用いることで、実践者のブラッシング動作が適切であるかどうかの判定結果を提示できる。そのため、技術者のみならず学校などで広くセンサシステム100を用いてブラッシング動作のトレーニングや判定を行うことができる。
For example, by using the
画面51は、図11のフローチャートに表された処理が繰り返されるたびに、つまり、ブラッシング動作中にセンサ20によるセンシングが繰り返されるたびに更新される。センシング間隔を短く設定することで、領域53ではブラッシング動作がリアルタイムに表示されるとともに、領域52の表示の更新によって一連のブラッシング動作の結果を累積的に知ることができる。
<3.付記>
開示された演算装置10の処理は、上の説明ではプロセッサ11がコンピュータプログラム121を実行することによって実現されるものとしているが、少なくとも一部が回路素子その他のハードウェアによって実現されてもよい。
<3. Notes>
In the above description, the processing of the disclosed
演算装置10での処理を実現するプログラム121は、コンピュータ読取り可能である非一時的な記録媒体に記録されたプログラム製品として提供されてもよい。又は、プログラム121は、ネットワークを介したダウンロードによって提供されてもよい。
The
演算装置10での処理を実現するプログラム121は、演算装置10での処理のためのプログラムコードを有する。プログラム121は、プログラム121が格納されたメモリ12に接続されたプロセッサ11によって読み取られ、実行される。
The
演算装置10での処理を実現するプログラム121は、アプリケーションプログラムとして提供されてもよいし、その一部または全部が、コンピュータのオペレーティングシステム(OS)に含まれていてもよい。
The
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。 The present invention is not limited to the above embodiment, and various modifications are possible.
10 :演算装置
11 :プロセッサ
12 :メモリ
13 :センサI/F
14 :カメラI/F
20 :センサ
21 :受力体
21A :上面
22 :支持体
23 :変形体
30 :口腔ケアモデル
40 :通信線
50 :ディスプレイ
51 :画面
52 :領域
53 :領域
60 :入力装置
70 :カメラ
100 :センサシステム
111 :候補点算出処理
112 :補正処理
113 :変形処理
114 :作用点決定処理
115 :絞り込み処理
116 :速度算出処理
117 :表示処理
121 :コンピュータプログラム
122 :形状データ記憶部
211 :ガイド
212 :ガイド
213 :ガイド
252 :領域
521 :表示
522 :画像
531 :表示
532 :表示
A :作用点
AL1 :作用線
C :定数
C1 :計算
C2 :計算
C3 :解
D :定数
F :力
Fv :法線力
Fx :x成分
Fy :y成分
IM :画像データ
L1 :作用線
M :モーメント
M1 :モデル形状データ
M2 :モデル形状データ
O :原点
P11 :交点
P12 :交点
P13 :交点
P14 :交点
Q1 :交点
Q2 :交点
Q3 :交点
R1 :許容範囲
R2 :許容範囲
R3 :許容範囲
R4 :許容範囲
SG :センシング結果
T1 :楕円
T2 :楕円
TN :接線
ai :長軸
bi :短軸
ei :離心距離
f1 :力
f2 :力
t :タイミング
v1 :変化速度
v2 :変化速度
vi :変化速度
xth :閾値
θ1 :角度
θ2 :角度
φ :角度
10: arithmetic unit 11: processor 12: memory 13: sensor I/F
14: Camera I/F
20: sensor 21:
Claims (16)
前記力のセンシング結果の入力を受け付け可能な入力部と、
前記処理を実行するプロセッサと、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記第1のセンサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
演算装置。 A computing device that performs processing using a force sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact, comprising:
an input unit capable of receiving an input of the force sensing result;
A processor for executing the process,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the first sensor at different timings, and determining the point of application based on the index value.
Calculation device.
請求項1に記載の演算装置。 The arithmetic device according to claim 1 , wherein determining the point of application includes determining, as the point of application, the candidate point having the slowest rate of change among the plurality of candidate points.
請求項1又は2に記載の演算装置。 The computing device according to claim 1 or 2 , wherein calculating the candidate point includes calculating an intersection between pre-stored shape data of the contacted body and the line of action.
請求項1~3のいずれか1項に記載の演算装置。 The computing device according to any one of claims 1 to 3, wherein determining the point of action includes using the force direction included in the force sensing result to eliminate from the candidate points points whose component obtained from the force direction is not within a range of allowable directions corresponding to each of the candidate points.
請求項4に記載の演算装置。 The computing device of claim 4 , wherein the range of allowable orientations is defined based on orientations in which the contact is possible for the candidate point.
前記候補点を算出することは、前記被接触体の形状データを前記形状のセンシング結果に基づいて変形させ、変形後の前記被接触体の形状データを用いることを含む
請求項1~5のいずれか一項に記載の演算装置。 the input unit is further capable of receiving an input of a sensing result of a shape of the contacted object by a second sensor;
The computing device according to claim 1 , wherein calculating the candidate points includes deforming shape data of the contacted body based on the shape sensing results, and using the deformed shape data of the contacted body.
請求項1~6のいずれか一項に記載の演算装置。 The computing device according to claim 1 , wherein the shape data of the contacted object is three-dimensional shape data.
請求項1~7のいずれか一項に記載の演算装置。 The computing device according to claim 1 , wherein the shape data of the contacted object is shape data of an oral care model.
請求項1~8のいずれか一項に記載の演算装置。 The computing device according to claim 1 , wherein the processing further includes outputting data correlating the determined point of action with the magnitude of the force included in the force sensing result.
前記力のセンシング結果の入力を受け付け可能な入力部と、
前記処理を実行するプロセッサと、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記処理は、前記被接触体の単位範囲ごとに、単位時間あたりの前記単位範囲に含まれる前記作用点に与えられた前記力の大きさの合計値、及び、前記単位範囲に含まれる前記作用点に前記力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む
演算装置。 A computing device that performs processing using a force sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact, comprising:
an input unit capable of receiving an input of the force sensing result;
A processor for executing the process,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points;
The processing includes outputting, for each unit range of the contacted object, data indicating at least one of a total value of the magnitude of the force applied to the application point included in the unit range per unit time and a total value of the time during which the force is applied to the application point included in the unit range.
Calculation device.
請求項9又は10に記載の演算装置。 The arithmetic device according to claim 9 or 10 , wherein outputting the data includes displaying the data on a display.
請求項11に記載の演算装置。 The computing device according to claim 11 , wherein causing the display to display includes causing an image representing the contacted object to be displayed together with the data.
請求項1~12のいずれか一項に記載の演算装置。 The computing device according to claim 1 , wherein the first sensor is a force sensor.
前記センサと通信することでセンシング結果を取得し、前記力のセンシング結果を用いた処理を行う演算装置と、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記センサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
センサシステム。 a sensor that can be attached to a contacted body and can detect a line of action of a force applied to the contacted body by contact;
a computing device that acquires a sensing result by communicating with the sensor and performs processing using the force sensing result;
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the sensor at different sensing timings, and determining the point of application based on the index value.
Sensor system.
請求項14に記載のセンサシステム。 The sensor system according to claim 14 , wherein the sensor has a positioning mechanism for attaching the sensor to the contacted object in a positional relationship according to a coordinate system of the shape data.
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記第1のセンサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
コンピュータプログラム。 A computer program that causes a computer to function as an arithmetic device that performs processing using a sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the first sensor at different timings, and determining the point of application based on the index value.
Computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078654A JP7492245B2 (en) | 2020-04-27 | 2020-04-27 | Calculation device, sensor system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078654A JP7492245B2 (en) | 2020-04-27 | 2020-04-27 | Calculation device, sensor system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021173903A JP2021173903A (en) | 2021-11-01 |
JP7492245B2 true JP7492245B2 (en) | 2024-05-29 |
Family
ID=78281697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020078654A Active JP7492245B2 (en) | 2020-04-27 | 2020-04-27 | Calculation device, sensor system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7492245B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005189297A (en) | 2003-12-24 | 2005-07-14 | Nagoya Kogyo Univ | Feather touch dentistry treatment training system entailing visualization of tactile force |
JP2011156204A (en) | 2010-02-02 | 2011-08-18 | Omron Healthcare Co Ltd | Oral care device |
JP2018205141A (en) | 2017-06-05 | 2018-12-27 | 株式会社レプトリノ | Force sensor |
-
2020
- 2020-04-27 JP JP2020078654A patent/JP7492245B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005189297A (en) | 2003-12-24 | 2005-07-14 | Nagoya Kogyo Univ | Feather touch dentistry treatment training system entailing visualization of tactile force |
JP2011156204A (en) | 2010-02-02 | 2011-08-18 | Omron Healthcare Co Ltd | Oral care device |
JP2018205141A (en) | 2017-06-05 | 2018-12-27 | 株式会社レプトリノ | Force sensor |
Non-Patent Citations (1)
Title |
---|
浅田稔,小俣透,力覚情報認識,新版 ロボット工学ハンドブック,第2版,日本,社団法人日本ロボット学会,2005年06月23日,p.545-549 |
Also Published As
Publication number | Publication date |
---|---|
JP2021173903A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8376753B2 (en) | Method and device for learning and training dental treatment techniques | |
US10353482B2 (en) | Systems and methods for tracking motion and gesture of heads and eyes | |
JP6300195B2 (en) | Golf swing analysis apparatus and golf swing analysis method | |
JP4465476B2 (en) | Motion capture measurement method for fingers using magnetic position and orientation sensor | |
US10646317B2 (en) | Occlusal state identifying method, occlusal state identifying apparatus, and storage medium | |
JP7278493B2 (en) | tactile sensor | |
CN110262664A (en) | A kind of intelligent interaction gloves with cognitive ability | |
JPWO2021124445A1 (en) | Information processing device, work recognition device and work removal device | |
JPH02144675A (en) | Hand operation recognizing device and hand language converter | |
CN113228070A (en) | Method and system for automatic repeat step and loop detection for manual assembly line operations | |
EP4138006A1 (en) | Content creation system | |
KR101636171B1 (en) | Skeleton tracking method and keleton tracking system using the method | |
JP7492245B2 (en) | Calculation device, sensor system, and computer program | |
CN112450861B (en) | Tooth area identification system | |
KR20130067856A (en) | Apparatus and method for performing virtual musical instrument on the basis of finger-motion | |
US20190355281A1 (en) | Learning support system and recording medium | |
KR20210091415A (en) | Method and apparatus for analyzing golf swing | |
CN115122333A (en) | Robot calibration method and device, electronic equipment and storage medium | |
JP7165108B2 (en) | Work training system and work training support method | |
US11141094B2 (en) | Method and system for assessing a balance and posture of a subject | |
Shenoy et al. | Design and validation of an IMU based full hand kinematic measurement system | |
KR20220049271A (en) | Rehabilitaiton Guide System using Artificial Intelligence | |
Chen et al. | Visual modelling and evaluation of surgical skill | |
JP7467293B2 (en) | Simulation system and simulation method | |
JP2011118767A (en) | Facial expression monitoring method and facial expression monitoring apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200429 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240229 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492245 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |