[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7492245B2 - Calculation device, sensor system, and computer program - Google Patents

Calculation device, sensor system, and computer program Download PDF

Info

Publication number
JP7492245B2
JP7492245B2 JP2020078654A JP2020078654A JP7492245B2 JP 7492245 B2 JP7492245 B2 JP 7492245B2 JP 2020078654 A JP2020078654 A JP 2020078654A JP 2020078654 A JP2020078654 A JP 2020078654A JP 7492245 B2 JP7492245 B2 JP 7492245B2
Authority
JP
Japan
Prior art keywords
point
force
action
sensor
candidate points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020078654A
Other languages
Japanese (ja)
Other versions
JP2021173903A (en
Inventor
慎一 平井
孝博 松野
篤史 三谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2020078654A priority Critical patent/JP7492245B2/en
Publication of JP2021173903A publication Critical patent/JP2021173903A/en
Application granted granted Critical
Publication of JP7492245B2 publication Critical patent/JP7492245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)

Description

特許法第30条第2項適用 公開の事実1-1:2019年5月30日に第7回看護理工学会学術集会抄録のウェブサイト(https://nse2019.8href.com/)に掲載 公開の事実1-2:2019年6月6日の「第7回看護理工学会学術集会」にて発表 公開の事実2-1:2020年3月31日の看護理工学会誌、2020年、7巻、p.59-67(DOI:https://doi.org/10.24462/jnse.7.0_59)に掲載Application of Article 30, Paragraph 2 of the Patent Act. Disclosure fact 1-1: Published on the website of the abstracts of the 7th Nursing Science and Technology Society Academic Conference (https://nse2019.8href.com/) on May 30, 2019. Disclosure fact 1-2: Presented at the "7th Nursing Science and Technology Society Academic Conference" on June 6, 2019. Disclosure fact 2-1: Published in the Journal of Nursing Science and Technology Society, Vol. 7, 2020, pp. 59-67 (DOI: https://doi.org/10.24462/jnse.7.0_59) on March 31, 2020.

本開示は、演算装置、センサシステム、及び、コンピュータプログラムに関する。 This disclosure relates to a computing device, a sensor system, and a computer program.

口腔ケアにおいて磨く位置は重要であるにも関わらず、そのトレーニングにおいて、トレーナーがトレーニーに対して適切な位置を伝えることは難しい。すなわち、連続的な接触を伴う技能の教育において、被接触体に接触する位置を正確に表現することが難しい。一般的には、トレーニーはトレーナーの模範動作を見て磨く位置などの接触する位置を確認している。 Although the brushing position is important in oral care, it is difficult for trainers to convey the appropriate brushing position to trainees during training. In other words, when teaching skills that involve continuous contact, it is difficult to accurately convey the contact position for the object being brushed. Trainees generally check the brushing position and other contact positions by watching the trainer's model actions.

口腔ケア用トレーニングについて、特開2018-173504号公報(以下、特許文献1)は、歯列を構成する個々の歯に圧力センサを取り付けた口腔再現モデルを提案している。 Regarding oral care training, JP 2018-173504 A (hereinafter referred to as Patent Document 1) proposes an oral cavity reproduction model in which pressure sensors are attached to each tooth that makes up the dentition.

特開2018-173504号公報JP 2018-173504 A

特許文献1のように圧力センサなどの接触を検出するセンサを用いる場合、接触した位置を正確に検出するためには、接触する位置又はその近傍にセンサを設置する必要がある。また、位置の検出精度を上げるには数多く設けることが望まれる。 When using a sensor that detects contact, such as a pressure sensor, as in Patent Document 1, it is necessary to install the sensor at or near the contact position in order to accurately detect the contact position. Also, it is desirable to install many sensors to improve the accuracy of position detection.

しかしながら、特許文献1のように個々の歯に圧力センサを取り付けると、圧力センサに接続された通信線が多くなり、配線や取り扱いが煩雑になる。また、サイズによっては圧力センサを取り付けることが難しい場合もある。また、薬剤を塗布したり水洗したりするような使い方が制約される場合もある。 However, if pressure sensors are attached to each tooth as in Patent Document 1, the number of communication lines connected to the pressure sensors increases, making wiring and handling cumbersome. Also, depending on the size, it may be difficult to attach a pressure sensor. Also, there may be restrictions on how the sensor can be used, such as applying medicine or rinsing with water.

本開示は、使い勝手を損なうことなく被接触体に接触した正確な位置を検出可能な演算装置、センサシステム、及び、コンピュータプログラムを提供するものである。 This disclosure provides a computing device, a sensor system, and a computer program that can detect the exact position of contact with a contacted object without compromising ease of use.

ある実施の形態に従うと、演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to one embodiment, the computing device performs processing using force sensing results from a first sensor capable of detecting the line of action of a force applied to a contacted body by contact, and includes an input unit capable of receiving input of the force sensing results, and a processor that executes the processing, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.

他の実施の形態に従うと、センサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the sensor system includes a sensor that can be attached to a contacted body and can detect the line of action of a force applied to the contacted body by contact, and a computing device that acquires sensing results by communicating with the sensor and performs processing using the sensing results, the processing including calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.

他の実施の形態に従うと、コンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果に含まれる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the computer program causes the computer to function as an arithmetic device that performs processing using the sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force included in the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.

更なる詳細は、後述の実施形態として説明される。 Further details are described in the embodiments below.

図1は、実施の形態に係るセンサシステムの構成の概略図である。FIG. 1 is a schematic diagram of a configuration of a sensor system according to an embodiment. 図2は、センサシステムに含まれるセンサの、受力体の上面図であって、口腔ケアモデルに取り付けるための位置決め機構を説明するための図である。FIG. 2 is a top view of a force receiving body of a sensor included in the sensor system, and is a diagram for explaining a positioning mechanism for attaching the sensor to an oral care model. 図3は、センサシステムに含まれる演算装置の構成を表すブロック図である。FIG. 3 is a block diagram showing the configuration of a computing device included in the sensor system. 図4は、演算装置での演算を説明するための図であって、口腔ケアモデルの歯茎形状の表し方を説明するための図である。FIG. 4 is a diagram for explaining the calculation in the calculation device, and is a diagram for explaining how to represent the gum shape of the oral cavity care model. 図5は、演算装置での演算を説明するための図であって、候補点を説明するための図である。FIG. 5 is a diagram for explaining the calculation in the calculation device, and is a diagram for explaining candidate points. 図6は、演算装置での演算を説明するための図であって、候補点の座標の算出に用いる数式を表した図である。FIG. 6 is a diagram for explaining the calculations in the calculation device, showing the mathematical expressions used to calculate the coordinates of the candidate points. 図7は、演算装置での演算を説明するための図であって、作用点に与えられる力の角度関係を表した図である。FIG. 7 is a diagram for explaining the calculations in the calculation device, and shows the angular relationship of the force applied to the point of action. 図8は、演算装置での演算を説明するための図であって、候補点を絞り込むために用いられる条件を説明するための図である。FIG. 8 is a diagram for explaining the calculations in the calculation device, and is a diagram for explaining the conditions used to narrow down the candidate points. 図9は、演算装置での演算を説明するための図であって、候補点の位置の移動速度を説明するための図である。FIG. 9 is a diagram for explaining the calculation in the calculation device, and is a diagram for explaining the moving speed of the position of the candidate point. 図10は、演算装置での演算を説明するための図であって、位置の移動速度に基づく作用点の決定を説明するための図である。FIG. 10 is a diagram for explaining the calculation in the calculation device, and is a diagram for explaining the determination of the point of action based on the moving speed of the position. 図11は、演算装置での処理の流れを表したフローチャートである。FIG. 11 is a flowchart showing the flow of processing in the arithmetic unit. 図12は、センサシステムでの表示画面の一例を表した図である。FIG. 12 is a diagram showing an example of a display screen of the sensor system.

<1.演算装置、センサシステム、及び、コンピュータプログラムの概要> <1. Overview of the computing device, sensor system, and computer program>

(1)実施の形態に係る演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 (1) A computing device according to an embodiment of the present invention is a computing device that performs processing using force sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and includes an input unit that can accept input of the force sensing results, and a processor that executes processing. The processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points.

被接触体は、接触する対象となる物体であって、例えば、口腔ケアモデルである。この場合、接触は、例えば、ブラシなどによる口腔ケアモデルに対するブラッシングである。第1のセンサは、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサであって、例えば力覚センサである。演算装置は、例えばコンピュータであって、入力部は、例えば、第1のセンサを接続し、センシング結果の入力を受け付けるインタフェースである。被接触体の形状データは、例えば、被接触体の形状を座標で表す式である。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 The contacted body is an object to be contacted, for example, an oral care model. In this case, contact is, for example, brushing the oral care model with a brush. The first sensor is a sensor capable of detecting the magnitude and direction of coordinate system components of the force applied to the attached contacted body, and the moment acting at the origin, for example, a force sensor. The arithmetic device is, for example, a computer, and the input unit is, for example, an interface to which the first sensor is connected and which accepts input of the sensing results. The shape data of the contacted body is, for example, an equation that expresses the shape of the contacted body in coordinates. The point of action at which the force is applied to the contacted body by contact is determined, thereby obtaining the exact position at which the contacted body is contacted.

(2)好ましくは、作用点を決定することは、第1のセンサでのセンシングのタイミングが異なる複数の力のセンシング結果から候補点それぞれについて位置の変化速度に相当する指標値を求め、指標値に基づいて作用点を決定することを含む。被接触体に対して連続的な接触を行っている場合、被接触体の表面の形状に応じて作用線の傾きが変化し、それによって候補点ごとに位置の変化速度が異なる。そのため、位置の変化速度を利用することで、候補点の中から作用点を決定することができる。 (2) Preferably, determining the point of action includes obtaining an index value corresponding to the rate of change of position for each candidate point from the results of sensing a plurality of forces sensed by the first sensor at different timings, and determining the point of action based on the index value. When continuous contact is made with the contacted body, the slope of the line of action changes according to the shape of the surface of the contacted body, and as a result, the rate of change of position differs for each candidate point. Therefore, by utilizing the rate of change of position, the point of action can be determined from among the candidate points.

(3)好ましくは、作用点を決定することは、複数の候補点のうち、変化速度の最も遅い候補点を作用点と決定することを含む。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。そのため、変化速度の最も遅い候補点を作用点と決定することができる。 (3) Preferably, determining the point of action includes determining, from among a plurality of candidate points, the candidate point with the slowest rate of change as the point of action. As the point of action changes, the line of action changes such that the range of the line of action expands as it moves away from the point of action, i.e., the position of contact, as the point of action changes. Therefore, the candidate point with the slowest rate of change can be determined as the point of action.

(4)好ましくは、候補点を算出することは、予め記憶している被接触体の形状データと作用線との交点を算出することを含む。これにより得られた複数の交点を候補点として得ることができる。 (4) Preferably, calculating the candidate points includes calculating the intersections between the pre-stored shape data of the contacted body and the line of action. The multiple intersections obtained in this way can be used as candidate points.

(5)好ましくは、作用点を決定することは、力のセンシング結果に含まれる力の向きを用いて、候補点のうち、力の向きから得られる成分が、各候補点に対応した許容される向きの範囲にない点を除くことを含む。これにより、候補点の数を減じることができ、計算量を減じることができる。 (5) Preferably, determining the point of action includes using the force direction included in the force sensing result to eliminate, from among the candidate points, points whose components obtained from the force direction are not within the range of allowable directions corresponding to each candidate point. This makes it possible to reduce the number of candidate points and the amount of calculations.

(6)好ましくは、許容される向きの範囲は、候補点に対する接触が可能な向きに基づいて規定される。接触によって与えられる力の作用点であるため、力の方向が接触が可能な方向のためである。 (6) Preferably, the range of allowable orientations is defined based on the orientations in which contact is possible for the candidate point, since the point of application of the force imparted by the contact is the direction of the force in which contact is possible.

(7)好ましくは、入力部は、さらに、第2のセンサによる、被接触体の形状のセンシング結果の入力を受け付け可能であり、候補点を算出することは、被接触体の形状データを形状のセンシング結果に基づいて変形させ、変形後の形状データを用いることを含む。これにより、被接触体が変形した場合であっても作用点を得ることができる。 (7) Preferably, the input unit is further capable of accepting input of the sensing result of the shape of the contacted body by the second sensor, and calculating the candidate point includes deforming the shape data of the contacted body based on the shape sensing result and using the deformed shape data. This makes it possible to obtain the point of action even if the contacted body is deformed.

(8)好ましくは、被接触体の形状データは三次元形状データである。これにより、実際の被接触体の形状により近い形状データを用いることができ、精度よく作用点を得ることができる。 (8) Preferably, the shape data of the contacted body is three-dimensional shape data. This allows the use of shape data that is closer to the actual shape of the contacted body, making it possible to obtain the point of action with high accuracy.

(9)好ましくは、被接触体の形状データは口腔ケアモデルの形状データである。これにより、口腔ケアにおけるブラッシングの位置を検出することができる。 (9) Preferably, the shape data of the contacted object is shape data of an oral care model. This makes it possible to detect the brushing position during oral care.

(10)好ましくは、処理は、決定された作用点と、力のセンシング結果に含まれる力の大きさと、を関連付けたデータを出力することをさらに含む。データの出力は、演算装置の外部への出力であって、例えば、後述のディスプレイでの表示、他の装置への送信、などである。これにより、検出結果を外部から知ることができる。 (10) Preferably, the processing further includes outputting data associating the determined point of action with the magnitude of the force included in the force sensing result. The output of the data is output to the outside of the computing device, for example, by displaying the data on a display described below, transmitting the data to another device, etc. This allows the detection result to be known from the outside.

(11)好ましくは、処理は、被接触体の単位範囲ごとに、単位時間あたりの単位範囲に含まれる作用点に与えられた力の大きさの合計値、及び、単位範囲に含まれる作用点に力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む。単位範囲は、被接触体の形状データを所定サイズに分割して設定された、出力のための単位となる範囲を指す。単位範囲ごとに出力されることで、単位範囲ごとの与えられた力の大きさや接触時間の傾向を知ることができる。 (11) Preferably, the processing includes outputting data indicating at least one of the total value of the magnitude of the force applied to the application point included in the unit range per unit time for each unit range of the contacted body, and the total value of the time during which the force was applied to the application point included in the unit range. The unit range refers to a range that is set by dividing the shape data of the contacted body into a predetermined size and serves as a unit for output. By outputting for each unit range, it is possible to know the trend of the magnitude of the applied force and the contact time for each unit range.

(12)好ましくは、データを出力することは、ディスプレイに表示させることを含む。これにより、ディスプレイの表示で把握することができる。 (12) Preferably, outputting the data includes displaying the data on a display. This allows the data to be understood from the display.

(13)好ましくは、ディスプレイに表示させることは、データとともに、被接触体を表す画像も表示させることを含む。これにより、ディスプレイの表示で作用点などを把握することができるとともに、用いた被接触体も把握できる。 (13) Preferably, displaying on the display includes displaying an image of the contacted object together with the data. This allows the point of action and the contacted object used to be identified from the display.

(14)好ましくは、第1のセンサは力覚センサである。これにより、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントが検出される。 (14) Preferably, the first sensor is a force sensor. This detects the magnitude and direction of coordinate system components of the force applied to the attached contact object, and the moment acting at the origin.

(15)実施の形態に係るセンサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 (15) A sensor system according to an embodiment includes a sensor that can be attached to a contacted body and can detect the line of action of a force applied to the contacted body by contact, and a computing device that acquires sensing results by communicating with the sensor and performs processing using the sensing results, the processing including calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points. By determining the point of action where the force is applied to the contacted body by contact, the exact position of contact with the contacted body can be obtained.

(16)好ましくは、センサは、形状データの座標系に応じた位置関係で被接触体に取り付けるための位置決め機構を有する。これにより、センサを、記憶されている形状データの座標系に応じた位置で被接触体に取り付けることができ、位置ずれによる精度の低下を防止できる。 (16) Preferably, the sensor has a positioning mechanism for attaching the sensor to the contacted body in a positional relationship according to the coordinate system of the shape data. This allows the sensor to be attached to the contacted body at a position according to the coordinate system of the stored shape data, preventing a decrease in accuracy due to misalignment.

(17)実施の形態に係るコンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。これにより、汎用のコンピュータを(1)~(14)の演算装置として機能させることができるとともに、(15),(16)のセンサシステムの構築に用いることができる。 (17) A computer program according to an embodiment is a computer program that causes a computer to function as a calculation device that performs processing using the sensing results from a first sensor that can detect the line of action of a force applied to a contacted body by contact, and the processing includes calculating candidate points for the point of action of the force on the contacted body using the line of action of the force obtained from the force sensing results and pre-stored shape data of the contacted body, and determining the point of action from among the candidate points. This allows a general-purpose computer to function as the calculation device of (1) to (14), and can be used to build the sensor systems of (15) and (16).

<2.演算装置、センサシステム、及び、コンピュータプログラムの例> 2. Examples of computing devices, sensor systems, and computer programs

本実施の形態に係るセンサシステム100は、被接触体に接触によって与えられた力を検出してその検出結果を処理するシステムの一例として、口腔ケアモデルへのブラシなどの接触によって与えられた力を検出するシステムである。 The sensor system 100 according to this embodiment is an example of a system that detects the force applied by contact with a contacted object and processes the detection results, and is a system that detects the force applied by contact of a brush or the like with an oral care model.

図1を参照して、センサシステム100は、演算装置10と、センサ20と、を含む。センサ20は、被接触体に取り付け可能である。被接触体は、外周からの接触によって力を与えられる物体を指し、この例では口腔ケアモデル30である。センサ20は口腔ケアモデル30に取り付けられ、口腔ケアモデル30に接触によって与えられた力の作用線を検出可能である。 Referring to FIG. 1, the sensor system 100 includes a computing device 10 and a sensor 20. The sensor 20 can be attached to a contacted object. The contacted object refers to an object to which a force is applied by contact from its periphery, and in this example, is an oral care model 30. The sensor 20 is attached to the oral care model 30 and can detect the line of action of the force applied to the oral care model 30 by contact.

センサ20は、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサである。好ましくは、センサ20は、z軸、y軸、及び、z軸の三次元でセンシング可能である。センサ20は、一例として力覚センサである。 Sensor 20 is a sensor capable of detecting the magnitude and direction of coordinate system components of a force applied to a contacted object to which it is attached, and the moment acting at the origin. Preferably, sensor 20 is capable of sensing in three dimensions along the z-axis, y-axis, and z-axis. One example of sensor 20 is a force sensor.

センサ20は、板状の受力体21を有し、受力体21を口腔ケアモデル30の底面に接するように口腔ケアモデル30に取り付けられる。言い換えると、口腔ケアモデル30は、センサ20の受力体21に載置される。 The sensor 20 has a plate-shaped force receiving body 21, and is attached to the oral care model 30 so that the force receiving body 21 is in contact with the bottom surface of the oral care model 30. In other words, the oral care model 30 is placed on the force receiving body 21 of the sensor 20.

口腔ケアモデル30は歯列を有して、口腔ケアの訓練、教育において、適切なブラッシングを学ぶために用いられる。トレーニーは、口腔ケアモデル30の歯列に対して、ブラシを接触させ、ブラッシングなどのトレーニングを行う。 The oral care model 30 has a dentition and is used in oral care training and education to learn proper brushing. The trainee touches a brush to the dentition of the oral care model 30 and performs training such as brushing.

センサ20は、受力体21を上面としたとき、下面には板状の支持体22が設けられ、受力体21と支持体22との間に変形体23が配置されている。センサ20は、変形体23の変形状態を電気的に検出することで、受力体21に載置された被接触体に与えられた力の大きさと、その位置及び方向と、つまり、口腔ケアモデル30に与えられた力の作用線を検出する。 When the force receiving body 21 is the upper surface of the sensor 20, a plate-shaped support body 22 is provided on the lower surface, and a deformable body 23 is disposed between the force receiving body 21 and the support body 22. The sensor 20 electrically detects the deformation state of the deformable body 23, thereby detecting the magnitude, position and direction of the force applied to the contact object placed on the force receiving body 21, i.e., the line of action of the force applied to the oral care model 30.

センサ20は、口腔ケアモデル30に取り付けるための位置決め機構を有する。位置決め機構は、一例として、図2に示されたようなガイド211~213である。詳しくは図2を参照して、口腔ケアモデル30を載置するセンサ20の受力体21の上面21Aには、口腔ケアモデル30の奥行方向を固定するガイド211,212と、横方向の中心を固定するためのガイド213と、が設けられている。ガイド211~213は、例えば、上面21Aにプリントされた線や窪み突起などである。 The sensor 20 has a positioning mechanism for attaching it to the oral care model 30. One example of the positioning mechanism is the guides 211-213 as shown in FIG. 2. Referring to FIG. 2 for more details, the upper surface 21A of the force receiving body 21 of the sensor 20 on which the oral care model 30 is placed is provided with guides 211, 212 for fixing the depth direction of the oral care model 30, and a guide 213 for fixing the center in the lateral direction. The guides 211-213 are, for example, lines or recessed protrusions printed on the upper surface 21A.

上面21Aにガイド211~213が設けられていることにより、センサ20の受力体21の上面21Aの、規定された位置に、口腔ケアモデル30を設置することができる。これにより、後述する処理における演算精度を向上させることができる。 By providing guides 211-213 on the upper surface 21A, the oral care model 30 can be placed at a specified position on the upper surface 21A of the force receiving body 21 of the sensor 20. This improves the calculation accuracy in the processing described below.

センサ20と演算装置10とは通信線40で接続され、センサ20のセンシング結果SGは演算装置10に入力される。センサ20と演算装置10とは無線通信を行ってもよい。演算装置10は一般的なコンピュータで構成されて、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理については後述する。 The sensor 20 and the calculation device 10 are connected by a communication line 40, and the sensing result SG of the sensor 20 is input to the calculation device 10. The sensor 20 and the calculation device 10 may communicate wirelessly. The calculation device 10 is configured as a general computer, and performs processing using the sensing result SG from the sensor 20. The processing using the sensing result SG will be described later.

演算装置10には、出力装置であるディスプレイ50と、操作入力を行うための入力装置60とが接続されている。また、演算装置10には、図1に示されたように、後述するカメラ70がさらに接続されていてもよい。カメラ70は本センサシステム100に必須のものではない。演算装置10にカメラ70が接続されている場合、演算装置10は、カメラ70から撮影画像の画像データIMの入力を受け付け、後述する演算に用いてもよい。 The calculation device 10 is connected to a display 50, which is an output device, and an input device 60 for performing operation input. In addition, as shown in FIG. 1, a camera 70, which will be described later, may be further connected to the calculation device 10. The camera 70 is not essential to the sensor system 100. When the camera 70 is connected to the calculation device 10, the calculation device 10 may receive input of image data IM of a captured image from the camera 70 and use it in the calculation described later.

演算装置10は、プロセッサ11とメモリ12とを有するコンピュータで構成される。メモリ12は、一次記憶装置であってもよいし、二次記憶装置であってもよい。メモリ12は、プロセッサ11によって実行されるコンピュータプログラム121を記憶している。 The computing device 10 is configured as a computer having a processor 11 and a memory 12. The memory 12 may be a primary storage device or a secondary storage device. The memory 12 stores a computer program 121 that is executed by the processor 11.

メモリ12は、さらに、口腔ケアモデル30のモデル形状データM1を記憶する形状データ記憶部122を有している。モデル形状データM1は後述する演算で用いられる口腔ケアモデル30の形状を表すデータである。これにより、後述する処理に口腔ケアモデル30の形状を表すデータを用いることができる。 The memory 12 further has a shape data storage unit 122 that stores model shape data M1 of the oral care model 30. The model shape data M1 is data representing the shape of the oral care model 30 used in the calculations described below. This allows the data representing the shape of the oral care model 30 to be used in the processing described below.

なお、形状データ記憶部122は、さらに、サイズの異なるモデル形状データM2を記憶していてもよい。これにより、プロセッサ11は、処理に用いる口腔ケアモデル30の座標を適したモデル形状データとすることができる。 The shape data storage unit 122 may further store model shape data M2 of different sizes. This allows the processor 11 to set the coordinates of the oral care model 30 used in processing to appropriate model shape data.

演算装置10は、センサ20と接続するためのセンサI/F(インタフェース)13を有する。センサI/F13は、センサ20からのセンシング結果SGの入力を受け付け可能な入力部として機能する。 The computing device 10 has a sensor I/F (interface) 13 for connecting to the sensor 20. The sensor I/F 13 functions as an input unit capable of accepting input of the sensing result SG from the sensor 20.

演算装置10は、後述するカメラ70と接続するためのカメラI/F14を有する。カメラI/F14は、カメラ70からの画像データIMの入力を受け付け可能な入力部として機能する。 The computing device 10 has a camera I/F 14 for connecting to a camera 70 described below. The camera I/F 14 functions as an input unit capable of accepting input of image data IM from the camera 70.

プロセッサ11は、メモリ12に記憶されているプログラム121を実行することで、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理は、センシング結果SGから得られる、口腔ケアモデル30に与えられた力の作用線と、予め記憶しているモデル形状データM1とを用いて口腔ケアモデル30の力の作用点を決定する演算を含む。 The processor 11 executes the program 121 stored in the memory 12 to perform processing using the sensing result SG from the sensor 20. The processing using the sensing result SG includes a calculation to determine the point of application of the force on the oral care model 30 using the line of action of the force applied to the oral care model 30 obtained from the sensing result SG and the pre-stored model shape data M1.

プロセッサ11の実行する作用点を決定する演算は、候補点算出処理111を含む。候補点算出処理111は、センサ20からのセンシング結果SGとモデル形状データM1とを用いて候補点を算出する処理である。候補点は、作用点の候補となる点である。候補点を算出することは、モデル形状データM1とセンシング結果SGに含まれる作用線との交点を算出することを含む。なお、詳細については後述する。 The calculation to determine the point of action executed by the processor 11 includes a candidate point calculation process 111. The candidate point calculation process 111 is a process to calculate candidate points using the sensing result SG from the sensor 20 and the model shape data M1. A candidate point is a point that is a candidate for the point of action. Calculating the candidate point includes calculating the intersection of the model shape data M1 with the line of action included in the sensing result SG. Details will be described later.

好ましくは、候補点算出処理111は、補正処理112を含む。補正処理112は、用いるモデル形状データM1をセンサ20と口腔ケアモデル30との位置関係に応じて補正する処理である。センサ20と口腔ケアモデル30との位置関係を識別する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいてセンサ20に対する口腔ケアモデル30の位置関係を識別することができる。他の方法によって識別してもよい。補正処理112で、プロセッサ11は、識別した位置関係に基づいてモデル形状データM1を補正する。これにより、位置関係が規定された関係よりずれた場合であっても演算精度を確保できる。 Preferably, the candidate point calculation process 111 includes a correction process 112. The correction process 112 is a process for correcting the model shape data M1 to be used according to the positional relationship between the sensor 20 and the oral care model 30. The method for identifying the positional relationship between the sensor 20 and the oral care model 30 is not limited to a specific method. As an example, when a camera 70 is connected to the calculation device 10, the processor 11 can identify the positional relationship of the oral care model 30 relative to the sensor 20 based on image data IM from the camera 70. Identification may also be performed by other methods. In the correction process 112, the processor 11 corrects the model shape data M1 based on the identified positional relationship. This ensures calculation accuracy even if the positional relationship deviates from the specified relationship.

好ましくは、候補点算出処理111は、変形処理113を含む。変形処理113は、用いるモデル形状データM1を口腔ケアモデル30の変形に応じて変形させる処理である。口腔ケアモデル30の変形を検出する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいて口腔ケアモデル30の変形を検出することができる。他の方法によって検出してもよい。変形処理113で、プロセッサ11は、検出した変形に基づいてモデル形状データM1を変形させる。これにより、口腔ケアモデル30が変形した場合であっても演算精度を確保できる。 Preferably, the candidate point calculation process 111 includes a deformation process 113. The deformation process 113 is a process for deforming the model shape data M1 to be used in accordance with the deformation of the oral care model 30. The method for detecting the deformation of the oral care model 30 is not limited to a specific method. As an example, when a camera 70 is connected to the calculation device 10, the processor 11 can detect the deformation of the oral care model 30 based on the image data IM from the camera 70. Detection may also be performed by other methods. In the deformation process 113, the processor 11 deforms the model shape data M1 based on the detected deformation. This ensures calculation accuracy even when the oral care model 30 is deformed.

プロセッサ11の実行する作用点を決定する演算は、作用点決定処理114を含む。作用点決定処理114は、候補点算出処理111によって算出された候補点の中から作用点を決定する処理である。その際に、好ましくは、作用点決定処理114は、絞り込み処理115を含む。絞り込み処理115は、候補点算出処理111によって算出された複数の候補点を絞り込む処理であって、予め規定された絞り込み条件を用いて候補点とならない点を候補点から除く処理である。詳細は後述する。これにより、演算対象とする候補点の数を減じることができ、処理量を減らすことができる。 The calculation to determine the action point executed by the processor 11 includes action point determination processing 114. Action point determination processing 114 is a process to determine the action point from among the candidate points calculated by the candidate point calculation processing 111. In this case, preferably, action point determination processing 114 includes narrowing down processing 115. Narrowing down processing 115 is a process to narrow down the multiple candidate points calculated by the candidate point calculation processing 111, and is a process to remove points that are not candidate points from the candidate points using predefined narrowing down conditions. Details will be described later. This makes it possible to reduce the number of candidate points to be calculated, and the amount of processing.

作用点決定処理114は、速度算出処理116を含む。速度算出処理116は、センサ20でのセンシングのタイミングが異なる複数のセンシング結果SGから、候補点それぞれについて位置の変化速度に相当する指標値を求める処理である。変化速度に相当する指標値は、速度そのものであってもよい。作用点決定処理114は、候補点それぞれについての位置の変化速度に基づいて作用点を決定する。詳細は後述する。 The action point determination process 114 includes a speed calculation process 116. The speed calculation process 116 is a process for determining an index value corresponding to the speed of change of position for each candidate point from multiple sensing results SG with different sensing timings by the sensor 20. The index value corresponding to the speed of change may be the speed itself. The action point determination process 114 determines the action point based on the speed of change of position for each candidate point. Details will be described later.

プロセッサ11はプログラム121を実行することで、さらに、表示処理117を実行する。表示処理117は、作用点決定処理114によって決定された作用点と、センシング結果SGに含まれる力の大きさと、を関連付けたデータを出力する処理であって、一例とし画面データを生成し、ディスプレイ50に表示させる処理である。他の例として、図示しない通信機を含む場合、送信データを生成して他の装置に送信させてもよい。 By executing the program 121, the processor 11 further executes a display process 117. The display process 117 is a process for outputting data that associates the point of action determined by the point of action determination process 114 with the magnitude of the force included in the sensing result SG, and is, as an example, a process for generating screen data and displaying it on the display 50. As another example, in the case where a communication device (not shown) is included, transmission data may be generated and transmitted to another device.

図4~図10を用いて、作用点を決定する演算の原理について説明する。用いられる口腔ケアモデル30のためのモデル形状データM1,M2は3次元座標系で定義されるものであるが、ここでは、説明を簡易にするために2次元モデルを用いる。すなわち、口腔ケアモデル30の歯茎形状を2次元平面で定義する。 The principle of the calculation to determine the point of action will be explained using Figures 4 to 10. The model shape data M1 and M2 for the oral care model 30 used are defined in a three-dimensional coordinate system, but here, a two-dimensional model is used to simplify the explanation. In other words, the gum shape of the oral care model 30 is defined on a two-dimensional plane.

始めに、図4~図6を用いて、プロセッサ11の実行する候補点算出処理111について説明する。図4を参照して、口腔ケアモデル30の歯列(歯茎)の外側及び内側、つまり、歯茎形状の外側及び内側を、長軸ai、短軸bi、及び、離心距離eiを用いて、それぞれ、式(1)及び式(2)で示される楕円T1,T2で定義する。式(1)、式(2)、及びこれらを表した図4のグラフでは、x軸を歯茎形状の奥行方向、y軸を歯茎形状の横幅方向に一致させ、x値が大きくなる方向を歯茎の前方とする。x値の閾値xthは歯茎の最も奥の位置に相当するx値である。メモリ12の形状データ記憶部122に記憶されているモデル形状データM1は、一例として、式(1)及び式(2)の組み合わせである。 First, the candidate point calculation process 111 executed by the processor 11 will be described with reference to FIG. 4 to FIG. 6. Referring to FIG. 4, the outside and inside of the dentition (gums) of the oral care model 30, that is, the outside and inside of the gum shape, are defined by ellipses T1 and T2 shown in formulas (1) and (2), respectively, using the major axis ai, the minor axis bi, and the eccentricity distance ei. In formulas (1) and (2) and the graph of FIG. 4 showing these, the x-axis corresponds to the depth direction of the gum shape, the y-axis corresponds to the width direction of the gum shape, and the direction in which the x-value increases corresponds to the front of the gums. The threshold value xth of the x-value is the x-value corresponding to the innermost position of the gums. The model shape data M1 stored in the shape data storage unit 122 of the memory 12 is, for example, a combination of formulas (1) and (2).

センサ20は、モデル形状データM1の原点Oに対応する位置に取り付けられる。センサ20は、力Fのx軸方向の成分(x成分)Fx、y軸方向の成分(y成分)Fy、及び、原点O周りのモーメントMが検出される。演算装置10は、これらの値をセンシング結果SGから得ることができる。 The sensor 20 is attached at a position corresponding to the origin O of the model shape data M1. The sensor 20 detects the x-axis component (x component) Fx of the force F, the y-axis component (y component) Fy, and the moment M about the origin O. The calculation device 10 can obtain these values from the sensing result SG.

モーメントMは、x成分Fx及びy成分Fy用いて図5の式(3-1)で表される。式(3-1)を変形することで、力Fの作用線L1の式(3)が得られる。従って、演算装置10のプロセッサ11は、センサ20からのセンシング結果SGから得られるx成分Fx、y成分Fy、及び、モーメントMを用いて、式(3)で作用線L1を算出できる。 The moment M is expressed by equation (3-1) in FIG. 5 using the x-component Fx and the y-component Fy. By transforming equation (3-1), equation (3) for the line of action L1 of the force F is obtained. Therefore, the processor 11 of the calculation device 10 can calculate the line of action L1 using equation (3) using the x-component Fx, y-component Fy, and moment M obtained from the sensing result SG from the sensor 20.

作用点は、ブラシなどが口腔ケアモデル30の歯列の表面に接触する点であるため、式(1)及び式(2)で表された楕円T1,T2上に存在する。従って、作用点は、式(1)又は式(2)上の座標(xc,yc)で表される。また、作用点は作用線上にある。従って、図5に示されたように、作用点は、楕円T1,T2それぞれと作用線L1との交点P11,P12、及び、P13,P14で得られる。 The point of action is the point where the brush or the like comes into contact with the surface of the dentition of the oral care model 30, and therefore exists on the ellipses T1 and T2 expressed by equations (1) and (2). Therefore, the point of action is expressed by the coordinates (xc, yc) on equation (1) or equation (2). The point of action is also on the line of action. Therefore, as shown in FIG. 5, the points of action are obtained at the intersections P11, P12, and P13, P14 of the ellipses T1, T2, respectively, and the line of action L1.

具体的には、プロセッサ11は候補点算出処理111において、図6に示されたように、式(1)と式(3)とを連立させた計算C1、及び、式(2)と式(3)とを連立させた計算C2によって、式(5)及び式(6)で表される解C3を得る。解C3は座標(xc,yc)で得られる。なお、式(5)及び式(6)中の定数C,Dは、それぞれ、図6の式(7),(8)で示されるものである。式(5),(6)より、解C3は座標(xc,yc)で表される4つの解である。つまり、候補点として交点P11,P12、及び、P13,P14が得られる。 Specifically, in the candidate point calculation process 111, the processor 11 obtains a solution C3 represented by equations (5) and (6) by simultaneous calculation C1 of equations (1) and (3) and simultaneous calculation C2 of equations (2) and (3) as shown in FIG. 6. Solution C3 is obtained at coordinates (xc, yc). Note that constants C and D in equations (5) and (6) are respectively shown in equations (7) and (8) in FIG. 6. From equations (5) and (6), solution C3 is four solutions represented by coordinates (xc, yc). In other words, intersections P11, P12, and P13 and P14 are obtained as candidate points.

次に、図7~図9を用いて、プロセッサ11の実行する作用点決定処理114について説明する。図7は、作用点Aにおける力Fの角度関係を表している。すなわち、図7を参照して、力Fの水平に対する角度θ1は、x成分Fx及びy成分Fyを用いて式(9)で表される。また、楕円T1,T2の作用点Aにおける接線の水平に対する角度θ2は、楕円T1,T2の式(1),(2)を用いて式(10)で表される。作用点Aにおける接線TNに対する力Fの角度φは、θ1とθ2との差である式(11)で表される。また、力Fの作用点Aにおける接線TN方向の成分(接線力)Fn、及び、法線方向の成分(法線力)Fvは、角度φを用いてそれぞれ式(13),(14)で表される。 Next, the action point determination process 114 executed by the processor 11 will be described with reference to Figures 7 to 9. Figure 7 shows the angular relationship of the force F at the action point A. That is, referring to Figure 7, the angle θ1 of the force F with respect to the horizontal is expressed by equation (9) using the x-component Fx and the y-component Fy. The angle θ2 of the tangent to the horizontal at the action point A of the ellipses T1 and T2 is expressed by equation (10) using the equations (1) and (2) of the ellipses T1 and T2. The angle φ of the force F with respect to the tangent TN at the action point A is expressed by equation (11), which is the difference between θ1 and θ2. The component (tangential force) Fn in the tangent TN direction at the action point A of the force F and the component (normal force) Fv in the normal direction are expressed by equations (13) and (14), respectively, using the angle φ.

作用点決定処理114の絞り込み処理115では、候補点である交点P11~P14それぞれでの法線力Fvを算出し、法線力Fvが予め記憶している絞り込み条件に合致していない点を候補点から除く。絞り込み条件は、法線力の向きであって、候補点の位置ごとに予め設定されている。図8の例では、交点P11~P14それぞれについて、候補点での法線力の向きの許容範囲R1~R4が設定されている。絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除く。 In the narrowing down process 115 of the action point determination process 114, the normal force Fv is calculated at each of the candidate intersection points P11 to P14, and points where the normal force Fv does not match the narrowing down conditions stored in advance are removed from the candidate points. The narrowing down conditions are the direction of the normal force, and are set in advance for each candidate point position. In the example of Figure 8, an allowable range R1 to R4 for the direction of the normal force at the candidate point is set for each of the intersection points P11 to P14. In the narrowing down process 115, points where the direction of the normal force Fv is not within the allowable range are removed from the candidate points.

法線力の向きの許容範囲は、口腔ケアモデル30にブラシ等により接触可能な向きに基づいて規定されるものである。すなわち、口腔ケアモデル30にブラシが外側から接触可能な向きに基づき、法線力が歯茎の内に向く方向となる範囲に設定されている。許容範囲は、予め設定されていてもよいし、楕円T1,T2の上の点の座標値から算出されてもよい。 The allowable range of the direction of the normal force is determined based on the direction in which the oral care model 30 can be contacted by a brush or the like. In other words, based on the direction in which the brush can contact the oral care model 30 from the outside, the allowable range is set to a range in which the normal force is directed inward toward the gums. The allowable range may be set in advance, or may be calculated from the coordinate values of points on the ellipses T1 and T2.

絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除かれる。言い換えると、絞り込み処理115では、算出された複数の候補点のうち、法線力Fvの向きが歯茎から離れる向きである点が候補点から除かれる。図8の例では、交点P11~P14のうち、交点P12及び交点P13が候補点から除かれる。 In the narrowing down process 115, points whose direction of the normal force Fv is not within the acceptable range are removed from the candidate points. In other words, in the narrowing down process 115, of the multiple calculated candidate points, points whose normal force Fv is oriented away from the gums are removed from the candidate points. In the example of FIG. 8, of the intersection points P11 to P14, the intersection points P12 and P13 are removed from the candidate points.

なお、絞り込み処理115では、より簡易には、力Fのx成分Fx及びy成分Fyのうちの少なくとも一方を用いて、許容範囲にない点を候補点から除いてもよい。これにより、すべての候補点について法線力Fvを算出するよりも簡易に候補点の絞り込みができる。すなわち、絞り込み処理115では、力Fの向きから得られる成分が、各候補点に対応した許容範囲にない点を除く処理と言える。 In the narrowing down process 115, more simply, at least one of the x-component Fx and the y-component Fy of the force F may be used to remove points that are not within the allowable range from the candidate points. This makes it easier to narrow down the candidate points than calculating the normal force Fv for all candidate points. In other words, the narrowing down process 115 can be said to be a process that removes points where the component obtained from the direction of the force F is not within the allowable range corresponding to each candidate point.

次に、作用点決定処理114では、速度算出処理116を実行して候補点それぞれについての位置の変化速度を算出する。図9を用いて、位置の変化速度について説明する。口腔ケアモデル30にブラシを接触させてブラッシング動作を行う場合、ブラシが接触する位置、つまり、与えられる力Fの作用点は連続的に変化する。これに伴い、作用線の傾きが変化する。特に、口腔ケアモデル30の接触可能な面である歯茎は曲面であるため、作用点の変化に伴う作用線の傾きの時間変化が大きい。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。 Next, in the action point determination process 114, a speed calculation process 116 is executed to calculate the speed of change of the position for each candidate point. The speed of change of the position will be explained with reference to FIG. 9. When a brush is brought into contact with the oral care model 30 to perform a brushing operation, the position where the brush comes into contact, i.e., the point of action of the applied force F, changes continuously. Accordingly, the slope of the action line changes. In particular, since the gums, which are the contactable surface of the oral care model 30, are curved, the time change in the slope of the action line associated with the change in the action point is large. As the action point changes, the action line changes so that the range of the action line expands the further away from the action point, with the action point, i.e., the contact position, at the center.

これに関して、図9では、同一の点とみなされる程度に歯茎表面の点Q1でわずかにブラッシング動作を行った場合を表している。点Q1に与えられる力は、力f1,f2と変化する。力f1,f2それぞれの作用線AL1,M2は、歯茎の他の位置で交点Q2,Q3を持つ。交点Q2,Q3は同一の候補点であって、センサ20でのセンシングのタイミングが異なる2つのセンシング結果それぞれで得られる候補点のうちの位置の近いものとして検出される。 In this regard, Figure 9 shows a case where a slight brushing action is performed at point Q1 on the gum surface to the extent that it is considered to be the same point. The force applied to point Q1 changes to forces f1 and f2. The action lines AL1 and M2 of forces f1 and f2, respectively, have intersection points Q2 and Q3 at other positions on the gums. Intersection points Q2 and Q3 are the same candidate point, and are detected as being close to each other among the candidate points obtained from two sensing results with different sensing timings by sensor 20.

点Q1は楕円上の点であって曲面を移動することから、作用線AL1,M2の方向の変化が大きい。その結果、交点Q2,Q3の間隔は、交点Q1の移動間隔よりも大きい。そのため、交点Q2,Q3に相当する候補点の位置の変化速度の方が、交点Q1に相当する候補点の位置の変化速度よりも大きい。 Since point Q1 is a point on an ellipse and moves on a curved surface, the direction of the action lines AL1 and M2 changes significantly. As a result, the distance between intersections Q2 and Q3 is greater than the distance that intersection Q1 moves. Therefore, the rate of change in the position of the candidate points corresponding to intersections Q2 and Q3 is greater than the rate of change in the position of the candidate point corresponding to intersection Q1.

この性質を利用して、算出された候補点のうち、センシングのタイミングが異なるセンシング結果から得られたそれぞれに対応した位置への変化速度の最も遅い候補点を作用点とすることができる。 By utilizing this property, the candidate point with the slowest rate of change to the corresponding position obtained from the sensing results with different sensing timing can be selected as the action point.

候補点における位置の変化速度viは、候補点(xc,yc)と、△t秒後の候補点の座標を(xciold,yciold)とを用いて、図9の式(15)で表される。速度算出処理116では、算出された各候補点、又は、算出され、絞り込み処理115によって絞り込まれた後の候補点ごとに変化速度viを算出する。そして、これらを比較して最も変化速度viの小さいものを作用点に決定する。 The velocity of change vi of the position at the candidate point is expressed by equation (15) in FIG. 9 using the candidate point (xc, yc) and the coordinates of the candidate point after Δt seconds (xciold, yciold). In the velocity calculation process 116, the velocity of change vi is calculated for each calculated candidate point, or for each candidate point calculated and narrowed down by the narrowing down process 115. These are then compared, and the one with the smallest velocity of change vi is determined to be the point of action.

図10の例の場合、絞り込み処理115によって絞り込まれた候補点である交点P11及びP14それぞれの変化速度v1、v2を算出する。その結果、図10に示されたようにv1<v2であるため、交点P11が作用点と決定される。 In the example of FIG. 10, the change velocities v1 and v2 of the intersections P11 and P14, which are the candidate points narrowed down by the narrowing down process 115, are calculated. As a result, since v1<v2 as shown in FIG. 10, the intersection P11 is determined to be the point of action.

なお、作用点の決定に、変化速度viに相当する他の指標値を用いてもよい。他の指標値は、例えば、点の間隔である。点の間隔を用いる場合、間隔が最も小さい候補点を作用点とする。 Note that other index values equivalent to the rate of change vi may be used to determine the point of action. The other index value may be, for example, the distance between points. When the distance between points is used, the candidate point with the smallest distance is set as the point of action.

図11は、演算装置10のプロセッサ11での処理の流れの一例を表したフローチャートである。図11の処理は、例えば、口腔ケアのトレーニングの開始と共に開始される。その際、一例として、オペレータは演算装置10の入力装置60を用いて処理の開始を指示するとともに、トレーニングに用いる口腔ケアモデル30のサイズなどを指示する。 Figure 11 is a flowchart showing an example of the processing flow in the processor 11 of the computing device 10. The processing in Figure 11 is started, for example, when oral care training begins. At that time, as an example, the operator uses the input device 60 of the computing device 10 to instruct the start of processing and also to instruct the size of the oral care model 30 to be used for training, etc.

プロセッサ11は、入力装置60からの指示信号に従ってプログラム121を読み出して実行する。それによって処理が開始する。初めに、プロセッサ11は、入力装置60からの指示信号によって指定された口腔ケアモデル30の対応したモデル形状データM1をメモリ12から読み出す(ステップS101)。 The processor 11 reads and executes the program 121 in accordance with the instruction signal from the input device 60, thereby starting the processing. First, the processor 11 reads from the memory 12 the model shape data M1 corresponding to the oral care model 30 specified by the instruction signal from the input device 60 (step S101).

好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の位置ずれに応じて補正する(ステップS103)。ステップS103でプロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30のガイド211~213からの位置ずれを検出する。位置ずれは、他の方法で検出されてもよい。ステップS103では、モデル形状データM1の座標を検出された位置ずれに応じて変換するとともに、以降のセンシング結果SGに適用する座標系も変換する。これにより、口腔ケアモデル30にセンサ20を装着する際に位置ずれが生じてもセンシング精度の低下を抑えることができる。 Preferably, the processor 11 corrects the coordinate system of the read model shape data M1 according to the positional deviation of the oral care model 30 (step S103). In step S103, the processor 11, as an example, analyzes image data IM obtained by photographing with the camera 70, and detects the positional deviation of the oral care model 30 from the guides 211-213. The positional deviation may be detected by other methods. In step S103, the coordinates of the model shape data M1 are converted according to the detected positional deviation, and the coordinate system to be applied to the subsequent sensing result SG is also converted. This makes it possible to suppress a decrease in sensing accuracy even if a positional deviation occurs when attaching the sensor 20 to the oral care model 30.

好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の変形に応じて補正する(ステップS105、S107)。プロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30の変形を検出する。変形は、例えば、上顎の下顎に対する角度の変化である。変形が検出された場合(ステップS105でYES)、プロセッサ11は、その変形に応じてモデル形状データM1の座標を変換するとともに、以降のセンシング結果SGに適用する座標系も変換する(ステップS107)。これにより、口腔ケアモデル30に変形が生じてもセンシング精度の低下を抑えることができる。 Preferably, the processor 11 corrects the coordinate system of the read model shape data M1 according to the deformation of the oral care model 30 (steps S105, S107). As an example, the processor 11 analyzes the image data IM obtained by photographing with the camera 70 to detect the deformation of the oral care model 30. The deformation is, for example, a change in the angle of the upper jaw relative to the lower jaw. If a deformation is detected (YES in step S105), the processor 11 converts the coordinates of the model shape data M1 according to the deformation and also converts the coordinate system to be applied to the subsequent sensing result SG (step S107). This makes it possible to suppress a decrease in sensing accuracy even if a deformation occurs in the oral care model 30.

プロセッサ11は、センサ20からの、あるタイミングtにおけるセンシング結果SGを読み込む(ステップS109)。そして、プロセッサ11は、モデル形状データM1に含まれる歯茎形状を楕円T1,T2と、センシング結果SGに含まれる力Fのx成分Fx、y成分Fy、及びモーメントMから得られる力Fの作用線L1との交点P11~P14を算出し(ステップS111)、作用点の候補点とする。 The processor 11 reads the sensing result SG from the sensor 20 at a certain time t (step S109). The processor 11 then calculates the intersection points P11 to P14 between the ellipses T1 and T2 representing the gum shape included in the model shape data M1 and the line of action L1 of the force F obtained from the x-component Fx, y-component Fy, and moment M of the force F included in the sensing result SG (step S111), and sets these as candidate points of action.

プロセッサ11は、ステップS111で得られた候補点それぞれに対して、その点における力Fの向きから得られる成分が、その候補点に対応した方向の許容範囲であるか否かに応じて、候補点を絞り込む(ステップS113)。すなわち、ステップS113でプロセッサは、絞り込みの条件である許容範囲にない点を候補点から除き、候補点の数を減じる。これにより、以降の処理の量を減ずることができる。ステップS113で絞り込まれた候補点は、メモリ12に記憶される(ステップS115)。 For each candidate point obtained in step S111, the processor 11 narrows down the candidate points depending on whether the component obtained from the direction of the force F at that point is within the allowable range for the direction corresponding to that candidate point (step S113). That is, in step S113, the processor removes from the candidate points any points that are not within the allowable range, which is the narrowing-down condition, and reduces the number of candidate points. This makes it possible to reduce the amount of subsequent processing. The candidate points narrowed down in step S113 are stored in the memory 12 (step S115).

メモリ12に、タイミングtより以前のタイミングのセンシング結果から得られた候補点が記憶されていない場合であって(ステップS117でNO)、次のタイミング(t+△t)のセンシング結果を読み込むことができる場合(ステップS127でYES)、プロセッサ11は、ステップS105からの処理を繰り返す。これにより、次のタイミング(t+△t)のセンシング結果から候補点が算出され、メモリ12に記憶される。 If the memory 12 does not store candidate points obtained from the sensing results at a timing earlier than timing t (NO in step S117) and the sensing results at the next timing (t+Δt) can be read (YES in step S127), the processor 11 repeats the process from step S105. This causes candidate points to be calculated from the sensing results at the next timing (t+Δt) and stored in the memory 12.

この場合、前回のタイミングtでの候補点がメモリ12に記憶されているので(ステップS117でYES)、プロセッサ11は、これら2つのタイミングt,(t+△t)で得られた対応する候補点について位置の変化速度viを算出し(ステップS119)、変化速度viが最も小さい点を作用点と決定する(ステップS121)。 In this case, since the candidate points at the previous timing t are stored in the memory 12 (YES in step S117), the processor 11 calculates the position change velocity vi for the corresponding candidate points obtained at these two timings t and (t+Δt) (step S119), and determines the point with the smallest change velocity vi as the action point (step S121).

以上の処理によって作用点が決定されると、プロセッサ11はディスプレイ50で表示させるための表示データを生成し(ステップS123)、ディスプレイ50に渡して表示を指示する(ステップS125)。ステップS123では、以上の処理で決定された作用点と、力Fの大きさと、を関連付けたデータを表示させる表示データを生成する。 When the point of action is determined by the above process, the processor 11 generates display data to be displayed on the display 50 (step S123), passes the data to the display 50, and instructs the display to display the data (step S125). In step S123, display data is generated to display data that associates the point of action determined by the above process with the magnitude of the force F.

プロセッサ11は、以上の処理を繰り返す。それにより、処理が終了するまで、ステップS125の表示が更新され続ける。すなわち、口腔ケアモデル30を用いたブラッシング動作に応じて、リアルタイムにディスプレイ50に作用点、つまり、ブラシが接触した箇所と歯茎に与えられた力Fとが表示されることになる。 The processor 11 repeats the above process. As a result, the display in step S125 continues to be updated until the process ends. In other words, the point of action, i.e., the point where the brush comes into contact and the force F applied to the gums, is displayed on the display 50 in real time in response to the brushing action using the oral care model 30.

以上の処理は、一例として、センサ20からセンシング結果が入力されている間、つまり、ブラッシング動作が行われている間(ステップS127でYES)、継続される。言い換えると、センサ20からセンシング結果が入力されないと(ステップS127でNO)、プロセッサ11は処理を終了する。他の例として、プロセッサ11は、入力装置60からの指示入力に従って処理を終了してもよい。 As an example, the above process continues while the sensing result is being input from the sensor 20, that is, while the brushing operation is being performed (YES in step S127). In other words, if the sensing result is not being input from the sensor 20 (NO in step S127), the processor 11 ends the process. As another example, the processor 11 may end the process in accordance with an instruction input from the input device 60.

上記のように、モデル形状データM1は三次元形状を表す三次元座標系の形状データであってもよい。その場合、式(1)~式(15)を、z軸方向の成分を有する三次元の式とすればよい。これにより、モデル形状データM1を実際の口腔ケアモデル30に近づけることができ、作用点、つまり、ブラシを接触させる位置や力Fの方向がより分かりやすくなる。 As described above, the model shape data M1 may be shape data in a three-dimensional coordinate system that represents a three-dimensional shape. In that case, equations (1) to (15) can be three-dimensional equations that have a component in the z-axis direction. This allows the model shape data M1 to be closer to the actual oral care model 30, making it easier to understand the point of action, that is, the position where the brush comes into contact and the direction of the force F.

ディスプレイ50には、一例として図12に表された画面51が表示される。画面51は、モデル形状データM1が三次元座標系の形状データである場合の画面である。詳しくは、図12を参照して、画面51は、作用点と力Fの大きさとを関連付けたデータを表示する領域52を含む。 The display 50 displays a screen 51, as shown in FIG. 12 as an example. The screen 51 is a screen when the model shape data M1 is shape data in a three-dimensional coordinate system. For more details, see FIG. 12. The screen 51 includes an area 52 that displays data relating the point of action to the magnitude of the force F.

作用点と力Fの大きさとを関連付けたデータは、例えば、作用点の属する単位範囲ごとの、その範囲に含まれる作用点それぞれに与えられた力Fの大きさの統計値、及び、領域ごとの接触されていた合計時間、などである。単位範囲は、モデル形状データM1に対して設定された、表示のための単位となる範囲であって、図12の例では、歯茎形状を下顎、上顎それぞれの左右前後に区分した8つの範囲が設定されている。単位範囲ごとに表示されることで、単位範囲ごとの与えられた力Fの大きさや接触時間の傾向を知ることができる。 Data relating the points of action to the magnitude of the force F may be, for example, statistics on the magnitude of the force F applied to each point of action included in the unit range to which the points of action belong, and the total time of contact for each area. The unit range is a range that is set for the model shape data M1 and serves as a unit for display. In the example of FIG. 12, eight ranges are set that divide the gum shape into left and right, front and back for both the lower and upper jaws. By displaying each unit range, it is possible to know the trends in the magnitude of the applied force F and the contact time for each unit range.

与えられた力Fの大きさの統計値は、一例として、規定時間における力Fの大きさの平均値である。また、接触されていた合計時間は、一例として、その範囲に属する作用点を示すセンシング結果が得られたセンシングのタイミングの合計時間である。 The statistical value of the magnitude of the applied force F is, for example, the average value of the magnitude of the force F over a specified time. In addition, the total contact time is, for example, the total time of sensing at which a sensing result indicating a point of action that belongs to that range was obtained.

図12の例では、領域252に、単位範囲ごとにその範囲に含まれる作用点に与えられた力Fの大きさの平均値と、その範囲に接触した時間の合計時間との表示521が含まれている。好ましくは、単位範囲ごとに与える力Fの統計値、及び/又は、接触時間の合計時間の閾値を設定しておき、領域52に閾値との比較結果を併せて表示する。図12の例では、単位範囲ごとに比較結果を表す画像522が表示されて、画像522の色によって比較結果が示されている。 In the example of FIG. 12, area 252 includes a display 521 showing the average value of the magnitude of force F applied to the point of application included in each unit range and the total time of contact with that range. Preferably, a statistical value of the force F applied for each unit range and/or a threshold value for the total time of contact is set, and the comparison result with the threshold value is also displayed in area 52. In the example of FIG. 12, an image 522 showing the comparison result for each unit range is displayed, and the comparison result is indicated by the color of image 522.

好ましくは、画面51は、口腔ケアモデル30に対するブラッシング動作を視覚的に表示する領域53を含む。領域53は、口腔ケアモデル30の視覚的な表示531と、力Fに関する表示532と、を含む。表示532は、一例として、口腔ケアモデル30の歯茎上の点から伸びる線分であって、歯茎上の点が力Fの作用点、線分の長さ又は太さが力Fの大きさ、及び、線分の方向が力Fの方向を表すように表示531に対して配置される。 Preferably, the screen 51 includes an area 53 that visually displays the brushing action on the oral care model 30. The area 53 includes a visual display 531 of the oral care model 30 and a display 532 relating to the force F. As an example, the display 532 is a line segment extending from a point on the gum of the oral care model 30, and is positioned with respect to the display 531 such that the point on the gum represents the point of application of the force F, the length or thickness of the line segment represents the magnitude of the force F, and the direction of the line segment represents the direction of the force F.

領域52の表示521により、領域ごとにブラッシングの強度と時間とを知ることができる。口腔ケアなどの連続的な接触を伴う技能は、一般的に、位置や角度や強度や時間などが明確になりにくい。そのため、その適否を判定したりトレーニングなどで人に伝えたりすることが困難である。その点、本センサシステム100を用いると、口腔ケアモデル30に対する接触の位置が与えられた力Fの作用点として特定され、ディスプレイ50に表示されるなど出力される。併せて、力Fの大きさや方向や接触時間なども画面51から知ることができる。 The display 521 of area 52 allows the user to know the brushing strength and time for each area. For skills that involve continuous contact, such as oral care, it is generally difficult to clarify the position, angle, strength, time, etc. This makes it difficult to judge whether the skill is appropriate or to convey it to people during training, etc. In this regard, when the sensor system 100 is used, the position of contact with the oral care model 30 is identified as the point of application of the applied force F, and is output, such as displayed on the display 50. Additionally, the magnitude, direction, and contact time of the force F can also be known from the screen 51.

例えば、トレーナーによる模範動作である場合、領域ごとのブラッシングの強度と時間との模範を表示によって数値や画像で把握できる。これにより、模範動作を見てまねるよりも正確に動作を理解することができる。また、トレーニーのトレーニング動作である場合、トレーナーがトレーニーによる領域ごとのブラッシングの強度と時間とを把握することができる。そのため、適切な指導がしやすくなる。 For example, when a trainer is modeling brushing movements, the strength and time of brushing for each area can be displayed numerically and as an image. This allows a more accurate understanding of the movements than simply watching the model and imitating it. Also, when a trainee is training with a brush, the trainer can understand the strength and time of brushing for each area by the trainee. This makes it easier to provide appropriate guidance.

さらに画像522の表示により、領域ごとに適したブラッシング動作であるか否かを一目で把握することができる。また、領域53の表示532により、口腔ケアモデル30に対して行われているブラッシング動作をディスプレイ50上で見ることができるとともに、トレーニングの状況を表す領域52の表示内容と同一の画面で表示されることで見比べることもできる。これにより、指導者がいない状態でも動作を確認することができる。 Furthermore, the display of image 522 allows one to see at a glance whether the brushing action is appropriate for each area. Also, the display 532 of area 53 allows one to see on the display 50 the brushing action being performed on the oral care model 30, and it can also be compared by being displayed on the same screen as the display content of area 52, which shows the training status. This allows one to check the action even when an instructor is not present.

例えば、歯磨き指導などにおいてセンサシステム100を用いることで、実践者のブラッシング動作が適切であるかどうかの判定結果を提示できる。そのため、技術者のみならず学校などで広くセンサシステム100を用いてブラッシング動作のトレーニングや判定を行うことができる。 For example, by using the sensor system 100 when providing tooth brushing instruction, it is possible to present the judgment result of whether the brushing action of the practitioner is appropriate. Therefore, the sensor system 100 can be widely used not only by technicians but also in schools and other places to train and judge brushing actions.

画面51は、図11のフローチャートに表された処理が繰り返されるたびに、つまり、ブラッシング動作中にセンサ20によるセンシングが繰り返されるたびに更新される。センシング間隔を短く設定することで、領域53ではブラッシング動作がリアルタイムに表示されるとともに、領域52の表示の更新によって一連のブラッシング動作の結果を累積的に知ることができる。 Screen 51 is updated each time the process shown in the flowchart of FIG. 11 is repeated, that is, each time sensing by sensor 20 is repeated during the brushing action. By setting a short sensing interval, the brushing action is displayed in real time in area 53, and the cumulative results of a series of brushing actions can be known by updating the display in area 52.

<3.付記>
開示された演算装置10の処理は、上の説明ではプロセッサ11がコンピュータプログラム121を実行することによって実現されるものとしているが、少なくとも一部が回路素子その他のハードウェアによって実現されてもよい。
<3. Notes>
In the above description, the processing of the disclosed computing device 10 is realized by the processor 11 executing the computer program 121, but at least a portion of it may be realized by circuit elements or other hardware.

演算装置10での処理を実現するプログラム121は、コンピュータ読取り可能である非一時的な記録媒体に記録されたプログラム製品として提供されてもよい。又は、プログラム121は、ネットワークを介したダウンロードによって提供されてもよい。 The program 121 that realizes the processing in the computing device 10 may be provided as a program product recorded on a computer-readable non-transitory recording medium. Alternatively, the program 121 may be provided by downloading via a network.

演算装置10での処理を実現するプログラム121は、演算装置10での処理のためのプログラムコードを有する。プログラム121は、プログラム121が格納されたメモリ12に接続されたプロセッサ11によって読み取られ、実行される。 The program 121 that realizes processing in the computing device 10 has program code for processing in the computing device 10. The program 121 is read and executed by the processor 11 connected to the memory 12 in which the program 121 is stored.

演算装置10での処理を実現するプログラム121は、アプリケーションプログラムとして提供されてもよいし、その一部または全部が、コンピュータのオペレーティングシステム(OS)に含まれていてもよい。 The program 121 that realizes processing in the computing device 10 may be provided as an application program, or part or all of it may be included in the computer's operating system (OS).

本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。 The present invention is not limited to the above embodiment, and various modifications are possible.

10 :演算装置
11 :プロセッサ
12 :メモリ
13 :センサI/F
14 :カメラI/F
20 :センサ
21 :受力体
21A :上面
22 :支持体
23 :変形体
30 :口腔ケアモデル
40 :通信線
50 :ディスプレイ
51 :画面
52 :領域
53 :領域
60 :入力装置
70 :カメラ
100 :センサシステム
111 :候補点算出処理
112 :補正処理
113 :変形処理
114 :作用点決定処理
115 :絞り込み処理
116 :速度算出処理
117 :表示処理
121 :コンピュータプログラム
122 :形状データ記憶部
211 :ガイド
212 :ガイド
213 :ガイド
252 :領域
521 :表示
522 :画像
531 :表示
532 :表示
A :作用点
AL1 :作用線
C :定数
C1 :計算
C2 :計算
C3 :解
D :定数
F :力
Fv :法線力
Fx :x成分
Fy :y成分
IM :画像データ
L1 :作用線
M :モーメント
M1 :モデル形状データ
M2 :モデル形状データ
O :原点
P11 :交点
P12 :交点
P13 :交点
P14 :交点
Q1 :交点
Q2 :交点
Q3 :交点
R1 :許容範囲
R2 :許容範囲
R3 :許容範囲
R4 :許容範囲
SG :センシング結果
T1 :楕円
T2 :楕円
TN :接線
ai :長軸
bi :短軸
ei :離心距離
f1 :力
f2 :力
t :タイミング
v1 :変化速度
v2 :変化速度
vi :変化速度
xth :閾値
θ1 :角度
θ2 :角度
φ :角度
10: arithmetic unit 11: processor 12: memory 13: sensor I/F
14: Camera I/F
20: sensor 21: force receiving body 21A: upper surface 22: support body 23: deformable body 30: oral cavity care model 40: communication line 50: display 51: screen 52: area 53: area 60: input device 70: camera 100: sensor system 111: candidate point calculation process 112: correction process 113: deformation process 114: point of action determination process 115: narrowing down process 116: velocity calculation process 117: display process 121: computer program 122: shape data storage unit 211: guide 212: guide 213: guide 252: area 521: display 522: image 531: display 532: display A: point of action AL1: line of action C: constant C1: calculation C2: calculation C3: solution D: constant F: force Fv: normal force Fx : x-component Fy : y-component IM : image data L1 : line of action M : moment M1 : model shape data M2 : model shape data O : origin P11 : intersection P12 : intersection P13 : intersection P14 : intersection Q1 : intersection Q2 : intersection Q3 : intersection R1 : allowable range R2 : allowable range R3 : allowable range R4 : allowable range SG : sensing result T1 : ellipse T2 : ellipse TN : tangent ai : major axis bi : minor axis ei : eccentricity f1 : force f2 : force t : timing v1 : rate of change v2 : rate of change vi : rate of change xth : threshold θ1 : angle θ2 : angle φ : angle

Claims (16)

接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの前記力のセンシング結果を用いた処理を行う演算装置であって、
前記力のセンシング結果の入力を受け付け可能な入力部と、
前記処理を実行するプロセッサと、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記第1のセンサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
演算装置。
A computing device that performs processing using a force sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact, comprising:
an input unit capable of receiving an input of the force sensing result;
A processor for executing the process,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the first sensor at different timings, and determining the point of application based on the index value.
Calculation device.
前記作用点を決定することは、複数の前記候補点のうち、前記変化速度の最も遅い前記候補点を前記作用点と決定することを含む
請求項に記載の演算装置。
The arithmetic device according to claim 1 , wherein determining the point of application includes determining, as the point of application, the candidate point having the slowest rate of change among the plurality of candidate points.
前記候補点を算出することは、予め記憶している前記被接触体の形状データと前記作用線との交点を算出することを含む
請求項1又は2に記載の演算装置。
The computing device according to claim 1 or 2 , wherein calculating the candidate point includes calculating an intersection between pre-stored shape data of the contacted body and the line of action.
前記作用点を決定することは、前記力のセンシング結果に含まれる前記力の向きを用いて、前記候補点のうち、前記力の向きから得られる成分が、各前記候補点に対応した許容される向きの範囲にない点を除くことを含む
請求項1~のいずれか1項に記載の演算装置。
The computing device according to any one of claims 1 to 3, wherein determining the point of action includes using the force direction included in the force sensing result to eliminate from the candidate points points whose component obtained from the force direction is not within a range of allowable directions corresponding to each of the candidate points.
前記許容される向きの範囲は、前記候補点に対する前記接触が可能な向きに基づいて規定される
請求項4に記載の演算装置。
The computing device of claim 4 , wherein the range of allowable orientations is defined based on orientations in which the contact is possible for the candidate point.
前記入力部は、さらに、第2のセンサによる、前記被接触体の形状のセンシング結果の入力を受け付け可能であり、
前記候補点を算出することは、前記被接触体の形状データを前記形状のセンシング結果に基づいて変形させ、変形後の前記被接触体の形状データを用いることを含む
請求項1~のいずれか一項に記載の演算装置。
the input unit is further capable of receiving an input of a sensing result of a shape of the contacted object by a second sensor;
The computing device according to claim 1 , wherein calculating the candidate points includes deforming shape data of the contacted body based on the shape sensing results, and using the deformed shape data of the contacted body.
前記被接触体の形状データは三次元形状データである
請求項1~のいずれか一項に記載の演算装置。
The computing device according to claim 1 , wherein the shape data of the contacted object is three-dimensional shape data.
前記被接触体の形状データは口腔ケアモデルの形状データである
請求項1~のいずれか一項に記載の演算装置。
The computing device according to claim 1 , wherein the shape data of the contacted object is shape data of an oral care model.
前記処理は、決定された前記作用点と、前記力のセンシング結果に含まれる前記力の大きさと、を関連付けたデータを出力することをさらに含む
請求項1~のいずれか一項に記載の演算装置。
The computing device according to claim 1 , wherein the processing further includes outputting data correlating the determined point of action with the magnitude of the force included in the force sensing result.
接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの前記力のセンシング結果を用いた処理を行う演算装置であって、
前記力のセンシング結果の入力を受け付け可能な入力部と、
前記処理を実行するプロセッサと、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記処理は、前記被接触体の単位範囲ごとに、単位時間あたりの前記単位範囲に含まれる前記作用点に与えられた前記力の大きさの合計値、及び、前記単位範囲に含まれる前記作用点に前記力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む
算装置。
A computing device that performs processing using a force sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact, comprising:
an input unit capable of receiving an input of the force sensing result;
A processor for executing the process,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points;
The processing includes outputting, for each unit range of the contacted object, data indicating at least one of a total value of the magnitude of the force applied to the application point included in the unit range per unit time and a total value of the time during which the force is applied to the application point included in the unit range.
Calculation device.
前記データを出力することは、ディスプレイに表示させることを含む
請求項9又は10に記載の演算装置。
The arithmetic device according to claim 9 or 10 , wherein outputting the data includes displaying the data on a display.
前記ディスプレイに表示させることは、前記データとともに、前記被接触体を表す画像も表示させることを含む
請求項11に記載の演算装置。
The computing device according to claim 11 , wherein causing the display to display includes causing an image representing the contacted object to be displayed together with the data.
前記第1のセンサは力覚センサである
請求項1~12のいずれか一項に記載の演算装置。
The computing device according to claim 1 , wherein the first sensor is a force sensor.
被接触体に取り付け可能で、取り付けた前記被接触体に接触によって与えられた力の作用線を検出可能なセンサと、
前記センサと通信することでセンシング結果を取得し、前記力のセンシング結果を用いた処理を行う演算装置と、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記センサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
センサシステム。
a sensor that can be attached to a contacted body and can detect a line of action of a force applied to the contacted body by contact;
a computing device that acquires a sensing result by communicating with the sensor and performs processing using the force sensing result;
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the sensor at different sensing timings, and determining the point of application based on the index value.
Sensor system.
前記センサは、前記形状データの座標系に応じた位置関係で前記被接触体に取り付けるための位置決め機構を有する
請求項14に記載のセンサシステム。
The sensor system according to claim 14 , wherein the sensor has a positioning mechanism for attaching the sensor to the contacted object in a positional relationship according to a coordinate system of the shape data.
コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含み、
前記作用点を決定することは、前記第1のセンサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
コンピュータプログラム。
A computer program that causes a computer to function as an arithmetic device that performs processing using a sensing result from a first sensor that can detect a line of action of a force applied to a contacted object by contact,
The process comprises:
calculating candidate points for the point of application of the force on the contacted body using a line of action of the force obtained from the force sensing result and shape data of the contacted body that has been stored in advance;
determining the action point from among the candidate points ;
Determining the point of application includes determining an index value corresponding to a rate of change in position for each of the candidate points from a plurality of force sensing results obtained by the first sensor at different timings, and determining the point of application based on the index value.
Computer program.
JP2020078654A 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program Active JP7492245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020078654A JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020078654A JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Publications (2)

Publication Number Publication Date
JP2021173903A JP2021173903A (en) 2021-11-01
JP7492245B2 true JP7492245B2 (en) 2024-05-29

Family

ID=78281697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020078654A Active JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Country Status (1)

Country Link
JP (1) JP7492245B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189297A (en) 2003-12-24 2005-07-14 Nagoya Kogyo Univ Feather touch dentistry treatment training system entailing visualization of tactile force
JP2011156204A (en) 2010-02-02 2011-08-18 Omron Healthcare Co Ltd Oral care device
JP2018205141A (en) 2017-06-05 2018-12-27 株式会社レプトリノ Force sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189297A (en) 2003-12-24 2005-07-14 Nagoya Kogyo Univ Feather touch dentistry treatment training system entailing visualization of tactile force
JP2011156204A (en) 2010-02-02 2011-08-18 Omron Healthcare Co Ltd Oral care device
JP2018205141A (en) 2017-06-05 2018-12-27 株式会社レプトリノ Force sensor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅田稔,小俣透,力覚情報認識,新版 ロボット工学ハンドブック,第2版,日本,社団法人日本ロボット学会,2005年06月23日,p.545-549

Also Published As

Publication number Publication date
JP2021173903A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
US8376753B2 (en) Method and device for learning and training dental treatment techniques
US10353482B2 (en) Systems and methods for tracking motion and gesture of heads and eyes
JP6300195B2 (en) Golf swing analysis apparatus and golf swing analysis method
JP4465476B2 (en) Motion capture measurement method for fingers using magnetic position and orientation sensor
US10646317B2 (en) Occlusal state identifying method, occlusal state identifying apparatus, and storage medium
JP7278493B2 (en) tactile sensor
CN110262664A (en) A kind of intelligent interaction gloves with cognitive ability
JPWO2021124445A1 (en) Information processing device, work recognition device and work removal device
JPH02144675A (en) Hand operation recognizing device and hand language converter
CN113228070A (en) Method and system for automatic repeat step and loop detection for manual assembly line operations
EP4138006A1 (en) Content creation system
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
JP7492245B2 (en) Calculation device, sensor system, and computer program
CN112450861B (en) Tooth area identification system
KR20130067856A (en) Apparatus and method for performing virtual musical instrument on the basis of finger-motion
US20190355281A1 (en) Learning support system and recording medium
KR20210091415A (en) Method and apparatus for analyzing golf swing
CN115122333A (en) Robot calibration method and device, electronic equipment and storage medium
JP7165108B2 (en) Work training system and work training support method
US11141094B2 (en) Method and system for assessing a balance and posture of a subject
Shenoy et al. Design and validation of an IMU based full hand kinematic measurement system
KR20220049271A (en) Rehabilitaiton Guide System using Artificial Intelligence
Chen et al. Visual modelling and evaluation of surgical skill
JP7467293B2 (en) Simulation system and simulation method
JP2011118767A (en) Facial expression monitoring method and facial expression monitoring apparatus

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200429

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240510

R150 Certificate of patent or registration of utility model

Ref document number: 7492245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150