JP2015118323A - 訓練装置、訓練方法、及びプログラム - Google Patents
訓練装置、訓練方法、及びプログラム Download PDFInfo
- Publication number
- JP2015118323A JP2015118323A JP2013262888A JP2013262888A JP2015118323A JP 2015118323 A JP2015118323 A JP 2015118323A JP 2013262888 A JP2013262888 A JP 2013262888A JP 2013262888 A JP2013262888 A JP 2013262888A JP 2015118323 A JP2015118323 A JP 2015118323A
- Authority
- JP
- Japan
- Prior art keywords
- instrument
- force
- training
- user
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Instructional Devices (AREA)
- Rehabilitation Tools (AREA)
Abstract
【課題】可搬性を向上でき、且つ、大掛かりな構成を必要とせずに、器具を用いた技能の訓練を実現し得る、訓練装置、訓練方法、及びプログラムを提供する。
【解決手段】訓練装置10は、訓練対象を模した訓練対象オブジェクトとユーザが使用する器具を模した器具オブジェクトとを画面上に表示させる表示部20と、器具の位置を検出する位置検出部30と、器具の状態を検出する状態検出部31と、検出された位置及び状態に対応して器具オブジェクトを変化させて、それが訓練対象オブジェクトから受ける外力を算出する情報処理部40と、器具に取り付けられる接続部材13と、接続部材13を介して器具に引張力を伝達する伝達部材12と、引張力を発生させる駆動部11と、制御部14とを備える。制御部14は、予め、駆動部11に初期力を発生させておき、算出された外力が、触力覚としてユーザに伝達されるように初期力を増加又は減少させる。
【選択図】図4
【解決手段】訓練装置10は、訓練対象を模した訓練対象オブジェクトとユーザが使用する器具を模した器具オブジェクトとを画面上に表示させる表示部20と、器具の位置を検出する位置検出部30と、器具の状態を検出する状態検出部31と、検出された位置及び状態に対応して器具オブジェクトを変化させて、それが訓練対象オブジェクトから受ける外力を算出する情報処理部40と、器具に取り付けられる接続部材13と、接続部材13を介して器具に引張力を伝達する伝達部材12と、引張力を発生させる駆動部11と、制御部14とを備える。制御部14は、予め、駆動部11に初期力を発生させておき、算出された外力が、触力覚としてユーザに伝達されるように初期力を増加又は減少させる。
【選択図】図4
Description
本発明は、外科手術等の器具を用いた技能の訓練を仮想空間内で実現するための、訓練装置及び訓練方法に関し、更にはこれらを実現するためのプログラムに関する。
医療現場で行われる外科手術は、一種の技能であり、医師が一定のレベルの能力を身に付けるためには訓練が必要となる。このため、従来から、人体ではなく、代わりとなる動物を利用した訓練が行われているが、このような訓練の場合、動物の用意、及び訓練後の処理が難しいという問題が生じてしまう。
このため、例えば、特許文献1は、血管、皮膚といった人体の構成要素を模した部材を用いた外科手術訓練装置を開示している。具体的には、特許文献1に開示された外科手術訓練装置は、箱形の訓練ユニットと、制御ユニットとで構成されている。また、訓練ユニットは、内部空間が胸腔に相当する箱形のケースと、皮膚に相当するシートと、手術対象となる患部を模した被処置体とで構成されている。
そして、訓練ユニットにおいて、被処置体はケースの内部に配置され、シートはケースの開口を塞ぐように取り付けられている。また、被処置体は、シリコンゴムで形成された模擬血管と模擬心筋等で構成されている。更に、制御ユニットは、被処置体に取り付けられているワイヤの引張力を制御し、被処置体を本物のように動作させている。
従って、特許文献1に開示された外科手術訓練装置を用いれば、訓練者は、代わりの動物を用いなくても、実際の手術に近い環境で訓練を受けることができるので、訓練者のレベルの向上が期待される。
しかしながら、上記特許文献1に開示された外科手術訓練装置においては、可動部分が必要となるため、装置自体が大がかりとなる。このため、移動が難しく、設置できる場所が限られてしまうという問題点がある。
[発明の目的]
本発明の目的の一例は、上記問題を解消し、可搬性を向上でき、且つ、大掛かりな構成を必要とせずに、器具を用いた技能の訓練を実現し得る、訓練装置、訓練方法、及びプログラムを提供することにある。
本発明の目的の一例は、上記問題を解消し、可搬性を向上でき、且つ、大掛かりな構成を必要とせずに、器具を用いた技能の訓練を実現し得る、訓練装置、訓練方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における訓練装置は、ユーザにおける器具を用いた技能の取得を支援するための訓練装置であって、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、
ユーザが保持する前記器具の位置を検出する、位置検出部と、
ユーザが保持する前記器具の状態を検出する、状態検出部と、
検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する情報処理部と、
前記器具に取り付けられる接続部材と、
当該訓練装置から、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
前記駆動部を制御する制御部と、を備え、
前記制御部は、予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、
ことを特徴とする。
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、
ユーザが保持する前記器具の位置を検出する、位置検出部と、
ユーザが保持する前記器具の状態を検出する、状態検出部と、
検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する情報処理部と、
前記器具に取り付けられる接続部材と、
当該訓練装置から、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
前記駆動部を制御する制御部と、を備え、
前記制御部は、予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における訓練方法は、ユーザにおける器具を用いた技能の取得を支援するための方法であって、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、を備える、訓練装置を用い、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を有することを特徴とする。
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、を備える、訓練装置を用い、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、ユーザにおける器具を用いた技能の取得を支援するため、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータとを備える、訓練装置において、
前記コンピュータに、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を実行させることを特徴とする。
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータとを備える、訓練装置において、
前記コンピュータに、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を実行させることを特徴とする。
以上のように、本発明によれば、可搬性を向上でき、且つ、大掛かりな構成を必要とせずに、器具を用いた技能の訓練を実現することができる。
以下、本発明の実施の形態における、訓練装置、訓練方法、及びプログラムについて、図1〜図10を参照しながら説明する。
[装置構成]
最初に、図1〜図3を用いて、本実施の形態における訓練装置の構成を説明する。図1は、本発明の実施の形態における訓練装置の外観を示す斜視図である。図2は、本発明の実施の形態における訓練装置の各構成部品を示す分解斜視図である。図3は、本発明の実施の形態で用いられる器具とそれに接続される接続部材の一例を示す図である。
最初に、図1〜図3を用いて、本実施の形態における訓練装置の構成を説明する。図1は、本発明の実施の形態における訓練装置の外観を示す斜視図である。図2は、本発明の実施の形態における訓練装置の各構成部品を示す分解斜視図である。図3は、本発明の実施の形態で用いられる器具とそれに接続される接続部材の一例を示す図である。
まず、図1を用いて、本実施の形態における訓練装置の外観構成について説明する。図1に示すように、訓練装置10は、ユーザ200における器具を用いた技能の取得を支援するための装置である。
訓練装置10は、画面101を備えており、画面上に、仮想空間内に配置された、訓練対象を模した訓練対象オブジェクト102と、ユーザ200が使用する器具104を模した器具オブジェクト103とを表示する。また、訓練装置10は、器具104に取り付けられる接続部材13を備えている。
また、訓練装置10は、ユーザが保持する器具104の位置及び状態を検出する。更に、訓練装置10は、検出した位置及び状態に対応して、仮想空間内において、器具オブジェクト103の位置及び状態を変化させ、この変化によって器具オブジェクト103が訓練対象オブジェクト102から受ける外力を算出する。
そして、訓練装置10は、後述する構成により、仮想空間内で、器具オブジェクト103が、訓練対象オブジェクト102から受ける外力を、接続部材13を介して、ユーザに触力覚として提示することができる。このため、訓練装置10によれば、大掛かりな構成を必要とせずに技能の訓練を実現することができる。また、訓練装置10は可搬性にも優れている。
また、本実施の形態では、訓練装置10は、外科手術の技能の取得において支援を行っている。よって、器具としては、外科手術に用いられる器具が挙げられ、訓練対象としては、人体の全部又は一部が挙げられる。
具体的には、図1の例では、器具104は鉗子であり(図3参照)、訓練対象は心臓であるので、画面101には、鉗子を模した器具オブジェクト103と、心臓を模した訓練対象オブジェクト102とが表示されている。よって、訓練装置10を用いることで、ユーザは、心臓の外科手術での鉗子の使い方の訓練を受けることができる。
続いて、図2及び図3を用いて、訓練装置10の内部構成について説明する。図2に示すように、訓練装置10は、画面上に仮想空間を表示させる表示部20と、位置検出部30と、状態検出部31と、情報処理部40とを備えている。
このうち、位置検出部30は、ユーザ200が保持する器具104の位置を検出する。状態検出部31は、ユーザが保持する器具104の状態を検出する。また、情報処理部40は、検出された位置及び状態に対応して器具オブジェクト103(図1参照)の位置及び状態を変化させ、この変化によって器具オブジェクト103が訓練対象オブジェクト102(図1参照)から受ける外力を算出する。
また、図2に示すように、訓練装置10は、ユーザ200(図1参照)に触力覚を提示するため、駆動部11と、伝達部材12と、接続部材13と、制御部14も備えている。このうち、接続部材13は、器具104に取り付けられる(図1及び図3参照)。
伝達部材12は、訓練装置100から接続部材13へと伸びて、接続部材13を介して、器具104に引っ張り方向の力(以下、「引張力」と表記する。)を伝達する部材である。また、駆動部11は、引張力を発生させ、それを伝達部材12に与えている。
また、制御部14は、まず、駆動部11に、予め、設定された大きさの引張力を初期力として発生させる。そして、駆動部11は、情報処理部40によって算出された外力が、触力覚として、接続部材13及び器具104を介してユーザ200(図2参照)に伝達されるように、初期力を増加又は減少させる。
このように、訓練装置100は、器具104を保持しているユーザ200の手に、接続部材13及び伝達部材12を介して、引っ張り方向の力を伝達することによって触力覚を提示することができる。なお、本発明でいう「触力覚」とは、ユーザが感じる、反発力、抵抗力、外力、感触、等を意味する。
ここで、本実施の形態における訓練装置10の構成について更に具体的に説明する。まず、図2に示すように、本実施の形態では、訓練装置10は、ユーザ側から順に、枠状に形成されたカバー50と、表示部20と、箱状の筐体51とを備えている。カバー50は、表示部20の画面101が露出するように、筐体51の開口部分に取り付けられる。また、本実施の形態では、表示部20は、液晶表示装置、有機EL表示装置といった薄型の表示装置である。
上述した、駆動部11、制御部14、位置検出部30、及び情報処理部40は、筐体51の内部に配置されている。また、図2に示すように、本実施の形態では、3本の伝達部材12が用いられており、これに対応して3つの駆動部11が配置されている。
本実施の形態では、伝達部材12それぞれは、訓練装置10の背面側(画面101が設けられている側の反対側)の異なる位置から、ユーザ200が保持する器具104に取り付けられる接続部材13へと伸びる紐状の部材、例えば、ワイヤーである。各伝達部材12の先端は、接続部材13に固定されている。
図3に示すように、本実施の形態では、器具104として鉗子が用いられるため、接続部材13は、鉗子に装着可能な形状に形成されている。また、接続部材13は、器具104の状態に合せて信号を出力するセンサを備えた状態検出部31を備えている。
具体的には、図3の例では、状態検出部31は、鉗子の開閉の程度を特定するための信号を出力するセンサ31aと、鉗子の向きを特定するための信号を出力するセンサ31bとを備えている。センサ31aの具体例としては、回転角度を検出可能なエンコーダが挙げられ、センサ31bの具体例としては、鉛直方向に対する傾きを検出する3軸加速度センサが挙げられる。また、センサ31aが出力した信号(以下、「開閉状態検出信号」と表記する。)bと、センサ31bが出力した信号(以下、「向き検出信号」と表記する。)cは、情報処理部40へと送られる。
また、本実施の形態では、図3に示すように、接続部材13は、センサ31aとセンサ31bとを一体化した構造を有している。更に、接続部材13は、鉗子を構成する部材104aにおける部材104bとの連結部分に取り付けられており、センサ31aは、部材104aと部材104bとがなす角度を検出している。また、この場合、センサ31bは、接続部材13が取り付けられている部材104aの先端の向きを、鉗子の向きとして検出している。
また、図2に示すように、本実施の形態では、各駆動部11は、プーリ15が軸に取り付けられたモータであり、対応する伝達部材12をプーリ15で巻き取ることによって、対応する伝達部材12に、引っ張り方向の力を与えている。伝達部材12の一端はプーリに固定されている。
更に、筐体50の底面には、伝達部材12毎に、通し穴16が設けられており、各伝達部材12は、通し穴16を経由して、訓練装置10の背面側へと伸びる。なお、各通し穴16の位置は、特に限定されないが、後述するように、触力覚の提示範囲は各通し穴16の位置によって決定される(図8の領域X参照)。よって、各通し穴16の位置は、求められる提示範囲を考慮した上で決定される。
このように、本実施の形態においては、3本の伝達部材12によって、接続部材13が引っ張られることによって、ユーザ200の指に提示力が提示される(図1参照)。つまり、各駆動部11が伝達部材13に与える引張力の合力によって、触力覚が提示される。
また、3本の伝達部材12は、センサ31a及び31bと情報処理部40とを接続する配線として用いることもできる。この場合、配線として機能させるため、伝達部材12の内部には、一端がセンサ31a又は31bに接続された導電性の線材が組み込まれる。また、図2においては図示していないが、この導電性の線材の他端は、伝達部材12のプーリ15との固定部分を超えて情報処理部40へと延びている。
また、本実施の形態では、位置検出部30は、駆動部11毎に設けられており、接続部材13の位置を特定するための信号(以下、「位置検出信号」と表記する。)aを、情報処理部40に出力する。具体的には、位置検出部30としては、モータの軸の回転数を検出するエンコーダが挙げられる。この場合、各位置検出部30からは、位置検出信a号として、モータの軸の回転数を特定する信号が出力される。
そして、情報処理部40は、各位置検出部30から出力された位置検出信号aを受け取ると、予め登録されている、伝達部材12の全長、プーリ15の直径、プーリ15から通し穴16までの距離等に基づいて、各伝達部材12の通し穴16から接続部材13までの長さを算出する。また、情報処理部40は、後述するように、算出された各伝達部材12の長さに基づいて、接続部材13の位置、即ち、器具(鉗子)104の位置を特定する。
また、情報処理部40は、状態検出部31として機能するセンサ31a及び31bから、開閉状態検出信号bと、向き検出信号cとを受け取ると、これらの信号に基づいて、器具104の状態として、鉗子の開閉の程度と向きとを特定する。
そして、情報処理部40は、特定した鉗子の位置、開閉の程度、及び向きに対応して、仮想空間内の器具オブジェクト103の位置、開閉の程度、及び向きを変化させる。更に、情報処理部40は、後述するように、この変化の結果、器具オブジェクト103が訓練対象オブジェクト102に接触する等して、これから受ける外力を算出する。
また、本実施の形態では、制御部14及び情報処理部40は、それぞれ、マイコン等のコンピュータによって実現されている。また、両者は、それぞれ別々のコンピュータによって実現されていても良いし、同一のコンピュータによって実現されていても良い。
このように、本実施の形態では、駆動部11として機能するモータによる力の伝達機構として、紐状の部材(伝達部材12)が用いられる。従って、構成部材の軽量化と、触力覚を提示するための機構の単純化とが図られるので、訓練装置10の小型軽量化及び可搬性の向上が達成される。
また、本実施の形態では、駆動部材12による引張力の伝達方向は、プーリ15及び通し穴16の位置によって、自由に設定できる。更に、伝達部材12の通し穴から接続部材13までの距離は、プーリ15での巻き取り量によって、自由に設定できる。従って、ユーザが器具104を動かすことのできる範囲を大きくできるので、広い範囲での3次元的な触力覚の提示が可能となる。また、伝達部材12として、軽量な紐状の部材が用いられているので、ユーザは、器具104を動かす際に、機械的な抵抗などを感じ難いといえる。
続いて、図4を用いて、訓練装置10でやり取りされるデータについて説明する。図4は、本発明の実施の形態における訓練装置の構成を示すブロック図である。
図4に示すように、訓練装置10において、情報処理部40は、表示装置20、位置検出部30、状態検出部31(センサ31a、31b)及び制御部14に接続されている。また、制御部14は、駆動部(モータ)11に接続されている。
この構成では、ユーザ200(図1参照)が、接続部材13が取り付けられた器具104の位置を変えると、各位置検出部30は、位置検出信号aを情報処理部40に出力する。また、ユーザが、器具104の開閉の程度を変えると、センサ31aは、開閉状態変出信号bを情報処理部40に出力する。更に、ユーザが、器具104の向きを変えると、センサ31bは、向き検出信号cを情報処理部40に出力する。そして、情報処理部40は、各信号を受け取ると、これらの信号に基づいて、器具104の位置、開閉状態、及び向きを特定する。
また、情報処理部40は、器具104の位置、開閉状態、及び向きを特定すると、特定した内容に応じて、器具オブジェクト103(図1参照)の位置、開閉状態、及び向きを変更する。そして、情報処理部40は、コンテンツデータ41を参照し、器具オブジェクト103と仮想空間内の訓練対象オブジェクト102とを連動させる処理を行ない、その処理内容が反映された表示を行うためのデータ(以下「表示データ」と表記する。)eを表示部20に出力する。表示データeは、画像データを含んでおり、この画像データは、仮想空間の内部を、設定された投影面に投影して得られている。
コンテンツデータ41の具体例としては、訓練オブジェクト102及び器具オブジェクトを構築するためのモデリングデータ、各オブジェクトの設定データ、仮想空間を提供するアプリケーションプログラムのデータ等が挙げられる。また、コンテンツデータ41は、訓練装置10に備えられた記憶装置に格納されていても良いし、インターネットで接続された別の機器(コンピュータ)に格納されていても良い。
また、情報処理部40は、上述の連動させる処理において、器具オブジェクト103に仮想空間内で発生した力を算出し、算出した力を特定するデータd(以下「提示力特定データd」と表記する。)を、制御部14に出力する。この算出された力は、ユーザオブジェクト102に発生した反発力等であり、ユーザに提示すべき力、即ち、触力覚に相当する。
制御部14は、提示力特定データdを受け取ると、提示力特定データdによって特定される触力覚がユーザ200に伝達されるように、各駆動部11が出力すべき引張力を算出する。そして、制御部14は、各駆動部11に目的の引張力を発揮させるための制御データgを生成し、これを各駆動部11に出力する。
具体的には、制御部14は、電源回路(図示せず)を用いて、駆動部11として機能するモータを駆動するためのパルス信号を生成し、これを制御データgとして出力する。これにより、各駆動部(モータ)11は、計算された引張力で伝達部材12を引っ張り、ユーザ200の手には、接続部材13を介して、提示力特定データdによって特定される触力覚が提示される。
[装置動作]
次に、本発明の実施の形態における訓練装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における訓練装置10の動作を示すフロー図である。なお、以下の説明においては、適宜図1〜図4を参酌する。また、本実施の形態では、訓練装置10を動作させることによって、訓練方法が実施される。よって、本実施の形態における訓練方法の説明は、以下の訓練装置10の動作説明に代える。
次に、本発明の実施の形態における訓練装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における訓練装置10の動作を示すフロー図である。なお、以下の説明においては、適宜図1〜図4を参酌する。また、本実施の形態では、訓練装置10を動作させることによって、訓練方法が実施される。よって、本実施の形態における訓練方法の説明は、以下の訓練装置10の動作説明に代える。
最初に、ユーザ200が、訓練装置10の背面側の空間において、表示部20の画面上に表示される訓練対象オブジェクト(人の心臓を模したオブジェクト)102に、外科的処置を行うために、器具104を操作する。具体的には、ユーザ200は、鉗子を用いて、心臓の血管部分を挟んだり、針を掴んで切開箇所を縫ったりといった処置を行う。これにより、図4に示したように、各位置検出部30が位置検出信号aを出力し、センサ31aが開閉状態検出信号bを出力し、センサ31bが向き検出信号cを出力する。そして、情報処理部40は、これらの信号を受け取る。
次に、図5に示すように、情報処理部40は、出力されてきた各信号に基づいて、器具の位置、開閉状態、及び向きを特定する(ステップS101)。具体的には、情報処理部40は、位置検出信号aに基づいて、各伝達部材12の通し穴16から接続部材13までの長さを算出し、更に、算出された各伝達部材12の長さに基づいて、器具104(接続部材13)の位置を算出する。
また、情報処理部40は、センサ31aからの開閉状態検出信号bを受け取ると、鉗子を構成する部材104aと部材104bとがなす角度を算出する。更に、情報処理部40は、センサ31bからの向き検出信号cを受け取ると、鉛直方向を基準とした部材104aの傾きを算出する。
次に、情報処理部40は、コンテンツデータ41を参照し、訓練対象オブジェクト102に器具オブジェクト103とを連動させる処理(コンテンツ連動処理)を実行する(ステップS102)。また、ステップS102では、情報処理部40は、コンテンツ連動処理の処理内容が反映された表示データeを表示部20出力する。更に、ステップS102では、情報処理部40は、器具オブジェクト103に仮想空間内で発生した力を算出し、算出した力を特定する提示力特定データdを、制御部14に出力する。
次に、制御部14は、情報処理部40から提示力特定データdを受け取ると、提示力特定データdで特定される提示力を提示する上で各駆動部11が出力すべき引張力を算出する(ステップS103)。また、ステップS103では、制御部14は、更に、各駆動部11によって、算出された引張力が発生するように制御データgを生成し、これを各駆動部11に出力する。
ステップS103が実行されると、訓練装置10において、各駆動部11を構成するモータは、出力されてきた制御データgに応じて回転して伝達部材12を引っ張り、接続部材13及び器具104を介して、ユーザ200の手に触力覚を提示する(ステップS104)。
また、表示部20の画面101には、ステップS102で情報処理部40が出力した表示データeに基づいて、コンテンツ連動処理後の仮想空間が表示される(ステップS105)。なお、ステップS104とステップS105とは、同時に実行されても良い。
また、本実施の形態においては、ステップS101〜S105は、繰り返し実行される。よって、ユーザ200が、例えば、ある位置から別の位置まで器具104を動かした場合は、開始から終了までの間に、ステップS101〜S105は繰り返し実行されるので、その間、ユーザ200は、連続して、触力覚の提示を受けることができる。
ここで、図5に示したステップS101〜ステップS103までの各ステップについて、図6〜図9を用いて更に詳細に説明する。
[ステップS101]
まず、図6を用いて、図5に示したステップS101(器具の位置及び状態の検出処理)について説明する。図6は、図5に示したステップS101を説明するための図である。ステップS101の検出処理では、訓練装置10の背面側において、伝達部材12の先端が接続されている接続部材13の位置が、伝達部材12の長さによって特定される。伝達部材12の長さは、位置検出部30によって特定される。
まず、図6を用いて、図5に示したステップS101(器具の位置及び状態の検出処理)について説明する。図6は、図5に示したステップS101を説明するための図である。ステップS101の検出処理では、訓練装置10の背面側において、伝達部材12の先端が接続されている接続部材13の位置が、伝達部材12の長さによって特定される。伝達部材12の長さは、位置検出部30によって特定される。
具体的には、図6に示すように、各伝達部材12の通し穴16から接続部材13までの長さを、それぞれ、l1、l2、l3とし、画面の水平方向において隣り合う通し穴間の間隔をwとし、画面の垂直方向において隣り合う通し穴間の間隔をhとする。この場合、情報処理部40は、l1、l2、l3、w、及びhを用いて、接続部材12の座標(x、y、z)を幾何的に算出する。
また、上述したように、情報処理部40は、開閉状態検出信号bに基づいて、鉗子を構成する部材104aと部材104bとがなす角度を算出し、更に、向き検出信号cに基づいて、鉛直方向を基準とした部材104aの傾きを算出する。
[ステップS102]
次に、図1を参照しながら、図5に示したステップS102(コンテンツ連動処理)について説明する。ステップS102のコンテンツ連動処理では、上述したように、ユーザ200による器具104の操作に応じて、仮想空間内で器具オブジェクト103が動き、更に、仮想空間内の訓練対象オブジェクト102は、器具オブジェクト103に連動する。
次に、図1を参照しながら、図5に示したステップS102(コンテンツ連動処理)について説明する。ステップS102のコンテンツ連動処理では、上述したように、ユーザ200による器具104の操作に応じて、仮想空間内で器具オブジェクト103が動き、更に、仮想空間内の訓練対象オブジェクト102は、器具オブジェクト103に連動する。
具体的には、情報処理部40は、器具オブジェクト103の動きに合せて、訓練対象オブジェクト102に変化を与えると共に、仮想空間内の訓練対象オブジェクト102と実空間の器具104とのインタラクション(相互作用)を取る。このとき、情報処理部40は、仮想空間内の物理シミュレータを用いて、器具オブジェクト103と訓練対象オブジェクト102とが接触した際の変化及び接触力をシミュレートする。
そして、情報処理部40は、器具オブジェクト103と訓練対象オブジェクト102との仮想空間での物理係数に応じて、両者に生じた反力を計算する。なお、物理係数としては、器具オブジェクト103及び訓練対象オブジェクト102それぞれの、質量、速度、加速度、接触方向、反発係数等が挙げられる。
また、この計算された反力のうち、器具オブジェクト103が訓練対象オブジェクト102から受けた反力が、ユーザ200に提示すべき触力覚に相当する(後述の図7及び図8参照)。よって、具オブジェクト103が訓練対象オブジェクト102から受けた反力を「提示力F」とすると、情報処理部40は、提示力Fが提示されるようにするため、提示力Fを特定する提示力特定データdを制御部14に出力する。また、情報処理部40は、器具オブジェクト103及び訓練対象オブジェクト102を表示するための表示データeを、表示装置20に出力する。
[ステップS103]
次に、図7及び図8を用いて、図5に示したステップS103(引張力の算出処理及び制御データの生成処理)について説明する。
次に、図7及び図8を用いて、図5に示したステップS103(引張力の算出処理及び制御データの生成処理)について説明する。
図7は、図5に示したステップS103を説明するための図である。図7に示すように、目的の提示力Fを提示するために必要となる各伝達部材12の引張力を、それぞれ、τ1、τ2、τ3とすると、提示力Fは、基本的には、引張力τ1、τ2、及びτ3の合力に相当する。
そして、提示力Fが、外部から訓練装置10に向かう方向の力である場合には、提示力Fの方向は、引張力τ1〜τ3の合力の方向と一致する。しかし、図7に示すように、提示力Fが訓練装置10から離れる方向の力である場合には、伝達部材12は、紐状の部材であり、訓練装置10側へと引っ張る方向の力しか伝達できないため、触力覚の提示ができなくなる可能性がある。
そのため、本実施の形態では、制御部14は、上述したように、触力覚を提示しない場合において、予め、接続部材13に一定の力を常に初期力F0として提示する。そして、制御部14は、提示力Fが、訓練装置10から離れる方向の力である場合は、初期力F0を緩めることにより、訓練装置10から離れる方向への触力覚を提示している。
一般に、ヒトの触感覚には、その時間特性として、順応と呼ばれる現象がある。順応は、ヒトに一定の刺激を提示し続けると、刺激に対する感度が低下する現象である。つまり、ヒトの皮膚は、圧力に対してきわめて順応しやすく、指輪及び腕時計を装着した場合、その装着感は失われやすい。
また、重力に対しても同様であり、ヒトは、普段、その力を意識することはない。例えば、電車に乗っている際の加速時又は減速時において、ヒトには、その慣性力と重力との合力が力として加わっているが、電車に乗っているヒトは、合力を感じず、移動方向への慣性力のみを感じる。
このように、本実施の形態では、ヒトの順応性が利用され、初期力F0を増加又は減少させることによって、訓練装置10に向かう方向の触力覚と離れる方向の触力覚との提示が可能となっている。
続いて、図8を用いて、伝達部材12に与える引張力τ1〜τ3の算出処理について具体的に説明する。図8(a)は、引張力の算出処理を説明するための図であり、図8(b)は、引張力の算出処理に用いられる座標軸を示す図である。
図8(a)及び(b)において、引張力τ1〜τ3は、初期力F0を発生させるために必要となる引張力を除いた引張力であり、初期力F0に対して加算又は減算させる引張力である。また、図8(a)及び(b)において、座標軸の原点は、各伝達部材12の先端の位置とする。更に、x軸は画面の水平方向に平行な軸、y軸は画面の垂直方向に平行な軸、z軸は画面の法線に平行な軸とする。図8(b)において、単位ベクトルrの座標を、(r,ψi,θi)とする。この場合、引張力τ1〜τ3は、目的の提示力を発揮するためには、下記の数1の関係を満たす必要がある。
また、上記数1において、伝達部材12の引張力τ1〜τ3はスカラー量であり、引張力τ1〜τ3の方向ベクトルΦiは、数2によって表わされる。
制御部14は、上記数1及び数2を用いることで、引張力τ1〜τ3を算出することができる。また、上記数1に示すように、目的の提示力Fは、各伝達部材12の引張力から初期力F0を減算することによって得られている。このため、提示力Fが、訓練装置10から離れる方向(−z方向)の、初期力F0を超える力でない限りは、訓練装置10から離れる方向(−z方向)においても触力覚の提示が可能となる。
なお、各伝達部材12の引張力の条件として、引張力τ1、τ2、τ3は、引っ張る方向にしか力を提示できないため、これらは必ず正の値をとる。また、各引張力の最低値をτminとした場合は、下記の数3が成立する。
ところで、伝達部材12は、引っ張り方向の力しか伝達できないため、引張力τ1、τ2、τ3の合力によって、提示すべき触力覚を提示できない状況が発生することがある(図9参照)。具体的には、接続部材13が、画面の法線に平行な方向(z軸方向)において、隣接する通し穴16を直線で結んで得られる領域(図9の領域X参照)と重ならない位置にある場合は、上記数1では、目的の提示力Fを算出できなくなる可能性がある。このような場合、本実施の形態では、制御部14は、提示すべき触力覚(提示力F)を設定し直し、設定し直した提示力Frが提示されるように、初期力F0を増加又は減少させる。以下に、上記再設定処理について具体的に説明する。
図9は、提示力の再設定処理を説明するための図である。図9に示すように、例えば、接続部材13の位置(x、y、z)が、隣接する通し穴16を直線で結んで得られる領域Xとz軸方向において重ならない位置にある場合を想定する。
図9に示す場合において、提示力FのX軸方向の成分が正でない限り、各伝達部材12の張力をどのように設定しても、上記数1及び数2によって提示力Fを算出することは不可能である。一方、このような状況であっても、ユーザは、器具104を領域Xとz軸方向において重なる位置に移動させることはできる。従って、制御部14は、このような場合において、上記数1及び数2によって、引張力τ1、τ2、τ3を算出できるように、提示力Frを再設定する。
図9の例では、実際に、引張力τ1、τ2、及びτ3によって引っ張りたい方向は、提示力Fと初期力F0との合力の方向である。しかし、この方向は、各伝達部材12の合力によって引っ張ることができる方向ではない。このため、制御部14は、提示力Fと初期力F0との合力に最も近い力を、新たな提示力Frとして再設定する。
図9の例では、引張力τ1と引張力τ2とで発生させる提示力Frが、元の提示力Fと初期力F0との合力に近くなる。そこで、制御部14は、引張力τ1と引張力τ2とを発生させる2本の伝達部材12によって作られる面に、元の提示力Fと初期力F0との合力を回転射影することで、新しい提示力Frを再設定する。
具体的には、引張力τ1と引張力τ2とを発生させる2本の伝達部材12によって作られる面への射影ベクトルVは、下記の数4によって表すことができる。下記の数4において変数「a」は、図9に示すように、回転射影を行なった場合の回転角度ωを最も小さくする位置、即ち、領域Xの画面の垂直方向における辺上の位置を割合で表わしている(0<a<1)。また、Φ1は通し穴16を基準にしたτ1の方向ベクトルである。Φ2は通し穴16を基準にしたτ2の方向ベクトルである。Φ1及びΦ2は、上述の数2から求められる。
従って、制御部14は、下記数5を用いて、射影ベクトルVと元の提示力F及び初期力F0の合力との内積を、最も小さくする射影ベクトルを算出する。そして、制御部15は、算出した射影ベクトルを、下記の数6に適用して、新たな提示力Frを算出する。その後、制御部15は、新たな提示力Frを用いて、各伝達部材12の引張力τ1、τ2、τ3を算出し、これらが発生するように制御データgを生成し、各駆動部11に出力する。
[実施の形態における変形例]
上述した例では、伝達部材12は三本であるが、本実施の形態では、伝達部材12の数は特に限定されるものではない。伝達部材12の数は、訓練装置10を大型化させない範囲で設定されていれば良い。
上述した例では、伝達部材12は三本であるが、本実施の形態では、伝達部材12の数は特に限定されるものではない。伝達部材12の数は、訓練装置10を大型化させない範囲で設定されていれば良い。
上述した例では、駆動部11としてモータが用いられているが、本実施の形態では、駆動部はモータに限定されない。駆動部11は、駆動部材を引っ張ることが可能なアクチュエータであれば良く、駆動部11としては、他に、伸張動作を行なう人工筋肉アクチュエータ、繊維状の形状記憶合金アクチュエータ、などが挙げられる。
また、上述した例では、位置検出部30として、伝達部材の長さを特定するエンコーダが用いられているが、本実施の形態では、位置検出部30は、エンコーダ以外であっても良い。例えば、位置検出部30としては、訓練装置10の背面に設置されたカメラを用いることができる。この場合は、接続部材13の位置が光学的に検出される。また、位置検出部30として、訓練装置10の背面に設置された磁気センサを用いることもできる。この場合は、磁気を発する材料で接続部材13を形成することによって、接続部材13の位置検出が可能となる。
また、上述した例では、図5に示したように、伝達部材12を引張し始める位置である通し穴16の位置は、縦方向をh、横方向をwとした直角三角形の頂点位置に設定されているが、本実施の形態において、通し穴16の位置は特に限定されるものではない。また、全ての通し穴は、同一平面内に配置されていなくても良い。通し穴16の位置は、訓練装置10の厚みが許す範囲で適宜設定される。
更に、上述した例では、訓練装置10は、駆動部11及び伝達部材12等で構成された機構部分を、既存の情報端末に後付けすることによって構成されていても良い。この場合、訓練装置10の製造コストの低減を図ることが容易となる。
また、上述した例では、訓練装置10の背面側を操作空間にして、触力覚が提示されているが、本実施の形態では、訓練装置10の画面側の空間が操作空間となっていても良い。但し、この場合は、初期力F0の方向は、z軸において負の方向となる(図7参照)。
上述した例では、触力覚提示装置は、タブレット状の情報端末に適用されているが、本実施の形態は、これに限定されるものではない。例えば、触力覚提示装置は、ユーザの顔面に装着されるヘッドマウントディスプレイに組み込まれていても良い。この場合、ユーザは、ヘッドマウントディスプレイ内側の表示パネルに映し出されているコンテンツを見ながら、ヘッドマウントディスプレイの前方で、接続部材を装着した指を動かすことで、触った感覚を感じることができる。
また、図10は、本発明の実施の形態における情報端末の他の例を示す斜視図である。図10に示すように、本実施の形態では、訓練装置10を構成している筐体には、接続部材13を収容するための凹部18と、伝達部材12を収容するための溝19とが形成されているのが好ましい。図10に示す態様とした場合は、ユーザにおいて、訓練装置10の持ち運びが容易なものとなる。
上述の例では、器具104として鉗子が用いられる場合について説明したが、本実施の形態において器具104は特に限定されることはない。例えば、器具104として、同じく外科手術に用いられる、メス、ピンセット、ハサミ等が利用されても良い。但し、器具104として、メスが利用される場合は、メスの向きのみを特定できれば良いため、状態検出部31は、3軸加速度センサ等のセンサ31bのみを備えていれば良い。
また、本実施の形態では、訓練装置10は、複数の接続部材13を備えていても良い。この場合、各接続部材13は、別々の器具104に取り付けられ、更に、互いに異なる伝達部材12に接続されることになる。また、接続部材13の数が増加すると、これに伴い、駆動部11、位置検出部30、及び状態検出部31も増設される。そして、制御部14は、接続部材13毎に、それが接続された伝達部材12を介して、それに対応する駆動部11によって、引張方向の力を与え、それによって、ユーザに触力覚を伝達する。
具体的には、2つの接続部材12が備えられ、各接続部材12が別々の鉗子に接続されている例が挙げられる。この場合、ユーザは、右手及び左手それぞれで2つの鉗子を操作しながら、両方の手に触力覚を感じることができる。また、この場合、接続部材13毎に3本の伝達部材12が必要となるので、訓練装置10には、6つの駆動部11と、6つの位置検出部30とが搭載される。また、接続部材13毎に、状態検出部31として機能するセンサ31a及び31bも搭載される。
[他の適用例]
また、本実施の形態において、訓練装置10は、外科手術の分野以外の分野においても適用可能である。訓練装置10は、器具を用いた技能を訓練によって取得する必要がある分野であれば、特に限定なく、適用可能である。
また、本実施の形態において、訓練装置10は、外科手術の分野以外の分野においても適用可能である。訓練装置10は、器具を用いた技能を訓練によって取得する必要がある分野であれば、特に限定なく、適用可能である。
例えば、訓練装置10は、歯の治療における技能の取得に利用することができる。この場合、例えば、ユーザは、実際の歯を削っている際の感覚を体験することができる。また、訓練装置10は、機械のメンテナンス及び組み立てにおける技能の取得にも利用することができる。この場合、例えば、ユーザは、ねじ又はボルトを適切なトルクで締め付ける感覚を体験することができる。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図5に示すステップS101〜S105を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における訓練装置10と訓練方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、制御部14及び制御部40として機能し、処理を行なう。
本実施の形態におけるプログラムは、コンピュータに、図5に示すステップS101〜S105を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における訓練装置10と訓練方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、制御部14及び制御部40として機能し、処理を行なう。
また、訓練装置10を実現可能なコンピュータは、特に限定されず、上述したマイコンであっても良いし、汎用のパーソナルコンピュータであっても良い。更に、訓練装置10を実現可能なコンピュータは、携帯電話、スマートフォン、又はタブレット型の情報端末に備えられているコンピュータであっても良い。
また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体に記録された状態で提供されても良いし、インターネット介して送信されても良い。なお、記録媒体の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
[実施の形態における効果]
以上のように、本実施の形態では、ユーザは、画面上で訓練対象を模した訓練対象オブジェクトを見ながら、背面側の空間で、器具を動かすと、器具オブジェクトが訓練対象オブジェクトに与える変化に応じた触力覚を感じることができる(図1参照)。このため、本実施の形態によれば、大掛かりな構成を必要とせずに技能の訓練を実現することができる。
以上のように、本実施の形態では、ユーザは、画面上で訓練対象を模した訓練対象オブジェクトを見ながら、背面側の空間で、器具を動かすと、器具オブジェクトが訓練対象オブジェクトに与える変化に応じた触力覚を感じることができる(図1参照)。このため、本実施の形態によれば、大掛かりな構成を必要とせずに技能の訓練を実現することができる。
また、本実施の形態では、触力覚の発生は、ヒトの知覚特性を考慮して行なわれているため、発生した触力覚は、ユーザにとって違和感のないものとなる。更に、伝達部材の長さを確保することで、ユーザは器具を大きく動かすことができ、この点からも、触力覚は、ユーザにとって違和感のないものとなる。
また、伝達部材として紐状の部材を用いた場合は、訓練装置の複雑化を抑制できるので、特に、装置の小型化及び軽量化を促進できる。更に、モータ等を空間的に配置する必要がないので、携帯型の情報端末によって訓練装置を実現することも可能となる。
以上のように、本発明によれば、可搬性を向上でき、且つ、大掛かりな構成を必要とせずに、器具を用いた技能の訓練を実現することができる。本発明は、器具を用いた技能の取得が必要な各種分野に有用である。
10 訓練装置
11 駆動部
12 伝達部材
13 接続部材
14 制御部
15 プーリ
16 通し穴
18 スイッチ収納用の凹部
19 伝達部材収納用の凹部
20 表示部
30 位置検出部
31 状態検出部
40 情報処理部
50 カバー
51 筐体
101 画面
102 訓練対象オブジェクト
103 器具オブジェクト
200 ユーザ
a 位置検出信号
b 開閉状態検出信号
c 向き検出信号
d 提示力特定データ
g 制御データ
e 表示データ
11 駆動部
12 伝達部材
13 接続部材
14 制御部
15 プーリ
16 通し穴
18 スイッチ収納用の凹部
19 伝達部材収納用の凹部
20 表示部
30 位置検出部
31 状態検出部
40 情報処理部
50 カバー
51 筐体
101 画面
102 訓練対象オブジェクト
103 器具オブジェクト
200 ユーザ
a 位置検出信号
b 開閉状態検出信号
c 向き検出信号
d 提示力特定データ
g 制御データ
e 表示データ
Claims (8)
- ユーザにおける器具を用いた技能の取得を支援するための訓練装置であって、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、
ユーザが保持する前記器具の位置を検出する、位置検出部と、
ユーザが保持する前記器具の状態を検出する、状態検出部と、
検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する情報処理部と、
前記器具に取り付けられる接続部材と、
当該訓練装置から、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
前記駆動部を制御する制御部と、を備え、
前記制御部は、予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、
ことを特徴とする訓練装置。 - 筐体と、複数の前記伝達部材と、複数の前記伝達部材それぞれに対応した複数の前記駆動部と、を更に備え、
複数の前記伝達部材それぞれは、前記筐体の背面側における異なる位置から前記接続部材へと伸びる紐状の部材であり、
複数の前記駆動部は、ぞれぞれ、前記筐体の内部に配置され、対応する前記伝達部材を巻き取ることによって、対応する前記伝達部材に、前記引っ張り方向の力を与え、
前記制御部は、複数の駆動部それぞれが前記伝達部材に与える前記引っ張り方向の力の合力を、前記触力覚として、前記ユーザに伝達する、
請求項1に記載の訓練装置。 - 前記状態検出部が、前記接続部材に設けられ、且つ、前記器具の状態に合せて信号を出力するセンサを有し、
前記情報処理部が、前記センサが出力した前記信号に基づいて、前記器具の状態を特定し、特定した状態を用いて、前記外力を算出する、
請求項1または2に記載の訓練装置。 - 前記器具が、外科手術に用いられる器具であり、前記訓練対象が、人体の全部又は一部である、請求項1〜3のいずれかに記載の訓練装置。
- 前記器具が、外科手術に用いられる鉗子であり、
前記訓練対象が、人体の全部又は一部であり、
前記状態検出部が、前記センサとして、前記鉗子の開閉の程度を特定するための信号を出力する第1のセンサと、前記鉗子の向きを特定するための信号を出力する第2のセンサとを有し、
前記情報処理部が、前記第1のセンサが出力した信号と、前記第2のセンサが出力した信号とに基づいて、前記器具の状態として、前記鉗子の開閉の程度と向きとを特定する、
請求項3に記載の訓練装置。 - 複数の前記接続部材を更に備え、
複数の前記接続部材は、それぞれ、別々の前記器具に取り付けられ、且つ、互いに異なる前記伝達部材に接続され、
前記制御部は、複数の前記接続部材それぞれ毎に、当該接続部材が接続された前記伝達部材を介して、それに対応する前記駆動部によって、前記引張方向の力を与え、それによって、前記ユーザに前記触力覚を伝達する、
請求項1〜5のいずれかに記載の訓練装置。 - ユーザにおける器具を用いた技能の取得を支援するための方法であって、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、を備える、訓練装置を用い、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を有することを特徴とする訓練方法。 - ユーザにおける器具を用いた技能の取得を支援するため、
仮想空間内に配置された、訓練対象を模した訓練対象オブジェクトと、前記器具を模した器具オブジェクトとを、画面上に表示させる、表示部と、ユーザが保持する前記器具の位置を検出する、位置検出部と、ユーザが保持する前記器具の状態を検出する、状態検出部と、前記器具に取り付けられる接続部材と、前記接続部材へと伸びて、前記接続部材を介して、前記器具に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータとを備える、訓練装置において、
前記コンピュータに、
(a)検出された前記位置及び前記状態に対応して前記器具オブジェクトの位置及び状態を変化させ、この変化によって前記器具オブジェクトが前記訓練対象オブジェクトから受ける外力を算出する、ステップと、
(b)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させる、ステップと、
(c)前記(a)のステップによって算出された前記外力が、触力覚として、前記接続部材及び前記器具を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262888A JP2015118323A (ja) | 2013-12-19 | 2013-12-19 | 訓練装置、訓練方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262888A JP2015118323A (ja) | 2013-12-19 | 2013-12-19 | 訓練装置、訓練方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015118323A true JP2015118323A (ja) | 2015-06-25 |
Family
ID=53531062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013262888A Pending JP2015118323A (ja) | 2013-12-19 | 2013-12-19 | 訓練装置、訓練方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015118323A (ja) |
-
2013
- 2013-12-19 JP JP2013262888A patent/JP2015118323A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210393351A1 (en) | User-interface control using master controller | |
US10013082B2 (en) | Operating system with haptic interface for minimally invasive, hand-held surgical instrument | |
US20210141457A1 (en) | Haptic information presentation system | |
JP5750717B2 (ja) | バーチャルリアリティ環境生成装置及びコントローラ装置 | |
CN211827846U (zh) | 医疗模拟系统 | |
EP3217910B1 (en) | Interaction between user-interface and master controller | |
GB2589458A (en) | A virtual reality surgical system including a surgical tool assembly with haptic feedback | |
Almeida et al. | Towards natural interaction in immersive reality with a cyber-glove | |
US20150130599A1 (en) | Training system | |
KR20200082423A (ko) | 촉각 피드백이 가능한 가상현실 기반의 손 재활 시스템 | |
JP6341096B2 (ja) | 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体 | |
JP2011059862A (ja) | 非接地型力覚提示装置 | |
JP6428629B2 (ja) | 触力覚提示装置、情報端末、触力覚提示方法、およびプログラム | |
JP2024150644A (ja) | 触力覚情報提示システム | |
JP2014109818A (ja) | 力覚提示システム | |
JP2015118323A (ja) | 訓練装置、訓練方法、及びプログラム | |
US20220361966A1 (en) | Force estimation and visual feedback in surgical robotics | |
JP2014130184A (ja) | 手術シミュレータ用鉗子 | |
WO2014119383A1 (ja) | 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体 | |
JP2020134710A (ja) | 手術トレーニング装置 | |
JP2015153387A (ja) | 仮想現実体感装置、仮想現実体感方法、及びプログラム |