JP2007183332A - Operation training device - Google Patents
Operation training device Download PDFInfo
- Publication number
- JP2007183332A JP2007183332A JP2006000498A JP2006000498A JP2007183332A JP 2007183332 A JP2007183332 A JP 2007183332A JP 2006000498 A JP2006000498 A JP 2006000498A JP 2006000498 A JP2006000498 A JP 2006000498A JP 2007183332 A JP2007183332 A JP 2007183332A
- Authority
- JP
- Japan
- Prior art keywords
- student
- simulated
- state
- difference
- proficiency level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、操作訓練装置に関し、特にたとえば多数の自由度を有するロボットの操作を訓練する、操作訓練装置に関する。 The present invention relates to an operation training device, and more particularly to an operation training device that trains operation of a robot having a large number of degrees of freedom, for example.
従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術によれば、第1のハンドルは医療器具を移動させるべく指導者によって制御され、第2のハンドルは同じ器具を制御するべく生徒によって動かされる。指導者によるハンドルの移動と生徒によるハンドルの移動の間の逸脱は、生徒と指導者のハンドルへの力フィードバックとして提供される。生徒の手は、この力フィードバックにより、指導者の手の動きに一致するよう強要される。
しかし、従来技術では、生徒の操作技能の習熟度を如何にして算出するかについて何ら開示していない。 However, the prior art does not disclose how to calculate the proficiency level of the student's operation skill.
それゆえに、この発明の主たる目的は、生徒の習熟度を客観的かつ正確に評価することができる、操作訓練装置を提供することである。 Therefore, a main object of the present invention is to provide an operation training apparatus capable of objectively and accurately evaluating the proficiency level of students.
請求項1の発明に従う操作訓練装置(14)は、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力手段(S5)、実操作器の操作状態と模擬操作器の操作状態とを示すガイド情報を第1情報出力手段の出力処理に関連して生徒に向けて出力する第2情報出力手段(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出手段(S15, S17, S19, S25, S31)、および算出手段によって算出された習熟度を出力する習熟度出力手段(S33)を備える。
The operation training device (14) according to the invention of
対象物は、教師による実操作器の操作に応答する。かかる対象物の制御状態を示す制御状態情報は、模擬操作器を操作する生徒に向けて、第1情報出力手段によって出力される。第2情報出力手段は、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を、第1情報出力手段の出力処理に関連して生徒に向けて出力する。生徒の習熟度は、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて、算出手段によって算出される。算出された習熟度は、習熟度出力手段によって出力される。 The object responds to the operation of the actual operating device by the teacher. The control state information indicating the control state of the object is output by the first information output unit toward the student who operates the simulated operating device. The second information output means outputs operation guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device to the student in association with the output process of the first information output device. The proficiency level of the student is calculated by the calculation means based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device. The calculated proficiency level is output by the proficiency level output means.
習熟度は、第1情報出力手段および第2情報出力手段によってそれぞれ出力される制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。 The proficiency level reflects the skill of the student who operates the simulated operating device using the control state information and the operation guide information output by the first information output means and the second information output means, respectively. This makes it possible to objectively and accurately evaluate the student's operation ability.
請求項2の発明に従う操作訓練装置は、請求項1に従属し、対象物はロボットである。
The operation training apparatus according to the invention of claim 2 is dependent on
請求項3の発明に従う操作訓練装置は、請求項1または2に従属し、実操作器および模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、算出手段は、実操作器と模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段(S17)、判別手段の判別結果が肯定的であるとき実操作器と模擬操作器との間での傾斜量の差分を算出する差分算出手段(S19)、判別手段の判別結果が否定的である回数を計数する計数手段(S25)、および差分算出手段の算出結果と計数手段の計数結果とに基づいて習熟度を算出する習熟度算出手段(S31)を含む。
The operation training apparatus according to the invention of
差分算出手段および計数手段は、傾斜方向の相違に基づいて選択的に能動化される。習熟度は、かかる差分算出手段の算出結果および計数手段の計数結果に基づいて求められる。こうして、生徒の操作能力が客観的かつ正確に評価される。 The difference calculating means and the counting means are selectively activated based on the difference in inclination direction. The proficiency level is obtained based on the calculation result of the difference calculation means and the counting result of the counting means. In this way, the students' ability to operate is objectively and accurately evaluated.
請求項4の発明に従う操作訓練装置は、請求項3に従属し、判別手段の判別結果が肯定的であるとき模擬操作器の操作状態を実操作器の操作状態に合わせるべく模擬操作器に外力を付加する付加手段(S23)をさらに備える。付加手段による外力の付加によって、生徒による的確な操作が支援される。
The operation training device according to the invention of claim 4 is dependent on
請求項5の発明に従う操作訓練装置は、請求項4に従属し、付加手段によって付加される外力は差分算出手段によって算出された差分の大きさに応じて異なる。これによって、生徒の操作性が向上する。
The operation training apparatus according to the invention of
請求項6の発明に従う操作訓練プログラムは、操作訓練装置(14)のプロセサ(14f)に、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力ステップ(S5)、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を第1情報出力ステップの出力処理に関連して生徒に向けて出力する第2情報出力ステップ(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出ステップ(S15, S17, S19, S25, S31)、および算出ステップによって算出された習熟度を出力する習熟度出力ステップ(S33)を実行させるための操作訓練プログラムである。 The operation training program according to the invention of claim 6 is the control state information indicating the control state of the object (20) responding to the operation of the actual operation device (12b) by the teacher to the processor (14f) of the operation training device (14). First information output step (S5) for outputting to the student who operates the simulated operating device (14b), and first information output step for operating guide information indicating the operating state of the actual operating device and the operating state of the simulated operating device. Second information output step (S11, S13) that is output to the student in relation to the output processing of the computer, and the proficiency level of the student is calculated based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device It is an operation training program for executing a calculation step (S15, S17, S19, S25, S31) and a proficiency output step (S33) for outputting the proficiency level calculated in the calculation step.
請求項7の発明に従う操作訓練方法は、(a)教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、(b)実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報をステップ(a)の出力処理に関連して生徒に向けて出力し、(c)実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出し、そして(d)ステップ(c)によって算出された習熟度を出力する、操作訓練方法である。
In the operation training method according to the invention of
この発明によれば、習熟度は、制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。 According to the present invention, the proficiency level reflects the skill of the student who operates the simulated operating device using the control state information and the operation guide information as clues. This makes it possible to objectively and accurately evaluate the student's operation ability.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のトレーニングシステム10は、教師TCのために準備される通信端末12と、複数の生徒ST,ST,…のためにそれぞれ準備される複数の通信端末14,14,…とを含む。これらの通信端末12,14,14,…のいずれも、公衆インターネット網16に接続される。公衆インターネット網16にはまた、サーバ18,ロボット20およびカメラ22が接続される。
Referring to FIG. 1, a training system 10 of this embodiment includes a
なお、たとえばサーバ18およびロボット20はこのトレーニングサービスを提供する会社の中に設置され、通信端末12,14,14,…は学校に設置される。ここで、教師TC用の通信端末12は、生徒ST用の通信端末14と同じ部屋に設置してもよいし、別の部屋に設置してもよい。また、サーバ18の機能はロボット20に統合するようにしてもよい。
For example, the
教師TC用の通信端末12は、図2に示すように、スピーカ/マイク12a,教師側ジョイスティック12b,モニタ12c,キーボード12d,メモリ12e,CPU12fおよびI/F12gによって構成される。生徒ST用の通信端末14もまた、図3に示すように、スピーカ/マイク14a,生徒側ジョイスティック14b,モニタ14c,キーボード14d,メモリ14e,CPU14fおよびI/F14gによって構成される。サーバ18は、図4に示すように、メモリ18a,CPU18bおよびI/F18cによって構成される。
As shown in FIG. 2, the teacher
教師側ジョイスティック12bまたは生徒側ジョイスティック14bの外観を図5(A)および図5(B)に示す。基板BSの上面中央に装着されたスティックSTKは、上下左右に自在に傾斜する。傾斜方向は、右方向,上方向,左方向および下方向をそれぞれ0°,90°,180°および270°とする平面(図5(A)参照)上で、角度によって表される。傾斜量は、基板上面に直交する軸を0°とし、基板上面に平行な軸を90°とする平面上(図5(B)参照)で、角度によって表される。スティックSTKの姿勢すなわち教師側ジョイスティック12bまたは生徒側ジョイスティック14bの姿勢は、このような傾斜方向および傾斜量によって特定される。
The external appearance of the
なお、教師側ジョイスティック12bがロボット20を操作するための正規の操縦桿であり、生徒側ジョイスティック14bは訓練のための模擬的な操縦桿である。また、教師側ジョイスティック12bおよび生徒側ジョイスティック14bとしては、マイクロソフト社のSideWinder Force Feedback 2が用いられる。
The teacher-
上述の図1〜図5と、通信端末12,サーバ18および通信端末14の間でのやり取りを示す図6とを参照して、ロボット20はカメラ22によって撮影され、撮影されたロボット22の画像データ(制御状態情報)は、公衆インターネット網16を介してサーバ18に与えられる。サーバ18のCPU18bは、与えられた画像データをI/F18cから取り込み、取り込まれた画像データをメモリ18aに書き込む。CPU18bはまた、メモリ18aに格納された画像データをI/F18cおよび公衆インターネット網16を介して各通信端末12,14,14,…に配信する。
With reference to FIGS. 1 to 5 described above and FIG. 6 showing the exchange among the
教師TC側の通信端末12において、CPU12fは、与えられた画像データをI/F12gから取り込み、取り込まれた画像データをメモリ12eに書き込む。CPU12fはまた、メモリ12eに格納された画像データをモニタ12cに与える。この結果、ロボット22の画像がモニタ12cに表示される。
In the
生徒ST側の通信端末14において、CPU14fは、与えられた画像データをI/F14gから取り込み、取り込まれた画像データをメモリ14eに書き込む。CPU14fはまた、メモリ14eに格納された画像データをモニタ14cに与える。この結果、ロボット22のリアルタイム画像が表示されたウィンドウW1が、図7に示す要領で画面上に形成される。
In the
教師TC用の通信端末12のCPU12fは、教師TCによって操作される教師側ジョイスティック12bの姿勢を示す姿勢情報(操作状態情報)を、I/F12gおよび公衆インターネット網16を介してサーバ18に繰り返し送信する。
The
サーバ18のCPU18bは、教師TC用の通信端末12から送信された姿勢情報をI/F18cを介して取り込み、これに対応する制御データを作成する。作成された制御データは、I/F18cおよび公衆インターネット網16を介してロボット20に与えられる。ロボット20は、制御データに対応する動きを示す。つまり、ロボット20の制御状態は、教師TCによる教師側ジョイスティック12bの操作に応答して変化する。
The
サーバ18のCPU18bはまた、教師TC用の通信端末12から与えられた姿勢情報をI/F18cおよび公衆インターネット網16を介して生徒ST用の各通信端末14,14,…に配信され、姿勢情報は、I/F14gを介してメモリ14eに取り込まれる。CPU14fは、取り込まれた姿勢情報に基づいて教師側ジョイスティック12bの姿勢を示すキャラクタCtをモニタ14cに表示する。CPU14fはまた、生徒側ジョイスティック14bの姿勢を示すキャラクタCsをモニタ14cに表示する。
The
教師側ジョイスティック12bが或る角度だけ上方向に傾けられ、生徒側ジョイスティック14bが教師側ジョイスティック12bの角度よりも小さい角度だけ上方向に傾けられている場合、キャラクタCtおよびCsは、図7に示す要領で画面上のウィンドウW2に表示される。
When the
CPU14fは続いて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を検出し、検出された相違が許容範囲(たとえば±10°)内であるか否かを判別する。許容範囲内であれば、CPU14fは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出し、算出された差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。外力は、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と一致するように付加される。また、算出された差分の絶対値を示す差分情報Dが、メモリ14eに蓄積される。一方、傾斜方向の相違が許容範囲外であれば、CPU14fは、この判別結果が得られた回数を示す変数Kをインクリメントし、生徒側ジョイスティック14bへの外力の付加を解除する。
Subsequently, the
上述の処理は、教師TC側から姿勢情報が取り込まれる毎に繰り返し実行される。この結果、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間の操作方向の相違に応じて、差分情報Dがメモリ14eに蓄積され、あるいは変数Kがインクリメントされる。
The above-described processing is repeatedly executed every time posture information is fetched from the teacher TC side. As a result, the difference information D is accumulated in the
なお、教師側ジョイスティック12bの傾斜量と生徒側ジョイスティック14bの傾斜量とが図8に示す要領で変化した場合(傾斜方向は一致)、差分情報Dは図8に示すように繰り返し検出され、メモリ14eに蓄積される。
When the inclination amount of the
訓練が終了すると、CPU14fは、メモリ14eに蓄積された差分情報Dおよび変数Kに基づいて、生徒STの操作の習熟度Mを算出する。具体的には、数1に従う演算を実行する。
[数1]
M=α−β(ΣD+γK)
α,β,γ:定数
数1によれば、差分情報Dの積算値と変数Kに定数γを掛け算した掛け算値とが互いに加算され、加算値と定数βとの掛け算値が定数αから引き算される。習熟度Mは、このような減点法によって求められる。したがって、傾斜方向の相違が許容範囲を外れる回数が少ないほど、さらには傾斜量の差分が小さいほど、習熟度Mは高い数値を示す。CPU14fは、こうして算出された習熟度Mをモニタ14cに表示するとともに、教師TCの通信端末12に向けて送信する。習熟度Mは通信端末12のモニタ12cにも表示され、教師TCは表示された習熟度Mによって生徒STの習熟度を認識することができる。
When the training is completed, the
[Equation 1]
M = α−β (ΣD + γK)
α, β, γ: constant According to
なお、訓練の開始/終了は、スピーカ/マイク12aおよび14aを用いた通話によって伝達される。
The start / end of training is transmitted by a call using the speakers /
CPU14fは、図9および図10に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、メモリ14eに記憶される。
The
ステップS1では変数Kを“0”に設定し、続くステップS3ではロボット20の画像データをサーバ18から取り込む。ステップS5では、取り込まれた画像データに基づくロボット20のリアルタイム画像をモニタ14cに形成されたウィンドウW1に表示する。
In
ステップS7では、教師TC用の教師側ジョイスティック12bの姿勢を示す姿勢情報をサーバ18から取り込み、ステップS9では、生徒側ジョイスティック14bの姿勢を検出する。ステップS11では、ステップS7で取り込まれた姿勢情報に基づいて、教師側ジョイスティック12bの姿勢を表すキャラクタCtを、モニタ14cに形成されたウィンドウW2に表示する。ステップS13では、ステップS9で検出された生徒側ジョイスティック14bの姿勢を表すキャラクタCsを、モニタ14cに形成されたウィンドウW2に表示する。
In step S7, posture information indicating the posture of the
ステップS15では、ステップS7で取り込まれた姿勢情報とステップS9で検出された姿勢とに基づいて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を算出する。ステップS17では算出された相違が許容範囲内であるか否かを判別し、YESであればステップS19〜S23の処理を経てステップS29に進む一方、NOであればステップS25〜27を経てステップS29に進む。
In step S15, the difference in inclination direction between the
ステップS19では、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出する。ステップS21では算出された差分の絶対値を示す差分情報Dをメモリ12eに蓄積する。ステップS23では、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢に合わせられるように、算出された傾斜量の差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。付加される外力は、傾斜量の差分が大きいほど大きくされる。
In step S19, the difference in the amount of tilt between the
一方、ステップS25では変数Kをインクリメントし、ステップS27では生徒側ジョイスティック14bへの外力の付加を解除する。外力の付加を解除することで、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と大きく相違する状態での外力の付加に起因する生徒側ジョイスティック14bの破損が防止される。また、変数Kのインクリメントによって、上述のような誤操作が習熟度Mに反映される。なお、ステップS17でNOと判断されたときに訓練を強制的に終了するようにしてもよい。
On the other hand, in step S25, the variable K is incremented, and in step S27, the external force applied to the
ステップS29では、訓練が終了したか否かを判別し、NOであればステップS3に戻る一方、YESであればステップS31に進む。ステップS31では、メモリ14eに蓄積された差分情報Dと変数Kとに基づいて、上述の数1に従って習熟度Mを算出する。ステップS33では、算出された習熟度Mをモニタ12cに表示するとともに、教師TC側の通信端末12に向けて送信する。その後、処理を終了する。
In step S29, it is determined whether or not the training is completed. If NO, the process returns to step S3, whereas if YES, the process proceeds to step S31. In step S31, the proficiency level M is calculated according to the
以上の説明から分かるように、ロボット20は、教師側ジョイスティック(実操作器)12bの操作に対応する動きを示す。かかるロボット20のリアルタイム画像(制御状態情報)は、モニタ14c上のウィンドウW1に表示される(S5)。教師側ジョイスティック12bの姿勢(操作状態)と生徒側ジョイスティック14b(模擬操作器)の姿勢(操作状態)とをそれぞれ示すキャラクタCtおよびCs(操作ガイド情報)は、ロボット20のリアルタイム画像の表示処理に関連して、モニタ14c上のウィンドウW2に表示される。ウィンドウW1およびW2のいずれも、生徒STに向けて表示される。生徒STの習熟度Mは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの姿勢の相違に基づいて算出される(S31)。算出された習熟度Mは、モニタ14cから出力される(S33)。
As can be understood from the above description, the
習熟度Mは、ウィンドウW1に表示されるロボット20のリアルタイム画像とウィンドウW2に表示されるキャラクタCtおよびCsとを手掛かりとして生徒側ジョイスティック14bを操作する生徒STの技能を反映する。これによって、生徒STの操作能力を客観的かつ正確に評価することができる。
The proficiency level M reflects the skill of the student ST who operates the
なお、この実施例では、制御状態情報として、カメラ22によって捉えられたロボット20の画像(外観)を想定している。しかし、制御状態情報としては、ロボットの目線で捉えた周囲の画像や、ロボットに設けられたスイッチ類(タッチスイッチなど)の反応や、ロボットから発せられた音声なども考えられる。
In this embodiment, an image (appearance) of the
また、この実施例では、習熟度の算出にあたって上述の数1を用いている。しかし、これに代えて下記の数2を用いてもよい。つまり、教師と生徒の操作の差を利用して習熟度を算出する限り、あらゆる数式が考えられる。
[数2]
M=α/(α+ΣKD)
さらに、この実施例では、ロボットを操作する操作器としてジョイスティックを用いているが、ジョイスティックに代えてマウスやキーボードを用いるようにしてもよい。ただし、この場合は、ボタンの押し間違えや適正なボタンを押すまでの遅れ時間に基づいて習熟度を算出する必要がある。
Further, in this embodiment, the
[Equation 2]
M = α / (α + ΣKD)
Further, in this embodiment, a joystick is used as an operating device for operating the robot, but a mouse or a keyboard may be used instead of the joystick. However, in this case, it is necessary to calculate the proficiency level based on a wrong button press or a delay time until a proper button is pressed.
10 …トレーニングシステム
12,14 …通信端末
18 …サーバ
20 …ロボット
22 …カメラ
DESCRIPTION OF SYMBOLS 10 ...
Claims (7)
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力手段の出力処理に関連して前記生徒に向けて出力する第2情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出手段、および
前記算出手段によって算出された習熟度を出力する習熟度出力手段を備える、操作訓練装置。 First information output means for outputting control state information indicating a control state of an object in response to an operation of an actual operation device by a teacher toward a student who operates the simulated operation device;
Second information output means for outputting operation guide information indicating an operation state of the actual operation device and an operation state of the simulated operation device to the student in association with an output process of the first information output device;
Calculating means for calculating the proficiency level of the student based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device; and a proficiency level output means for outputting the proficiency level calculated by the calculating means. An operation training device is provided.
前記算出手段は、前記実操作器と前記模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段、前記判別手段の判別結果が肯定的であるとき前記実操作器と前記模擬操作器との間での傾斜量の差分を算出する差分算出手段、前記判別手段の判別結果が否定的である回数を計数する計数手段、および前記差分算出手段の算出結果と前記計数手段の計数結果とに基づいて前記習熟度を算出する習熟度算出手段を含む、請求項1または2記載の操作訓練装置。 The operation state of each of the actual operation device and the simulated operation device is defined by an inclination direction and an inclination amount,
The calculating means is a determining means for determining whether or not a difference in inclination direction between the actual operating device and the simulated operating device is within an allowable range, and when the determination result of the determining device is affirmative Difference calculating means for calculating the difference in the amount of inclination between the actual operating device and the simulated operating device, counting means for counting the number of times the determination result of the determining means is negative, and calculation of the difference calculating means The operation training apparatus according to claim 1, further comprising a proficiency level calculating unit that calculates the proficiency level based on a result and a counting result of the counting unit.
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力ステップの出力処理に関連して前記生徒に向けて出力する第2情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出ステップ、および
前記算出ステップによって算出された習熟度を出力する習熟度出力ステップを実行させるための操作訓練プログラム。 To the processor of the operation training device,
A first information output step for outputting control state information indicating a control state of an object in response to an operation of an actual operation device by a teacher toward a student who operates the simulated operation device;
A second information output step of outputting operation guide information indicating an operation state of the actual operation device and an operation state of the simulated operation device to the student in association with an output process of the first information output step;
A calculation step of calculating a proficiency level of the student based on a difference between an operation state of the actual operation device and an operation state of the simulated operation device, and a proficiency level output step of outputting the proficiency level calculated by the calculation step Operation training program to be executed.
(b) 前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記ステップ(a)の出力処理に関連して前記生徒に向けて出力し、
(c) 前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出し、そして
(d) 前記ステップ(c)によって算出された習熟度を出力する、操作訓練方法。 (a) Outputs control state information indicating the control state of the object responding to the operation of the actual operation device by the teacher to the student who operates the simulated operation device,
(b) Output operation guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device to the student in association with the output process of the step (a),
(c) calculating the proficiency level of the student based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device; and
(d) An operation training method for outputting the proficiency level calculated in step (c).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006000498A JP2007183332A (en) | 2006-01-05 | 2006-01-05 | Operation training device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006000498A JP2007183332A (en) | 2006-01-05 | 2006-01-05 | Operation training device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007183332A true JP2007183332A (en) | 2007-07-19 |
Family
ID=38339512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006000498A Withdrawn JP2007183332A (en) | 2006-01-05 | 2006-01-05 | Operation training device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007183332A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014520279A (en) * | 2011-05-05 | 2014-08-21 | ザ・ジョンズ・ホプキンス・ユニバーシティー | Method and system for analyzing task trajectory |
KR101676132B1 (en) * | 2014-12-22 | 2016-11-30 | 주식회사 포스코 | Tactility sharing system for lever training and Driving method thereof |
JP2018153875A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Management system, management method and program |
CN110434876A (en) * | 2019-08-09 | 2019-11-12 | 南京工程学院 | A kind of six degree of freedom ROV driving simulation system and its analogy method |
WO2020032265A1 (en) | 2018-08-10 | 2020-02-13 | 川崎重工業株式会社 | Robot system |
JPWO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | ||
CN112423945A (en) * | 2018-08-10 | 2021-02-26 | 川崎重工业株式会社 | Information processing device, robot operation system, and robot operation method |
US11967245B2 (en) | 2018-08-10 | 2024-04-23 | Kawasaki Jukogyo Kabushiki Kaisha | Training processing device, intermediation device, training system, and training processing method |
US11992933B2 (en) | 2018-08-10 | 2024-05-28 | Kawasaki Jukogyo Kabushiki Kaisha | Intermediation device and intermediating method using the same |
-
2006
- 2006-01-05 JP JP2006000498A patent/JP2007183332A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014520279A (en) * | 2011-05-05 | 2014-08-21 | ザ・ジョンズ・ホプキンス・ユニバーシティー | Method and system for analyzing task trajectory |
KR101676132B1 (en) * | 2014-12-22 | 2016-11-30 | 주식회사 포스코 | Tactility sharing system for lever training and Driving method thereof |
JP2018153875A (en) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | Management system, management method and program |
CN112423945A (en) * | 2018-08-10 | 2021-02-26 | 川崎重工业株式会社 | Information processing device, robot operation system, and robot operation method |
CN112423945B (en) * | 2018-08-10 | 2023-11-24 | 川崎重工业株式会社 | Information processing device, robot operating system, and robot operating method |
JP2020026025A (en) * | 2018-08-10 | 2020-02-20 | 川崎重工業株式会社 | Training processing device, mediation device, training system and training processing method |
US12046148B2 (en) | 2018-08-10 | 2024-07-23 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
WO2020032265A1 (en) | 2018-08-10 | 2020-02-13 | 川崎重工業株式会社 | Robot system |
US11992933B2 (en) | 2018-08-10 | 2024-05-28 | Kawasaki Jukogyo Kabushiki Kaisha | Intermediation device and intermediating method using the same |
KR20210041040A (en) | 2018-08-10 | 2021-04-14 | 카와사키 주코교 카부시키 카이샤 | Robot system |
JP7281348B2 (en) | 2018-08-10 | 2023-05-25 | 川崎重工業株式会社 | TRAINING PROCESSING DEVICE, INTERMEDIATION DEVICE, TRAINING SYSTEM AND TRAINING PROCESSING METHOD |
US11967245B2 (en) | 2018-08-10 | 2024-04-23 | Kawasaki Jukogyo Kabushiki Kaisha | Training processing device, intermediation device, training system, and training processing method |
WO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | オムロン株式会社 | Task distribution device, task distribution system, method, and program |
JP7331928B2 (en) | 2019-08-01 | 2023-08-23 | オムロン株式会社 | Task distribution device, task distribution system, method, and program |
JPWO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | ||
CN110434876B (en) * | 2019-08-09 | 2024-03-22 | 南京工程学院 | Six-degree-of-freedom ROV simulation driving system and simulation method thereof |
CN110434876A (en) * | 2019-08-09 | 2019-11-12 | 南京工程学院 | A kind of six degree of freedom ROV driving simulation system and its analogy method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10511778B2 (en) | Method and apparatus for push interaction | |
CN102648489B (en) | For multi-point touch display and the input of visual test and training | |
US8706922B2 (en) | Information processing apparatus, KVM switch, server, and computer readable medium | |
US20120229589A1 (en) | Automated selection and switching of displayed information | |
CN107562201B (en) | Directional interaction method and device, electronic equipment and storage medium | |
JPWO2020054855A1 (en) | Class support system, judgment device, class support method and program | |
JP2010204926A (en) | Monitoring system, monitoring method, and program | |
JP2007183332A (en) | Operation training device | |
JP7214770B2 (en) | Method and device, electronic device, storage medium and computer program for determining focused learning content | |
JP2010257081A (en) | Image procession method and image processing system | |
WO2022174706A1 (en) | Remote live streaming interaction method and system based on projection | |
JP2007133835A (en) | Virtual key input device, information terminal device, charger for information terminal device, and program | |
JP2016194763A (en) | Image processing apparatus, image processing program, and image processing method | |
WO2020045254A1 (en) | Display system, server, display method, and device | |
US20100153072A1 (en) | Information processing apparatus, information processing system, and computer readable medium | |
JP2013201623A (en) | Communication control device, communication system, method for controlling communication control device, program for making computer execute the control method, and communication device | |
CN108197620B (en) | Photographing and question searching method and system based on eye positioning and handheld photographing equipment | |
JP4323446B2 (en) | Work instruction system and its program | |
KR101519590B1 (en) | Interactive electronic board based motion capture and method for employing the board | |
JP4568121B2 (en) | Remote work support system, remote work support method and program | |
KR102023187B1 (en) | Detachable Touch Panel Device Equipped with Diplay Device | |
Hobson | Redirected hands for reducing arm fatigue during mid-air interactions in virtual reality. | |
JP7513564B2 (en) | System, information processing method and information processing program | |
JP7381718B2 (en) | Offline simulation system | |
JP7243541B2 (en) | Information processing device, information processing method, program, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090407 |