[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007183332A - Operation training device - Google Patents

Operation training device Download PDF

Info

Publication number
JP2007183332A
JP2007183332A JP2006000498A JP2006000498A JP2007183332A JP 2007183332 A JP2007183332 A JP 2007183332A JP 2006000498 A JP2006000498 A JP 2006000498A JP 2006000498 A JP2006000498 A JP 2006000498A JP 2007183332 A JP2007183332 A JP 2007183332A
Authority
JP
Japan
Prior art keywords
student
simulated
state
difference
proficiency level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006000498A
Other languages
Japanese (ja)
Inventor
Noriaki Mitsunaga
法明 光永
Takayuki Kanda
崇行 神田
Tomohito Koizumi
智史 小泉
Masahiro Shiomi
昌裕 塩見
Keiko Miyashita
敬宏 宮下
Yuichiro Yoshikawa
雄一郎 吉川
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006000498A priority Critical patent/JP2007183332A/en
Publication of JP2007183332A publication Critical patent/JP2007183332A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation training device for objectively and exactly evaluating student's skill in operation. <P>SOLUTION: A robot 20 moves in accordance with the operation of a teacher side joystick 12b. The real-time image of the robot 20 is displayed on a window in a monitor 14c for student ST. Guide information indicating the attitude of the teacher side joystick 12b and a student side joystick 14b is displayed in another window on the monitor 14c correlating with display processing of the real-time image of the robot 20. The proficiency of the student ST is calculated on the basis of the difference between attitudes of the teacher side joystick 12b and the student side joystick 14b. The calculated proficiency M is displayed on the monitor 14c and also transmitted to a teacher TC side communication terminal 12. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、操作訓練装置に関し、特にたとえば多数の自由度を有するロボットの操作を訓練する、操作訓練装置に関する。   The present invention relates to an operation training device, and more particularly to an operation training device that trains operation of a robot having a large number of degrees of freedom, for example.

従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術によれば、第1のハンドルは医療器具を移動させるべく指導者によって制御され、第2のハンドルは同じ器具を制御するべく生徒によって動かされる。指導者によるハンドルの移動と生徒によるハンドルの移動の間の逸脱は、生徒と指導者のハンドルへの力フィードバックとして提供される。生徒の手は、この力フィードバックにより、指導者の手の動きに一致するよう強要される。
特表2005−515012号公報
An example of a conventional device of this type is disclosed in Patent Document 1. According to this prior art, the first handle is controlled by the instructor to move the medical instrument and the second handle is moved by the student to control the same instrument. Deviations between the movement of the handle by the instructor and the movement of the handle by the student are provided as force feedback on the handle of the student and the instructor. The student's hand is forced to match the instructor's hand movement through this force feedback.
JP 2005-515010 A

しかし、従来技術では、生徒の操作技能の習熟度を如何にして算出するかについて何ら開示していない。   However, the prior art does not disclose how to calculate the proficiency level of the student's operation skill.

それゆえに、この発明の主たる目的は、生徒の習熟度を客観的かつ正確に評価することができる、操作訓練装置を提供することである。     Therefore, a main object of the present invention is to provide an operation training apparatus capable of objectively and accurately evaluating the proficiency level of students.

請求項1の発明に従う操作訓練装置(14)は、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力手段(S5)、実操作器の操作状態と模擬操作器の操作状態とを示すガイド情報を第1情報出力手段の出力処理に関連して生徒に向けて出力する第2情報出力手段(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出手段(S15, S17, S19, S25, S31)、および算出手段によって算出された習熟度を出力する習熟度出力手段(S33)を備える。   The operation training device (14) according to the invention of claim 1 operates the simulated operation device (14b) with control state information indicating the control state of the object (20) responding to the operation of the actual operation device (12b) by the teacher. First information output means (S5) for output to the student, guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device for the student in relation to the output processing of the first information output means Second information output means for outputting (S11, S13), calculating means for calculating the proficiency level of the student based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device (S15, S17, S19, S25, S31), and proficiency level output means (S33) for outputting the proficiency level calculated by the calculation means.

対象物は、教師による実操作器の操作に応答する。かかる対象物の制御状態を示す制御状態情報は、模擬操作器を操作する生徒に向けて、第1情報出力手段によって出力される。第2情報出力手段は、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を、第1情報出力手段の出力処理に関連して生徒に向けて出力する。生徒の習熟度は、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて、算出手段によって算出される。算出された習熟度は、習熟度出力手段によって出力される。   The object responds to the operation of the actual operating device by the teacher. The control state information indicating the control state of the object is output by the first information output unit toward the student who operates the simulated operating device. The second information output means outputs operation guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device to the student in association with the output process of the first information output device. The proficiency level of the student is calculated by the calculation means based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device. The calculated proficiency level is output by the proficiency level output means.

習熟度は、第1情報出力手段および第2情報出力手段によってそれぞれ出力される制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。   The proficiency level reflects the skill of the student who operates the simulated operating device using the control state information and the operation guide information output by the first information output means and the second information output means, respectively. This makes it possible to objectively and accurately evaluate the student's operation ability.

請求項2の発明に従う操作訓練装置は、請求項1に従属し、対象物はロボットである。   The operation training apparatus according to the invention of claim 2 is dependent on claim 1, and the object is a robot.

請求項3の発明に従う操作訓練装置は、請求項1または2に従属し、実操作器および模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、算出手段は、実操作器と模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段(S17)、判別手段の判別結果が肯定的であるとき実操作器と模擬操作器との間での傾斜量の差分を算出する差分算出手段(S19)、判別手段の判別結果が否定的である回数を計数する計数手段(S25)、および差分算出手段の算出結果と計数手段の計数結果とに基づいて習熟度を算出する習熟度算出手段(S31)を含む。   The operation training apparatus according to the invention of claim 3 is dependent on claim 1 or 2, wherein the operation state of each of the actual operation device and the simulated operation device is defined by the inclination direction and the inclination amount, and the calculation means includes: Discriminating means (S17) for discriminating whether or not the difference in inclination direction with the simulated operating device is within an allowable range, and when the discrimination result of the discriminating device is affirmative, the actual operating device and the simulated operating device Difference calculation means (S19) for calculating the difference in the amount of inclination between the counting means, counting means (S25) for counting the number of times the determination result of the determination means is negative, and the calculation result of the difference calculation means and the counting result of the counting means A proficiency level calculating means (S31) for calculating the proficiency level based on the above.

差分算出手段および計数手段は、傾斜方向の相違に基づいて選択的に能動化される。習熟度は、かかる差分算出手段の算出結果および計数手段の計数結果に基づいて求められる。こうして、生徒の操作能力が客観的かつ正確に評価される。   The difference calculating means and the counting means are selectively activated based on the difference in inclination direction. The proficiency level is obtained based on the calculation result of the difference calculation means and the counting result of the counting means. In this way, the students' ability to operate is objectively and accurately evaluated.

請求項4の発明に従う操作訓練装置は、請求項3に従属し、判別手段の判別結果が肯定的であるとき模擬操作器の操作状態を実操作器の操作状態に合わせるべく模擬操作器に外力を付加する付加手段(S23)をさらに備える。付加手段による外力の付加によって、生徒による的確な操作が支援される。   The operation training device according to the invention of claim 4 is dependent on claim 3, and when the discrimination result of the discrimination means is affirmative, the operation training device has an external force applied to the simulation operator to match the operation state of the simulation operator to the operation state of the actual operator. Further adding means (S23) for adding. Appropriate operation by the student is supported by the addition of external force by the adding means.

請求項5の発明に従う操作訓練装置は、請求項4に従属し、付加手段によって付加される外力は差分算出手段によって算出された差分の大きさに応じて異なる。これによって、生徒の操作性が向上する。   The operation training apparatus according to the invention of claim 5 is dependent on claim 4, and the external force applied by the adding means differs depending on the magnitude of the difference calculated by the difference calculating means. This improves the operability of the student.

請求項6の発明に従う操作訓練プログラムは、操作訓練装置(14)のプロセサ(14f)に、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力ステップ(S5)、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を第1情報出力ステップの出力処理に関連して生徒に向けて出力する第2情報出力ステップ(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出ステップ(S15, S17, S19, S25, S31)、および算出ステップによって算出された習熟度を出力する習熟度出力ステップ(S33)を実行させるための操作訓練プログラムである。   The operation training program according to the invention of claim 6 is the control state information indicating the control state of the object (20) responding to the operation of the actual operation device (12b) by the teacher to the processor (14f) of the operation training device (14). First information output step (S5) for outputting to the student who operates the simulated operating device (14b), and first information output step for operating guide information indicating the operating state of the actual operating device and the operating state of the simulated operating device. Second information output step (S11, S13) that is output to the student in relation to the output processing of the computer, and the proficiency level of the student is calculated based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device It is an operation training program for executing a calculation step (S15, S17, S19, S25, S31) and a proficiency output step (S33) for outputting the proficiency level calculated in the calculation step.

請求項7の発明に従う操作訓練方法は、(a)教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、(b)実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報をステップ(a)の出力処理に関連して生徒に向けて出力し、(c)実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出し、そして(d)ステップ(c)によって算出された習熟度を出力する、操作訓練方法である。   In the operation training method according to the invention of claim 7, (a) the control state information indicating the control state of the object responding to the operation of the actual operation device by the teacher is output to the student who operates the simulated operation device. ) Operation guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device is output to the student in connection with the output process of step (a), and (c) the operation state and simulation of the actual operation device. This is an operation training method that calculates the proficiency level of the student based on the difference from the operating state of the operating device, and (d) outputs the proficiency level calculated in step (c).

この発明によれば、習熟度は、制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。   According to the present invention, the proficiency level reflects the skill of the student who operates the simulated operating device using the control state information and the operation guide information as clues. This makes it possible to objectively and accurately evaluate the student's operation ability.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のトレーニングシステム10は、教師TCのために準備される通信端末12と、複数の生徒ST,ST,…のためにそれぞれ準備される複数の通信端末14,14,…とを含む。これらの通信端末12,14,14,…のいずれも、公衆インターネット網16に接続される。公衆インターネット網16にはまた、サーバ18,ロボット20およびカメラ22が接続される。   Referring to FIG. 1, a training system 10 of this embodiment includes a communication terminal 12 prepared for a teacher TC, and a plurality of communication terminals 14 prepared for a plurality of students ST, ST,. 14 and so on. All of these communication terminals 12, 14, 14,... Are connected to the public Internet network 16. A server 18, a robot 20 and a camera 22 are also connected to the public internet network 16.

なお、たとえばサーバ18およびロボット20はこのトレーニングサービスを提供する会社の中に設置され、通信端末12,14,14,…は学校に設置される。ここで、教師TC用の通信端末12は、生徒ST用の通信端末14と同じ部屋に設置してもよいし、別の部屋に設置してもよい。また、サーバ18の機能はロボット20に統合するようにしてもよい。   For example, the server 18 and the robot 20 are installed in a company that provides this training service, and the communication terminals 12, 14, 14,... Are installed in a school. Here, the communication terminal 12 for the teacher TC may be installed in the same room as the communication terminal 14 for the student ST, or may be installed in a different room. Further, the function of the server 18 may be integrated into the robot 20.

教師TC用の通信端末12は、図2に示すように、スピーカ/マイク12a,教師側ジョイスティック12b,モニタ12c,キーボード12d,メモリ12e,CPU12fおよびI/F12gによって構成される。生徒ST用の通信端末14もまた、図3に示すように、スピーカ/マイク14a,生徒側ジョイスティック14b,モニタ14c,キーボード14d,メモリ14e,CPU14fおよびI/F14gによって構成される。サーバ18は、図4に示すように、メモリ18a,CPU18bおよびI/F18cによって構成される。   As shown in FIG. 2, the teacher TC communication terminal 12 includes a speaker / microphone 12a, a teacher joystick 12b, a monitor 12c, a keyboard 12d, a memory 12e, a CPU 12f, and an I / F 12g. As shown in FIG. 3, the student ST communication terminal 14 also includes a speaker / microphone 14a, a student joystick 14b, a monitor 14c, a keyboard 14d, a memory 14e, a CPU 14f, and an I / F 14g. As shown in FIG. 4, the server 18 includes a memory 18a, a CPU 18b, and an I / F 18c.

教師側ジョイスティック12bまたは生徒側ジョイスティック14bの外観を図5(A)および図5(B)に示す。基板BSの上面中央に装着されたスティックSTKは、上下左右に自在に傾斜する。傾斜方向は、右方向,上方向,左方向および下方向をそれぞれ0°,90°,180°および270°とする平面(図5(A)参照)上で、角度によって表される。傾斜量は、基板上面に直交する軸を0°とし、基板上面に平行な軸を90°とする平面上(図5(B)参照)で、角度によって表される。スティックSTKの姿勢すなわち教師側ジョイスティック12bまたは生徒側ジョイスティック14bの姿勢は、このような傾斜方向および傾斜量によって特定される。   The external appearance of the teacher joystick 12b or the student joystick 14b is shown in FIGS. 5 (A) and 5 (B). The stick STK mounted at the center of the upper surface of the substrate BS can freely tilt up, down, left and right. The inclination direction is represented by an angle on a plane (see FIG. 5A) in which the right direction, the upward direction, the left direction, and the downward direction are 0 °, 90 °, 180 °, and 270 °, respectively. The amount of inclination is represented by an angle on a plane (see FIG. 5B) in which the axis orthogonal to the upper surface of the substrate is 0 ° and the axis parallel to the upper surface of the substrate is 90 °. The posture of the stick STK, that is, the posture of the teacher-side joystick 12b or the student-side joystick 14b is specified by such an inclination direction and an inclination amount.

なお、教師側ジョイスティック12bがロボット20を操作するための正規の操縦桿であり、生徒側ジョイスティック14bは訓練のための模擬的な操縦桿である。また、教師側ジョイスティック12bおよび生徒側ジョイスティック14bとしては、マイクロソフト社のSideWinder Force Feedback 2が用いられる。   The teacher-side joystick 12b is a normal control stick for operating the robot 20, and the student-side joystick 14b is a simulated control stick for training. Moreover, SideWinder Force Feedback 2 of Microsoft Corporation is used as the teacher side joystick 12b and the student side joystick 14b.

上述の図1〜図5と、通信端末12,サーバ18および通信端末14の間でのやり取りを示す図6とを参照して、ロボット20はカメラ22によって撮影され、撮影されたロボット22の画像データ(制御状態情報)は、公衆インターネット網16を介してサーバ18に与えられる。サーバ18のCPU18bは、与えられた画像データをI/F18cから取り込み、取り込まれた画像データをメモリ18aに書き込む。CPU18bはまた、メモリ18aに格納された画像データをI/F18cおよび公衆インターネット網16を介して各通信端末12,14,14,…に配信する。   With reference to FIGS. 1 to 5 described above and FIG. 6 showing the exchange among the communication terminal 12, the server 18 and the communication terminal 14, the robot 20 is photographed by the camera 22, and the image of the robot 22 photographed is taken. Data (control state information) is provided to the server 18 via the public Internet network 16. The CPU 18b of the server 18 takes in the given image data from the I / F 18c and writes the taken image data into the memory 18a. The CPU 18b also distributes the image data stored in the memory 18a to each of the communication terminals 12, 14, 14,... Via the I / F 18c and the public Internet network 16.

教師TC側の通信端末12において、CPU12fは、与えられた画像データをI/F12gから取り込み、取り込まれた画像データをメモリ12eに書き込む。CPU12fはまた、メモリ12eに格納された画像データをモニタ12cに与える。この結果、ロボット22の画像がモニタ12cに表示される。   In the communication terminal 12 on the teacher TC side, the CPU 12f fetches the given image data from the I / F 12g and writes the fetched image data into the memory 12e. The CPU 12f also gives the image data stored in the memory 12e to the monitor 12c. As a result, an image of the robot 22 is displayed on the monitor 12c.

生徒ST側の通信端末14において、CPU14fは、与えられた画像データをI/F14gから取り込み、取り込まれた画像データをメモリ14eに書き込む。CPU14fはまた、メモリ14eに格納された画像データをモニタ14cに与える。この結果、ロボット22のリアルタイム画像が表示されたウィンドウW1が、図7に示す要領で画面上に形成される。   In the communication terminal 14 on the student ST side, the CPU 14f fetches the given image data from the I / F 14g and writes the fetched image data into the memory 14e. The CPU 14f also gives the image data stored in the memory 14e to the monitor 14c. As a result, a window W1 on which a real-time image of the robot 22 is displayed is formed on the screen as shown in FIG.

教師TC用の通信端末12のCPU12fは、教師TCによって操作される教師側ジョイスティック12bの姿勢を示す姿勢情報(操作状態情報)を、I/F12gおよび公衆インターネット網16を介してサーバ18に繰り返し送信する。   The CPU 12f of the teacher TC communication terminal 12 repeatedly transmits posture information (operation state information) indicating the posture of the teacher joystick 12b operated by the teacher TC to the server 18 via the I / F 12g and the public Internet network 16. To do.

サーバ18のCPU18bは、教師TC用の通信端末12から送信された姿勢情報をI/F18cを介して取り込み、これに対応する制御データを作成する。作成された制御データは、I/F18cおよび公衆インターネット網16を介してロボット20に与えられる。ロボット20は、制御データに対応する動きを示す。つまり、ロボット20の制御状態は、教師TCによる教師側ジョイスティック12bの操作に応答して変化する。   The CPU 18b of the server 18 takes in the posture information transmitted from the communication terminal 12 for teacher TC via the I / F 18c, and creates control data corresponding thereto. The created control data is given to the robot 20 via the I / F 18c and the public Internet network 16. The robot 20 shows a movement corresponding to the control data. That is, the control state of the robot 20 changes in response to the operation of the teacher joystick 12b by the teacher TC.

サーバ18のCPU18bはまた、教師TC用の通信端末12から与えられた姿勢情報をI/F18cおよび公衆インターネット網16を介して生徒ST用の各通信端末14,14,…に配信され、姿勢情報は、I/F14gを介してメモリ14eに取り込まれる。CPU14fは、取り込まれた姿勢情報に基づいて教師側ジョイスティック12bの姿勢を示すキャラクタCtをモニタ14cに表示する。CPU14fはまた、生徒側ジョイスティック14bの姿勢を示すキャラクタCsをモニタ14cに表示する。   The CPU 18b of the server 18 also distributes the posture information given from the communication terminal 12 for the teacher TC to each communication terminal 14, 14,... For the student ST via the I / F 18c and the public Internet network 16, and the posture information. Is taken into the memory 14e via the I / F 14g. The CPU 14f displays a character Ct indicating the posture of the teacher joystick 12b on the monitor 14c based on the taken posture information. The CPU 14f also displays a character Cs indicating the posture of the student joystick 14b on the monitor 14c.

教師側ジョイスティック12bが或る角度だけ上方向に傾けられ、生徒側ジョイスティック14bが教師側ジョイスティック12bの角度よりも小さい角度だけ上方向に傾けられている場合、キャラクタCtおよびCsは、図7に示す要領で画面上のウィンドウW2に表示される。   When the teacher joystick 12b is tilted upward by a certain angle and the student joystick 14b is tilted upward by an angle smaller than the angle of the teacher joystick 12b, the characters Ct and Cs are shown in FIG. In this way, it is displayed in the window W2 on the screen.

CPU14fは続いて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を検出し、検出された相違が許容範囲(たとえば±10°)内であるか否かを判別する。許容範囲内であれば、CPU14fは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出し、算出された差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。外力は、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と一致するように付加される。また、算出された差分の絶対値を示す差分情報Dが、メモリ14eに蓄積される。一方、傾斜方向の相違が許容範囲外であれば、CPU14fは、この判別結果が得られた回数を示す変数Kをインクリメントし、生徒側ジョイスティック14bへの外力の付加を解除する。   Subsequently, the CPU 14f detects a difference in inclination direction between the teacher-side joystick 12b and the student-side joystick 14b, and determines whether or not the detected difference is within an allowable range (for example, ± 10 °). If within the allowable range, the CPU 14f calculates a difference in the amount of inclination between the teacher-side joystick 12b and the student-side joystick 14b, and applies an external force having a magnitude corresponding to the calculated difference to the student-side joystick 14b. . The external force is applied so that the posture of the student joystick 14b matches the posture of the teacher joystick 12b. Further, difference information D indicating the absolute value of the calculated difference is accumulated in the memory 14e. On the other hand, if the difference in the tilt direction is outside the allowable range, the CPU 14f increments the variable K indicating the number of times that the determination result is obtained, and cancels the application of the external force to the student-side joystick 14b.

上述の処理は、教師TC側から姿勢情報が取り込まれる毎に繰り返し実行される。この結果、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間の操作方向の相違に応じて、差分情報Dがメモリ14eに蓄積され、あるいは変数Kがインクリメントされる。   The above-described processing is repeatedly executed every time posture information is fetched from the teacher TC side. As a result, the difference information D is accumulated in the memory 14e or the variable K is incremented according to the difference in operation direction between the teacher joystick 12b and the student joystick 14b.

なお、教師側ジョイスティック12bの傾斜量と生徒側ジョイスティック14bの傾斜量とが図8に示す要領で変化した場合(傾斜方向は一致)、差分情報Dは図8に示すように繰り返し検出され、メモリ14eに蓄積される。   When the inclination amount of the teacher joystick 12b and the inclination amount of the student joystick 14b change as shown in FIG. 8 (inclination directions match), the difference information D is repeatedly detected as shown in FIG. 14e.

訓練が終了すると、CPU14fは、メモリ14eに蓄積された差分情報Dおよび変数Kに基づいて、生徒STの操作の習熟度Mを算出する。具体的には、数1に従う演算を実行する。
[数1]
M=α−β(ΣD+γK)
α,β,γ:定数
数1によれば、差分情報Dの積算値と変数Kに定数γを掛け算した掛け算値とが互いに加算され、加算値と定数βとの掛け算値が定数αから引き算される。習熟度Mは、このような減点法によって求められる。したがって、傾斜方向の相違が許容範囲を外れる回数が少ないほど、さらには傾斜量の差分が小さいほど、習熟度Mは高い数値を示す。CPU14fは、こうして算出された習熟度Mをモニタ14cに表示するとともに、教師TCの通信端末12に向けて送信する。習熟度Mは通信端末12のモニタ12cにも表示され、教師TCは表示された習熟度Mによって生徒STの習熟度を認識することができる。
When the training is completed, the CPU 14f calculates a proficiency level M for the operation of the student ST based on the difference information D and the variable K stored in the memory 14e. Specifically, the calculation according to Equation 1 is executed.
[Equation 1]
M = α−β (ΣD + γK)
α, β, γ: constant According to Equation 1, the integrated value of the difference information D and the multiplied value obtained by multiplying the variable K by the constant γ are added to each other, and the multiplied value and the constant β are subtracted from the constant α. Is done. The proficiency level M is obtained by such a deduction method. Therefore, the less the number of times the difference in the tilt direction deviates from the allowable range, and the smaller the difference in the tilt amount, the higher the proficiency level M is. The CPU 14f displays the proficiency level M thus calculated on the monitor 14c and transmits it to the communication terminal 12 of the teacher TC. The proficiency level M is also displayed on the monitor 12c of the communication terminal 12, and the teacher TC can recognize the proficiency level of the student ST based on the displayed proficiency level M.

なお、訓練の開始/終了は、スピーカ/マイク12aおよび14aを用いた通話によって伝達される。   The start / end of training is transmitted by a call using the speakers / microphones 12a and 14a.

CPU14fは、図9および図10に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、メモリ14eに記憶される。   The CPU 14f executes processing according to the flowcharts shown in FIGS. A control program corresponding to this flowchart is stored in the memory 14e.

ステップS1では変数Kを“0”に設定し、続くステップS3ではロボット20の画像データをサーバ18から取り込む。ステップS5では、取り込まれた画像データに基づくロボット20のリアルタイム画像をモニタ14cに形成されたウィンドウW1に表示する。   In step S 1, the variable K is set to “0”. In subsequent step S 3, the image data of the robot 20 is fetched from the server 18. In step S5, a real-time image of the robot 20 based on the captured image data is displayed on the window W1 formed on the monitor 14c.

ステップS7では、教師TC用の教師側ジョイスティック12bの姿勢を示す姿勢情報をサーバ18から取り込み、ステップS9では、生徒側ジョイスティック14bの姿勢を検出する。ステップS11では、ステップS7で取り込まれた姿勢情報に基づいて、教師側ジョイスティック12bの姿勢を表すキャラクタCtを、モニタ14cに形成されたウィンドウW2に表示する。ステップS13では、ステップS9で検出された生徒側ジョイスティック14bの姿勢を表すキャラクタCsを、モニタ14cに形成されたウィンドウW2に表示する。   In step S7, posture information indicating the posture of the teacher joystick 12b for the teacher TC is fetched from the server 18, and in step S9, the posture of the student joystick 14b is detected. In step S11, based on the posture information captured in step S7, the character Ct representing the posture of the teacher joystick 12b is displayed in the window W2 formed on the monitor 14c. In step S13, the character Cs representing the posture of the student joystick 14b detected in step S9 is displayed on the window W2 formed on the monitor 14c.

ステップS15では、ステップS7で取り込まれた姿勢情報とステップS9で検出された姿勢とに基づいて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を算出する。ステップS17では算出された相違が許容範囲内であるか否かを判別し、YESであればステップS19〜S23の処理を経てステップS29に進む一方、NOであればステップS25〜27を経てステップS29に進む。   In step S15, the difference in inclination direction between the teacher joystick 12b and the student joystick 14b is calculated based on the posture information captured in step S7 and the posture detected in step S9. In step S17, it is determined whether or not the calculated difference is within an allowable range. If YES, the process proceeds to step S29 through steps S19 to S23. If NO, the process proceeds to steps S25 to 27 and step S29. Proceed to

ステップS19では、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出する。ステップS21では算出された差分の絶対値を示す差分情報Dをメモリ12eに蓄積する。ステップS23では、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢に合わせられるように、算出された傾斜量の差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。付加される外力は、傾斜量の差分が大きいほど大きくされる。   In step S19, the difference in the amount of tilt between the teacher joystick 12b and the student joystick 14b is calculated. In step S21, difference information D indicating the absolute value of the calculated difference is accumulated in the memory 12e. In step S23, an external force having a magnitude corresponding to the calculated difference in the tilt amount is applied to the student joystick 14b so that the attitude of the student joystick 14b matches the attitude of the teacher joystick 12b. The added external force is increased as the difference in the amount of inclination is increased.

一方、ステップS25では変数Kをインクリメントし、ステップS27では生徒側ジョイスティック14bへの外力の付加を解除する。外力の付加を解除することで、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と大きく相違する状態での外力の付加に起因する生徒側ジョイスティック14bの破損が防止される。また、変数Kのインクリメントによって、上述のような誤操作が習熟度Mに反映される。なお、ステップS17でNOと判断されたときに訓練を強制的に終了するようにしてもよい。   On the other hand, in step S25, the variable K is incremented, and in step S27, the external force applied to the student joystick 14b is released. By releasing the application of the external force, the student-side joystick 14b is prevented from being damaged due to the external force being applied in a state where the posture of the student-side joystick 14b is significantly different from the posture of the teacher-side joystick 12b. Further, the erroneous operation as described above is reflected in the proficiency level M by incrementing the variable K. The training may be forcibly terminated when it is determined NO in step S17.

ステップS29では、訓練が終了したか否かを判別し、NOであればステップS3に戻る一方、YESであればステップS31に進む。ステップS31では、メモリ14eに蓄積された差分情報Dと変数Kとに基づいて、上述の数1に従って習熟度Mを算出する。ステップS33では、算出された習熟度Mをモニタ12cに表示するとともに、教師TC側の通信端末12に向けて送信する。その後、処理を終了する。   In step S29, it is determined whether or not the training is completed. If NO, the process returns to step S3, whereas if YES, the process proceeds to step S31. In step S31, the proficiency level M is calculated according to the above equation 1 based on the difference information D and the variable K stored in the memory 14e. In step S33, the calculated proficiency level M is displayed on the monitor 12c and transmitted to the communication terminal 12 on the teacher TC side. Thereafter, the process ends.

以上の説明から分かるように、ロボット20は、教師側ジョイスティック(実操作器)12bの操作に対応する動きを示す。かかるロボット20のリアルタイム画像(制御状態情報)は、モニタ14c上のウィンドウW1に表示される(S5)。教師側ジョイスティック12bの姿勢(操作状態)と生徒側ジョイスティック14b(模擬操作器)の姿勢(操作状態)とをそれぞれ示すキャラクタCtおよびCs(操作ガイド情報)は、ロボット20のリアルタイム画像の表示処理に関連して、モニタ14c上のウィンドウW2に表示される。ウィンドウW1およびW2のいずれも、生徒STに向けて表示される。生徒STの習熟度Mは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの姿勢の相違に基づいて算出される(S31)。算出された習熟度Mは、モニタ14cから出力される(S33)。   As can be understood from the above description, the robot 20 shows a movement corresponding to the operation of the teacher-side joystick (actual operating device) 12b. The real-time image (control state information) of the robot 20 is displayed on the window W1 on the monitor 14c (S5). Characters Ct and Cs (operation guide information) respectively indicating the posture (operation state) of the teacher-side joystick 12b and the posture (operation state) of the student-side joystick 14b (simulated operation device) are used for real-time image display processing of the robot 20. Relatedly, it is displayed on the window W2 on the monitor 14c. Both windows W1 and W2 are displayed toward the student ST. The proficiency level M of the student ST is calculated based on the difference in posture between the teacher joystick 12b and the student joystick 14b (S31). The calculated proficiency level M is output from the monitor 14c (S33).

習熟度Mは、ウィンドウW1に表示されるロボット20のリアルタイム画像とウィンドウW2に表示されるキャラクタCtおよびCsとを手掛かりとして生徒側ジョイスティック14bを操作する生徒STの技能を反映する。これによって、生徒STの操作能力を客観的かつ正確に評価することができる。   The proficiency level M reflects the skill of the student ST who operates the student joystick 14b using the real-time image of the robot 20 displayed in the window W1 and the characters Ct and Cs displayed in the window W2. Thereby, the operation ability of the student ST can be objectively and accurately evaluated.

なお、この実施例では、制御状態情報として、カメラ22によって捉えられたロボット20の画像(外観)を想定している。しかし、制御状態情報としては、ロボットの目線で捉えた周囲の画像や、ロボットに設けられたスイッチ類(タッチスイッチなど)の反応や、ロボットから発せられた音声なども考えられる。   In this embodiment, an image (appearance) of the robot 20 captured by the camera 22 is assumed as the control state information. However, as the control state information, surrounding images captured from the robot's line of sight, reactions of switches (such as touch switches) provided on the robot, voices emitted from the robot, and the like are also conceivable.

また、この実施例では、習熟度の算出にあたって上述の数1を用いている。しかし、これに代えて下記の数2を用いてもよい。つまり、教師と生徒の操作の差を利用して習熟度を算出する限り、あらゆる数式が考えられる。
[数2]
M=α/(α+ΣKD)
さらに、この実施例では、ロボットを操作する操作器としてジョイスティックを用いているが、ジョイスティックに代えてマウスやキーボードを用いるようにしてもよい。ただし、この場合は、ボタンの押し間違えや適正なボタンを押すまでの遅れ時間に基づいて習熟度を算出する必要がある。
Further, in this embodiment, the above equation 1 is used for calculating the proficiency level. However, the following formula 2 may be used instead. That is, as long as the proficiency level is calculated using the difference between the operation of the teacher and the student, any mathematical formula can be considered.
[Equation 2]
M = α / (α + ΣKD)
Further, in this embodiment, a joystick is used as an operating device for operating the robot, but a mouse or a keyboard may be used instead of the joystick. However, in this case, it is necessary to calculate the proficiency level based on a wrong button press or a delay time until a proper button is pressed.

この発明の一実施例の構成を示す図解図である。It is an illustration figure which shows the structure of one Example of this invention. 図1実施例に適用される教師用の通信端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the communication terminal for teachers applied to the FIG. 1 Example. 図1実施例に適用される生徒用の通信端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the communication terminal for students applied to the FIG. 1 Example. 図1実施例に適用されるサーバの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the server applied to the FIG. 1 Example. (A)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す上面図であり、(B)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す側面図である。(A) is a top view showing an appearance of a joystick applied to the embodiment of FIG. 2 or FIG. 3, and (B) is a side view showing an appearance of a joystick applied to the embodiment of FIG. 2 or FIG. 3. FIG. 図1実施例の動作の一部を示す図解図である。It is an illustration figure which shows a part of operation | movement of FIG. 1 Example. 図3実施例に適用されるモニタに表示される画像の一例を示す図解図である。It is an illustration figure which shows an example of the image displayed on the monitor applied to the FIG. 3 Example. 図1実施例の動作の一部を示すグラフである。It is a graph which shows a part of operation | movement of FIG. 1 Example. 図3実施例に適用されるCPUの動作の一部を示すフロー図である。FIG. 4 is a flowchart showing one portion of behavior of a CPU applied to the embodiment in FIG. 3. 図3実施例に適用されるCPUの動作の他の一部を示すフロー図である。FIG. 11 is a flowchart showing another portion of behavior of the CPU applied to the embodiment in FIG. 3;

符号の説明Explanation of symbols

10 …トレーニングシステム
12,14 …通信端末
18 …サーバ
20 …ロボット
22 …カメラ
DESCRIPTION OF SYMBOLS 10 ... Training system 12, 14 ... Communication terminal 18 ... Server 20 ... Robot 22 ... Camera

Claims (7)

教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力手段の出力処理に関連して前記生徒に向けて出力する第2情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出手段、および
前記算出手段によって算出された習熟度を出力する習熟度出力手段を備える、操作訓練装置。
First information output means for outputting control state information indicating a control state of an object in response to an operation of an actual operation device by a teacher toward a student who operates the simulated operation device;
Second information output means for outputting operation guide information indicating an operation state of the actual operation device and an operation state of the simulated operation device to the student in association with an output process of the first information output device;
Calculating means for calculating the proficiency level of the student based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device; and a proficiency level output means for outputting the proficiency level calculated by the calculating means. An operation training device is provided.
前記対象物はロボットである、請求項1記載の操作訓練装置。   The operation training apparatus according to claim 1, wherein the object is a robot. 前記実操作器および前記模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、
前記算出手段は、前記実操作器と前記模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段、前記判別手段の判別結果が肯定的であるとき前記実操作器と前記模擬操作器との間での傾斜量の差分を算出する差分算出手段、前記判別手段の判別結果が否定的である回数を計数する計数手段、および前記差分算出手段の算出結果と前記計数手段の計数結果とに基づいて前記習熟度を算出する習熟度算出手段を含む、請求項1または2記載の操作訓練装置。
The operation state of each of the actual operation device and the simulated operation device is defined by an inclination direction and an inclination amount,
The calculating means is a determining means for determining whether or not a difference in inclination direction between the actual operating device and the simulated operating device is within an allowable range, and when the determination result of the determining device is affirmative Difference calculating means for calculating the difference in the amount of inclination between the actual operating device and the simulated operating device, counting means for counting the number of times the determination result of the determining means is negative, and calculation of the difference calculating means The operation training apparatus according to claim 1, further comprising a proficiency level calculating unit that calculates the proficiency level based on a result and a counting result of the counting unit.
前記判別手段の判別結果が肯定的であるとき前記模擬操作器の操作状態を前記実操作器の操作状態に合わせるべく前記模擬操作器に外力を付加する付加手段をさらに備える、請求項3記載の操作訓練装置。   4. The apparatus according to claim 3, further comprising an adding unit configured to apply an external force to the simulated operating device in order to match the operation state of the simulated operating device with the operating state of the actual operating device when the determination result of the determining unit is positive. Operation training device. 前記付加手段によって付加される外力は前記差分算出手段によって算出された差分の大きさに応じて異なる、請求項4記載の操作訓練装置。   The operation training apparatus according to claim 4, wherein the external force applied by the adding unit is different depending on the magnitude of the difference calculated by the difference calculating unit. 操作訓練装置のプロセサに、
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力ステップの出力処理に関連して前記生徒に向けて出力する第2情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出ステップ、および
前記算出ステップによって算出された習熟度を出力する習熟度出力ステップを実行させるための操作訓練プログラム。
To the processor of the operation training device,
A first information output step for outputting control state information indicating a control state of an object in response to an operation of an actual operation device by a teacher toward a student who operates the simulated operation device;
A second information output step of outputting operation guide information indicating an operation state of the actual operation device and an operation state of the simulated operation device to the student in association with an output process of the first information output step;
A calculation step of calculating a proficiency level of the student based on a difference between an operation state of the actual operation device and an operation state of the simulated operation device, and a proficiency level output step of outputting the proficiency level calculated by the calculation step Operation training program to be executed.
(a) 教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、
(b) 前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記ステップ(a)の出力処理に関連して前記生徒に向けて出力し、
(c) 前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出し、そして
(d) 前記ステップ(c)によって算出された習熟度を出力する、操作訓練方法。
(a) Outputs control state information indicating the control state of the object responding to the operation of the actual operation device by the teacher to the student who operates the simulated operation device,
(b) Output operation guide information indicating the operation state of the actual operation device and the operation state of the simulated operation device to the student in association with the output process of the step (a),
(c) calculating the proficiency level of the student based on the difference between the operating state of the actual operating device and the operating state of the simulated operating device; and
(d) An operation training method for outputting the proficiency level calculated in step (c).
JP2006000498A 2006-01-05 2006-01-05 Operation training device Withdrawn JP2007183332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006000498A JP2007183332A (en) 2006-01-05 2006-01-05 Operation training device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006000498A JP2007183332A (en) 2006-01-05 2006-01-05 Operation training device

Publications (1)

Publication Number Publication Date
JP2007183332A true JP2007183332A (en) 2007-07-19

Family

ID=38339512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006000498A Withdrawn JP2007183332A (en) 2006-01-05 2006-01-05 Operation training device

Country Status (1)

Country Link
JP (1) JP2007183332A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520279A (en) * 2011-05-05 2014-08-21 ザ・ジョンズ・ホプキンス・ユニバーシティー Method and system for analyzing task trajectory
KR101676132B1 (en) * 2014-12-22 2016-11-30 주식회사 포스코 Tactility sharing system for lever training and Driving method thereof
JP2018153875A (en) * 2017-03-15 2018-10-04 株式会社オカムラ Management system, management method and program
CN110434876A (en) * 2019-08-09 2019-11-12 南京工程学院 A kind of six degree of freedom ROV driving simulation system and its analogy method
WO2020032265A1 (en) 2018-08-10 2020-02-13 川崎重工業株式会社 Robot system
JPWO2021019787A1 (en) * 2019-08-01 2021-02-04
CN112423945A (en) * 2018-08-10 2021-02-26 川崎重工业株式会社 Information processing device, robot operation system, and robot operation method
US11967245B2 (en) 2018-08-10 2024-04-23 Kawasaki Jukogyo Kabushiki Kaisha Training processing device, intermediation device, training system, and training processing method
US11992933B2 (en) 2018-08-10 2024-05-28 Kawasaki Jukogyo Kabushiki Kaisha Intermediation device and intermediating method using the same

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520279A (en) * 2011-05-05 2014-08-21 ザ・ジョンズ・ホプキンス・ユニバーシティー Method and system for analyzing task trajectory
KR101676132B1 (en) * 2014-12-22 2016-11-30 주식회사 포스코 Tactility sharing system for lever training and Driving method thereof
JP2018153875A (en) * 2017-03-15 2018-10-04 株式会社オカムラ Management system, management method and program
CN112423945A (en) * 2018-08-10 2021-02-26 川崎重工业株式会社 Information processing device, robot operation system, and robot operation method
CN112423945B (en) * 2018-08-10 2023-11-24 川崎重工业株式会社 Information processing device, robot operating system, and robot operating method
JP2020026025A (en) * 2018-08-10 2020-02-20 川崎重工業株式会社 Training processing device, mediation device, training system and training processing method
US12046148B2 (en) 2018-08-10 2024-07-23 Kawasaki Jukogyo Kabushiki Kaisha Robot system
WO2020032265A1 (en) 2018-08-10 2020-02-13 川崎重工業株式会社 Robot system
US11992933B2 (en) 2018-08-10 2024-05-28 Kawasaki Jukogyo Kabushiki Kaisha Intermediation device and intermediating method using the same
KR20210041040A (en) 2018-08-10 2021-04-14 카와사키 주코교 카부시키 카이샤 Robot system
JP7281348B2 (en) 2018-08-10 2023-05-25 川崎重工業株式会社 TRAINING PROCESSING DEVICE, INTERMEDIATION DEVICE, TRAINING SYSTEM AND TRAINING PROCESSING METHOD
US11967245B2 (en) 2018-08-10 2024-04-23 Kawasaki Jukogyo Kabushiki Kaisha Training processing device, intermediation device, training system, and training processing method
WO2021019787A1 (en) * 2019-08-01 2021-02-04 オムロン株式会社 Task distribution device, task distribution system, method, and program
JP7331928B2 (en) 2019-08-01 2023-08-23 オムロン株式会社 Task distribution device, task distribution system, method, and program
JPWO2021019787A1 (en) * 2019-08-01 2021-02-04
CN110434876B (en) * 2019-08-09 2024-03-22 南京工程学院 Six-degree-of-freedom ROV simulation driving system and simulation method thereof
CN110434876A (en) * 2019-08-09 2019-11-12 南京工程学院 A kind of six degree of freedom ROV driving simulation system and its analogy method

Similar Documents

Publication Publication Date Title
US10511778B2 (en) Method and apparatus for push interaction
CN102648489B (en) For multi-point touch display and the input of visual test and training
US8706922B2 (en) Information processing apparatus, KVM switch, server, and computer readable medium
US20120229589A1 (en) Automated selection and switching of displayed information
CN107562201B (en) Directional interaction method and device, electronic equipment and storage medium
JPWO2020054855A1 (en) Class support system, judgment device, class support method and program
JP2010204926A (en) Monitoring system, monitoring method, and program
JP2007183332A (en) Operation training device
JP7214770B2 (en) Method and device, electronic device, storage medium and computer program for determining focused learning content
JP2010257081A (en) Image procession method and image processing system
WO2022174706A1 (en) Remote live streaming interaction method and system based on projection
JP2007133835A (en) Virtual key input device, information terminal device, charger for information terminal device, and program
JP2016194763A (en) Image processing apparatus, image processing program, and image processing method
WO2020045254A1 (en) Display system, server, display method, and device
US20100153072A1 (en) Information processing apparatus, information processing system, and computer readable medium
JP2013201623A (en) Communication control device, communication system, method for controlling communication control device, program for making computer execute the control method, and communication device
CN108197620B (en) Photographing and question searching method and system based on eye positioning and handheld photographing equipment
JP4323446B2 (en) Work instruction system and its program
KR101519590B1 (en) Interactive electronic board based motion capture and method for employing the board
JP4568121B2 (en) Remote work support system, remote work support method and program
KR102023187B1 (en) Detachable Touch Panel Device Equipped with Diplay Device
Hobson Redirected hands for reducing arm fatigue during mid-air interactions in virtual reality.
JP7513564B2 (en) System, information processing method and information processing program
JP7381718B2 (en) Offline simulation system
JP7243541B2 (en) Information processing device, information processing method, program, and information processing system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090407