[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020185110A - Rehabilitation support system - Google Patents

Rehabilitation support system Download PDF

Info

Publication number
JP2020185110A
JP2020185110A JP2019090908A JP2019090908A JP2020185110A JP 2020185110 A JP2020185110 A JP 2020185110A JP 2019090908 A JP2019090908 A JP 2019090908A JP 2019090908 A JP2019090908 A JP 2019090908A JP 2020185110 A JP2020185110 A JP 2020185110A
Authority
JP
Japan
Prior art keywords
application
training
key
determination
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019090908A
Other languages
Japanese (ja)
Other versions
JP7445276B2 (en
Inventor
尚伸 高平
Naonobu Takahira
尚伸 高平
佐々木 秀一
Shuichi Sasaki
秀一 佐々木
晃司 津田
Koji Tsuda
晃司 津田
菜月 佐藤
Natsuki Sato
菜月 佐藤
近藤 幸一
Koichi Kondo
幸一 近藤
香苗 山下
Kanae Yamashita
香苗 山下
渡邉 宏
Hiroshi Watanabe
宏 渡邉
帝城 香山
Teijo Kayama
帝城 香山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHANTY KK
Kitasato Institute
Original Assignee
CHANTY KK
Kitasato Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHANTY KK, Kitasato Institute filed Critical CHANTY KK
Priority to JP2019090908A priority Critical patent/JP7445276B2/en
Publication of JP2020185110A publication Critical patent/JP2020185110A/en
Application granted granted Critical
Publication of JP7445276B2 publication Critical patent/JP7445276B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a rehabilitation support system capable of appropriately carrying out rehabilitation training of a motion using tools required in a daily life.SOLUTION: A rehabilitation support system 1 includes: a simulation article Q grasped by an object person; instruction means 11, 12, and 14 for giving the object person instructions on a predetermined motion using the simulation article Q; determination means 10 for determining whether or not the motion carried out by the object person using the simulation article Q satisfies a determination criterion preset on the simulation article Q or a hand of the object person grasping the simulation article Q; and notification means 11, 12, and 14 for notifying whether or not the object person is executing the predetermined motion correctly based on a result of the determination by the determination means 10.SELECTED DRAWING: Figure 1

Description

本発明は、リハビリテーション支援システムに関する。 The present invention relates to a rehabilitation support system.

プロジェクタなどの画像投影装置からリハビリテーションを支援する画像を表示させるリハビリテーション支援システムが考えられている(例えば、特許文献1を参照)。このリハビリテーション支援システムは、投影画像に目標位置を表示させ、対象者に合わせて手足を動かすことで身体機能の改善、機能訓練などを促す。 A rehabilitation support system that displays an image that supports rehabilitation from an image projection device such as a projector has been considered (see, for example, Patent Document 1). This rehabilitation support system displays the target position on the projected image and moves the limbs according to the target person to promote improvement of physical function and functional training.

特開2018−161529号公報JP-A-2018-161529

しかしながら、従来の技術は、「コップを置く」、「台拭きで机を拭く」、「鍵を持って開錠する」、「タオルを絞る」などの、日常でよく用いられる道具を使った動作のリハビリテーション訓練について必ずしも最適化されているとはいえない。 However, conventional techniques use tools that are commonly used in everyday life, such as "putting a cup", "wiping a desk with a table wipe", "unlocking with a key", and "squeezing a towel". Rehabilitation training is not always optimized.

本発明は、このような課題に鑑みてなされたものであって、日常生活で求められる道具を使った動作のリハビリテーション訓練を適切に行うことができるリハビリテーション支援システムを提供する。 The present invention has been made in view of such a problem, and provides a rehabilitation support system capable of appropriately performing rehabilitation training of movements using tools required in daily life.

本発明の第1の態様によれば、リハビリテーション支援システムは、対象者に把持される模擬用品と、前記対象者に対し、前記模擬用品を用いた所定の動作を指示する指示手段と、前記対象者が前記模擬用品を用いて行った動作が、前記模擬用品、または、前記模擬用品を把持する前記対象者の手に関して設定された判定基準を満たすか否かを判定する判定手段と、前記判定手段による判定結果に基づいて、前記対象者が前記所定の動作を正しく行っているか否かを通知する通知手段と、を備える。 According to the first aspect of the present invention, the rehabilitation support system includes a simulated product held by a target person, an instruction means for instructing the target person to perform a predetermined operation using the simulated product, and the target. The determination means for determining whether or not the operation performed by the person using the simulated product satisfies the determination criteria set for the simulated product or the hand of the target person holding the simulated product, and the determination. A notification means for notifying whether or not the target person is correctly performing the predetermined operation based on the determination result by the means is provided.

本発明の第2の態様によれば、第1の態様に係るリハビリテーション支援システムにおいて、前記通知手段は、前記判定手段による判定結果に基づいて、前記模擬用品を用いて行った動作に応じた現象を視覚的または聴覚的に演出する。 According to the second aspect of the present invention, in the rehabilitation support system according to the first aspect, the notification means is a phenomenon corresponding to an operation performed by using the simulated product based on the determination result by the determination means. Visually or audibly.

本発明の第3の態様によれば、第1または第2の態様に係るリハビリテーション支援システムにおいて、前記模擬用品は、タオルであって、内部に圧力センサを備え、前記指示手段は、前記対象者に対し、当該タオルを絞ることを指示し、前記判定手段は、前記圧力センサによる圧力の検知結果が所定の閾値以上となるか否かを判定基準とする。 According to the third aspect of the present invention, in the rehabilitation support system according to the first or second aspect, the simulated product is a towel, the pressure sensor is provided inside, and the indicating means is the subject. On the other hand, the towel is instructed to be squeezed, and the determination means determines whether or not the pressure detection result by the pressure sensor is equal to or higher than a predetermined threshold value.

本発明の第4の態様によれば、第1から第3のいずれか一の態様に係るリハビリテーション支援システムにおいて、前記模擬用品は、鍵であって、前記指示手段は、前記鍵を所定の差し込み方向における所定位置に合わせるとともに、前記鍵を回すことを指示し、記判定手段は、当該鍵を把持する手が前記差し込み方向周りに所定量以上回転したか否かを判定基準とする。 According to a fourth aspect of the present invention, in the rehabilitation support system according to any one of the first to third aspects, the simulated product is a key, and the instruction means inserts the key into a predetermined position. The key is set to a predetermined position in the direction, and the key is instructed to be turned. The determination means determines whether or not the hand holding the key has rotated by a predetermined amount or more in the insertion direction.

本発明の第5の態様によれば、第1から第4のいずれか一の態様に係るリハビリテーション支援システムにおいて、前記模擬用品は、コップであって、前記指示手段は、前記コップを所定位置に配置することを指示し、前記判定手段は、前記所定位置において所定時間、物体の存在が検知されることを判定基準とする。 According to a fifth aspect of the present invention, in the rehabilitation support system according to any one of the first to fourth aspects, the simulated product is a cup, and the instruction means puts the cup in a predetermined position. It is instructed to arrange the object, and the determination means uses the detection of the presence of an object at the predetermined position for a predetermined time as a determination criterion.

本発明の第6の態様によれば、第1から第5のいずれか一の態様に係るリハビリテーション支援システムにおいて、前記模擬用品は、台拭きであって、前記指示手段は、ワイプ動作をさせるワイプ動作範囲を画像表示し、前記判定手段は、前記ワイプ動作範囲の複数個所において前記対象者の手の存在が検知されることを判定基準とする。 According to a sixth aspect of the present invention, in the rehabilitation support system according to any one of the first to fifth aspects, the simulated product is a table wipe, and the instruction means is a wipe that causes a wipe operation. The operating range is displayed as an image, and the determination means uses the detection of the presence of the target person's hand at a plurality of locations in the wipe operating range as a determination criterion.

本発明に係るリハビリテーション支援システムによれば、日常生活で求められる道具を使った動作のリハビリテーション訓練を適切に行うことができる。 According to the rehabilitation support system according to the present invention, it is possible to appropriately perform rehabilitation training for movements using tools required in daily life.

本発明の一実施形態に係るリハビリテーション支援システムの全体構成を示す図である。It is a figure which shows the whole structure of the rehabilitation support system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the control device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the control apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る机拭きアプリケーションの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the desk-wiping application which concerns on one Embodiment of this invention. 本発明の一実施形態に係る机拭きアプリケーションの機能を説明するための図である。It is a figure for demonstrating the function of the desk-wiping application which concerns on one Embodiment of this invention. 本発明の一実施形態に係る鍵回しアプリケーションの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the key turning application which concerns on one Embodiment of this invention. 本発明の一実施形態に係るコップアプリケーションの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the cup application which concerns on one Embodiment of this invention. 本発明の一実施形態に係るコップアプリケーションの機能を説明するための図である。It is a figure for demonstrating the function of the cup application which concerns on one Embodiment of this invention. 本発明の一実施形態に係るタオルアプリケーションの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the towel application which concerns on one Embodiment of this invention. 本発明の一実施形態に係る文字入力アプリケーションの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of the character input application which concerns on one Embodiment of this invention. 本発明の一実施形態に係る文字入力アプリケーションの機能を説明するための図である。It is a figure for demonstrating the function of the character input application which concerns on one Embodiment of this invention.

以下、本発明の第1の実施形態に係るリハビリテーション支援システム1について、図1〜図11を参照しながら説明する。 Hereinafter, the rehabilitation support system 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 11.

(リハビリテーション支援システムの全体構成)
図1は、本発明の一実施形態に係るリハビリテーション支援システムの全体構成を示す図である。
図1に示すように、リハビリテーション支援システム1は、制御装置10と、投影装置11と、モニタ12と、動作読取装置13と、ロボット14、圧力センサ15と、機器間通信装置16とを備える。
(Overall configuration of rehabilitation support system)
FIG. 1 is a diagram showing an overall configuration of a rehabilitation support system according to an embodiment of the present invention.
As shown in FIG. 1, the rehabilitation support system 1 includes a control device 10, a projection device 11, a monitor 12, a motion reading device 13, a robot 14, a pressure sensor 15, and an inter-device communication device 16.

制御装置10は、投影装置11に内蔵され、リハビリテーション支援システム1の動作全体の制御を司る。制御装置10が有する機能については後述する。なお、制御装置10は、本実施形態における判定手段の一態様である。 The control device 10 is built in the projection device 11 and controls the entire operation of the rehabilitation support system 1. The functions of the control device 10 will be described later. The control device 10 is one aspect of the determination means in the present embodiment.

投影装置11は、投影画像Pを作業面T上に投影する投影部11aと、物体(対象者の手、指、模擬用品等)の位置、動きを検知する検知センサ11bとを有する。なお、投影装置11は、本実施形態における指示手段、及び、通知手段の一態様である。 The projection device 11 includes a projection unit 11a that projects the projected image P onto the work surface T, and a detection sensor 11b that detects the position and movement of an object (a target person's hand, finger, simulated article, etc.). The projection device 11 is an aspect of the instruction means and the notification means in the present embodiment.

モニタ12は、訓練に関する動作の指示や各種演出映像を表示する。なお、モニタ12は、本実施形態における指示手段、及び、通知手段の一態様である。 The monitor 12 displays operation instructions and various production images related to training. The monitor 12 is an aspect of the instruction means and the notification means in the present embodiment.

動作読取装置13は、本体の上方に位置する手の形、位置、姿勢を検出し、その検出結果(手の形、位置、姿勢)を反映したモデルを仮想空間上に配置して映像化する。 The motion reading device 13 detects the shape, position, and posture of the hand located above the main body, and arranges and visualizes a model reflecting the detection result (hand shape, position, posture) in the virtual space. ..

ロボット14は、対象者に対し、訓練の説明や訓練の結果に応じた演出(発話、首振り動作、発光演出など)を行う。なお、ロボット14は、本実施形態における指示手段、及び、通知手段の一態様である。 The robot 14 gives an explanation of the training and an effect (speaking, swinging motion, light emitting effect, etc.) according to the result of the training to the target person. The robot 14 is an aspect of the instruction means and the notification means in the present embodiment.

圧力センサ15は、模擬用品Qの一つであるタオルQ4の内部に設けられる。対象者がタオルQ4を絞る動作をする際に、その絞りの強さの度合いを電気信号によって検出可能とする。 The pressure sensor 15 is provided inside the towel Q4, which is one of the simulated products Q. When the subject squeezes the towel Q4, the degree of the squeezing strength can be detected by an electric signal.

機器間通信装置16は、上述した制御装置10(投影装置11)、モニタ12、動作読取装置13、ロボット14及び圧力センサ15の相互通信を可能とする通信インタフェースである。なお、図1には、機器間通信装置16がケーブルを介して各機器間の有線通信を実現する例が示されているが、これに限られることはない。他の実施形態では、機器間通信装置16は、無線通信技術を利用して各機器間の無線通信を実現する態様であってもよい。 The inter-device communication device 16 is a communication interface that enables mutual communication between the control device 10 (projection device 11), the monitor 12, the motion reading device 13, the robot 14, and the pressure sensor 15 described above. Note that FIG. 1 shows an example in which the device-to-device communication device 16 realizes wired communication between devices via a cable, but the present invention is not limited to this. In another embodiment, the device-to-device communication device 16 may be in a mode of realizing wireless communication between devices by utilizing wireless communication technology.

模擬用品Qは、それぞれ、コップQ1、鍵Q2、台拭きQ3、タオルQ4である。それぞれ、対象者のリハビリ訓練に用いる。 The simulated supplies Q are a cup Q1, a key Q2, a table wipe Q3, and a towel Q4, respectively. Each is used for rehabilitation training of the subject.

(制御装置の機能構成)
図2は、本発明の一実施形態に係る制御装置の機能構成を示すブロック図である。
図2に示すように、制御装置10は、CPU100と、接続インタフェース101と、メモリ102と、記録媒体103とを備えている。
(Functional configuration of control device)
FIG. 2 is a block diagram showing a functional configuration of a control device according to an embodiment of the present invention.
As shown in FIG. 2, the control device 10 includes a CPU 100, a connection interface 101, a memory 102, and a recording medium 103.

CPU100は、所定のプログラムに従って動作することで、メインアプリケーション1001、机拭きアプリケーション1002、鍵回しアプリケーション1003、コップアプリケーション1004、タオルアプリケーション1005、文字入力アプリケーション1006としての各種機能を発揮する。 The CPU 100 exhibits various functions as a main application 1001, a desk wiping application 1002, a key turning application 1003, a cup application 1004, a towel application 1005, and a character input application 1006 by operating according to a predetermined program.

接続インタフェース101は、機器間通信装置16を介した他の機器との情報のやり取り(モニタ12に対する表示要求、動作読取装置13による指位置検出の要求、ロボット14への演出要求など)を行うためのインタフェースである。 The connection interface 101 is for exchanging information with other devices via the inter-device communication device 16 (display request to the monitor 12, finger position detection request by the motion reading device 13, production request to the robot 14, etc.). Interface.

メモリ102は、いわゆる主記憶装置であって、CPU100がプログラムに基づいて動作するための命令及びデータが展開される。 The memory 102 is a so-called main storage device, and instructions and data for the CPU 100 to operate based on a program are expanded.

記録媒体103は、いわゆる補助記憶装置であって、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等であってよい。記録媒体103には、例えば、ユーザ情報(対象者の訓練履歴情報)などが記録される。 The recording medium 103 is a so-called auxiliary storage device, and may be, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. For example, user information (training history information of the target person) and the like are recorded in the recording medium 103.

メインアプリケーション1001は、訓練を行うゲーム全体の制御を司るアプリケーションである。メインアプリケーション1001は、ユーザ(対象者)による入力情報に基づいて、後述する各訓練用のアプリケーションを選択して実行する。 The main application 1001 is an application that controls the entire game for training. The main application 1001 selects and executes each training application described later based on the input information by the user (target person).

CPU100は、訓練用のアプリケーションとして、机拭きアプリケーション1002、鍵回しアプリケーション1003、コップアプリケーション1004、タオルアプリケーション1005、及び、文字入力アプリケーション1006を有する。 The CPU 100 has a desk cleaning application 1002, a key turning application 1003, a cup application 1004, a towel application 1005, and a character input application 1006 as training applications.

机拭きアプリケーション1002は、台拭きQ3を用いて行うワイプ動作訓練を行うためのアプリケーションである。 The desk wiping application 1002 is an application for performing wipe operation training performed by using the table wiping Q3.

鍵回しアプリケーション1003は、鍵Q2を用いて行う鍵回し動作訓練を行うためのアプリケーションである。 The key turning application 1003 is an application for performing key turning operation training performed using the key Q2.

コップアプリケーション1004は、コップQ1を用いて行うコップ配置動作訓練を行うためのアプリケーションである。 The cup application 1004 is an application for performing cup placement operation training performed using the cup Q1.

タオルアプリケーション1005は、タオルQ4を用いて行うタオル絞り動作訓練を行うためのアプリケーションである。 Towel application 1005 is an application for performing towel squeezing operation training performed using towel Q4.

文字入力アプリケーション1006は、投影画像Pに表示されたキーボードへのタイプ訓練を行うためのアプリケーションである。 The character input application 1006 is an application for performing type training on the keyboard displayed on the projected image P.

(制御装置の処理フロー)
図3は、本発明の一実施形態に係る制御装置の処理の一例を示すフローチャートである。
以下、図3を参照しながら、制御装置10の処理の一例について詳細に説明する。
(Processing flow of control device)
FIG. 3 is a flowchart showing an example of processing of the control device according to the embodiment of the present invention.
Hereinafter, an example of the processing of the control device 10 will be described in detail with reference to FIG.

リハビリテーション支援システム1の各機器(制御装置10、投影装置11、モニタ12、動作読取装置13、ロボット14、及び、機器間通信装置16)の電源がオンされると、制御装置10は、図3に示すようにメインアプリケーション1001を起動する(ステップS10)。 When the power of each device (control device 10, projection device 11, monitor 12, motion reading device 13, robot 14, and inter-device communication device 16) of the rehabilitation support system 1 is turned on, the control device 10 is shown in FIG. The main application 1001 is started as shown in (Step S10).

次に、メインアプリケーション1001は、投影装置11に設定画面を表示させる(ステップS11)。そうすると、投影装置11の投影部11aは、設定画面を含む投影画像Pを作業面T上に投影する。
設定画面は、ユーザ情報及び訓練内容の入力を受け付けるための画面である。ユーザ情報は、リハビリテーション訓練を実施するユーザ(対象者)を特定可能な識別情報(ユーザ番号、氏名等)である。訓練内容は、「机拭き(ワイプ)動作訓練」、「鍵回し動作訓練」、「コップ配置動作訓練」、「タオル絞り動作訓練」、及び、「文字入力(タイプ)訓練」のそれぞれを実施する順番、回数(セット数)、レベル(難易度)、訓練対象となる手(右手または左手)等の情報を含む。
なお、このとき、メインアプリケーション1001は、モニタ12に対し、設定画面に入力する内容、入力方法等を指示する説明情報を表示するように要求してもよい。また、メインアプリケーション1001は、ロボット14に対し、同様の説明情報を音声で出力するように要求してもよい。
Next, the main application 1001 causes the projection device 11 to display the setting screen (step S11). Then, the projection unit 11a of the projection device 11 projects the projection image P including the setting screen onto the work surface T.
The setting screen is a screen for accepting input of user information and training contents. The user information is identification information (user number, name, etc.) that can identify the user (target person) who carries out the rehabilitation training. The training contents are "wipe motion training", "key turning motion training", "cup placement motion training", "towel squeezing motion training", and "character input (type) training". Includes information such as order, number of times (number of sets), level (difficulty), and hand to be trained (right or left hand).
At this time, the main application 1001 may request the monitor 12 to display explanatory information instructing the contents to be input to the setting screen, the input method, and the like. Further, the main application 1001 may request the robot 14 to output the same explanatory information by voice.

次に、メインアプリケーション1001は、設定画面に対するユーザの入力操作を受け付ける(ステップS12)。このとき、投影装置11の検知センサ11bは、ユーザの手(指)の位置等を検出して、制御装置10に検知信号を送信する。そうすると、メインアプリケーション1001は、この検知信号に基づいて、ユーザが入力したユーザ情報及び訓練内容を取得して、これらの情報を記録媒体103に記録する(ステップS13)。 Next, the main application 1001 accepts a user's input operation on the setting screen (step S12). At this time, the detection sensor 11b of the projection device 11 detects the position of the user's hand (finger) and transmits the detection signal to the control device 10. Then, the main application 1001 acquires the user information and the training content input by the user based on the detection signal, and records the information on the recording medium 103 (step S13).

次に、メインアプリケーション1001は、取得した訓練内容に基づいて、訓練アプリケーション(机拭きアプリケーション1002、鍵回しアプリケーション1003、コップアプリケーション1004、タオルアプリケーション1005、及び、文字入力アプリケーション1006のうち何れか)に訓練に係る処理を実行させる(ステップS14)。なお、各訓練アプリケーションにおける処理の詳細については、後述する。 Next, the main application 1001 trains the training application (one of the desk wiping application 1002, the key turning application 1003, the cup application 1004, the towel application 1005, and the character input application 1006) based on the acquired training content. (Step S14). The details of the processing in each training application will be described later.

また、訓練アプリケーションの処理が終了すると、メインアプリケーション1001は、訓練内容に指定された全ての訓練が終了したか否かを判断する(ステップS15)。
メインアプリケーション1001は、まだ終了していない訓練がある場合(ステップS15:NO)、ステップS14に戻り、訓練内容で指定された次の訓練に関連する訓練アプリケーションを起動する。
一方、メインアプリケーション1001は、訓練内容で指定された全ての訓練が終了した場合(ステップS15:YES)、ユーザの訓練を終了する。なお、他に訓練を行うユーザがいる場合、メインアプリケーション1001は、ステップS11に戻り、他のユーザの訓練を受け付け可能としてもよい。
When the processing of the training application is completed, the main application 1001 determines whether or not all the training specified in the training content is completed (step S15).
If there is training that has not been completed yet (step S15: NO), the main application 1001 returns to step S14 and starts the training application related to the next training specified in the training content.
On the other hand, the main application 1001 ends the user training when all the training specified in the training content is completed (step S15: YES). If there is another user to be trained, the main application 1001 may return to step S11 so that the training of the other user can be accepted.

(机拭きアプリケーションの処理フロー)
図4は、本発明の一実施形態に係る机拭きアプリケーションの処理の一例を示すフローチャートである。
図5は、本発明の一実施形態に係る机拭きアプリケーションの機能を説明するための図である。
訓練内容に次の訓練が「机拭き(ワイプ)動作訓練」であると指定されている場合、メインアプリケーション1001は、図3のステップS14において、訓練に係る一連の処理を机拭きアプリケーション1002に実行させる。そして、メインアプリケーション1001は、机拭きアプリケーション1002の一連の処理が終了すると、図3のステップS15に進む。ここでは、図4〜図5を参照しながら、ステップS14(図3)における机拭きアプリケーション1002の一連の処理の流れについて詳細に説明する。
(Processing flow of desk cleaning application)
FIG. 4 is a flowchart showing an example of processing of a desk wiping application according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining the function of the desk wiping application according to the embodiment of the present invention.
When the next training is specified as "wipe motion training" in the training content, the main application 1001 executes a series of processes related to the training in the desk wiping application 1002 in step S14 of FIG. Let me. Then, when the series of processes of the desk cleaning application 1002 is completed, the main application 1001 proceeds to step S15 of FIG. Here, a series of processing flows of the desk wiping application 1002 in step S14 (FIG. 3) will be described in detail with reference to FIGS. 4 to 5.

図4に示すように、メインアプリケーション1001は、机拭きアプリケーション1002を起動する(ステップS100)。 As shown in FIG. 4, the main application 1001 activates the desk cleaning application 1002 (step S100).

次に、机拭きアプリケーション1002は、「机拭き(ワイプ)動作訓練」においてユーザが使用する模擬用品Q、行う動作、制限時間等を指示する指示情報を、モニタ12及びロボット14に出力させる(ステップS101)。
そうすると、モニタ12は、台拭きQ3を使って所定の範囲を拭きとるワイプ動作を、所定の制限時間以内に行うことをユーザに指示する指示情報(画像、文字等)を表示する。更に、ロボット14は、同様の指示情報を音声で出力する。
Next, the desk wiping application 1002 causes the monitor 12 and the robot 14 to output instruction information instructing the simulated product Q used by the user in the “desk wiping (wipe) operation training”, the operation to be performed, the time limit, and the like (step). S101).
Then, the monitor 12 displays instruction information (images, characters, etc.) instructing the user to perform a wipe operation of wiping a predetermined range using the table wipe Q3 within a predetermined time limit. Further, the robot 14 outputs the same instruction information by voice.

指示情報の出力が完了すると、机拭きアプリケーション1002は、訓練を開始する(ステップS102)。このとき、机拭きアプリケーション1002は、制限時間の残り時間のカウントを開始する。なお、残り時間はモニタ12に表示されてもよい。 When the output of the instruction information is completed, the desk cleaning application 1002 starts training (step S102). At this time, the desk wiping application 1002 starts counting the remaining time of the time limit. The remaining time may be displayed on the monitor 12.

次に、机拭きアプリケーション1002は、投影装置11にワイプ動作範囲M1を表示させるとともに、全ての「汚れフラグ」をONにする(ステップS103)。
そうすると、投影装置11の投影部11aは、図5に示すように作業面T上にワイプ動作をさせるワイプ動作範囲M1含む投影画像Pを表示する。ワイプ動作範囲M1は、例えば「汚れ」を表す画像(汚れ画像)として表現される。なお、ワイプ動作範囲M1は、訓練内容で指定されたレベルに応じて可変であり、レベル(難易度)が高いほどワイプ動作範囲M1の面積が大きくなる。
汚れフラグは、ユーザがワイプ動作範囲M1内でワイプ動作により汚れを拭きとる動作を行ったか否かを示す。例えば、図5に示すように、ワイプ動作範囲M1には、複数の判断領域R1が含まれている。判断領域R1それぞれに汚れフラグが設定されており、机拭きアプリケーション1002は、ユーザがある判断領域R1においてワイプ動作を行ったことが検出されると、当該判断領域R1の汚れフラグをOFFにする。
なお、判断領域R1は投影画像Pには表示されない。また、判断領域R1の数は、ワイプ動作範囲M1の面積に応じて可変である。
Next, the desk wiping application 1002 causes the projection device 11 to display the wipe operation range M1 and turns on all the “dirt flags” (step S103).
Then, the projection unit 11a of the projection device 11 displays the projected image P including the wipe operation range M1 that causes the wipe operation on the work surface T as shown in FIG. The wipe operation range M1 is expressed as, for example, an image (dirt image) representing "dirt". The wipe operation range M1 is variable according to the level specified in the training content, and the higher the level (difficulty level), the larger the area of the wipe operation range M1.
The dirt flag indicates whether or not the user has performed an operation of wiping dirt by a wipe operation within the wipe operation range M1. For example, as shown in FIG. 5, the wipe operation range M1 includes a plurality of determination areas R1. A dirt flag is set for each of the determination areas R1, and the desk wiping application 1002 turns off the dirt flag of the determination area R1 when it is detected that the user has performed a wipe operation in the determination area R1.
The determination area R1 is not displayed on the projected image P. Further, the number of determination regions R1 is variable according to the area of the wipe operation range M1.

次に、机拭きアプリケーション1002は、投影画像P内におけるOnTouchイベントが存在するかを検知する(ステップS104)。OnTouchイベントは、投影画像P上のどの位置にユーザの手、または、台拭きQ3がタッチされたかを検知したことを示す信号である。投影装置11の検知センサ11bは、OnTouchイベントの有無を示す検知信号を制御装置10(机拭きアプリケーション1002)に送信する。机拭きアプリケーション1002は、投影装置11から受信した検知信号に基づいて、OnTouchイベントの存在を検知する。 Next, the desk wiping application 1002 detects whether an OnTouch event exists in the projected image P (step S104). The OnTouch event is a signal indicating that the position on the projected image P where the user's hand or the table wipe Q3 is touched is detected. The detection sensor 11b of the projection device 11 transmits a detection signal indicating the presence or absence of an OnTouch event to the control device 10 (desk wiping application 1002). The desk wiping application 1002 detects the presence of an OnTouch event based on the detection signal received from the projection device 11.

次に、机拭きアプリケーション1002は、残り時間があるか否かを判断する(ステップS105)。 Next, the desk wiping application 1002 determines whether or not there is remaining time (step S105).

残り時間が「0」となった場合(ステップS105:NO)、机拭きアプリケーション1002は、「時間切れ」であることを示す演出情報を投影装置11、モニタ12、及び、ロボット14に出力させる(ステップS106)。
そうすると、投影装置11及びモニタ12は、制限時間内にワイプ動作が完了しなかったことを示す演出表現(画像、文字等の表示)を行う。また、ロボット14は、同様の情報を音声で出力する。この後、机拭きアプリケーション1002はステップS113に進む。
When the remaining time becomes "0" (step S105: NO), the desk wiping application 1002 causes the projection device 11, the monitor 12, and the robot 14 to output the effect information indicating that the time has expired (step S105: NO). Step S106).
Then, the projection device 11 and the monitor 12 perform an effect expression (display of an image, characters, etc.) indicating that the wipe operation is not completed within the time limit. Further, the robot 14 outputs the same information by voice. After this, the desk wiping application 1002 proceeds to step S113.

一方、残り時間がある場合(ステップS105:YES)、机拭きアプリケーション1002は、いずれか一の判断領域R1(図5)にOnTouchイベントが存在するか否かを判断する(ステップS107)。 On the other hand, when there is remaining time (step S105: YES), the desk wiping application 1002 determines whether or not an OnTouch event exists in any one of the determination areas R1 (FIG. 5) (step S107).

机拭きアプリケーション1002は、全ての判断領域R1にOnTouchイベントが存在しない場合(ステップS107:NO)、ステップS104に戻り、次のOnTouchイベントを待ち受ける。 If the OnTouch event does not exist in all the determination areas R1, the desk wiping application 1002 returns to step S104 and waits for the next OnTouch event.

また、机拭きアプリケーション1002は、いずれかの判断領域R1にOnTouchイベントが存在する場合(ステップS107:YES)、前回OnTouchイベントが検出された判断領域R1(前回検出領域)からユーザの手または台拭きQ3が移動したか否かを判断する(ステップS108)。 Further, when the OnTouch event exists in any of the determination areas R1, the desk wiping application 1002 wipes the user's hand or the table from the determination area R1 (previous detection area) where the previous OnTouch event was detected (step S107: YES). It is determined whether or not Q3 has moved (step S108).

OnTouchイベントが検出された判断領域R1が、前回検出領域と同一の判断領域R1である場合、机拭きアプリケーション1002はユーザの手または台拭きQ3が移動していない判断する(ステップS108:NO)。この場合、机拭きアプリケーション1002は、ステップS104に戻り、次のOnTouchイベントを待ち受ける。 When the determination area R1 in which the OnTouch event is detected is the same determination area R1 as the previous detection area, the desk wiping application 1002 determines that the user's hand or table wipe Q3 has not moved (step S108: NO). In this case, the desk wiping application 1002 returns to step S104 and waits for the next OnTouch event.

OnTouchイベントが検出された判断領域R1が、前回検出領域と異なる判断領域である場合、机拭きアプリケーション1002はユーザの手または台拭きQ3が新たな判断領域R1に移動したと判断する(ステップS108:YES)。この場合、机拭きアプリケーション1002は、移動後の判断領域R1(今回OnTouchイベントが検出された判断領域R1)の汚れフラグがONであるか否かを判断する(ステップS109)。 When the determination area R1 in which the OnTouch event is detected is a determination area different from the previous detection area, the desk wiping application 1002 determines that the user's hand or table wipe Q3 has moved to a new determination area R1 (step S108: YES). In this case, the desk wiping application 1002 determines whether or not the dirt flag of the determination area R1 after movement (the determination area R1 in which the OnTouch event is detected this time) is ON (step S109).

移動後の判断領域R1の汚れフラグがOFFである場合(ステップS109:NO)、机拭きアプリケーション1002は、この判断領域R1においてワイプ動作を実行済みであると判断し、ステップS104に戻る。 When the dirt flag of the determination area R1 after the movement is OFF (step S109: NO), the desk wiping application 1002 determines that the wipe operation has been executed in the determination area R1 and returns to step S104.

一方、移動後の判断領域R1の汚れフラグがONである場合(ステップS109:YES)、机拭きアプリケーション1002は、この判断領域R1においてワイプ動作が初めて実行されたと判断する。この場合、机拭きアプリケーション1002は、ワイプ動作範囲M1のうち当該判断領域R1周辺の「汚れ」画像を消去する演出情報(映像、効果音等)を投影装置11に出力させるとともに、当該判断領域R1の汚れフラグをOFFにする(ステップS110)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。これにより、ユーザの手または台拭きQ3の位置する領域において、汚れを拭きとる動作が適切に実行されたことをユーザに認識させることができる。 On the other hand, when the dirt flag of the determination area R1 after movement is ON (step S109: YES), the desk wiping application 1002 determines that the wipe operation has been executed for the first time in this determination area R1. In this case, the desk wiping application 1002 outputs the effect information (video, sound effect, etc.) for erasing the "dirty" image around the determination area R1 in the wipe operation range M1 to the projection device 11 and outputs the effect information (video, sound effect, etc.) to the determination area R1. Turn off the dirt flag of (step S110). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. As a result, it is possible to make the user recognize that the operation of wiping the dirt is properly executed in the area where the user's hand or the table wipe Q3 is located.

次に、机拭きアプリケーション1002は、全ての判断領域R1の汚れフラグがOFFになったか否かを判断する(ステップS111)。 Next, the desk wiping application 1002 determines whether or not the dirt flags of all the determination areas R1 have been turned off (step S111).

一つ以上の判断領域R1の汚れフラグがONである場合(ステップS111:NO)、机拭きアプリケーション1002は、まだワイプ動作が実行されていない領域があると判断して、ステップS104に戻る。 When the dirt flag of one or more determination areas R1 is ON (step S111: NO), the desk wiping application 1002 determines that there is an area in which the wipe operation has not been executed yet, and returns to step S104.

一方、全ての判断領域R1の汚れフラグがOFFである場合(ステップS111:YES)、机拭きアプリケーション1002は、ワイプ動作範囲M1の全ての領域でワイプ動作が完了したと判断して、ワイプ動作訓練が成功したことを示す演出情報(映像、効果音等)を、投影装置11に出力させる(ステップS112)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。また、机拭きアプリケーション1002は、モニタ12及びロボット14にワイプ動作訓練の成功を示す演出情報(テキスト、画像、音声等)を出力させるようにしてもよい。 On the other hand, when the dirt flags of all the determination areas R1 are OFF (step S111: YES), the desk wiping application 1002 determines that the wipe operation is completed in all the areas of the wipe operation range M1 and performs the wipe operation training. The projection device 11 is made to output the effect information (video, sound effect, etc.) indicating that the above is successful (step S112). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. Further, the desk wiping application 1002 may cause the monitor 12 and the robot 14 to output effect information (text, image, voice, etc.) indicating the success of the wipe operation training.

次に、机拭きアプリケーション1002は、訓練内容で指定されたセット数(回数)分の訓練が終了したか否かを判断する(ステップS113)。全セット終了していない場合、例えば、3セット中の1〜2セットまでしか終了していない場合(ステップS113:NO)、机拭きアプリケーション1002はステップS102に戻り、ワイプ動作訓練を再度ユーザに実施させる。また、全セット終了した場合(ステップS113:YES)、机拭きアプリケーション1002は処理を終了する。 Next, the desk wiping application 1002 determines whether or not the training for the number of sets (number of times) specified in the training content has been completed (step S113). If all sets have not been completed, for example, if only 1 to 2 sets out of 3 sets have been completed (step S113: NO), the desk wiping application 1002 returns to step S102 and the wipe operation training is performed to the user again. Let me. When the entire set is completed (step S113: YES), the desk wiping application 1002 ends the process.

(鍵回しアプリケーションの処理フロー)
図6は、本発明の一実施形態に係る鍵回しアプリケーションの処理の一例を示すフローチャートである。
訓練内容に次の訓練が「鍵回し動作訓練」であると指定されている場合、メインアプリケーション1001は、図3のステップS14において、訓練に係る処理を鍵回しアプリケーション1003に実行させる。そして、メインアプリケーション1001は、鍵回しアプリケーション1003の一連の処理が終了すると、図3のステップS15に進む。ここでは、図6を参照しながら、ステップS14(図3)における鍵回しアプリケーション1003の一連の処理の流れについて詳細に説明する。
(Processing flow of key turning application)
FIG. 6 is a flowchart showing an example of processing of the key turning application according to the embodiment of the present invention.
When the next training is specified as "key turning motion training" in the training content, the main application 1001 causes the key turning application 1003 to execute the process related to the training in step S14 of FIG. Then, when the series of processes of the key turning application 1003 is completed, the main application 1001 proceeds to step S15 of FIG. Here, a series of processing flows of the key turning application 1003 in step S14 (FIG. 3) will be described in detail with reference to FIG.

図6に示すように、メインアプリケーション1001は、鍵回しアプリケーション1003を起動する(ステップS200)。 As shown in FIG. 6, the main application 1001 activates the key turning application 1003 (step S200).

次に、鍵回しアプリケーション1003は、動作読取装置13にユーザの手のモデルを登録させる(ステップS201)。例えば、鍵回しアプリケーション1003は、ユーザに手を動作読取装置13の上にかざすように指示する指示情報をモニタ12及びロボット14から出力させる。ユーザが自身の手を動作読取装置13の上にかざすと、動作読取装置13は、ユーザの手の形、位置、姿勢を認識して、当該ユーザの手のモデルを作成する。 Next, the key turning application 1003 causes the motion reading device 13 to register the model of the user's hand (step S201). For example, the key turning application 1003 causes the monitor 12 and the robot 14 to output instruction information instructing the user to hold his / her hand over the motion reading device 13. When the user holds his / her hand over the motion reading device 13, the motion reading device 13 recognizes the shape, position, and posture of the user's hand and creates a model of the user's hand.

次に、鍵回しアプリケーション1003は、「鍵回し動作訓練」においてユーザが使用する模擬用品Q、行う動作、制限時間等を指示する指示情報を、モニタ12及びロボット14に出力させる(ステップS202)。
そうすると、モニタ12は、鍵Q2を所定の差し込み方向における所定位置(後述の3D空間内の鍵穴)に合わせるとともに、鍵Q2を回す動作を、所定の制限時間以内に行うことをユーザに指示する指示情報(画像、文字等)を表示する。更に、ロボット14は、同様の指示情報を音声で出力する。
Next, the key turning application 1003 causes the monitor 12 and the robot 14 to output instruction information instructing the simulated product Q used by the user in the “key turning motion training”, the motion to be performed, the time limit, and the like (step S202).
Then, the monitor 12 aligns the key Q2 with a predetermined position (a keyhole in the 3D space described later) in a predetermined insertion direction, and instructs the user to perform the operation of turning the key Q2 within a predetermined time limit. Display information (images, characters, etc.). Further, the robot 14 outputs the same instruction information by voice.

手のモデルの登録、及び指示情報の出力が完了すると、鍵回しアプリケーション1003は、モニタ12に鍵穴が配置された3D空間の映像を表示させて、訓練を開始する(ステップS203)。このとき、鍵回しアプリケーション1003は、制限時間の残り時間のカウントを開始する。なお、残り時間はモニタ12に表示されてもよい。 When the registration of the hand model and the output of the instruction information are completed, the key turning application 1003 displays the image of the 3D space in which the keyhole is arranged on the monitor 12 and starts the training (step S203). At this time, the key turning application 1003 starts counting the remaining time of the time limit. The remaining time may be displayed on the monitor 12.

次に、鍵回しアプリケーション1003は、動作読取装置13を介して3D空間におけるユーザの手の形、位置、姿勢を検知する(ステップS204)。動作読取装置13は、ユーザの手の形、位置、姿勢を認識して、3D空間における手のモデルの形、位置(座標)、姿勢(角度)に変換し、制御装置10(鍵回しアプリケーション1003)に検知信号として送信する処理を逐次行う。鍵回しアプリケーション1003は、動作読取装置13から受信した検知信号に基づいて、ユーザの手及び鍵Q2の3D空間における位置を検知する。
また、動作読取装置13は、手のモデルの形、位置、姿勢を3D空間の映像に重畳してモニタ12に表示させる。これにより、ユーザは、自身の手が3D空間のどの位置にあるかを認識することができる。
Next, the key turning application 1003 detects the shape, position, and posture of the user's hand in the 3D space via the motion reading device 13 (step S204). The motion reading device 13 recognizes the shape, position, and posture of the user's hand, converts the shape, position (coordinates), and posture (angle) of the hand model in 3D space, and converts the control device 10 (key rotation application 1003). ) Is sequentially transmitted as a detection signal. The key turning application 1003 detects the position of the user's hand and the key Q2 in the 3D space based on the detection signal received from the motion reading device 13.
Further, the motion reading device 13 superimposes the shape, position, and posture of the hand model on the image in the 3D space and displays it on the monitor 12. This allows the user to recognize where his or her hand is in 3D space.

次に、鍵回しアプリケーション1003は、残り時間があるか否かを判断する(ステップS205)。 Next, the key turning application 1003 determines whether or not there is remaining time (step S205).

残り時間が「0」となった場合(ステップS205:NO)、鍵回しアプリケーション1003は、「時間切れ」であることを示す演出情報を投影装置11、モニタ12、及び、ロボット14に出力させる(ステップS206)。
そうすると、投影装置11及びモニタ12は、制限時間内に鍵回し動作が完了しなかったことを示す演出表現(画像、文字等の表示)を行う。また、ロボット14は、同様の情報を音声で出力する。この後、鍵回しアプリケーション1003はステップS214に進む。
When the remaining time becomes "0" (step S205: NO), the key turning application 1003 causes the projection device 11, the monitor 12, and the robot 14 to output effect information indicating that the time has expired (step S205: NO). Step S206).
Then, the projection device 11 and the monitor 12 perform an effect expression (display of an image, characters, etc.) indicating that the key turning operation is not completed within the time limit. Further, the robot 14 outputs the same information by voice. After this, the key turning application 1003 proceeds to step S214.

一方、残り時間がある場合(ステップS205:YES)、鍵回しアプリケーション1003は、3D空間における手のモデルの位置が鍵穴の位置と一致し、且つ、鍵フラグがOFFであるか否かを判断する(ステップS207)。
鍵フラグは、ユーザが3D空間における鍵穴に鍵を挿入したか否かを示す情報であり、ONの場合は鍵穴に鍵が挿入されている状態を示し、OFFの場合は鍵穴に鍵が挿入されていない状態を示す。
On the other hand, when there is remaining time (step S205: YES), the key turning application 1003 determines whether or not the position of the hand model in the 3D space matches the position of the keyhole and the key flag is OFF. (Step S207).
The key flag is information indicating whether or not the user has inserted the key into the keyhole in the 3D space. When it is ON, it indicates that the key is inserted into the keyhole, and when it is OFF, the key is inserted into the keyhole. Indicates a non-existent state.

3D空間における手のモデルの位置が鍵穴の位置と一致し、且つ、鍵フラグがOFFである場合(ステップS207:YES)、鍵回しアプリケーション1003は、ユーザが3D空間において鍵を鍵穴に挿入したと判断する。この場合、鍵回しアプリケーション1003は、モニタ12に鍵が鍵穴に挿入されたことを示す演出情報(映像、効果音等)を出力させるとともに、鍵フラグをONにする(ステップS208)。 When the position of the hand model in 3D space matches the position of the keyhole and the key flag is OFF (step S207: YES), the key turning application 1003 states that the user has inserted the key into the keyhole in 3D space. to decide. In this case, the key turning application 1003 causes the monitor 12 to output effect information (video, sound effect, etc.) indicating that the key has been inserted into the keyhole, and turns on the key flag (step S208).

3D空間における手のモデルの位置が鍵穴の位置と一致しているものの、鍵フラグがONである場合(ステップS207:NO、且つ、ステップS209:YES)、鍵回しアプリケーション1003は、既にユーザが鍵を鍵穴に挿入済みであると判断し、ステップS211に進む。 When the position of the hand model in the 3D space matches the position of the keyhole, but the key flag is ON (step S207: NO and step S209: YES), the key turning application 1003 is already keyed by the user. Is already inserted in the keyhole, and the process proceeds to step S211.

3D空間における手のモデルの位置が鍵穴の位置と一致していない場合(ステップS207:NO、且つ、ステップS209:NO)、鍵回しアプリケーション1003は、3D空間における鍵穴の位置と異なる位置に、手のモデル(鍵)が位置していると判断する。この場合、鍵回しアプリケーション1003は、手(鍵Q2)を鍵穴の位置に移動させるように指示する指示情報をモニタ12及びロボット14に出力させるとともに、鍵フラグをOFFにし(ステップS210)、ステップS204に戻る。 If the position of the hand model in 3D space does not match the position of the keyhole (step S207: NO and step S209: NO), the key turning application 1003 will place the hand in a position different from the position of the keyhole in 3D space. Judge that the model (key) of is located. In this case, the key turning application 1003 causes the monitor 12 and the robot 14 to output instruction information instructing the hand (key Q2) to move to the position of the keyhole, turns off the key flag (step S210), and steps S204. Return to.

次に、鍵回しアプリケーション1003は、ユーザの手(手首)の回転を検出する(ステップS211)。例えば、鍵回しアプリケーション1003は、動作読取装置13から受信した検知信号から、手のモデルの手首に相当する箇所の回転方向及び角度を検出する。 Next, the key turning application 1003 detects the rotation of the user's hand (wrist) (step S211). For example, the key turning application 1003 detects the rotation direction and the angle of the portion corresponding to the wrist of the hand model from the detection signal received from the motion reading device 13.

次に、鍵回しアプリケーション1003は、ユーザが鍵Q2を把持した状態で、差し込み方向回りに所定量以上、手首を回したか否かを判断する(ステップS212)。
具体的には、鍵回しアプリケーション1003は、ユーザが手首を所定回数、設定角度以上回す動作を行った否かを判断する。
設定角度は、訓練内容に指定されたレベルに応じて可変であり、レベル(難易度)が高いほど大きい角度が設定される。例えば、レベル1(難易度:低)では20度、レベル2(難易度:中)では60度、レベル3(難易度:高)では90度に設定される。また、手首を回す回数は、例えば3回に設定される。なお、この回数は任意に変更可能であり、メインアプリケーション1001は、設定画面において回数を指定し、訓練内容に含めるようにしてもよい。
Next, the key turning application 1003 determines whether or not the user has turned the wrist by a predetermined amount or more in the insertion direction while holding the key Q2 (step S212).
Specifically, the key turning application 1003 determines whether or not the user has performed an operation of turning the wrist a predetermined number of times by a set angle or more.
The set angle is variable according to the level specified in the training content, and the higher the level (difficulty), the larger the angle is set. For example, level 1 (difficulty: low) is set to 20 degrees, level 2 (difficulty: medium) is set to 60 degrees, and level 3 (difficulty: high) is set to 90 degrees. The number of times the wrist is turned is set to, for example, three times. The number of times can be changed arbitrarily, and the main application 1001 may specify the number of times on the setting screen and include it in the training content.

ユーザが所定量以上手首を回していないと判断された場合(ステップS212:NO)、鍵回しアプリケーション1003はステップS204に戻る。 When it is determined that the user has not turned the wrist more than a predetermined amount (step S212: NO), the key turning application 1003 returns to step S204.

一方、ユーザが所定量以上手首を回したと判断された場合(ステップS212:YES)、鍵回しアプリケーション1003は、ユーザが適切に鍵回し動作を行ったと判断して、鍵回し動作訓練が成功したことを示す演出情報(テキスト、画像、効果音等)を、モニタ12に出力させる(ステップS213)。また、鍵回しアプリケーション1003は、投影装置11及びロボット14にワイプ動作訓練の成功を示す演出情報(映像、音声等)を出力させるようにしてもよい。 On the other hand, when it is determined that the user has turned the wrist more than a predetermined amount (step S212: YES), the key turning application 1003 determines that the user has properly performed the key turning operation, and the key turning operation training is successful. The effect information (text, image, sound effect, etc.) indicating that is output to the monitor 12 (step S213). Further, the key turning application 1003 may cause the projection device 11 and the robot 14 to output effect information (video, audio, etc.) indicating the success of the wipe motion training.

次に鍵回しアプリケーション1003は、訓練内容で指定されたセット数(回数)分の訓練が終了したか否かを判断する(ステップS214)。全セット終了していない場合(ステップS214:NO)、鍵回しアプリケーション1003はステップS203に戻り、鍵回し動作訓練を再度ユーザに実施させる。また、全セット終了した場合(ステップS214:YES)、鍵回しアプリケーション1003は処理を終了する。 Next, the key turning application 1003 determines whether or not the training for the number of sets (number of times) specified in the training content has been completed (step S214). If the entire set has not been completed (step S214: NO), the key turning application 1003 returns to step S203 and causes the user to perform the key turning operation training again. When the entire set is completed (step S214: YES), the key turning application 1003 ends the process.

(コップアプリケーションの処理フロー)
図7は、本発明の一実施形態に係るコップアプリケーションの処理の一例を示すフローチャートである。
図8は、本発明の一実施形態に係るコップアプリケーションの機能を説明するための図である。
訓練内容に次の訓練が「コップ配置動作訓練」であると指定されている場合、メインアプリケーション1001は、図3のステップS14において、訓練に係る一連の処理をコップアプリケーション1004に実行させる。そして、メインアプリケーション1001は、コップアプリケーション1004の一連の処理が終了すると、図3のステップS15に進む。ここでは、図7〜図8を参照しながら、ステップS14(図3)におけるコップアプリケーション1004の一連の処理の流れについて詳細に説明する。
(Processing flow of cup application)
FIG. 7 is a flowchart showing an example of processing of the cup application according to the embodiment of the present invention.
FIG. 8 is a diagram for explaining the function of the cup application according to the embodiment of the present invention.
When the training content specifies that the next training is "cup placement motion training", the main application 1001 causes the cup application 1004 to execute a series of processes related to the training in step S14 of FIG. Then, when the series of processes of the cup application 1004 is completed, the main application 1001 proceeds to step S15 of FIG. Here, a series of processing flows of the cup application 1004 in step S14 (FIG. 3) will be described in detail with reference to FIGS. 7 to 8.

図7に示すように、メインアプリケーション1001は、コップアプリケーション1004を起動する(ステップS300)。 As shown in FIG. 7, the main application 1001 activates the cup application 1004 (step S300).

次に、コップアプリケーション1004は、「コップ配置動作訓練」においてユーザが使用する模擬用品Q、行う動作、制限時間等を指示する指示情報を、モニタ12及びロボット14に出力させる(ステップS301)。
そうすると、モニタ12は、コップQ1を所定位置に配置する動作を、所定の制限時間以内に行うことをユーザに指示する指示情報(画像、文字等)を表示する。また、ロボット14は、同様の指示情報を音声で出力する。
Next, the cup application 1004 causes the monitor 12 and the robot 14 to output instruction information instructing the simulated product Q used by the user in the “cup placement operation training”, the operation to be performed, the time limit, and the like (step S301).
Then, the monitor 12 displays instruction information (image, character, etc.) instructing the user to perform the operation of arranging the cup Q1 at the predetermined position within the predetermined time limit. Further, the robot 14 outputs the same instruction information by voice.

指示情報の出力が完了すると、コップアプリケーション1004は、訓練を開始する(ステップS302)。このとき、コップアプリケーション1004は、制限時間の残り時間のカウントを開始する。なお、残り時間はモニタ12に表示されてもよい。 When the output of the instruction information is completed, the cup application 1004 starts training (step S302). At this time, the cup application 1004 starts counting the remaining time of the time limit. The remaining time may be displayed on the monitor 12.

次に、コップアプリケーション1004は、コップを配置する位置を示すコップ配置範囲M2(図8)を投影装置11に表示させる(ステップS303)。そうすると、投影装置11の投影部11aは、図8に示すように作業面T上にコップQ1を配置する位置を示すコップ配置範囲M2を含む投影画像Pを表示する。なお、コップ配置範囲M2は、訓練内容で指定されたレベルに応じて可変であり、レベル(難易度)が高いほどコップ配置範囲M2はユーザから遠い位置に設定される。また、コップ配置動作訓練を複数セット行う場合、コップアプリケーション1004は、セットごとにコップ配置範囲M2の位置を変更してもよい。 Next, the cup application 1004 causes the projection device 11 to display the cup arrangement range M2 (FIG. 8) indicating the position where the cups are arranged (step S303). Then, the projection unit 11a of the projection device 11 displays the projection image P including the cup arrangement range M2 indicating the position where the cup Q1 is arranged on the work surface T as shown in FIG. The cup arrangement range M2 is variable according to the level specified in the training content, and the higher the level (difficulty level), the farther the cup arrangement range M2 is from the user. Further, when performing a plurality of sets of cup arrangement operation training, the cup application 1004 may change the position of the cup arrangement range M2 for each set.

次に、コップアプリケーション1004は、投影画像P内におけるOnTouchイベントが存在するかを検知する(ステップS304)。OnTouchイベントは、投影画像P上のどの位置にコップQ1が置かれたかを検知したことを示す信号である。投影装置11の検知センサ11bは、OnTouchイベントの有無を示す検知信号を制御装置10(コップアプリケーション1004)に送信する。コップアプリケーション1004は、投影装置11から受信した検知信号に基づいて、OnTouchイベントの存在を検知する。 Next, the cup application 1004 detects whether an OnTouch event exists in the projected image P (step S304). The OnTouch event is a signal indicating that the position on the projected image P where the cup Q1 is placed is detected. The detection sensor 11b of the projection device 11 transmits a detection signal indicating the presence or absence of an OnTouch event to the control device 10 (cup application 1004). The cup application 1004 detects the presence of an OnTouch event based on the detection signal received from the projection device 11.

次に、コップアプリケーション1004は、残り時間があるか否かを判断する(ステップS305)。 Next, the cup application 1004 determines whether or not there is remaining time (step S305).

残り時間が「0」となった場合(ステップS305:NO)、コップアプリケーション1004は、「時間切れ」であることを示す演出情報を投影装置11、モニタ12、及び、ロボット14に出力させる(ステップS306)。
そうすると、投影装置11及びモニタ12は、制限時間内にコップ配置動作が完了しなかったことを示す演出表現(画像、文字等の表示)を行う。また、ロボット14は、同様の情報を音声で出力する。この後、コップアプリケーション1004はステップS310に進む。
When the remaining time becomes "0" (step S305: NO), the cup application 1004 causes the projection device 11, the monitor 12, and the robot 14 to output the effect information indicating that the time has expired (step). S306).
Then, the projection device 11 and the monitor 12 perform an effect expression (display of an image, characters, etc.) indicating that the cup arrangement operation is not completed within the time limit. Further, the robot 14 outputs the same information by voice. After this, the cup application 1004 proceeds to step S310.

一方、残り時間がある場合(ステップS305:YES)、コップアプリケーション1004は、コップ配置範囲M2の全ての判断領域R2(図9)に、所定時間以上、OnTouchイベントが継続して存在するか否かを判断する(ステップS307)。
図9に示すように、判断領域R2は、コップ配置範囲M2の外縁上の投影装置11側に、複数個所(例えば、3箇所)設定される。コップアプリケーション1004は、全ての判断領域R2にコップQ1が置かれたことを示すOnTouchイベントが、所定時間以上(例えば、3秒以上)、継続して存在する場合、コップQ1がコップ配置範囲M2内に配置されたと判断する。
On the other hand, when there is remaining time (step S305: YES), the cup application 1004 determines whether or not the OnTouch event continues to exist in all the determination areas R2 (FIG. 9) of the cup arrangement range M2 for a predetermined time or longer. Is determined (step S307).
As shown in FIG. 9, a plurality of (for example, three) determination regions R2 are set on the projection device 11 side on the outer edge of the cup arrangement range M2. In the cup application 1004, when the OnTouch event indicating that the cup Q1 has been placed in all the judgment areas R2 continues to exist for a predetermined time or longer (for example, 3 seconds or longer), the cup Q1 is within the cup placement range M2. Judge that it was placed in.

複数の判断領域R2のうち一つ以上においてOnTouchイベントが存在していない場合(ステップS307:NO)、コップアプリケーション1004は、コップQ1がコップ配置範囲M2内に正しく配置されていないと判断する。この場合、コップアプリケーション1004は、コップQ1をコップ配置範囲M2内に移動させるように指示する指示情報をモニタ12及びロボット14に出力させ(ステップS308)、ステップS304に戻る。 When the OnTouch event does not exist in one or more of the plurality of determination areas R2 (step S307: NO), the cup application 1004 determines that the cup Q1 is not correctly arranged in the cup arrangement range M2. In this case, the cup application 1004 causes the monitor 12 and the robot 14 to output instruction information instructing the cup Q1 to move within the cup arrangement range M2 (step S308), and returns to step S304.

一方、複数の判断領域R2の全てにおいてOnTouchイベントが存在している場合(ステップS307:YES)、コップアプリケーション1004は、コップ配置動作が完了したと判断して、コップ配置動作訓練が成功したことを示す演出情報(映像、効果音等)を、投影装置11に出力させる(ステップS309)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。また、机拭きアプリケーション1002は、モニタ12及びロボット14にワイプ動作訓練の成功を示す演出情報(テキスト、画像、音声等)を出力させるようにしてもよい。 On the other hand, when the OnTouch event exists in all of the plurality of judgment areas R2 (step S307: YES), the cup application 1004 determines that the cup placement operation has been completed, and determines that the cup placement operation training has succeeded. The effect information (video, sound effect, etc.) to be shown is output to the projection device 11 (step S309). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. Further, the desk wiping application 1002 may cause the monitor 12 and the robot 14 to output effect information (text, image, voice, etc.) indicating the success of the wipe operation training.

次にコップアプリケーション1004は、訓練内容で指定されたセット数(回数)分の訓練が終了したか否かを判断する(ステップS310)。全セット終了していない場合(ステップS310:NO)、机拭きアプリケーション1002はステップS302に戻り、コップ配置動作訓練を再度ユーザに実施させる。また、全セット終了した場合(ステップS310:YES)、コップアプリケーション1004は処理を終了する。 Next, the cup application 1004 determines whether or not the training for the number of sets (number of times) specified in the training content has been completed (step S310). If the entire set has not been completed (step S310: NO), the desk wiping application 1002 returns to step S302 and causes the user to perform the cup placement operation training again. When the entire set is completed (step S310: YES), the cup application 1004 ends the process.

(タオルアプリケーションの処理フロー)
図9は、本発明の一実施形態に係るタオルアプリケーションの処理の一例を示すフローチャートである。
訓練内容に次の訓練が「タオル絞り動作訓練」であると指定されている場合、メインアプリケーション1001は、図3のステップS14において、訓練に係る一連の処理をタオルアプリケーション1005に実行させる。そして、メインアプリケーション1001は、タオルアプリケーション1005の一連の処理が終了すると、図3のステップS15に進む。ここでは、図9を参照しながら、ステップS14(図3)におけるタオルアプリケーション1005の一連の処理の流れについて詳細に説明する。
(Towel application processing flow)
FIG. 9 is a flowchart showing an example of processing of the towel application according to the embodiment of the present invention.
When the training content specifies that the next training is "towel squeezing motion training", the main application 1001 causes the towel application 1005 to perform a series of processes related to the training in step S14 of FIG. Then, when the series of processes of the towel application 1005 is completed, the main application 1001 proceeds to step S15 of FIG. Here, a series of processing flows of the towel application 1005 in step S14 (FIG. 3) will be described in detail with reference to FIG.

図9に示すように、メインアプリケーション1001は、タオルアプリケーション1005を起動する(ステップS400)。 As shown in FIG. 9, the main application 1001 activates the towel application 1005 (step S400).

次に、タオルアプリケーション1005は、「タオル絞り動作訓練」においてユーザが使用する模擬用品Q、行う動作、制限時間等を指示する指示情報を、モニタ12及びロボット14に出力させる(ステップS401)。
そうすると、モニタ12は、タオルQ4を絞る動作を、所定の制限時間以内に行うことをユーザに指示する指示情報(画像、文字等)を表示する。また、ロボット14は、同様の指示情報を音声で出力する。
Next, the towel application 1005 causes the monitor 12 and the robot 14 to output instruction information instructing the simulated product Q used by the user in the “towel squeezing operation training”, the operation to be performed, the time limit, and the like (step S401).
Then, the monitor 12 displays instruction information (image, character, etc.) instructing the user to perform the operation of squeezing the towel Q4 within a predetermined time limit. Further, the robot 14 outputs the same instruction information by voice.

指示情報の出力が完了すると、タオルアプリケーション1005は、訓練を開始する(ステップS402)。このとき、タオルアプリケーション1005は、制限時間の残り時間のカウントを開始する。なお、残り時間はモニタ12に表示されてもよい。 When the output of the instruction information is completed, the towel application 1005 starts training (step S402). At this time, the towel application 1005 starts counting the remaining time of the time limit. The remaining time may be displayed on the monitor 12.

次に、タオルアプリケーション1005は、タオルQ4内部に設けられた圧力センサ15から検知信号を受信する(ステップS403)。例えば、タオルアプリケーション1005は、検知信号を1秒ごとに受信する。 Next, the towel application 1005 receives a detection signal from the pressure sensor 15 provided inside the towel Q4 (step S403). For example, the towel application 1005 receives a detection signal every second.

次に、タオルアプリケーション1005は、残り時間があるか否かを判断する(ステップS405)。 Next, the towel application 1005 determines whether or not there is remaining time (step S405).

残り時間が「0」となった場合(ステップS405:NO)、タオルアプリケーション1005は、「時間切れ」であることを示す演出情報を投影装置11、モニタ12、及び、ロボット14に出力させる(ステップS406)。
そうすると、投影装置11及びモニタ12は、制限時間内にタオル絞り動作が完了しなかったことを示す演出表現(画像、文字等の表示)を行う。また、ロボット14は、同様の情報を音声で出力する。この後、タオルアプリケーション1005はステップS413に進む。
When the remaining time becomes "0" (step S405: NO), the towel application 1005 causes the projection device 11, the monitor 12, and the robot 14 to output the effect information indicating that the time has expired (step). S406).
Then, the projection device 11 and the monitor 12 perform an effect expression (display of an image, characters, etc.) indicating that the towel squeezing operation is not completed within the time limit. Further, the robot 14 outputs the same information by voice. After this, the towel application 1005 proceeds to step S413.

一方、残り時間がある場合(ステップS405:YES)、タオルアプリケーション1005は、閾値以上の圧力を検知した検知信号を2回連続で受信し、且つ、緩めフラグがOFFであるか否かを判断する(ステップS407)。
閾値は、訓練内容に指定されたレベルに応じて可変であり、レベル(難易度)が高いほど大きい閾値が設定される。
緩めフラグは、タオルQ4が絞られている状態(ON)か、緩められている状態(OFF)かを示す。
On the other hand, when there is remaining time (step S405: YES), the towel application 1005 receives the detection signal for detecting the pressure equal to or higher than the threshold value twice in succession, and determines whether or not the loosening flag is OFF. (Step S407).
The threshold value is variable according to the level specified in the training content, and the higher the level (difficulty level), the larger the threshold value is set.
The loosening flag indicates whether the towel Q4 is squeezed (ON) or loosened (OFF).

閾値以上の検知信号を2回連続で受信し、且つ、緩めフラグがOFFである(タオルQ4が絞られていない状態である)場合(ステップS407:YES)、タオルアプリケーション1005は、ユーザがタオルQ4を絞る動作を行ったと判断する。この場合、タオルアプリケーション1005は、タオルQ4が絞られている演出情報(映像、効果音等)を投影装置11に出力させるとともに、緩めフラグをONにする(ステップS408)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。演出情報は、例えば、投影画像Pに表示されたバケツに水滴が落ちる映像及び効果音である。これにより、タオルQ4を絞る動作が適切に実行されたことをユーザに認識させることができる。 When the detection signal equal to or higher than the threshold value is received twice in succession and the loosening flag is OFF (the towel Q4 is not squeezed) (step S407: YES), the user uses the towel Q4 in the towel application 1005. It is judged that the operation of squeezing is performed. In this case, the towel application 1005 outputs the effect information (image, sound effect, etc.) in which the towel Q4 is squeezed to the projection device 11 and turns on the loosening flag (step S408). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. The effect information is, for example, an image and a sound effect in which water droplets fall into the bucket displayed on the projected image P. As a result, the user can be made aware that the operation of squeezing the towel Q4 has been properly executed.

また、圧力が閾値未満であった場合、又は、緩めフラグがONであった場合(ステップS407:NO)、ステップS411に進む。ステップS411の詳細については後述する。 If the pressure is less than the threshold value or the loosening flag is ON (step S407: NO), the process proceeds to step S411. Details of step S411 will be described later.

次に、タオルアプリケーション1005は、ユーザがタオルQ4を所定回数絞ったか否かを判断する(ステップS409)。 Next, the towel application 1005 determines whether or not the user has squeezed the towel Q4 a predetermined number of times (step S409).

ユーザがタオルQ4を絞る動作を所定回数(例えば、3回)行った場合(ステップS409:YES)、タオルアプリケーション1005は、タオル絞り動作が完了したと判断して、タオル絞り動作訓練が成功したことを示す演出情報(映像、効果音等)を、投影装置11に出力させる(ステップS410)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。また、タオルアプリケーション1005は、モニタ12及びロボット14にタオル絞り動作訓練の成功を示す演出情報(テキスト、画像、音声等)を出力させるようにしてもよい。 When the user performs the operation of squeezing the towel Q4 a predetermined number of times (for example, three times) (step S409: YES), the towel application 1005 determines that the towel squeezing operation is completed, and the towel squeezing operation training is successful. The effect information (video, sound effect, etc.) indicating the above is output to the projection device 11 (step S410). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. Further, the towel application 1005 may cause the monitor 12 and the robot 14 to output effect information (text, image, sound, etc.) indicating the success of the towel squeezing motion training.

一方、ユーザがタオルQ4を絞る動作を行ったと判断された回数が所定回数(例えば、3回)未満である場合(ステップS409:NO)、ステップS411に進む。 On the other hand, when the number of times it is determined that the user has performed the operation of squeezing the towel Q4 is less than a predetermined number of times (for example, 3 times) (step S409: NO), the process proceeds to step S411.

圧力が閾値未満、又は、緩めフラグがONであった場合(ステップS407:NO)、
若しくは、ユーザがタオルQ4を絞る動作を行ったと判断された回数が所定回数未満であった場合、タオルアプリケーション1005は、ユーザがタオルQ4を緩めたか否かを判断する(ステップS411)。
例えば、圧力センサ15で検知された圧力が、前回検知された圧力よりも所定値以上低い場合、タオルアプリケーション1005は、ユーザがタオルQ4を緩める動作を行ったと判断する(ステップS411:YES)。この場合、タオルアプリケーション1005は、緩めフラグをOFFにして(ステップS412)、ステップS403に戻る。
一方、圧力センサ15で検知された圧力と、前回検知された圧力との差が所定値未満である場合、タオルアプリケーション1005は、ユーザがタオルQ4を緩める動作を行っていないと判断する。この場合、タオルアプリケーション1005は、緩めフラグを変更せずにステップS403に戻る。
When the pressure is below the threshold value or the loosening flag is ON (step S407: NO),
Alternatively, if the number of times it is determined that the user has performed the operation of squeezing the towel Q4 is less than a predetermined number of times, the towel application 1005 determines whether or not the user has loosened the towel Q4 (step S411).
For example, when the pressure detected by the pressure sensor 15 is lower than the pressure detected last time by a predetermined value or more, the towel application 1005 determines that the user has performed the operation of loosening the towel Q4 (step S411: YES). In this case, the towel application 1005 turns off the loosening flag (step S412) and returns to step S403.
On the other hand, when the difference between the pressure detected by the pressure sensor 15 and the pressure detected last time is less than a predetermined value, the towel application 1005 determines that the user has not performed the operation of loosening the towel Q4. In this case, the towel application 1005 returns to step S403 without changing the loosening flag.

次にタオルアプリケーション1005は、訓練内容で指定されたセット数(回数)分の訓練が終了したか否かを判断する(ステップS413)。全セット終了していない場合(ステップS413:NO)、タオルアプリケーション1005はステップS402に戻り、タオル絞り動作訓練を再度ユーザに実施させる。また、全セット終了した場合(ステップS413:YES)、タオルアプリケーション1005は処理を終了する。 Next, the towel application 1005 determines whether or not the training for the number of sets (number of times) specified in the training content has been completed (step S413). If the entire set has not been completed (step S413: NO), the towel application 1005 returns to step S402 and causes the user to perform the towel squeezing operation training again. When all the sets are completed (step S413: YES), the towel application 1005 ends the process.

(文字入力アプリケーションの処理フロー)
図10は、本発明の一実施形態に係る文字入力アプリケーションの処理の一例を示すフローチャートである。
図11は、本発明の一実施形態に係る文字入力アプリケーションの機能を説明するための図である。
訓練内容に次の訓練が「文字入力(タイプ)訓練」であると指定されている場合、メインアプリケーション1001は、図3のステップS14において、訓練に係る一連の処理を文字入力アプリケーション1006に実行させる。そして、メインアプリケーション1001は、文字入力アプリケーション1006の一連の処理が終了すると、図3のステップS15に進む。ここでは、図10〜図11を参照しながら、ステップS14(図3)における文字入力アプリケーション1002の一連の処理の流れについて詳細に説明する。
(Processing flow of character input application)
FIG. 10 is a flowchart showing an example of processing of a character input application according to an embodiment of the present invention.
FIG. 11 is a diagram for explaining the function of the character input application according to the embodiment of the present invention.
When the training content specifies that the next training is "character input (type) training", the main application 1001 causes the character input application 1006 to execute a series of processes related to the training in step S14 of FIG. .. Then, when the series of processes of the character input application 1006 is completed, the main application 1001 proceeds to step S15 of FIG. Here, a series of processing flows of the character input application 1002 in step S14 (FIG. 3) will be described in detail with reference to FIGS. 10 to 11.

図10に示すように、メインアプリケーション1001は、文字入力アプリケーション1006を起動する(ステップS500)。 As shown in FIG. 10, the main application 1001 activates the character input application 1006 (step S500).

次に、文字入力アプリケーション1006は、「文字入力(タイプ)訓練」においてユーザが行う動作、制限時間等を指示する指示情報を、モニタ12及びロボット14に出力させる(ステップS501)。
そうすると、モニタ12は、指定された文字列を、投影画像Pに表示されたキーボードを介して入力するタイプ動作を、所定の制限時間以内に行うことをユーザに指示する指示情報(画像、文字等)を表示する。更に、ロボット14は、同様の指示情報を音声で出力する。
Next, the character input application 1006 causes the monitor 12 and the robot 14 to output instruction information instructing the operation, the time limit, and the like performed by the user in the “character input (type) training” (step S501).
Then, the monitor 12 instructs the user to perform a type operation of inputting the specified character string via the keyboard displayed on the projected image P within a predetermined time limit (image, character, etc.). ) Is displayed. Further, the robot 14 outputs the same instruction information by voice.

指示情報の出力が完了すると、文字入力アプリケーション1006は、訓練を開始する(ステップS502)。 When the output of the instruction information is completed, the character input application 1006 starts training (step S502).

次に、文字入力アプリケーション1006は、キーボードM3(図11)を含む投影画像Pを投影装置11に表示させるとともに、出題内容(入力する文字列)をモニタ12に表示させる(ステップS503)。
キーボードM3は、利用者の利用シーンに応じて変更することができる。例えば、キーボードM3は、レベル1ではATM等で暗証番号、金額等の入力に用いられる数字キーボードである。また、キーボードM3は、レベル2では日本語を入力するための50音キーボードであり、レベル3ではパーソナルコンピュータ等で用いられる文字、数字、ファンクションキー等の入力用のキーボードである。
また、文字入力アプリケーション1006は、出題内容がモニタ12に表示されると、制限時間の残り時間のカウントを開始する。なお、残り時間はモニタ12に表示されてもよい。
Next, the character input application 1006 displays the projected image P including the keyboard M3 (FIG. 11) on the projection device 11, and displays the question content (character string to be input) on the monitor 12 (step S503).
The keyboard M3 can be changed according to the usage scene of the user. For example, the keyboard M3 is a numerical keyboard used for inputting a personal identification number, amount of money, etc. at an ATM or the like at level 1. Further, the keyboard M3 is a 50-tone keyboard for inputting Japanese at level 2, and a keyboard for inputting characters, numbers, function keys, etc. used in a personal computer or the like at level 3.
Further, the character input application 1006 starts counting the remaining time of the time limit when the question content is displayed on the monitor 12. The remaining time may be displayed on the monitor 12.

次に、文字入力アプリケーション1006は、投影画像P内におけるOnTouchイベントが存在するかを検知する(ステップS504)。OnTouchイベントは、投影画像P上のどの位置にユーザの手(指)がタッチされたかを検知したことを示す信号である。投影装置11の検知センサ11bは、OnTouchイベントの有無を示す検知信号を制御装置10(文字入力アプリケーション1006)に送信する。文字入力アプリケーション1006は、投影装置11から受信した検知信号に基づいて、OnTouchイベントの存在を検知する。 Next, the character input application 1006 detects whether an OnTouch event exists in the projected image P (step S504). The OnTouch event is a signal indicating that the position on the projected image P where the user's hand (finger) is touched is detected. The detection sensor 11b of the projection device 11 transmits a detection signal indicating the presence or absence of an OnTouch event to the control device 10 (character input application 1006). The character input application 1006 detects the existence of the OnTouch event based on the detection signal received from the projection device 11.

次に、文字入力アプリケーション1006は、残り時間があるか否かを判断する(ステップS505)。 Next, the character input application 1006 determines whether or not there is remaining time (step S505).

残り時間が「0」となった場合(ステップS505:NO)、文字入力アプリケーション1006は、「時間切れ」であることを示す演出情報を投影装置11、モニタ12、及び、ロボット14に出力させる(ステップS506)。そうすると、投影装置11及びモニタ12は、制限時間内にタイプが完了しなかったことを示す演出表現(画像、文字等の表示)を行う。また、ロボット14は、同様の情報を音声で出力する。この後、文字入力アプリケーション1006はステップS512に進む。 When the remaining time becomes "0" (step S505: NO), the character input application 1006 causes the projection device 11, the monitor 12, and the robot 14 to output the effect information indicating that the time has expired (step S505: NO). Step S506). Then, the projection device 11 and the monitor 12 perform an effect expression (display of an image, characters, etc.) indicating that the type is not completed within the time limit. Further, the robot 14 outputs the same information by voice. After this, the character input application 1006 proceeds to step S512.

一方、残り時間がある場合(ステップS505:YES)、文字入力アプリケーション1006は、判定キーR3(図11)がタッチされた(OnTouchイベントが存在する)か否かを判断する(ステップS507)。
判定キーR3は、全ての文字列の入力が完了した際にユーザによりタッチされるキーであり、例えば図11に示すように、「確認」キーである。
On the other hand, when there is remaining time (step S505: YES), the character input application 1006 determines whether or not the determination key R3 (FIG. 11) is touched (the OnTouch event exists) (step S507).
The determination key R3 is a key touched by the user when the input of all the character strings is completed, and is, for example, a "confirmation" key as shown in FIG.

判定キーR3がタッチされたことを検出していない場合(ステップS507:NO)、文字入力アプリケーション1006は、タッチされた(OnTouchイベントが存在する)キーに応じて、モニタ12の入力結果表示を更新する(ステップS508)。
例えば、文字入力アプリケーション1006は、キーボードM3の「1」キーがタッチされた場合、モニタ12の入力結果表示欄に「1」を表示させる。このとき、モニタ12は、入力結果表示欄に、以前入力された文字が表示されている場合、この文字の後ろに新たな文字「1」を追加して表示する。また、文字入力アプリケーション1006は、キーボードM3の「訂正」キーがタッチされた場合、モニタ12に前回入力した文字を削除(非表示)させる。文字入力アプリケーション1006は、このように、タッチされたキーに応じて、モニタ12の入力結果表示欄に表示される文字列を変化させる。
モニタ12の表示を更新すると、文字入力アプリケーション1006は、ステップS504に戻り、次のOnTouchイベントを待ち受ける。
When it is not detected that the determination key R3 is touched (step S507: NO), the character input application 1006 updates the input result display of the monitor 12 according to the touched key (the OnTouch event exists). (Step S508).
For example, the character input application 1006 displays "1" in the input result display field of the monitor 12 when the "1" key of the keyboard M3 is touched. At this time, when the previously input character is displayed in the input result display field, the monitor 12 adds a new character "1" after this character and displays it. Further, the character input application 1006 causes the monitor 12 to delete (hide) the previously input character when the "correction" key of the keyboard M3 is touched. In this way, the character input application 1006 changes the character string displayed in the input result display field of the monitor 12 according to the touched key.
When the display on the monitor 12 is updated, the character input application 1006 returns to step S504 and waits for the next OnTouch event.

また、文字入力アプリケーション1006は、判定キーR3がタッチされたことを検出した場合(ステップS507:YES)、これまでに入力された文字列(モニタ12の入力結果表示欄に表示されている文字列)が、出題内容で指定された文字列と一致するか否かを判断する(ステップS509)。 Further, when the character input application 1006 detects that the determination key R3 is touched (step S507: YES), the character string input so far (the character string displayed in the input result display field of the monitor 12). ) Matches the character string specified in the question content (step S509).

これまでに入力された文字列が出題内容で指定された文字列と一致しない場合(ステップS509:NO)、文字入力アプリケーション1006は、入力された文字列に誤りがあることを示す演出情報をモニタ12及びロボット14に出力させて(ステップS510)、ステップS504に戻る。 If the character strings input so far do not match the character strings specified in the question content (step S509: NO), the character input application 1006 monitors the effect information indicating that the input character strings are incorrect. 12 and the robot 14 are made to output (step S510), and the process returns to step S504.

一方、これまでに入力された文字列が出題内容で指定された文字列と一致する場合(ステップS509:YES)、文字入力アプリケーション1006は、ユーザが正しく文字入力を行ったと判断して、タイプ訓練が成功したことを示す演出情報(映像、効果音等)を、投影装置11に出力させる(ステップS511)。そうすると、この演出情報は、投影装置11の投影部11aにより投影画像Pとして作業面T上に投影される。また、文字入力アプリケーション1006は、モニタ12及びロボット14にタイプ訓練の成功を示す演出情報(テキスト、画像、音声等)を出力させるようにしてもよい。 On the other hand, when the character strings input so far match the character strings specified in the question content (step S509: YES), the character input application 1006 determines that the user has correctly input characters, and performs type training. The effect information (video, sound effect, etc.) indicating the success of the above is output to the projection device 11 (step S511). Then, this effect information is projected onto the work surface T as a projected image P by the projection unit 11a of the projection device 11. Further, the character input application 1006 may cause the monitor 12 and the robot 14 to output effect information (text, image, voice, etc.) indicating the success of the type training.

次に、文字入力アプリケーション1006は、訓練内容で指定されたセット数(回数)分の訓練が終了したか否かを判断する(ステップS512)。全セット終了していない場合(ステップS512:NO)、文字入力アプリケーション1006はステップS502に戻り、タイプ訓練を再度ユーザに実施させる。また、全セット終了した場合(ステップS512:YES)、文字入力アプリケーション1006は処理を終了する。 Next, the character input application 1006 determines whether or not the training for the number of sets (number of times) specified in the training content has been completed (step S512). If the entire set has not been completed (step S512: NO), the character input application 1006 returns to step S502 and causes the user to perform the type training again. When the entire set is completed (step S512: YES), the character input application 1006 ends the process.

なお、本実施形態では、タイプ訓練において、ユーザが手(指)で文字入力を行う態様を例として説明したが、これに限られることはない。例えば、他の実施形態では、ユーザは、タッチペン等の模擬用品Qを使って文字入力を行うようにしてもよい。 In the present embodiment, in the type training, a mode in which the user inputs characters by hand (finger) has been described as an example, but the present invention is not limited to this. For example, in another embodiment, the user may input characters using a simulated product Q such as a touch pen.

(作用効果)
以上のように、本実施形態に係るリハビリテーション支援システム1は、対象者(ユーザ)に把持される模擬用品Qと、対象者に対し、模擬用品Qを用いた所定の動作を指示する指示手段(投影装置11、モニタ12、ロボット14)と、対象者が模擬用品Qを用いて行った動作が、模擬用品Q、または、模擬用品Qを把持する対象者の手に関して設定された判定基準を満たすか否かを判定する判定手段(制御装置10)と、判定手段による判定結果に基づいて、対象者が所定の動作を正しく行っているか否かを通知する通知手段(投影装置11、モニタ12、ロボット14)と、を備える。
上記のような構成とすることで、リハビリテーション支援システム1は、対象者(ユーザ)に模擬用品Q(コップQ1、鍵Q2、台拭きQ3、タオルQ4)を実際に把持させるとともに、これを使用した際に発生する手の動きの成否を判定対象とする。
これにより、リハビリテーション支援システム1は、日常生活で求められる道具を使った動作のリハビリテーション訓練を適切に行うことができる。
(Action effect)
As described above, the rehabilitation support system 1 according to the present embodiment includes a simulated product Q held by the target person (user) and an instruction means (instructing the target person to perform a predetermined operation using the simulated product Q). The projection device 11, the monitor 12, the robot 14) and the operation performed by the target person using the simulated product Q satisfy the judgment criteria set for the simulated product Q or the target person's hand holding the simulated product Q. Judgment means (control device 10) for determining whether or not, and notification means (projection device 11, monitor 12, 12) for notifying whether or not the target person is correctly performing a predetermined operation based on the determination result by the determination means. The robot 14) is provided.
With the above configuration, the rehabilitation support system 1 allows the target person (user) to actually grasp the simulated equipment Q (cup Q1, key Q2, table wipe Q3, towel Q4) and use it. The success or failure of the hand movement that occurs at that time is the judgment target.
As a result, the rehabilitation support system 1 can appropriately perform rehabilitation training for movements using tools required in daily life.

また、通知手段(投影装置11)は、判定手段による判定結果に基づいて、模擬用品Qを用いて行った動作に応じた現象を視覚的または聴覚的に演出する。
このようにすることで、リハビリテーション支援システム1は、対象者の行った動作に対してリアルなフィードバックを与えることができるとともに、対象者が適切な動作を行っているか否かを容易に認識させることができる。
Further, the notification means (projection device 11) visually or audibly produces a phenomenon according to the operation performed by using the simulated product Q based on the determination result by the determination means.
By doing so, the rehabilitation support system 1 can give realistic feedback to the movement performed by the target person, and can easily recognize whether or not the target person is performing an appropriate movement. Can be done.

また、模擬用品Qは、タオルQ4であって、内部に圧力センサ15を備える。指示手段は、対象者に対し、当該タオルQ4を絞ることを指示する。判定手段(タオルアプリケーション1005)は、圧力センサ15による圧力の検知結果が所定の閾値以上となるか否かを判定基準とする。
このようにすることで、リハビリテーション支援システム1は、タオル等を絞る動作を適切に訓練することができる。
Further, the simulated product Q is a towel Q4 and includes a pressure sensor 15 inside. The instruction means instructs the subject to squeeze the towel Q4. The determination means (towel application 1005) uses whether or not the pressure detection result of the pressure sensor 15 is equal to or greater than a predetermined threshold value as a determination criterion.
By doing so, the rehabilitation support system 1 can appropriately train the operation of squeezing a towel or the like.

また、模擬用品Qは、鍵Q2である。指示手段は、鍵Q2を所定の差し込み方向における所定位置に合わせるとともに、鍵Q2を回すことを指示する。判定手段(鍵回しアプリケーション1003)は、当該鍵Q2を把持する手が差し込み方向周りに所定量以上回転したか否かを判定基準とする。
このようにすることで、リハビリテーション支援システム1は、鍵を回す動作(開錠動作)を適切に訓練することができる。
The simulated product Q is the key Q2. The instruction means aligns the key Q2 with a predetermined position in a predetermined insertion direction, and instructs the key Q2 to turn. The determination means (key turning application 1003) uses whether or not the hand holding the key Q2 has rotated by a predetermined amount or more in the insertion direction as a determination criterion.
By doing so, the rehabilitation support system 1 can appropriately train the operation of turning the key (unlocking operation).

また、模擬用品Qは、コップQ1である。指示手段は、コップQ1を所定位置に配置することを指示する。判定手段(コップアプリケーション1004)は、所定位置において所定時間、物体の存在が検知されることを判定基準とする。
このようにすることで、リハビリテーション支援システム1は、コップ等の物体を所定位置に配置する動作を適切に訓練することができる。
The simulated product Q is a cup Q1. The instructing means instructs the cup Q1 to be placed in a predetermined position. The determination means (cup application 1004) uses the detection of the presence of an object at a predetermined position for a predetermined time as a determination criterion.
By doing so, the rehabilitation support system 1 can appropriately train the operation of arranging an object such as a cup at a predetermined position.

また、模擬用品Qは、台拭きQ3である。指示手段は、ワイプ動作をさせるワイプ動作範囲M1を画像表示する。判定手段(机拭きアプリケーション1002)は、ワイプ動作範囲M1の複数個所において対象者の手の存在が検知されることを判定基準とする。
このようにすることで、リハビリテーション支援システム1は、机を拭く等のワイプ動作を適切に訓練することができる。
The simulated product Q is a table wipe Q3. The instruction means displays an image of the wipe operation range M1 that causes the wipe operation. The determination means (desk wiping application 1002) uses that the presence of the target person's hand is detected at a plurality of locations in the wipe operation range M1 as a determination criterion.
By doing so, the rehabilitation support system 1 can appropriately train the wipe operation such as wiping the desk.

上述の各実施形態において、上述したCPU100の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。 In each of the above-described embodiments, the various processing processes of the CPU 100 described above are stored in a computer-readable recording medium in the form of a program, and the various processing is performed by the computer reading and executing this program. .. The computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

上記プログラムは、上述した機能の一部を実現するためのものであってもよい。更に、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, some embodiments according to the present invention have been described, but all of these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

1 リハビリテーション支援システム
10 制御装置
11 投影装置
11a 投影部
11b 検知センサ
12 モニタ
13 動作読取装置
14 ロボット
15 圧力センサ
16 機器間通信装置
100 CPU
1001 メインアプリケーション
1002 文字入力アプリケーション
1002 机拭きアプリケーション
1003 鍵回しアプリケーション
1004 コップアプリケーション
1005 タオルアプリケーション
1006 文字入力アプリケーション
101 接続インタフェース
102 メモリ
103 記録媒体
P 投影画像
Q 模擬用品
Q1 コップ
Q2 鍵
Q3 台拭き
Q4 タオル
1 Rehabilitation support system 10 Control device 11 Projection device 11a Projection unit 11b Detection sensor 12 Monitor 13 Motion reader 14 Robot 15 Pressure sensor 16 Inter-device communication device 100 CPU
1001 Main application 1002 Character input application 1002 Desk wiping application 1003 Key turning application 1004 Cup application 1005 Towel application 1006 Character input application 101 Connection interface 102 Memory 103 Recording medium P Projected image Q Simulation equipment Q1 Cup Q2 Key Q3 Table wipe Q4 Towel

Claims (6)

対象者に把持される模擬用品と、
前記対象者に対し、前記模擬用品を用いた所定の動作を指示する指示手段と、
前記対象者が前記模擬用品を用いて行った動作が、前記模擬用品、または、前記模擬用品を把持する前記対象者の手に関して設定された判定基準を満たすか否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記対象者が前記所定の動作を正しく行っているか否かを通知する通知手段と、
を備えるリハビリテーション支援システム。
Simulated supplies held by the subject and
An instruction means for instructing the target person to perform a predetermined operation using the simulated product, and
A determination means for determining whether or not the operation performed by the target person using the simulated item satisfies the determination criteria set for the simulated item or the hand of the subject holding the simulated item.
A notification means for notifying whether or not the target person is correctly performing the predetermined operation based on the determination result by the determination means.
Rehabilitation support system equipped with.
前記通知手段は、前記判定手段による判定結果に基づいて、前記模擬用品を用いて行った動作に応じた現象を視覚的または聴覚的に演出する
請求項1に記載のリハビリテーション支援システム。
The rehabilitation support system according to claim 1, wherein the notification means visually or audibly produces a phenomenon according to an operation performed by using the simulated device based on a determination result by the determination means.
前記模擬用品は、タオルであって、内部に圧力センサを備え、
前記指示手段は、前記対象者に対し、当該タオルを絞ることを指示し、
前記判定手段は、前記圧力センサによる圧力の検知結果が所定の閾値以上となるか否かを判定基準とする
請求項1または請求項2に記載のリハビリテーション支援システム。
The simulated product is a towel, which has a pressure sensor inside.
The instruction means instructs the subject to squeeze the towel.
The rehabilitation support system according to claim 1 or 2, wherein the determination means is based on whether or not the pressure detection result by the pressure sensor is equal to or higher than a predetermined threshold value.
前記模擬用品は、鍵であって、
前記指示手段は、前記鍵を所定の差し込み方向における所定位置に合わせるとともに、前記鍵を回すことを指示し、
前記判定手段は、当該鍵を把持する手が前記差し込み方向周りに所定量以上回転したか否かを判定基準とする
請求項1から請求項3のいずれか一項に記載のリハビリテーション支援システム。
The simulated product is a key
The instruction means aligns the key with a predetermined position in a predetermined insertion direction, and instructs the key to be turned.
The rehabilitation support system according to any one of claims 1 to 3, wherein the determination means is based on whether or not the hand holding the key has rotated by a predetermined amount or more in the insertion direction.
前記模擬用品は、コップであって、
前記指示手段は、前記コップを所定位置に配置することを指示し、
前記判定手段は、前記所定位置において所定時間、物体の存在が検知されることを判定基準とする
請求項1から請求項4のいずれか一項に記載のリハビリテーション支援システム。
The simulated product is a cup,
The instructing means instructed the cup to be placed in place and
The rehabilitation support system according to any one of claims 1 to 4, wherein the determination means is based on detecting the presence of an object at a predetermined position for a predetermined time as a determination criterion.
前記模擬用品は、台拭きであって、
前記指示手段は、ワイプ動作をさせるワイプ動作範囲を画像表示し、
前記判定手段は、前記ワイプ動作範囲の複数個所において前記対象者の手の存在が検知されることを判定基準とする
請求項1から請求項5のいずれか一項に記載のリハビリテーション支援システム。
The simulated product is a table wipe,
The instruction means displays an image of the wipe operation range in which the wipe operation is performed.
The rehabilitation support system according to any one of claims 1 to 5, wherein the determination means is based on the fact that the presence of the target person's hand is detected at a plurality of locations in the wipe operation range.
JP2019090908A 2019-05-13 2019-05-13 Rehabilitation support system Active JP7445276B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019090908A JP7445276B2 (en) 2019-05-13 2019-05-13 Rehabilitation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019090908A JP7445276B2 (en) 2019-05-13 2019-05-13 Rehabilitation support system

Publications (2)

Publication Number Publication Date
JP2020185110A true JP2020185110A (en) 2020-11-19
JP7445276B2 JP7445276B2 (en) 2024-03-07

Family

ID=73220657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019090908A Active JP7445276B2 (en) 2019-05-13 2019-05-13 Rehabilitation support system

Country Status (1)

Country Link
JP (1) JP7445276B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031433A (en) * 2004-07-16 2006-02-02 Mitsubishi Electric Life Service Corp Daily life/sports support system for aged person
JP2007520313A (en) * 2004-02-05 2007-07-26 モトリカ インク Methods and instruments for rehabilitation and training
JP2009536535A (en) * 2006-05-11 2009-10-15 リハブトロニクス インコーポレーテッド Method and apparatus for automatically providing upper limb treatment training
JP2018079308A (en) * 2016-11-06 2018-05-24 聖美 吉岡 Rehabilitation support device
JP2018161529A (en) * 2018-07-23 2018-10-18 パラマウントベッド株式会社 Rehabilitation support device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007520313A (en) * 2004-02-05 2007-07-26 モトリカ インク Methods and instruments for rehabilitation and training
JP2006031433A (en) * 2004-07-16 2006-02-02 Mitsubishi Electric Life Service Corp Daily life/sports support system for aged person
JP2009536535A (en) * 2006-05-11 2009-10-15 リハブトロニクス インコーポレーテッド Method and apparatus for automatically providing upper limb treatment training
JP2018079308A (en) * 2016-11-06 2018-05-24 聖美 吉岡 Rehabilitation support device
JP2018161529A (en) * 2018-07-23 2018-10-18 パラマウントベッド株式会社 Rehabilitation support device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤 周平,他1名: "片麻痺治療支援システムのためのLeap Motionによる手指モーションキャプチャの検討", 第77回(平成27年)全国大会 講演論文集(4), JPN6023019976, 17 March 2015 (2015-03-17), pages 401 - 4, ISSN: 0005063419 *

Also Published As

Publication number Publication date
JP7445276B2 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
KR101650099B1 (en) A wearable haptic pattern display device for blind
Shi et al. Markit and Talkit: a low-barrier toolkit to augment 3D printed models with audio annotations
CN107491181A (en) The phrase for dynamic state extension of language in-put
JP5718603B2 (en) Display control program, display control device, display control method, and display control system
CN107924277A (en) Device, method and graphical user interface for manipulating a user interface by physical gestures
JP2010211407A (en) Information processing apparatus, information processing method and program
JP2014062962A (en) Information processing apparatus, writing instrument, information processing method, and program
He et al. TacTILE: a preliminary toolchain for creating accessible graphics with 3D-printed overlays and auditory annotations
JP6123108B2 (en) Education support system and education support program
JP5617697B2 (en) Electronic device, image display system, and image selection method
Ellis et al. Bespoke reflections: Creating a one-handed braille keyboard
TW201030673A (en) Display device, display method, information recording medium, and program
JP2012064066A (en) Portable terminal
CN108153475B (en) Object position switching method and mobile terminal
JP2006201912A (en) Processing method for three-dimensional virtual object information providing service, three-dimensional virtual object providing system, and program
JP2020185110A (en) Rehabilitation support system
CN113260426A (en) Game system, processing method, and information storage medium
JP2010079733A (en) Information processor, method of controlling information processor, and program
US9861900B2 (en) Game system and game device
JP2007175260A (en) Training program and training device
JP5524153B2 (en) Display system, display method and program for touch-operated software keyboard
Fikkert et al. User-evaluated gestures for touchless interactions from a distance
CN111625102A (en) Building display method and device
Ishikawa et al. Viblock: block-shaped content manipulation in VR
JP2003290549A (en) Network game system, game device and its program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7445276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150