JP2007319187A - Motion assisting device and control method for the same - Google Patents
Motion assisting device and control method for the same Download PDFInfo
- Publication number
- JP2007319187A JP2007319187A JP2006149407A JP2006149407A JP2007319187A JP 2007319187 A JP2007319187 A JP 2007319187A JP 2006149407 A JP2006149407 A JP 2006149407A JP 2006149407 A JP2006149407 A JP 2006149407A JP 2007319187 A JP2007319187 A JP 2007319187A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- line
- sight
- user
- assisting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Prostheses (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、動作補助装置及びその制御方法に関し、特に詳しくは、視線計測装置を有する動作補助装置に関する。 The present invention relates to a motion assist device and a control method thereof, and more particularly to a motion assist device having a line-of-sight measurement device.
近年、使用者の動作を補助するパワーアシスト装置が開発されている。パワーアシスト装置は、通常、使用者の筋力を補助するモータや、モータの制御を行う制御回路を有している。例えば、使用者の筋電位を検出することによって、モータの駆動を行なっている(特許文献1参照)。このような、筋電位を検出するための電極を使用者に取り付ける必要がある。 In recent years, a power assist device for assisting a user's operation has been developed. The power assist device usually has a motor that assists the user's muscle strength and a control circuit that controls the motor. For example, the motor is driven by detecting the myoelectric potential of the user (see Patent Document 1). Such an electrode for detecting myoelectric potential needs to be attached to the user.
また、使用者の眼電位を検出して、制御を行う電動機能補助装置が提案されている(特許文献2参照)。この動作補助装置では、眼電位を検出するため、メガネ型の眼電位計測装置を使用者に装着させている。そして、使用者の眼球運動による筋電位の変化によって、注視点を抽出している。この注視点に基づいて、動作補助を制御している。 In addition, an electric function auxiliary device that detects and controls the electrooculogram of the user has been proposed (see Patent Document 2). In this operation assisting device, a spectacle-type electrooculogram measuring device is worn by a user in order to detect electrooculogram. Then, the gaze point is extracted based on the change in the myoelectric potential due to the user's eye movement. Based on this gazing point, the operation assistance is controlled.
しかしながら、特許文献2の装置では、使用者の眼電位を検出するため、複数の電極センサを顔面に接触させなければならない。さらに、電極センサと地肌をより密着させるために、導電性のジェルなどを塗る必要がある。したがって、使用者に不快感を与えてしまうという問題点がある。さらに、皮膚表面の発汗によって電位が変化してしまい、誤動作してしまうという問題点もある。 However, in the apparatus of Patent Document 2, a plurality of electrode sensors must be brought into contact with the face in order to detect the user's electrooculogram. Furthermore, in order to make the electrode sensor and the background more closely adhere, it is necessary to apply a conductive gel or the like. Therefore, there is a problem that the user feels uncomfortable. Furthermore, there is a problem that the potential changes due to sweating on the skin surface, resulting in malfunction.
本発明は、かかる課題を解決するためになされたものであり、利便性の高い動作補助装置、及びその制御方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object thereof is to provide a highly convenient operation assisting device and a control method thereof.
本発明の第1の態様にかかる動作補助装置は、使用者の動作を補助する動作補助装置であって、使用者の眼球に光を照射する光源と、前記眼球で反射された前記光源からの光を検出する光検出器とを有する視線計測装置と、前記視線計測装置での計測結果に基づいて、使用者の動作を補助する動作補助機構とを備えたものである。これにより、利便性を向上することができる。 An operation assisting device according to a first aspect of the present invention is an operation assisting device that assists a user's operation, and includes a light source that irradiates light to a user's eyeball, and a light source that is reflected by the eyeball. A line-of-sight measurement device having a light detector for detecting light, and an operation assisting mechanism for assisting a user's operation based on a measurement result of the line-of-sight measurement device. Thereby, the convenience can be improved.
本発明の第2の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置が、前記使用者の視線の方向を計測し、前記動作補助機構が、前記計測された視線の方向に向かって動作補助を行なうものである。これにより、操作性を向上することができる。 The motion assisting device according to the second aspect of the present invention is the motion assisting device described above, wherein the line-of-sight measuring device measures the direction of the user's line of sight, and the motion assisting mechanism is measured. Operation assistance is performed in the direction of the line of sight. Thereby, operability can be improved.
本発明の第3の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置が、両目の視線の方向から注視点を測定し、前記動作補助機構が、前記注視点に基づいて動作目標位置を設定して、前記動作目標位置に追従するようフィードバック制御を行うものである。これにより、操作性をより向上することができる。 A motion assist device according to a third aspect of the present invention is the above-described motion assist device, wherein the line-of-sight measurement device measures a gaze point from the direction of the gaze of both eyes, and the motion assist mechanism includes the gaze point. The operation target position is set based on the above, and feedback control is performed so as to follow the operation target position. Thereby, operativity can be improved more.
本発明の第4の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置と前記動作補助機構とを接続するリンク機構をさらに備え、前記リンク機構の状態に応じて、前記視線計測装置と前記動作補助機構との相対位置を認識して、前記動作目標位置を設定するものである。これにより、正確に操作することができる。 A motion assisting device according to a fourth aspect of the present invention is the above-described motion assisting device, further comprising a link mechanism that connects the line-of-sight measurement device and the motion assisting mechanism, and according to the state of the link mechanism. The movement target position is set by recognizing the relative position between the line-of-sight measurement device and the movement assist mechanism. Thereby, it can operate correctly.
本発明の第5の態様にかかる動作補助装置は、上述の動作補助装置であって、前記注視点が前記動作補助機構の可動範囲外である場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、ものである。これにより、より正確に操作することができる。 A motion assisting device according to a fifth aspect of the present invention is the motion assisting device described above, and when the gazing point is out of a movable range of the motion assisting mechanism, the motion target position is set to be movable. Set within the range. Thereby, it can operate more correctly.
本発明の第6の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置及び前記動作補助機構が使用者に装着可能であるものである。これにより、利便性を向上することができる。 A motion assist device according to a sixth aspect of the present invention is the motion assist device described above, wherein the line-of-sight measurement device and the motion assist mechanism can be worn by a user. Thereby, the convenience can be improved.
本発明の第7の態様にかかる動作補助装置は、上述の動作補助装置であって、前記動作補助装置が前記使用者の筋力をアシストするパワーアシストロボットであるものである。これにより、より利便性を向上することができる。 A motion assist device according to a seventh aspect of the present invention is the motion assist device described above, wherein the motion assist device is a power assist robot that assists the user's muscle strength. Thereby, the convenience can be improved more.
本発明の第8の態様にかかる動作補助装置の制御方法は、使用者の動作を補助する動作補助装置の制御方法でであって、光源から使用者の眼球に光を照射するステップと前記眼球で反射された前記光源からの光を検出して、視線を計測するステップと、前記視線の計測結果に基づいて、使用者の動作を補助するステップとを有するものである。これにより、利便性を向上することができる。 A control method for an operation assisting device according to an eighth aspect of the present invention is a method for controlling an operation assisting device that assists a user's operation, and includes irradiating light from a light source to the user's eyeball and the eyeball. And detecting the light from the light source reflected in step (b) to measure the line of sight, and assisting the user's action based on the line-of-sight measurement result. Thereby, the convenience can be improved.
本発明の第9の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記視線を計測するステップで計測された視線の方向に基づいて、前記動作を補助する方向を決定するものである。これにより、操作性を向上することができる。 A control method for a motion assist device according to a ninth aspect of the present invention is the control method for the motion assist device described above, and assists the motion based on the direction of the line of sight measured in the step of measuring the line of sight. The direction to do is determined. Thereby, operability can be improved.
本発明の第10の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、両目に対して行なわれた前記視線の計測結果に基づいて、前記使用者の注視点を測定するステップと、前記注視点に基づいて、動作目標位置を設定するステップとをさらに備え、前記使用者の動作の補助を前記動作目標位置に対してフィードバック制御するものである。これにより、操作性をさらに向上することができる。 A control method for an operation assisting device according to a tenth aspect of the present invention is the control method for the operation assisting device described above, wherein the user's note is based on a result of the gaze measurement performed on both eyes. The method further includes a step of measuring a viewpoint and a step of setting an operation target position based on the gazing point, and feedback control of assisting the user's operation is performed with respect to the operation target position. Thereby, the operability can be further improved.
本発明の第11の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記動作の補助を行なう動作補助機構の可動範囲外に前記注視点がある場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、ものである。これにより、正確に制御することができる。 The control method for the motion assist device according to the eleventh aspect of the present invention is the control method for the motion assist device described above, and when the gazing point is outside the movable range of the motion assist mechanism that assists the motion, The movement target position is set within a movable range of the movement assist mechanism. Thereby, it can control correctly.
本発明の第12の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記動作補助機構と前記視線計測装置との相対位置を認識して、前記注視点を計測するものである。これにより、より正確に制御することができる。 A control method for a motion assist device according to a twelfth aspect of the present invention is the control method for the motion assist device described above, wherein the gaze point is recognized by recognizing a relative position between the motion assist mechanism and the line-of-sight measurement device. Is to measure. Thereby, it can control more correctly.
本発明によれば、利便性の高い動作補助装置、及びその制御方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the operation assistance apparatus with high convenience and its control method can be provided.
発明の実施の形態1.
本実施の形態にかかる移動体について図1を用いて説明する。本実施の形態にかかる動作補助装置の装着時の構成を模式的に示す側面図である。すなわち、図1は、使用者200が動作補助装置100を装着した状態を示している。
A moving body according to the present embodiment will be described with reference to FIG. It is a side view which shows typically the structure at the time of mounting | wearing of the operation assistance apparatus concerning this Embodiment. That is, FIG. 1 shows a state in which the
動作補助装置100は、視線計測装置10と、リンク機構20と、動作補助機構30とを有している。動作補助機構30は、装着部31と、駆動部32と、接地部33と、駆動制御部34と、リンク35とを有している。視線計測装置10と動作補助機構30とは、リンク機構20で連結されている。さらに、視線計測装置10と動作補助機構30とは、配線等で接続されている。リンク機構20にはジョイント21が設けられている。リンク機構20にある程度の自由度を持たせることによって、視線計測装置10と動作補助機構30との相対位置を変化させることができる。従って、使用者200が変わった場合でも、動作補助装置100を容易に装着することができる。具体的には、使用者200が、動作補助機構30を背負った状態で、テープ状あるいはベルト状の装着部31を大腿、すね、及び腰に巻きつける。これにより、動作補助機構30が装着される。そして、使用者200は、帽子型の視線計測装置10を被る。これにより、視線計測装置10が使用者200の頭部に装着される。これにより、使用者200が動作補助装置100を装着することができる。そして、動作補助機構30及び視線計測装置10を装着した状態で、使用者200の動作が補助される。
The
視線計測装置10は使用者200の視線を計測する。視線計測装置10は、眼球の運動から視線を計測する。そして、視線計測装置10は計測結果を動作補助機構30に出力する。視線計測装置10で計測された視線に基づいて動作補助機構30は、使用者200の動作を補助する。すなわち、視線計測装置10が動作補助機構30の入力インターフェースとして機能する。視線計測装置10としては、例えば、ナックイメージテクノロジー社製のアイマークレコーダEMR8Bを用いることができる。この視線計測装置10については、後述する。
The line-of-
動作補助機構30には、例えば、モータ、エンコーダやギヤなどを有する駆動部32が複数設けられている。駆動部32は、使用者200の膝、腰、背中などの近傍に配置されている。動作補助機構30には、複数の駆動部32を連結するリンク35が設けられている。さらに、動作補助機構30には、バッテリーや制御回路を有する駆動制御部34が設けられている。駆動制御部34は、視線計測装置10からの信号によって、駆動部32に設けられたモータを駆動させる。これにより、リンク35が回転して、使用者200の動作を補助することができる。すなわち、視線計測装置10の計測結果に基づいて、駆動制御部34は、所定のモータを所定の角度だけ回転させる。これにより、リンク35にトルクが与えられ、使用者200の体勢が変化する。よって、使用者200の筋力をアシストした状態で、使用者200を所望の姿勢としたり、使用者200に所望の作業を行なわせることができる。従って、動作補助機構30は、視線計測装置10の計測結果に応じて動作を補助することができる。
The
さらに、動作補助機構30には、接地部33が設けられている。接地部33は、足の裏側に配置されている。従って、装着時には、使用者200が接地部33の上に乗った状態となる。駆動制御部34は、動作補助機構30の自重をキャンセルするため、駆動部32を制御している。これにより、動作補助機構30の自重を接地部33を介して接地面に逃がすことができる。使用者200は動作補助機構30の重さを感じることなく、動作補助装置100を使用することができる。従って、利便性を向上することができる。接地部33の一部又は全部は、例えば、ゴムなどの弾性体により形成されている。
Further, the
次に、視線計測装置10の構成について図2を用いて説明する。図2は視線計測装置10の一例の構成を示す正面図である。なお、図2は、使用者200に装着されていない状態の視線計測装置10を示している。視線計測装置10は、帽子11と、アーム12と、照明手段13と、カメラ14と、測定処理部15とを備えている。視線計測装置10は、装着可能とするよう帽子11を備えている。すなわち、帽子11を使用者200が被ることによって、視線計測装置10が使用者200に装着される。視線計測装置10は、例えば、特開2002−143094号公報に示すように、瞳孔−角膜反射法を用いて視線を計測している。これにより、カメラが揺れたり、振動が生じた場合でも正確に視線を計測することができる。
Next, the configuration of the line-of-
帽子11の前側には、箱型の測定処理部15が設けられている。測定処理部15は、例えば、帽子11の鍔の上に配置される。測定処理部15の側方には、アーム12が設けられている。アーム12は、帽子11の鍔の上から前側の下方に延設されている。アーム12の先端には、照明手段13が取り付けられている。従って、照明手段13は、使用者200の正面側に配置される。
A box-shaped
照明手段13は、例えば、赤外線LEDなどの照明光源13aを有している。そして、照明光源13aは、不可視光である近赤外光を照明光として出射する。照明光は使用者200側に出射され、使用者200の眼球に入射する。照明光源13aは、使用者の眼球を微小なスポットで照明する。照明光源13aの照明光は、角膜(黒目)を照明する。すると角膜が凹面鏡の役割をし、照明光源13aの像(角膜反射像)ができる。照明光源13aからの照明光は、角膜の表面で照明手段13の方向に反射される。照明手段13には、角膜表面で反射された反射光をカメラ14の方向に反射するミラー13bが配置されている。なお、照明光源13aからの光はレンズなどによって屈折されている。例えば、照明光源13aの光をレンズで集光している。これにより、微小なスポット形状となるため、角膜のみを照明することができる。なお、眼の動作によって、角膜上における照明光源13aからの光の位置が変化する。
The illumination means 13 includes an
カメラ14は、例えば、2次元の赤外線CCDカメラである。従って、カメラ14の受光面には、複数の検出画素がマトリクス状に配列されている。カメラ14の受光面は鉛直下方側に設けられている。そして、照明手段13に設けられたミラー13bからの反射光を受光する。すなわち、カメラ14は、ミラー13bを介して、眼で反射された照明光源13aからの光を受光する。カメラ14の受光面には、使用者200の瞳孔の像、照明光源13aの角膜反射像(第1プルキニエ像)が結像する。なお、カメラ14は、CCDカメラの他、フォトダイオードアレイやCMOSセンサなどの2次元光検出器を用いることができる。
The
測定処理部15はカメラ14からの信号に基づいて視線を計測する。測定処理部15には計測処理を行う演算処理回路と、演算処理回路、カメラ14、及び照明光源13aに電源を供給するバッテリーが収納されている。測定処理部15は、瞳孔−角膜反射法によって、視線を計測する。具体的には、視線の方向が変化すると、瞳孔の像の中心と、角膜反射像との距離が変化する。すなわち、眼球運動によって、瞳孔中心の位置と、角膜反射像との位置が変化する。これにより、カメラ14の受光面において、瞳孔中心の画素と、角膜反射像の画素との相対位置が変化すると、視線の角度が変化したことが分る。従って、瞳孔中心と角膜反射像との距離に応じて視線の方向を算出することができる。このように、照明光源13aから出射して眼で反射された光をカメラ14で検出することによって、視線の方向を計測することができる。これにより、後述する命令ジェスチャーの入力や、注視点を測定を行うことができる。
The
さらに、アーム12、照明手段13、及びカメラ14は、左右両方の眼に対してそれぞれ設けられている。すなわち、使用者200から見て左側のアーム12、照明手段13、及びカメラ14によって、左目の視線の方向を計測し、右側のアーム12、照明手段13、及びカメラ14によって、右目の視線の方向を計測する。これにより、両目の視線の方向を計測することができる。さらに、2つのカメラ14の位置によって、両目の眼球間の距離を測定してもよい。
Furthermore, the
測定処理部15は、両目の視線の方向から注視点を測定する。これについて、図3を用いて説明する。図3は、注視点の測定を説明するための図である。ここで、211は左の眼球、212は右の眼球、213は左の角膜、214は右の角膜とする。ここで、図3のαは、両目の視線の方向が成す角、すなわち輻輳角を示している。従って、両目の視線の交点が注視点Pとなる。注視点Pは、輻輳角と、両目の眼球間の距離により測定することができる。具体的には、左の眼球211の座標から左目の視線の方向に伸ばした直線と、右の眼球212の座標から右目の視線の方向に伸ばした直線との交点の座標を注視点Pとする。このように、測定処理部15は両目の視線の方向から注視点Pの座標を算出する。
The
測定処理部15は例えば、視線計測装置10に搭載されたコンピュータにより実現される。このコンピュータは、例えば、中央処理装置(CPU)、ROM、RAM、ハードディスク等の補助記憶装置、CD−ROM等の可搬型記憶媒体が挿入される記憶媒体駆動装置、入力手段や出力手段を備えている。ROM、補助記憶装置、可搬型記憶媒体等の記憶媒体には、オペレーティングシステムと協働してCPU等に命令を与え、アプリケーションプログラムを記録することができ、RAMにロードされることによって実行される。このアプリケーションプログラムは、本発明にかかる視線計測及び注視点測定を実現する特有のコンピュータプログラムを含む。測定処理部15による処理は、中央処理装置がアプリケーションプログラムをRAM上に展開した上で当該アプリケーションプログラムに従った処理を補助記憶装置に格納されたデータを読み出し、また格納を行なうことにより、実行される。
The
視線計測装置10は、所定の時間間隔で、注視点Pの三次元座標を測定していく。測定処理部15は、測定した注視点Pの三次元座標を順次記憶する。この場合、視線計測装置10は、例えば、両目の中心を原点とした直交座標系における三次元座標を算出、記憶する。なお、三次元座標をより正確に測定するため、視線計測装置10の装着時に特定の点を注視して、視線の方向を較正してもよい。注視点Pの座標は例えば、30Hz程度で測定される。視線計測装置10は、この注視点Pの座標を測定信号として動作補助機構30に出力する。また、まばたきをした時は、瞳孔の像が撮影されないため、視線の方向を計測することができない。そのため、視線計測装置10は注視点Pが測定できなかったことを示す測定信号を出力する。また、上記の視線計測装置10では、例えば、50cm前方の位置を±10cmの誤差に抑えることができる。
The line-of-
なお、上記の視線計測装置10は、瞳孔−角膜反射法を用いたものであったが、これに限るものではない。例えば、角膜(黒目)と強膜(白目)の反射率の違いを利用した強膜反射法(リンバストトラッキング法)、角膜の曲率中心と眼球の回転中心が異なることを利用した角膜反射法、第1プルキニエ像(角膜前面の像)と第4プルキニエ像(水晶体後面の像)との移動量の変化を利用したダブルプルキニエ法を用いることも可能である。すなわち、本発明には、眼球に光を照射する光源と、眼球で反射された光源からの光を検出する光検出器とを有する視線計測装置10が適用可能である。そして、眼球運動に基づいて視線を計測する。これにより、導電性ジェルを塗ったり、電極センサを接触させる必要がなくなる。このように本実施の形態では、視線計測装置10の帽子11を被るだけでよい。そのため、装着時の不快感がなくなり、使用感を向上することができる。さらに、発汗による計測誤差の発生を防ぐことも可能になる。よって、視線を正確に計測することができ、動作補助機構30を確実に制御することができる。
In addition, although said visual
次に、動作補助機構30の構成について図4を用いて説明する。図4は、動作補助機構30の一部の構成を示す斜視図である。なお、図4は、右足に装着される箇所のみを示している。図3に示すように、動作補助機構30は、大腿と脛と腰とに装着部31が設けられいる。装着部31はテープ状、又はベルト状になっている。装着部31のテープ等を使用者200に巻き付けることによって、動作補助機構30が装着される。また、腰の装着部31には、駆動制御部34が設けられている。駆動制御部34には、バッテリーや、制御回路などが設けられている。
Next, the configuration of the
駆動制御部34は、例えば、動作補助機構30に搭載されたコンピュータにより実現される。このコンピュータは、例えば、中央処理装置(CPU)、ROM、RAM、ハードディスク等の補助記憶装置、CD−ROM等の可搬型記憶媒体が挿入される記憶媒体駆動装置、入力手段や出力手段を備えている。ROM、補助記憶装置、可搬型記憶媒体等の記憶媒体には、オペレーティングシステムと協働してCPU等に命令を与え、アプリケーションプログラムを記録することができ、RAMにロードされることによって実行される。このアプリケーションプログラムは、本発明にかかる駆動制御を実現する特有のコンピュータプログラムを含む。駆動制御部34による処理は、中央処理装置がアプリケーションプログラムをRAM上に展開した上で当該アプリケーションプログラムに従った処理を補助記憶装置に格納されたデータを読み出し、また格納を行なうことにより、実行される。
The
また、リンク35は足に沿って設けられている。リンク35は右足の左足側と外側にそれぞれ設けられている。リンク35は、膝の近傍で回転可能に連結されている。リンク35の回転軸は膝と略一致している。使用者200の膝近傍には、駆動部32が配置される。リンク35は、駆動部32が設けられている部分で、回転可能に連結されている。駆動部32は、モータ36やギヤを有する駆動機構、及びそれらを覆うカバー等を有している。モータ36からのトルクは、ギヤを介して、リンク35に与えられる。従って、モータ36が回転することによって、リンク35が回転して、リンク35の相対角度が変わる。よって、使用者200の足に動力を伝達することができ、関節の角度を変化させることができる。これにより、使用者200の筋力をアシストした状態で、使用者200を所望の姿勢としたり、使用者200に所望の作業を行なわせることができる。
The
さらに、動作補助機構30には、接地部33が設けられている。接地部33は、リンク35と接続されている。接地部33は、足の裏側に配置されている。従って、装着時には、使用者200が接地部33の上に乗った状態となる。駆動制御部34は、動作補助機構30の自重をキャンセルするため、駆動部32を制御している。すなわち、動作補助機構30の自重が接地部33を介して接地面に逃げる。これにより、使用者200は動作補助機構30の重さを感じることなく、動作補助装置100を使用することができる。従って、利便性を向上することができる。接地部33の一部又は全部は、例えば、ゴムなどの弾性体により形成されている。具体的には、イナバゴム社のイナストマー(登録商標)などを使用することができる。また、接地部33は足に固定するようにしてもよく、接地部33を靴型としてもよい。
Further, the
駆動制御部34は、まず、認識開始トリガが入力されたか否かを判定する。認識開始トリガが入力されていない状態では、上記の自重キャンセル制御を続ける。使用者200が認識開始トリガを入力すると、駆動制御部34は、自重キャンセル制御とともに、視線計測装置10の計測結果に応じて動作補助機構30を制御する。駆動制御部34には、視線計測装置10の計測結果と、動作補助の制御とが対応付けて記憶されている。従って、使用者200が眼によって所定のジェスチャーを行なうと、動作補助機構30はそのジェスチャーに応じた動作補助を実行する。ここで、使用者200の目の動作を命令ジェスチャーとし、その命令ジェスチャーに応じた駆動制御部34の制御を動作補助制御とする。
The
設定される命令ジェスチャーとしては、特定の視線の保持、連続まばたき等が挙げられる。具体的には、上方向の視線の保持、右方向の視線の保持、左方向の視線の保持、下方向の視線の保持、連続まばたき等が命令ジェスチャーとなる。なお、それぞれの目のまばたきを検出して、両目のまばたき、右目のまばたき、左目のまばたきを区別してもよい。もちろん、これら以外のジェスチャーであってもよい。このような、視線計測装置10は命令ジェスチャーによる視線の変化を計測している。その注視点Pの座標が視線計測装置10から駆動制御部34に入力される。例えば、一定の方向に視線を保持していると、注視点Pの座標が一定の範囲内に収まる。また、まばたきをした瞬間では、注視点Pを測定できなかったこと示す測定信号が視線計測装置10から駆動制御部34に入力される。
The command gesture to be set includes holding a specific line of sight, continuous blinking, and the like. Specifically, the command gesture includes holding an upward line of sight, holding a right line of sight, holding a left line of sight, holding a downward line of sight, and continuous blinking. Alternatively, the blinking of each eye may be detected to distinguish the blinking of both eyes, the blinking of the right eye, and the blinking of the left eye. Of course, other gestures may be used. Such a line-of-
ここで、駆動制御部34は、計測結果が予め設定されている命令ジェスチャーに該当するか否かを判定する。例えば、注視点Pの座標が一定範囲内に一定時間以上あったか否かを判定する。注視点Pの座標が一定範囲内に一定時間以上あった場合、特定の方向に視線が保持されていたと判定する。これにより、一定の方向に視線を保持する命令ジェスチャーが行なわれたと判定する。この一定の範囲及び時間を予め駆動制御部34に設定しておいてもよい。例えば、視線の下方向の座標範囲、上方向の座標範囲、右方向の座標範囲、左方向の座標範囲をそれぞれ予め設定しておく。また、一定時間内に注視点Pの座標の変化量がしきい値以下である場合に、一定の方向を保持していると判定してもよい。
Here, the
さらに、一定時間内に、注視点Pを測定できないことを示す測定信号が所定の回数以上入力されたら、連続してまばたきが行なわれたと判定する。このとき、両目それぞれについて判定を行なってもよい。これにより、両目のまばたき、右目のまばたき、左目のまばたきが行なわれたか否かを判定できる。このように駆動制御部34は得られた計測結果が、命令ジェスチャーに対応する結果であるか否かを判定している。そして、その計測結果に該当する命令ジェスチャーを抽出する。
Further, if a measurement signal indicating that the gazing point P cannot be measured within a predetermined time is input a predetermined number of times or more, it is determined that blinking has been performed continuously. At this time, the determination may be made for both eyes. Thereby, it can be determined whether or not both eyes blink, right eyes blink, and left eyes blink. In this way, the
上記のうちのいずれかの命令ジェスチャーが行なわれたと判定された場合、駆動制御部34はその命令ジェスチャーに対応する動作補助制御を行う。設定される動作補助制御としては、例えば、持ち上げ動作を行なう、持ち運び動作を行なう、所定の方向に歩行する、階段を上る、階段を下る、などの制御が挙げられる。もちろん、これら以外の制御であってもよい。命令ジェスチャーと動作補助制御とは、駆動制御部34に設けられた記憶装置に記憶される。命令ジェスチャーと動作補助制御を1対1に対応付けて記憶させておく。従って、命令ジェスチャーに応じた動作補助制御が行われる。もちろん、計測結果がいずれの命令ジェスチャーにも該当しなかった場合、駆動制御部34は動作補助制御を行わず、待機する。
When it is determined that any one of the above command gestures has been performed, the
このように、駆動制御部34は、視線計測装置10での計測結果に応じた動作補助制御を行う。命令ジェスチャー、及び動作補助制御を予め複数設定しておけば、より利便性を向上させることができる。すなわち、複数の命令ジェスチャー、及び動作補助制御を分類して記憶しておけばよい。また、通常行なわないような、動作を命令ジェスチャーとすることが好ましい。これにより、使用者200が誤って命令ジェスチャーを行なうのを防ぐことができる。例えば、上方向の視線の保持や、まばたきの連続などを命令ジェスチャーとすることが好ましい。
As described above, the
このように、使用者200が所望の動作補助を受けたい時、まず、眼により命令ジェスチャーを行なう。視線計測装置10で視線を計測しているため、命令ジェスチャーに応じた測定信号が駆動制御部34に入力される。駆動制御部34は、視線計測装置10による計測結果が、命令ジェスチャーに対応するものか否かを判定する。ここで、駆動制御部34に命令ジェスチャーと動作補助制御を対応付けて記憶している。駆動制御部34は、その命令ジェスチャーに対応する動作補助を行なう。例えば、第1の命令ジェスチャーが行なわれたと判定すると、第1の動作補助制御を行う。そして、駆動部32が駆動して、第1の動作補助制御に基づく動作補助が実行される。
In this way, when the
視線の方向に動作補助制御の方向を一致させることが好ましい。これにより、計測された視線の方向に動作補助機構30が駆動される。具体的には、注視点Pの方向に動作補助制御の方向を一致させる。これにより、視線の方向に応じた方向に動作が補助される。すなわち、視線の方向に応じた方向にパワーアシストを行なう。例えば、上方向を注視した場合、持ち上げ動作を行なうように設定する。さらには、見た方向に物体を運ぶよう、持ち運び動作を制御してもよい。この設定では、動作補助方向と視線の方向が一致するので、使用者が容易に操作することができる。よって、操作性を向上することができる。
It is preferable that the direction of the motion assist control coincides with the direction of the line of sight. As a result, the
駆動制御部34での処理について、図5を用いて説明する。図5は、本実施の形態にかかる動作補助装置100の制御方法を示すフローチャートである。まず、動作補助装置100の電源を付けて、動作補助機構30をサーボONする。また、この時、視線計測装置10の電源がONする。そして、サーボONとなると、自重キャンセル制御が行われる(ステップS101)。これにより、駆動制御部34が自重キャンセル制御を行う。これにより、動作補助機構30の自重をキャンセルする。例えば、駆動制御部34は、インピーダンス制御を行い、接地部33から自重を逃がす。従って、動作補助機構30の自重は、動作補助機構30自身が支える。これにより、動作補助機構30の自重が抜重される。従って、使用者200が容易に扱うことができ、操作性を向上することができる。また、以降のステップにおいても自重をキャンセルした状態で実行される。
Processing in the
次に認識開始トリガがあるか否を判定する(ステップS102)。認識開始トリガとしては、例えば、特定の視線の保持や、まばたきによるジェスチャが挙げられる。例えば、2回連続まばたきをする(ダブルクリック)ことによって、認識開始トリガが入力されたと判定する。認識開始トリガが入力されなかった場合、ステップS101の自重キャンセル制御を実行したままの状態である。 Next, it is determined whether there is a recognition start trigger (step S102). The recognition start trigger includes, for example, holding a specific line of sight or a gesture by blinking. For example, it is determined that a recognition start trigger has been input by blinking twice (double-clicking). When the recognition start trigger is not input, the self-weight cancel control in step S101 is still being executed.
認識開始トリガが入力された場合、駆動制御部34は、視線命令処理を行う(ステップS103)。すなわち、視線計測装置10での計測結果が命令ジェスチャーに対応するものであるか否かを判定する。ここでは、通常の動作補助を行なうための命令ジェスチャー1〜Nと、認識開始トリガが入力されていない状態に戻す通常復帰命令ジェスチャーと、サーボOFFさせる停止命令ジェスチャーと、が設定されている。すなわち、駆動制御部34は合計(N+2)通りの命令ジェスチャーを記憶している。命令ジェスチャーの判定は、注視点Pの座標の変化や、視線を計測できない結果が表れた頻度等に基づいて行われる。
When the recognition start trigger is input, the
命令ジェスチャー1が入力されたと判定された場合、その命令ジェスチャー1に対応する動作補助制御1を実行する(ステップS104)。そして、ステップS103に戻り、再度視線命令処理を行う。命令ジェスチャーNが入力されたと判定された場合、その命令ジェスチャーNに対応する動作補助制御Nを実行する(ステップS105)。そして、ステップS103に戻り、再度視線命令処理を行う。これにより、次の命令ジェスチャーを待つ状態となる。一方、通常復帰命令ジェスチャーが入力されたと判定した場合は、ステップS101に戻る。すなわち、認識開始トリガがリセットされ、通常の状態に復帰する。そして、再度、ステップS102で認識開始トリガが入力されたか否かを判定する。また、停止命令ジェスチャーが入力されたと判定された場合、サーボOFFして、駆動部32の駆動を停止させる。これにより、動作補助機構30の動作が停止して、動作補助が終了する。
When it is determined that the
視線方向や、まばたきでは十分な数の命令ジェスチャーを設定できない場合、駆動補助装置側からディスプレイにメニューアイテムを表示してもよい。この場合、視線方向やまばたきでYESかNOを入力するようにしてもよい。また、動作補助装置100にマイクを取り付けて、音声命令により動作補助制御を行ってもよい。この場合、駆動制御部34に、音声命令処理部を設け、使用者の声に対して音声処理を行う。そして、どの動作補助制御を行うべきか判定する。このように、様々な入力インタフェースを視線計測装置10と組み合わせて用いることができる。
If a sufficient number of command gestures cannot be set by the line-of-sight direction or blinking, a menu item may be displayed on the display from the drive assist device side. In this case, you may make it input YES or NO by a gaze direction or blink. Moreover, a microphone may be attached to the
また、命令ジェスチャーにより実行される制御は、駆動部32の駆動に限られるものではない。例えば、特定の計測結果が得られたときは、モータやアクチュエータをロックしたり、アシスト力やスピード等のパラメータを変化させるようにしてもよい。また、実行中の動作補助制御を緊急停止させる命令ジェスチャーを設定してもよい。これにより、動作補助機構30の反応が、使用者の意思とは異なる場合、即座に動作補助制御を停止することができる。従って、不要な動作が行なわれるのを防ぐことができ、操作性を向上することができる。これにより、利便性を向上できる。
Further, the control executed by the command gesture is not limited to driving the
このように、視線計測装置10を動作補助機構30の入力インターフェースとすることにより、利便性を向上することができる。すなわち、電極などを接触させるための導電性ジェルを塗布する必要がなく、帽子11を被るだけで動作を補助することができる。したがって、使用者の不快感を低減することができ、利便性を向上できる。さらに、発汗などによって計測に誤差が生じることもないため、確実に動作を補助することができる。
Thus, the convenience can be improved by using the line-of-
さらに、視線計測装置10と動作補助機構30とを接続するリンク機構20に設けられたジョイントのエンコーダ値を読み取るようにしてもよい。そして、このエンコーダ値によって、動作補助機構30と視線計測装置10との相対位置を運動学により算出する。そして、認識された相対位置を考慮して視線の方向を計測する。これにより、使用者200の視線の方向や注視点Pの座標を正確に計測することができる。
Furthermore, an encoder value of a joint provided in the
また、本実施の形態にかかる動作補助装置100は、使用者に装着するタイプに限られるものではない。すなわち、非装着型の動作補助装置100であってもよい。さらに、使用者が自動車の運転手の場合、例えば、視線計測装置10で計測した方向に、自動車のヘッドランプを向けるようにしてもよい。これにより、利用範囲を広げることができる。
Moreover, the
また、動作補助機構30を、使用者200に装着するタイプとすると、容易に視線計測装置10と接続することができる。さらに、動作補助機構30を使用者の筋力をアシストするパワーアシストロボットとしてもよい。これにより、容易に制御可能なパワーアシスト装置を提供することができる。これにより、例えば、高齢者の介護などを容易に行うことができる。
Further, when the
発明の実施の形態2.
本実施の形態では、実施の形態1と同様に視線計測装置によって、注視点の三次元座標を求めている。さらに、本実施の形態では、注視点の三次元座標に基づく動作目標位置に対してフィードバック制御を行っている。すなわち、計測された注視点に基づいて動作目標位置を設定する。そして、現在位置と動作目標位置との間の位置誤差によって、動作補助機構をフィードバック制御する。従って、動作補助機構が、注視点に追従するよう、制御される。すなわち、動作補助機構が注視点に対して追従して動作する。
Embodiment 2 of the Invention
In the present embodiment, the three-dimensional coordinates of the gazing point are obtained by the line-of-sight measurement device as in the first embodiment. Furthermore, in this embodiment, feedback control is performed on the operation target position based on the three-dimensional coordinates of the gazing point. That is, the operation target position is set based on the measured gazing point. Then, the motion assist mechanism is feedback-controlled by a position error between the current position and the motion target position. Therefore, the movement assist mechanism is controlled so as to follow the gazing point. That is, the motion assist mechanism operates following the point of sight.
本実施の形態にかかる動作補助装置について図6を用いて説明する。図6は、本実施の形態にかかる動作補助装置の構成を模式的に示す側面図である。本実施の形態にかかる動作補助装置100の動作補助機構30は、使用者200の腕の筋力をアシストするアシストアームである。動作補助機構30には、実施の形態と同様に、駆動制御部34、駆動部32、装着部31、リンク35等が設けられている。これらについては、実施の形態1と同様の構成であるため、詳細な説明を省略する。また、視線計測装置10についても、実施の形態1と同様の構成であるため、説明を省略する。すなわち、視線計測装置10は、使用者の眼球に照明光を出射する照明光源と、眼で反射した照明光源からの光を検出するカメラとを備えている。
The motion assisting device according to the present embodiment will be described with reference to FIG. FIG. 6 is a side view schematically showing the configuration of the motion assisting device according to the present embodiment. The
動作補助機構30と視線計測装置10はリンク機構20により連結されている。ここで、視線計測装置10と動作補助機構30とを接続するリンク機構には、ジョイント21が設けられている。リンク機構20はパッシブなリンク機構であり、使用者200の筋力によって駆動される。従って、頭部の位置姿勢を変えることができる。さらに、ジョイント21のエンコーダ値によって、視線計測装置10と動作補助機構30との相対位置を求めることができる。この相対位置を考慮して注視点の座標を測定する。従って、アシストアームの先端位置を注視点との位置を正確に認識することができる。さらに、使用者200の頭部の姿勢を認識してもよい。そして、頭部の位置姿勢を考慮して注視点の座標を測定してもよい。このように、リンク機構20によって、視線計測装置10と動作補助機構30との間の座標系を統一することができる。すなわち、視線計測装置10で測定された注視点と、アシストアームの先端位置とが同じ基準座標系で表される。なお、基準座標系は使用者200に固定されているとする。
The
ここで、動作補助機構30は、使用者200の腕の筋力をアシストするアシストアームである。従って、動作補助機構30は、使用者200の上半身を中心に装着されている。動作補助機構30の駆動部32は肘、肩などの近傍に配置される。動作補助機構30の先端は、使用者200の手首の周辺に配置される。これにより、パワーアシストされている状態で、使用者200が物体、あるいは人間を持ち上げ、持ち運びすることが可能となる。
Here, the
ここで、動作補助の一例として、使用者200が被介護者300をベッド400から持ち上げ、被介護者300を所定の位置まで持ち運ぶ動作を挙げて説明する。なお、動作補助機構30の基本的な処理は実施の形態1と同様であるため、実施の形態1と重複する内容については説明を省略する。本実施の形態にかかる制御は、例えば、図5で示したフローと同様のフローで処理される。ここで、命令ジェスチャー1が上記の追従動作を開始する開始命令ジェスチャーとする。従って、開始命令ジェスチャーである命令ジェスチャ−1が入力されると、駆動制御部34が注視点を動作目標位置として駆動制御する。
Here, as an example of operation assistance, an operation in which the
開始命令ジェスチャーが実行された場合、動作補助装置100は、使用者200の注視点の方向に向かって、駆動制御を行う。具体的には、視線計測装置10は、実施の形態1と同様に注視点の座標を算出する。そして、注視点Pに基づいて動作目標位置を設定する。動作目標位置の座標に動作補助装置30の先端を近づけるように駆動制御する。これにより、動作目標位置に向かってアシストアームが動作する。使用者200の手が注視点の方向に向かってアシストされる。動作補助装置30の先端は、随時更新される注視点に追従して移動する。例えば、現在位置と動作目標位置との間の位置誤差、及び速度誤差によって、動作補助機構30の駆動部32をフィードバック制御する
When the start command gesture is executed, the
本実施の形態では、駆動制御部34が所定の命令ジェスチャーが入力された場合に、動作補助機構30の先端を目標動作位置に向かって移動させる。これにより、常に動作補助機構30が動作するのを防ぐことができる。すなわち、使用者の向いている方向にアシストアームが常に動いていては不便である。そのため、開始命令ジェスチャーを認識した場合のみ、上記の動作補助制御を開始する。例えば、ある一定時間以上、一定の方向を注視するジェスチャーを命令ジェスチャーとする。なお、注視する位置は、日常的に視線を向けることが無い場所を設定することが望ましい。例えば、設定場所を上方の置くことが好ましい。これにより、手元に設定場所を置いた場合よりも誤差動を防ぐことができる。あるいは、一定以上眼をつぶる動作や、まばたきを数回繰り返す動作を開始命令ジェスチャとしてもよい。さらに、追従動作を終了する場合は、終了命令ジェスチャーを実行する。終了命令ジェスチャーとしては、開始命令ジェスチャーと同様のジェスチャーを用いることができる。
In the present embodiment, when a predetermined command gesture is input, the
ここで、腕を動作を補助する動作補助機構30について説明する。使用者200の手の姿勢まで、正確に沿わそうとするならば、7以上の自由度が必要であると考えられる。しかし、冗長であるため、逆運動学と逆動力学を解くために新たな拘束条件とを導入する必要がある。ここでは、説明を簡単にするため、動作補助機構30が、図7に示すように、3自由度+1自由度のアシストアーム50であるとして説明する。なお、図7(a)は、動作補助機構30を装着した使用者200を模式的に示す上面図である。図7(b)はアシストアーム50の各軸を示す図である。なお、図7では、説明の明確化のため、右腕部分のみを示している。また、視線計測装置10とリンク機構20については省略して図示している。
Here, the movement assist
ここで、201を使用者200の頭部、202を肩、203を上腕、204を肘、205を前腕、206を手首、207を手とする。肩202の近傍には、アシストアーム50の第1軸51、及び第2軸52が配置されている。肘204の近傍に第3軸53が配置される。第4軸54は前腕205の近傍に配置される。さらに、手首206には、アシストアーム50の先端部55が取り付けられている。このように、第1軸51〜第4軸54のそれぞれには、アシストアーム50の関節が配置される。アシストアーム50が、上腕203や前腕205の筋力をアシストすることができる。
Here, 201 is the user's 200 head, 202 is the shoulder, 203 is the upper arm, 204 is the elbow, 205 is the forearm, 206 is the wrist, and 207 is the hand. In the vicinity of the
第1軸51、第2軸52、及び第3軸53は、駆動部32のモータ等(図7では図示せず)によって、回転角度を変えることができる。また、第4軸54はアシストアーム50を手首206に固定するためのフリージョイントである。この第4軸54によって、使用者200は手首206のロール軸を自由に回転させることができる。各軸は、リンク35によって回転可能に連結されている。ここで、アシストアーム50の先端部55の位置が決まれば、逆運動学によって、第1軸51、第2軸52、及び第3軸53の回転角度を求めることができる。
The rotation angle of the
ここで、動作目標位置XGを数式1で示す。
Here, the operation target position XG is expressed by
動作目標位置XGは、視線計測装置10において、角膜反射の輻輳角より導いた三次元座標である。なお、基準座標系は使用者200に固定されているとする。ここで、目標関節角度qGは以下の数式2で導くことができる。
The motion target position XG is a three-dimensional coordinate derived from the convergence angle of corneal reflection in the visual
なお、数式2において、qG1、qG2、qG3は、第1軸〜第3軸の関節角度である。また、L()は関節角度から、手の先端位置へと変換する順運動学方程式を示している。数式2では、L()の逆関数を用いることで、手の先端位置から関節角度を算出している。すわわち、L−1()は逆運動学方程式を示している。従って、Lの逆行列であるL−1を数式1に左からかけることで、qGを算出することができる。なお、第4軸は回転したとしても、アシストアーム50の先端位置の座標が変化しないので、方程式には含まれない。フィードバック制御を行う場合、関節に出力すべきトルクτは、数式3で算出することができる。
In Equation 2, q G1 , q G2 , and q G3 are joint angles of the first axis to the third axis. L () represents a forward kinematic equation for converting from the joint angle to the tip position of the hand. In Formula 2, the joint angle is calculated from the tip position of the hand by using the inverse function of L (). That is, L −1 () represents an inverse kinematic equation. Accordingly, q G can be calculated by multiplying L− 1 , which is an inverse matrix of L, from
数式3において、Kは位置誤差によるフィードバックゲインであり、Dは速度誤差によるフィードバックゲインである。また、qは現在の関節角度を示している。現在の関節角度qは、例えば、各軸のエンコーダ値を読み取ることによって算出することができる。フィードバックゲインK,Dに適当な値を設定すると、関節に与えるトルクを算出することができる。このようにPD制御によって、実装が簡単、かつ安定した制御を行うことができる。
In
なお、注視点Pは、一瞬で移動することができるため、注視点Pに基づく動作目標位置に単純に追従していると、アシストアーム50が非常に大きな速度で駆動してしまう場合がある。この場合、使用者200が危険に曝されてしまうおそれがある。従って、使用者200への危険を回避するため、フィードバックゲインK、Dを小さしてもよい。さらに、しきい値以上の速度で注視点Pが移動した場合、フェールすることによって、安全を確保することができる。従って、しきい値以上の速度で注視点Pが移動した場合、トルクτを変化させずに駆動してもよい。さらに、速度リミッタや、トルクリミッタを各軸に設けて、安全確保してもよい。
Note that since the gazing point P can move in an instant, if the movement target position based on the gazing point P is simply followed, the
このように、動作目標位置に基づいてアシストアーム50の動作がフィードバック制御される。従って、アシストアーム50の先端位置が、動作目標位置に追従して移動する。すなわち、アシストアーム50の先端位置が、動作目標位置に近づくよう制御される。このとき、アシストアーム50は位置誤差、及び速度誤差に基づいて、フィードバック制御されている。従って、使用者200が被介護者300を持ち上げ、持ち運びを容易に行うことができる。例えば、被介護者300の上の空中を注視することによって、被介護者300を容易に持ち上げることができる。そして、被介護者300を持ち上げた状態でベッド400上を注視することによって、被介護者を容易にベッド400まで持ち運ぶことができる。このように、視線計測装置10を動作補助装置30の入力インターフェースとして利用することによって、利便性を向上することができる。なお、動作補助装置30はアシストアームに限らず、使用者の筋力を補助するパワーアシストロボットとしてもよい。
As described above, the operation of the
本実施の形態にかかる動作補助装置30の制御方法について、図8を用いて説明する。図8は、本実施の形態にかかる動作補助装置30の制御方法を示すフローチャートである。図8では、図5のステップSについて詳細に示している。なお、図5のその他のステップは実施の形態1で説明した内容と同様であるため、説明を省略する。
A control method of the
まず、開始命令ジェスチャーが入力された場合、図5のステップS104で示したように、開始命令ジェスチャーが認識されると、現在のアシストアーム50の先端位置を算出する(ステップS201)。アシストアーム50の先端位置は、各軸の角度により算出することができる。具体的には、モータに設けられたエンコーダの値に基づいて先端部55の座標を算出する。次に、視線計測装置10が注視点Pの座標を測定する(ステップS202)。注視点Pの三次元座標は、両目の間隔、及び輻輳角に基づいて算出されている。
First, when a start command gesture is input, as shown in step S104 of FIG. 5, when the start command gesture is recognized, the current tip position of the
次に、測定された注視点Pの座標に基づいて動作目標を算出する(ステップS203)。ここでは、注視点Pに基づいて動作目標位置を設定する。さらに、動作目標位置に対する目標関節座標qGを算出する。まず、注視点Pに基づいて、目標動作位置の座標を算出する。例えば、アシストアーム50の先端位置の座標と、動作目標位置の座標とが、リンク機構20の状態に応じて較正されている。すなわち、動作目標位置の座標には、ジョイント21の回転角度等が考慮されている。従って、動作目標位置の座標と、アシストアーム50の先端位置の座標とが基準座標系で示される。なお、目標動作位置は注視点Pと異なる座標であってもよい。例えば、左腕と、右腕のアシストアーム50がある場合、それぞれの座標を注視点Pの座標から左右に一定距離だけ離してもよい。そして、数式3に示すよう、逆運動学方程式を解くことによって、目標関節角度qGを算出することができる。これにより、左右のアシストアーム50の先端位置をずらすことができる。
Next, an operation target is calculated based on the measured coordinates of the gazing point P (step S203). Here, the operation target position is set based on the gazing point P. Further calculates the desired joint coordinates q G for operating the target position. First, based on the gazing point P, the coordinates of the target motion position are calculated. For example, the coordinates of the tip position of the
そして、目標関節角度qGから各関節に与えるトルクτを決定する(ステップS204)。ここでは、数式3に示すよう、適当なフィードバックゲインK,Dからトルクτが算出される。そして、トルクτを与えるよう、各軸のモータを駆動する(ステップS205)。これにより、アシストアームの先端位置が、動作目標位置に近づく。さらに、終了命令ジェスチャーが入力されたか否かを判定する(ステップS206)。終了命令ジェスチャーが入力されていないと判定すると、再度ステップS201からの処理を繰り返す。これにより、アシストアーム50の先端位置が、動作目標位置に追従して移動するようフィードバック制御される。また、終了命令ジェスチャーが入力されたと判定すると、追従制御を停止する。そして、図5のステップS103で示したように、次の命令ジェスチャーを待つ。このように、終了命令ジェスチャーが入力されるまで、フィードバック制御を行う追従動作を繰り返す。
Then, to determine the torque τ that gives the target joint angle q G in each joint (Step S204). Here, as shown in
上記のように制御することによって、視線の方向に被介護者300を持ち運ぶことができる。このように、動作目標位置に追従するよう、持ち運ぶことができる。従って、注視点Pに基づいて動作補助機構30が駆動する。よって、視線の方向に移動させることが可能となり、使用者200が容易に操作することができる。従って、さらに操作性を向上することができ、利便性を高くすることができる。もちろん、実施の形態1で示したように、足用の動作補助機構30と組み合わせて使用してもよい。また、実施の形態1で示した自重キャンセル制御を行ってもよい。
By controlling as described above, the
発明の実施の形態3.
本実施の形態では、実施の形態2と同様に、注視点Pに基づいて動作目標位置を求める。そして、動作目標位置に基づいてアシストアーム50の動作がフィードバック制御される。しかしながら、実施の形態2では、外力を測定しないため、使用者200にかかる力を制御できない。従って、使用者200に大きな力がかかってしまう場合がある。本実施の形態では、使用者200にかかる力を考慮した制御の一例として、インピーダンス制御を用いている。以下に、本実施の形態にかかる動作補助装置100の制御手法について説明する。なお、動作補助装置100の基本的に構成については、上述した構成と同様であるため説明を省略する。
In the present embodiment, the operation target position is obtained based on the gazing point P, as in the second embodiment. The operation of the
動作目標位置XGと、アシストアーム50の先端位置Xは、それぞれ数式4,5のように表す。
The operation target position XG and the tip position X of the
ここで、動作目標位置XGは、視線計測装置10によって、角膜反射の輻輳角から導いた三次元座標である。また、アシストアーム50の先端位置Xは、アシストアーム50の各軸の回転角から算出した三次元座標である。すなわち、アシストアーム50の先端位置Xは、各軸に設けられたリンク機構20の状態についても考慮されている。
Here, the motion target position XG is a three-dimensional coordinate derived from the convergence angle of corneal reflection by the visual
ここで、アシストアーム50の先端部55の外力(使用者200に与える力)をFとすると、数式6で示される方程式が得られる。
Here, when the external force (force applied to the user 200) of the
なおFは、三次元の並進力ベクトルである。数式6において、右辺の各項の係数行列は、目標インピーダンスを示しており、Md,Bd,Kdは、それぞれ目標質量、目標粘性、目標弾性となっている。数式6より、目標位置XGの加速度は以下の数式7で与えられる。 F is a three-dimensional translational force vector. In Equation 6, the coefficient matrix of each term on the right side indicates the target impedance, and Md, Bd, and Kd are the target mass, target viscosity, and target elasticity, respectively. From Equation 6, the acceleration of the target position X G is given by the following equation 7.
数式7において、Jはヤコビアン(ヤコビ行列)である。数式7により導かれた関節空間の加速度ベクトルを以下の数式8に代入すると、各関節に出力すべきトルクτを求めることができる。 In Equation 7, J is a Jacobian (Jacobi matrix). When the acceleration vector of the joint space derived from Equation 7 is substituted into Equation 8 below, the torque τ to be output to each joint can be obtained.
数式8はニュートンオイラー法により導き出した運動方程式である。ここで、M()は質量行列、v()は遠心力やコリオリ力などの線形項を示すベクトル、G()は質量ベクトルである。数式8によって算出したトルクτを出力することによって、目標インピーダンスを持ったアシストアーム制御を実現することができる。上記のインピーダンス制御の概念図を図9に示す。 Equation 8 is an equation of motion derived by the Newton Euler method. Here, M () is a mass matrix, v () is a vector indicating linear terms such as centrifugal force and Coriolis force, and G () is a mass vector. By outputting the torque τ calculated by Expression 8, assist arm control having a target impedance can be realized. A conceptual diagram of the above impedance control is shown in FIG.
図9に示すようにアシストアーム50の先端部55と動作目標位置とがバネマスダンパ系で結ばれている。その間に、使用者の腕が挟まれる形となっている。従って、バネ61、及びダンパ62によって、インピーダンス制御が行われる。使用者200にかかる力を低減することができる。よって、安全性を高めることができる。
As shown in FIG. 9, the
ここで、注視点Pは、一瞬で決まるため、注視点Pに基づく動作目標位置に単純に追従していると、アシストアーム50が非常に大きな速度で駆動してしまう場合がある。この場合、使用者200への危険を回避するため、動作目標位置と、アシストアーム先端位置との距離に応じて、目標インピーダンス制御の目標質量Mdと、目標粘性Bdとを高くして、目標弾性Kdを低くすることが好ましい。これにより、アシストアーム50の先端部55が大きな速度になるのを防ぐことができる。さらに、しきい値以上の速度で注視点Pが移動した場合、フェールすることによって、安全を確保することができる。例えば、しきい値以上の速度で注視点Pが移動した場合、そのままのトルクτで駆動してもよい。さらに、速度リミッタや、トルクリミッタを各軸に設けて、安全確保してもよい。
Here, since the gazing point P is determined in an instant, if the movement target position based on the gazing point P is simply followed, the
なお、注視点Pの範囲に比べてアシストアーム50の可動範囲が狭いため、可動範囲外に注視点Pに出た場合、逆運動学が解けなくなってしまう。すなわち、ヤコビアンJの逆行列を導出することができないため、トルクτを算出できなくなってしまう。この場合、動作目標位置を使用者200の方向に近づけて設定する。例えば、図10に示すように、アシストアーム50の可動範囲を表す空間の表面と、両目の中心と注視点Pとを結んだ直線の交点周辺を動作目標位置XGとすることができる。なお、図10では、アシストアーム50の可動範囲を表す空間の表面を点線で示している。すなわち、アシストアームの可動範囲を示す境界70を点線で示す。
In addition, since the movable range of the
目標動作位置の設定について、図11、及び図12を用いて説明する。図11は、本実施の形態にかかる制御方法を示すフローチャートである。なお、図11は、図8で示したステップS203を詳細に示すものであり、それ以外のステップについては実施の形態2と同様であるため説明を省略する。図12は、動作目標位置を決定するため処理を説明する図である。 The setting of the target operation position will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing a control method according to the present embodiment. Note that FIG. 11 shows step S203 shown in FIG. 8 in detail, and the other steps are the same as those in the second embodiment, and thus description thereof is omitted. FIG. 12 is a diagram illustrating a process for determining the operation target position.
まず、図8のステップS202で示した視線計測装置10によって注視点Pを計測する。次に、注視点Pの座標が、アシストアーム50の駆動範囲外にあるか否かを判定する(ステップS301)。具体的には、数式7で示されたヤコビアンJの逆行列を求めることができるか否かを判定する。あるいは、予め設定した可動範囲に注視点Pが含まれるか否かを判定してもよい。
First, the gazing point P is measured by the line-of-
例えば、図12に示すように注視点P1が可動範囲の外側にある場合、アシストアーム50の先端が注視点P1に届かない。この場合、注視点P1から一定距離戻って、注視点P1の座標を変更する。ここで、座標が変更された点を変更点P2とする。変更点P2は両目の中心Oと注視点P1とを結ぶ直線上にある。すなわち、変更点P2は注視点P1から一定距離だけ、両目の中心Oに近づいた位置となる。そして、ステップS301に戻り、変更点P2がアシストアームの可動範囲外にあるか否かを判定する。ここでは、図12に示すように変更点P2も、可動範囲の外側にあるため、ステップS302に戻る。すなわち、変更点P2でも、逆運動方程式を解くことができない。変更点P2の座標が境界70の外側であるため、さらに一定距離戻って座標を変更する。ここで、座標が変更された点を変更点P3とする。変更点P3は変更点P2と同様に、両目の中心Oと注視点P1とを結ぶ直線上になる。従って、注視点P1と変更点P2と変更点P3とは同一直線上に等間隔で配置される。
For example, when the gaze point P 1 as shown in FIG. 12 is outside the movable range, the tip of the
変更点P3は、可動範囲外にないため、アシストアーム50の先端部55が届く位置にある。従って、変更点P3に基づいて動作目標位置が設定される。すなわち、変更点P3が境界70の内側に配置されるため、ヤコビアンJの逆行列を求めることができる。従って、変更点P3を動作目標位置としてトルクτを決定する。これにより、可動範囲外にある場合でも、アシストアームをフィードバック制御することができる。もちろん、変更点P3が可動範囲外である場合は、一定距離だけ繰り返し近づけて動作目標位置を決定する。
Changes P 3, there is no out of the movable range, a position
このように、注視点がアシストアーム50の可動範囲内にあるか否かによって、動作目標位置を変更する。これにより、注視点Pが遠くに位置する場合でも、注視点に近づくようフィードバック制御することができる。なお、注視点を近づけるための基準となる点は、両目の中心に限られるものではない。変更点が使用者200に近づくことができる点であればよい。
Thus, the operation target position is changed depending on whether or not the gazing point is within the movable range of the
その他の実施の形態.
なお、上記の実施の形態では、動作補助装置100を使用者200が装着するタイプとして説明したが、これに限られるものではない。すなわち、使用者200が装着しない状態で、所定の動作を行なう動作補助装置としてもよい。また、実施の形態1〜3のいずれか2つ以上を組み合わせて使用したもよい。例えば、実施の形態2又は3のアシストアームに実施の形態1で示した自重キャンセルを行ってもよい。
Other embodiments.
In the above-described embodiment, the
10 視線計測装置、11 帽子、12 アーム、13 照明手段、13a 照明光源、
13b ミラー、14 カメラ、15 測定制御部、20 リンク機構、
21 ジョイント、30 動作補助機構、31 装着部、32 駆動部、33 接地部、
34 駆動制御部、35 リンク、36 モータ
50 アシストアーム、51 第1軸、52 第2軸、53 第3軸、54 第4軸、
55 先端部、61 バネ、62 ダンパ、70 境界
100 動作補助装置、200 使用者、201 頭部、202 肩、203 上腕、
204 肘、205 前腕、206 手首、207 手、201 左の眼球、
202 右の眼球、203 左の角膜、204 右の角膜、
300 被介護者、400 ベッド
DESCRIPTION OF
13b mirror, 14 camera, 15 measurement control unit, 20 link mechanism,
21 joints, 30 motion assist mechanisms, 31 mounting parts, 32 driving parts, 33 grounding parts,
34 drive control unit, 35 link, 36
55 tip, 61 spring, 62 damper, 70
204 elbow, 205 forearm, 206 wrist, 207 hand, 201 left eyeball,
202 right eyeball, 203 left cornea, 204 right cornea,
300 caregivers, 400 beds
Claims (12)
使用者の眼球に光を照射する光源と、前記眼球で反射された前記光源からの光を検出する光検出器とを有する視線計測装置と、
前記視線計測装置での計測結果に基づいて、使用者の動作を補助する動作補助機構とを備えた動作補助装置。 An operation assisting device for assisting a user's operation,
A line-of-sight measuring device comprising: a light source that irradiates light to a user's eyeball; and a photodetector that detects light from the light source reflected by the eyeball;
An operation assisting device comprising an operation assisting mechanism for assisting a user's operation based on a measurement result obtained by the line-of-sight measurement device.
前記動作補助機構が、前記計測された視線の方向に向かって動作補助を行なう請求項1に記載の動作補助装置。 The line-of-sight measurement device measures the direction of the user's line of sight,
The motion assisting device according to claim 1, wherein the motion assisting mechanism assists the motion toward the measured line of sight.
前記動作補助機構が、前記注視点に基づいて動作目標位置を設定して、前記動作目標位置に追従するようフィードバック制御を行う請求項1又は2に記載の動作補助装置。 The line-of-sight measurement device measures a gazing point from the direction of the line of sight of both eyes,
The motion assist device according to claim 1, wherein the motion assist mechanism sets a motion target position based on the gazing point and performs feedback control so as to follow the motion target position.
前記リンク機構の状態に基づいて、前記視線計測装置と前記動作補助機構との相対位置を認識して、前記動作目標位置を設定する請求項3に記載の動作補助装置。 A link mechanism that connects the line-of-sight measurement device and the movement assist mechanism;
The motion assisting device according to claim 3, wherein the motion target position is set by recognizing a relative position between the visual line measuring device and the motion assisting mechanism based on a state of the link mechanism.
使用者の眼球に光を照射するステップと
前記眼球で反射された前記光源からの光を検出して、視線を計測するステップと、
前記視線の計測結果に基づいて、使用者の動作を補助するステップとを有する動作補助装置の制御方法。 A method of controlling a motion assisting device that assists a user's motion,
Irradiating a user's eyeball with light, detecting light from the light source reflected by the eyeball, and measuring a line of sight;
And a step of assisting the operation of the user based on the measurement result of the line of sight.
前記注視点に基づいて、動作目標位置を設定するステップとをさらに備え、
前記使用者の動作の補助を前記動作目標位置に対してフィードバック制御する請求項8又は9に記載の動作補助装置の制御方法。 Measuring the gaze point of the user based on the measurement result of the line of sight performed on both eyes;
Further comprising setting an operation target position based on the gaze point;
The method of controlling an operation assisting device according to claim 8 or 9, wherein the assist of the user's operation is feedback-controlled with respect to the operation target position.
The line-of-sight measuring device having a light source for irradiating light to the eyeball and a photodetector for detecting light reflected by the eyeball, and measuring the gazing point by recognizing a relative position of the motion assist mechanism. The control method of the movement assistance apparatus of Claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006149407A JP2007319187A (en) | 2006-05-30 | 2006-05-30 | Motion assisting device and control method for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006149407A JP2007319187A (en) | 2006-05-30 | 2006-05-30 | Motion assisting device and control method for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007319187A true JP2007319187A (en) | 2007-12-13 |
Family
ID=38852480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006149407A Pending JP2007319187A (en) | 2006-05-30 | 2006-05-30 | Motion assisting device and control method for the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007319187A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194982A (en) * | 2008-02-13 | 2009-08-27 | Konica Minolta Holdings Inc | Movable tensegrity structure equipped with electrode structure |
JP2009189468A (en) * | 2008-02-13 | 2009-08-27 | Konica Minolta Holdings Inc | Motion assisting device |
JPWO2009101828A1 (en) * | 2008-02-13 | 2011-06-09 | コニカミノルタホールディングス株式会社 | Movable tensegrity structure |
JP2011115460A (en) * | 2009-12-04 | 2011-06-16 | Saga Univ | Visual axis controlling device, method of controlling visual axis, and program of the same |
JP5503081B2 (en) * | 2011-05-19 | 2014-05-28 | パナソニック株式会社 | Image display system and 3D glasses |
JP2015528359A (en) * | 2012-09-17 | 2015-09-28 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | Method and apparatus for determining a point of interest on a three-dimensional object |
JP2017154210A (en) * | 2016-03-02 | 2017-09-07 | パナソニック株式会社 | Operation support device, and operation support system |
JP2018001292A (en) * | 2016-06-28 | 2018-01-11 | 株式会社クボタ | Assist suit |
JP2019093545A (en) * | 2019-03-07 | 2019-06-20 | 株式会社クボタ | Assist suit |
JP2019094145A (en) * | 2017-11-20 | 2019-06-20 | 株式会社クボタ | Assisting instrument |
-
2006
- 2006-05-30 JP JP2006149407A patent/JP2007319187A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194982A (en) * | 2008-02-13 | 2009-08-27 | Konica Minolta Holdings Inc | Movable tensegrity structure equipped with electrode structure |
JP2009189468A (en) * | 2008-02-13 | 2009-08-27 | Konica Minolta Holdings Inc | Motion assisting device |
JPWO2009101828A1 (en) * | 2008-02-13 | 2011-06-09 | コニカミノルタホールディングス株式会社 | Movable tensegrity structure |
JP5299291B2 (en) * | 2008-02-13 | 2013-09-25 | コニカミノルタ株式会社 | Movable tensegrity structure |
JP2011115460A (en) * | 2009-12-04 | 2011-06-16 | Saga Univ | Visual axis controlling device, method of controlling visual axis, and program of the same |
JPWO2012157195A1 (en) * | 2011-05-19 | 2014-07-31 | パナソニック株式会社 | Image display system and 3D glasses |
JP5503081B2 (en) * | 2011-05-19 | 2014-05-28 | パナソニック株式会社 | Image display system and 3D glasses |
US9268145B2 (en) | 2011-05-19 | 2016-02-23 | Panasonic Intellectual Property Management Co., Ltd. | Image display system and three-dimensional eyeglasses |
JP2015528359A (en) * | 2012-09-17 | 2015-09-28 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | Method and apparatus for determining a point of interest on a three-dimensional object |
JP2017154210A (en) * | 2016-03-02 | 2017-09-07 | パナソニック株式会社 | Operation support device, and operation support system |
JP2018001292A (en) * | 2016-06-28 | 2018-01-11 | 株式会社クボタ | Assist suit |
JP2019094145A (en) * | 2017-11-20 | 2019-06-20 | 株式会社クボタ | Assisting instrument |
JP2019093545A (en) * | 2019-03-07 | 2019-06-20 | 株式会社クボタ | Assist suit |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007319187A (en) | Motion assisting device and control method for the same | |
Ubeda et al. | Wireless and portable EOG-based interface for assisting disabled people | |
US10292780B2 (en) | Haptic gloves and surgical robot systems | |
EP3159118B1 (en) | Motion reproducing system and motion reproducing apparatus | |
JP4487060B2 (en) | Wearable motion assist device, control method for wearable motion assist device, and control program | |
US9020643B2 (en) | Robot apparatus, control method thereof, and computer program | |
Krausz et al. | Intent prediction based on biomechanical coordination of EMG and vision-filtered gaze for end-point control of an arm prosthesis | |
US9662525B2 (en) | Upper limb rehabilitation robot for meal assistance or meal rehabilitation training and method thereof | |
JP7157424B2 (en) | INTERACTIVE INFORMATION TRANSMISSION SYSTEM AND INTERACTIVE INFORMATION TRANSMISSION METHOD AND INFORMATION TRANSMISSION SYSTEM | |
JP2009207840A (en) | Walking movement assisting device | |
KR20120071555A (en) | Apparatus for rehabilitation robot | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
Baldi et al. | Design of a wearable interface for lightweight robotic arm for people with mobility impairments | |
KR20120042524A (en) | Walking assisting device having user recognition function | |
KR20110049703A (en) | Surgical robot system and laparoscope handling method thereof | |
KR101114234B1 (en) | Surgical robot system and laparoscope handling method thereof | |
JP2006198389A (en) | Robot, and portable storage medium for use with the robot | |
Liao et al. | Development of kinect-based upper-limb assistance device for the motions of activities of daily living | |
Chang et al. | Bio-inspired gaze-driven robotic neck brace | |
KR101934272B1 (en) | Brain-Machine Interface Robot Control System | |
Choi et al. | A human-robot interface system for walkon suit: A powered exoskeleton for complete paraplegics | |
WO2024021855A1 (en) | Surgical robot, and control method and control apparatus therefor | |
KR101745860B1 (en) | Active upper extremity exercise assist device | |
US11493994B2 (en) | Input device using bioelectric potential | |
CN113599096B (en) | Automatic wheelchair system of eye movement control based on pupil corneal reflex technique |