JP7474466B2 - Motion discrimination device and motion discrimination program - Google Patents
Motion discrimination device and motion discrimination program Download PDFInfo
- Publication number
- JP7474466B2 JP7474466B2 JP2020024340A JP2020024340A JP7474466B2 JP 7474466 B2 JP7474466 B2 JP 7474466B2 JP 2020024340 A JP2020024340 A JP 2020024340A JP 2020024340 A JP2020024340 A JP 2020024340A JP 7474466 B2 JP7474466 B2 JP 7474466B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- movement
- orthosis
- discrimination
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 297
- 210000003205 muscle Anatomy 0.000 claims description 65
- 238000001514 detection method Methods 0.000 claims description 25
- 230000005484 gravity Effects 0.000 claims description 23
- 230000009471 action Effects 0.000 claims description 17
- 230000000694 effects Effects 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 15
- 239000012530 fluid Substances 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 210000002414 leg Anatomy 0.000 description 52
- 210000000689 upper leg Anatomy 0.000 description 45
- 210000001624 hip Anatomy 0.000 description 38
- 210000004394 hip joint Anatomy 0.000 description 30
- 210000001699 lower leg Anatomy 0.000 description 27
- 238000004422 calculation algorithm Methods 0.000 description 21
- 238000002474 experimental method Methods 0.000 description 20
- 210000000629 knee joint Anatomy 0.000 description 20
- 230000007246 mechanism Effects 0.000 description 17
- 235000019764 Soybean Meal Nutrition 0.000 description 15
- 238000004088 simulation Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000005452 bending Methods 0.000 description 6
- 230000008602 contraction Effects 0.000 description 6
- 238000012850 discrimination method Methods 0.000 description 6
- 229920000049 Carbon (fiber) Polymers 0.000 description 5
- 239000004917 carbon fiber Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000630 rising effect Effects 0.000 description 5
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 210000001503 joint Anatomy 0.000 description 4
- 239000011553 magnetic fluid Substances 0.000 description 4
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 230000003183 myoelectrical effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 2
- 239000005557 antagonist Substances 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229920002994 synthetic fiber Polymers 0.000 description 2
- 239000012209 synthetic fiber Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- RRHGJUQNOFWUDK-UHFFFAOYSA-N Isoprene Chemical compound CC(=C)C=C RRHGJUQNOFWUDK-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 244000145845 chattering Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 239000012784 inorganic fiber Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229920000126 latex Polymers 0.000 description 1
- 230000000384 rearing effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Prostheses (AREA)
Description
本発明は、動作判別装置及び動作判別プログラムに関し、特に、人の動作をアシストするアシスト装具の制御に好適な動作判別装置及び動作判別プログラムに関する。 The present invention relates to a motion discrimination device and a motion discrimination program, and in particular to a motion discrimination device and a motion discrimination program suitable for controlling an assist device that assists human motion.
近年、特許文献1に示すような、空気圧人工筋肉を用いた可変粘弾性特性を有するアシスト装置が提案されている。人間は、筋肉の粘弾性を変えながら運動を行っていることが知られている。特許文献1に示すアシスト装置では、人間の関節駆動原理である可変粘弾性特性に基づいて動作するように構成されているため、人との親和性が高い。また、アシスト力の発生において粘性と弾性が可変になることでバックドライブに必要なトルクを小さくでき、高バックドライバブルで様々な動作をアシストすることができる。
In recent years, an assist device with variable viscoelastic properties using pneumatic artificial muscles has been proposed, as shown in
その一方で、アシスト装置を動作させるためには、装着者の動作を判別し、その動作に応じたアシスト力を出力する必要がある。装着者の動作を判別する方法には、例えば、装着者の筋電位を用いたもの、加速度センサを用いたもの、ZMP(ゼロモーメントポイント)を用いたもの等が知られている。
筋電位を用いたものは、筋電位が電気信号であるため、装着者の動作の意図をリアルタイムで検出できる。一方で、ノイズが大きいことと、筋電位計を装着者に張り付付ける手間が生じるという問題がある。また、加速度センサを用いたものは、センサの数が少数で済み、センサーから出力されるノイズも比較的小さい。しかし、前述の筋電位計のようなリアルタイム性がなく、アシスト装具には不向きである。
また、ZMPを用いたものは、足裏に設けた床反力センサから装着者のZMPを計測するものである。ZMP(ゼロモーメントポイント(英語: zero moment point)とは、二足歩行ロボットの軌道生成法と制御法において、重力だけでなく慣性力を加えた合力が路面と交わる点をいう。しかし、新たに足裏にセンサを設ける必要があり、システムが複雑化するという問題がある。
そこで、本発明は、上記問題点を解決すべく、アシスト装置の動作の判別においてノイズが少なく、装着時の手間を省力化するとともにリアルタイム性に優れた動作判別装置及び動作判別プログラムを提供することを目的とする。
On the other hand, in order to operate the assist device, it is necessary to determine the movement of the wearer and output an assist force according to the movement. Known methods for determining the movement of the wearer include, for example, a method using the wearer's myoelectric potential, a method using an acceleration sensor, a method using ZMP (zero moment point), and the like.
Since myoelectric potential is an electrical signal, devices that use myoelectric potential can detect the wearer's intended movement in real time. However, there are problems with the large amount of noise and the time required to attach the electromyograph to the wearer. Devices that use acceleration sensors require only a small number of sensors, and the noise output from the sensors is relatively small. However, they do not have the real-time capability of the aforementioned electromyograph, and are therefore unsuitable for assistive devices.
In the case of ZMP-based systems, the ZMP of the wearer is measured using floor reaction force sensors attached to the soles of the feet. The ZMP (zero moment point) is the point where the combined force of gravity and inertia intersects with the road surface in the trajectory generation and control methods for bipedal robots. However, this requires the installation of additional sensors on the soles of the feet, which makes the system more complicated.
Therefore, in order to solve the above problems, the present invention aims to provide a motion discrimination device and a motion discrimination program that have less noise when discriminating the motion of an assist device, reduce the effort required for wearing, and have excellent real-time performance.
上記課題を解決するための動作判別装置の構成として、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、第1装具及び第2装具間に、相対的な回転力を生じさせる人工筋肉と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置、或いは、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置、若しくは、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、第1装具及び第2装具間に、相対的な回転力を生じさせる人工筋肉と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置等を装着した人の動作を判別する動作判別装置であって、特徴量検出手段により検出された特徴量の時間変化を、あらかじめ設定された動作を判別するための閾値と比較し、人の動作を判別する比較判別手段を備え、前記比較判別手段は、体の重心の移動を伴わない動作と体の重心の移動を伴う動作とを判別するバランス状態判別手段と、脚を交互に動かしているかどうかについて判別する脚動作判別手段と、脚が整列状態にあるかどうかを判別する脚整列状態判別手段と、座位と立位を判別する座位立位判別手段とを含み、前記脚動作判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚を交互に動かしているかどうかについて判別し、前記脚整列状態判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚が整列状態にあるかどうかを判別し、座位立位判別手段は、前記前記脚整列状態判別手段で判別された動作に基づいて座位と立位を判別する構成とした。
本構成によれば、動作の判別においてノイズが少なく、装着時の手間やリアルタイム性を損なうことなく、人の動作をより簡便に判別することができる。
また、動作判別装置の構成として、前記特徴量検出手段が、前記第1装具及び前記第2装具を装着した人が動こうとしたときに、前記第1装具又は前記第2装具と人との間に生じる相互反力を検出するようにしても良い。
上記課題を解決するための動作判別プログラムの態様として、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、第1装具及び第2装具間に、相対的な回転力を生じさせる人工筋肉と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置、或いは、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置、若しくは、関節を介して接続される人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具と、電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して第1装具と第2装具とを回転可能に連結する連結体と、第1装具及び第2装具間に、相対的な回転力を生じさせる人工筋肉と、人の動作が第1装具及び第2装具に及ぼす影響を特徴量として検出する特徴量検出手段とを備えたアシスト装置等を装着した人の動作を判別する動作判別プログラムであって、特徴量検出手段により検出された特徴量の時間変化を、動作を判別するためにあらかじめ設定された閾値と比較し、体の重心の移動を伴わない動作と、体の重心の移動を伴う動作とを判別する第1のステップと、脚を交互に動かしているかどうかについて判別する第2のステップと、脚が整列状態にあるかどうかを判別する第3のステップと、座位と立位を判別する第4のステップと、をコンピュータに実行させ、前記第2のステップは、前記第1のステップの判別結果に基づいて脚を交互に動かしているかどうかについて判別し、前記第3のステップは、前記第1のステップの判別結果に基づいて脚が整列状態にあるかどうかを判別し、前記第4のステップは、前記第3のステップの判別結果に基づいて座位と立位を判別するようにした。
本態様によれば、動作の判別においてノイズが少なく、装着時の手間やリアルタイム性を損なうことなく、人の動作をより簡便に判別することができる。
また、特徴量は、前記第1装具及び前記第2装具を装着した人が動こうとしたときに、前記第1装具及び前記第2装具と人との間に生じる相互反力で合ったりしても良い。
As a configuration of a motion discrimination device for solving the above problems, there is provided an assist device including a first orthosis attached to one part of a person connected via a joint, a second orthosis attached to the other part, a connector that rotatably connects the first orthosis and the second orthosis in response to the motion of the person's joint, an artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis, and a feature detection means that detects the effect of the person's motion on the first orthosis and the second orthosis as a feature, or an assist device including a first orthosis attached to one part of a person connected via a joint, a second orthosis attached to the other part, and an electric a connector in which the viscosity of a functional fluid changes based on an electrical signal, making the rotational resistance variable, and rotatably connecting a first orthosis and a second orthosis in response to the movement of the joints of the person; and a feature detection means for detecting the effect of the movement of the person on the first orthosis and the second orthosis as a feature. Alternatively, the assist device includes a first orthosis worn on one part of a person connected via a joint, and a second orthosis worn on the other part of the person, and the viscosity of a functional fluid changes based on an electrical signal, making the rotational resistance variable, and rotatably connecting the first orthosis and the second orthosis in response to the movement of the joints of the person. A motion discrimination device for discriminating motion of a person wearing an assist device or the like, the assist device or the like including an artificial muscle that generates a relative rotational force between a connecting body, a first orthosis, and a feature detection means that detects the effect of the motion of the person on the first orthosis and the second orthosis as a feature, the motion discrimination device including a comparison discrimination means that compares a time change in the feature detected by the feature detection means with a threshold value for discriminating motions that is set in advance, and discriminates the motion of the person, the comparison discrimination means including a balance state discrimination means that discriminates between motions that do not involve a movement of the body's center of gravity and motions that involve a movement of the body's center of gravity, and a balance state discrimination means that discriminates between motions that do not involve a movement of the body's center of gravity and motions that involve a movement of the body's center of gravity. The balance state determination means determines whether the legs are moving alternately based on the movement determined by the balance state determination means, the leg alignment state determination means determines whether the legs are aligned based on the movement determined by the balance state determination means, and the sitting/standing position determination means determines whether the position is sitting or standing based on the movement determined by the leg alignment state determination means.
According to this configuration, there is less noise in distinguishing movements, and human movements can be distinguished more easily without the hassle of wearing the device or impairing real-time performance.
In addition, the motion discrimination device may be configured so that the feature detection means detects a mutual reaction force generated between the first or second equipment and a person when a person wearing the first or second equipment attempts to move .
As an embodiment of the motion discrimination program for solving the above problem, there is provided an assist device including a first orthosis attached to one part of a person connected via a joint, a second orthosis attached to the other part, a connector that rotatably connects the first orthosis and the second orthosis in response to the motion of the person's joint, artificial muscles that generate a relative rotational force between the first orthosis and the second orthosis, and a feature detection means that detects the effect of the person's motion on the first orthosis and the second orthosis as a feature, or a motion discrimination program including the first orthosis attached to one part of a person connected via a joint, and a second orthosis attached to the other part. an assist device including a second orthosis to be worn, a connector in which the viscosity of a functional fluid changes based on an electrical signal to make the rotational resistance variable and which rotatably connects the first orthosis and the second orthosis in response to the motion of the joint of the person, and a feature amount detection means for detecting the effect of the motion of the person on the first orthosis and the second orthosis as a feature amount; or a first orthosis to be worn on one part of the person connected via a joint, and a second orthosis to be worn on the other part of the person, and a connector in which the viscosity of a functional fluid changes based on an electrical signal to make the rotational resistance variable and which rotatably connects the first orthosis and the second orthosis in response to the motion of the joint of the person. a connecting body that rotatably connects the first orthosis and the second orthosis, an artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis, and a feature detection means that detects the effect of the person's movement on the first orthosis and the second orthosis as a feature, the motion discrimination program discriminating between a motion of a person wearing an assist device or the like, the assist device or the like comprising: a connecting body that rotatably connects the first orthosis and the second orthosis; an artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis; and a feature detection means that detects the effect of the person's movement on the first orthosis and the second orthosis as a feature. The motion discrimination program causes a computer to execute a first step of comparing a time change in the feature detected by the feature detection means with a threshold value that is set in advance for discriminating between motions, and a first step of discriminating between motions that do not involve movement of the body's center of gravity and motions that involve movement of the body's center of gravity, a second step of discriminating whether the legs are moving alternately, a third step of discriminating whether the legs are aligned, and a fourth step of discriminating between a sitting position and a standing position, the second step of discriminating whether the legs are moving alternately based on the discrimination result of the first step, the third step of discriminating whether the legs are aligned based on the discrimination result of the first step, and the fourth step of discriminating between a sitting position and a standing position based on the discrimination result of the third step .
According to this aspect, there is less noise in distinguishing movements, and human movements can be distinguished more easily without the hassle of wearing the device or compromising real-time performance.
In addition, the feature may be a mutual reaction force generated between the first and second equipment and the person when a person wearing the first and second equipment attempts to move .
以下、発明の実施形態を通じて本発明を詳説するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明される特徴の組み合わせのすべてが発明の解決手段に必須であるとは限らず、選択的に採用される構成を含むものである。 The present invention will be described in detail below through the embodiments of the invention, but the following embodiments do not limit the invention as claimed, and not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention, but include configurations that are selectively adopted.
図1は、本実施形態に係る動作判別方法の適用に好適なアシスト装置の一実施形態の構成図である。図1に示すアシスト装置は、座位からの立ち上がり、立位姿勢、立位姿勢から座位への立ち下がりや歩行などの人の動作を支援可能ないわゆる外骨格型の支援ロボットであって、概略、人の動作に対して補助力を生じさせる動作補助部4と、動作補助部4の動作を制御する制御部8とを備える。
Figure 1 is a configuration diagram of one embodiment of an assist device suitable for application of the motion discrimination method according to the present embodiment. The assist device shown in Figure 1 is a so-called exoskeleton type assist robot that can assist human motions such as standing up from a sitting position, standing up from a standing position to a sitting position, and walking, and generally comprises a
外骨格型とは、人体における骨格をアシストの動作において構造的要素として利用せずに、人体に装着されることにより、人体における骨と骨のつながりを1つのリンク機構とみなしたときに、それと同様の動作を独立して動作して関節における屈伸動作をするものをいう。 An exoskeleton is one that is attached to the human body and does not use the human skeleton as a structural element in the assisting motion. When the connections between the bones in the human body are considered to be a single link mechanism, the device independently moves in a similar manner to the bones, performing bending and stretching movements at the joints.
動作補助部4は、前述の外骨格を形成するように体の左右の外側側部に沿ってそれぞれ装着される。各動作補助部4は、フレーム2、人工筋肉40、ワイヤ46、プーリー44と、角度センサ48とを備える。
The
フレーム2は、体の左右の外側側部に沿って、腰部に固定される腰フレーム24と、大腿部に固定される大腿フレーム20と、下腿部に固定される下腿フレーム22とを備える。腰フレーム24及び大腿フレーム20、大腿フレーム20及び下腿フレーム22は、それぞれ互いに回転可能に連結体42を介して連結される。
即ち、腰フレーム24及び大腿フレーム20は、人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具に相当し、大腿フレーム20及び下腿フレーム22は、人の一方の部位に装着される第1装具と、他方の部位に装着される第2装具に相当する。腰フレーム24、大腿フレーム20及び下腿フレーム22は、それぞれ剛体により構成される。
The
That is, the
大腿フレーム20は、例えば、体の外側側部に沿って太ももの付け根から膝関節まで延長するように長さが設定され、腰部側の端部、及び足末側の端部のそれぞれに連結体42が取り付けられ、腰フレーム24及び下腿フレーム22と連結される。
The length of the
連結体42:42は、ちょうど大腿骨の腰部側の関節、足末側の関節に対応するように、大腿フレーム20に取り付けられる。即ち、腰を曲げたときに腰フレーム24と大腿フレーム20とが連結体42により回転可能に、また、膝を曲げたときに大腿フレーム20と下腿フレーム22とが連結体42により回転可能に構成される。
Connector 42: 42 is attached to the
大腿フレーム20を基準とすると、腰フレーム24は、腰関節から体の外側側部に沿って人体の前後方向後方に向けて延長する。下腿フレーム22は、膝関節から下腿部の外側側部に沿って延長する。下腿フレーム22の足末側には、足裏に向けて延長する足裏プレート22Aが設けられている。
腰フレーム24、大腿フレーム20及び下腿フレーム22は、下腿フレーム22に設けられた足裏プレート22Aを足裏で踏み付けた状態で、固定ベルト3等を人に巻きつけることで固定される。固定ベルト3は、例えば、非伸縮性の帯状のものが好ましく、より好ましくは、該固定ベルト3の延長方向の端部に固定手段として機能する面ファスナー、また、人体との緩衝を測るように人に巻き付けられる側の面に、図外のクッション材等を備えると良い。
Using the
The
図2は、連結体42の外観斜視図及び断面図である。
連結体42には、例えば、回転運動を許容する概略円柱状に形成されたMRブレーキが適用される。図2に示すように、MRブレーキは、有底円筒状に形成されたケース60の中央に設けられた収容部62に、該ケース60に対して回転可能に収容されたコア64を備える。収容部62は、一側面から筒状に窪む凹部として形成される。収容部62には、コア64が貫通する貫通孔を有する平板円環状のディスク63が軸方向に重ねるように複数配置される。各ディスク63は、円筒面62aに回転不能に取り付けられる。
コア64は、収容部62の内部に挿入される軸部64Aと、収容部62の開口を閉塞するように設けられる円板部64Bとを備える。コア64は、軸部64Aの先端側がケース60に対して回転自在に取り付けられる。軸部64Aの外周には、コイル66が設けられる。さらに、コイル66の外周には複数の平板円環状のディスク68が回転不能に取り付けられる。各ディスク68は、収容部62側に設けられたディスク63と交互に配置される。
FIG. 2 is an external perspective view and a cross-sectional view of the
For example, an MR brake formed in a generally cylindrical shape that allows rotational movement is applied to the connecting
The
コア64が収容されたケース60の収容部62の空間には、磁性流体69が封入される。MRブレーキは、コイル66に電圧が印加されていない状態では、ケース60に対してコア64が自在に回転し、コイル66に電圧が印加された状態では、コイル66により生じる磁場が磁性流体に影響を及ぼし、ケース60側のディスク63とコア64側のディスク68との相対的な回転に抵抗を生じさせることでコア64の自在な回転に制動を与え、コイル66に許容される最大電圧を印加することで、磁性流体が固化してケース60とコア64とが一体化して回転する。
MRブレーキは、磁気粘性流体を利用したデバイスであって、内部に封入された磁気粘性流体への磁場の印加により10ms程度の応答速度で摩擦係数を変化させることができるように構成される。つまり、MRブレーキは、上述のように、応答速度が数十ミリ秒と高く、また、高出力、バックドライバブルという特徴を有する。
各連結体42は、後述の動作制御装置84と接続され、動作制御装置84から入力される調整された電圧(信号)に基づいて、ケース60に対するコア64の回転抵抗が可変に動作する。
A
The MR brake is a device that uses a magnetorheological fluid and is configured to be able to change the coefficient of friction with a response speed of about 10 ms by applying a magnetic field to the magnetorheological fluid sealed inside. In other words, as described above, the MR brake has the characteristics of a high response speed of several tens of milliseconds, high output, and backdrivability.
Each connecting
図4は、連結体42により連結されたフレーム24;20;22の連結状態を示す図である。
このように動作する連結体42は、例えば、図4に示すように、ケース60が固定され、コア64が腰フレーム24に大腿フレーム20に固定されることにより、腰の屈伸動作に合わせて、腰フレーム24及び大腿フレーム20が屈伸する一つのリンク機構、また、ケース60が大腿フレーム20に固定され、コア64が下腿フレーム22に固定されることにより、膝の屈伸動作に合わせて大腿フレーム20及び下腿フレーム22が屈伸する一つのリンク機構を構成する。
FIG. 4 is a diagram showing the connected state of the
The connecting
なお、連結体42のおけるケース60及びコア64が腰フレーム24、大腿フレーム20、下腿フレーム22に取り付けられる関係については限定されない。
また、連結体42は、MRブレーキに限定されない。連結体42は、前述のように動作するものであれば、例えば、電気的な信号に基づいて粘性が変化する機能性流体が封入されたERブレーキ等を用いても良い。
The relationship in which the
Furthermore, the connecting
腰フレーム24には、腰フレーム24に対して大腿フレーム20を回転させるための駆動機構5、大腿フレーム20には、腰フレーム24に対して大腿フレーム20を回転させるための駆動機構がそれぞれ設けられる。
The
、下腿フレーム22には、駆動機構5を構成し、アシスト力を大腿フレーム20及び下腿フレーム22に作用させるためのプーリー44が固定される。プーリー44は、大腿フレーム20、下腿フレーム22において中心が連結体42の回転軸と同軸上に位置するように取り付けられる。
A
図1に示すように、駆動機構5は、人工筋肉40と、バネ41と、ワイヤ46とを備える。駆動機構5は、腰フレーム24の上体側に設けられた駆動機構取付部25、及び、大腿フレーム20の上体側に設けられた駆動機構取付部21に取り付けられる。
As shown in FIG. 1, the
図3は、人工筋肉40の構成を示す図である。図3(a)に示すように、人工筋肉40は、外観視において、円筒状に形成され、流体の給排により軸方向に伸縮可能なアクチュエータである。
Figure 3 is a diagram showing the configuration of
このような人工筋肉40には、例えば、図3に示すように構成された軸方向繊維強化型人工筋肉を適用することができる。軸方向繊維強化型人工筋肉は、例えば天然のラテックスゴムからなる円筒体50にカーボン繊維シート52を内挿した構成である。カーボン繊維シート52は、複数のカーボン繊維51が円筒体50の軸方向に沿って配向されており、円筒体50の軸方向への伸長を拘束する。円筒体50は、両端が端子部材53A;53Bにより閉塞され、円筒体50の内周側に気室56が形成される。一方の端子部材53Aには、気室56に連通する空気流通口55が設けられ、後述の空気給排装置80から延長するチューブが接続可能に構成される。また、円筒体50の外周には、複数のリング54が軸方向に均等な間隔で設けられている。
For example, an axial fiber-reinforced artificial muscle configured as shown in FIG. 3 can be used as such an
そして、人工筋肉40は、空気流通口55に空気を供給することにより図3(b)に示すように、リング54に区画された複数の瘤を有するように半径方向に膨張するとともに、カーボン繊維シート52の拘束力によって軸方向に収縮して牽引力を生じさせる。また、気室56内の空気を排気することによって図3(a)に示すように、自然長に復帰(伸長)するように動作する。
なお、人工筋肉40は、上述の軸方向繊維強化型人工筋肉に限定されず、マッキベン型であっても良い。
3(b) by supplying air to the
The
バネ41は、所謂コイルスプリングであって、人工筋肉40と並進するように駆動機構取付部21;25に一端が取り付けられる。バネ41の他端には、人工筋肉40の他端に取り付けられたワイヤ46の端部が、プーリーを44を経由して接続される。
ワイヤ46は、プーリー44にたるみなく架けられ、拮抗配置された人工筋肉40及びバネ41を連結する。これにより、バネ41は、人工筋肉40の収縮による牽引力に抵抗を付与する。なお、バネ41に代えて、人工筋肉40と同様の人工筋肉を拮抗配置させても良い。
The
The
ワイヤ46は、金属製、或いは有機繊維を撚り合わせた化繊のものであっても良い。ワイヤ46は、張力が付加されたときに伸長性の少ない素材のものが好ましい。また、耐久性を考慮した場合、金属製や非金属性の無機繊維のもが好ましく、重量の観点からは、有機繊維を撚り合わせた化繊のものが好ましい。
The
したがって、駆動機構5は、人工筋肉40を収縮させることで、プーリー44に巻き付けられたワイヤ46がバネ41を牽引することで、プーリー44を従動的に回転させる。腰フレーム24に取り付けられる駆動機構5は、図1に示すように、バネ41が前側、人工筋肉40が後側となるように腰フレーム24に取り付けられ、大腿フレーム20に取り付けられる駆動機構5は、バネ41が前側、人工筋肉40が後側となるように大腿フレーム20に取り付けられる。
プーリー44の回転に伴ない、腰フレーム24に対して大腿フレーム20がプーリー44と共に回転して、腰の屈伸動作のアシスト、大腿フレーム20に対して下腿フレーム22がプーリー44と共に回転して屈伸動作のアシストが可能となる。即ち、人工筋肉40の収縮は、腰フレーム24に対する大腿フレーム20の回転力を付与し、大腿フレーム20に対する下腿フレーム22の回転力を付与する。
また、ワイヤ46及びプーリー46は、それぞれワイヤ46をタイミングベルト、プーリー44をタイミングプーリーに代えても良い。タイミングベルト及びタイミングベルトとすることにより、人工筋肉40が収縮したときの腰フレーム24に対する大腿フレーム20の回転力、大腿フレーム20に対する下腿フレーム22の回転力を無駄なく伝達することができる。
Therefore, when the
As the
Furthermore, the
このような構成の人工筋肉40を用いることによりアクチュエータを軽量化することができると共に、立ち上がり動作に応じたアシスト力の変化を得ることができる。人工筋肉40には、収縮ストロークに対する出力特性(牽引力)が、収縮初期に大きく、収縮末期に向けて徐々に小さくなるという特性がある。この特性は、人の立ち上がり動作では、動作初期には大きな力が必要とされ、立ち上がり動作の進行に伴ない必要とされる力が徐々に小さくなるという人の特性にちょうど対応しており、アシスト力を得るための動力源(駆動力発生手段)として好ましい。また、人工筋肉40の内部に供給される流体の圧力を調整することにより、牽引力を変化させることができるとともに、弾性素材で構成されるため柔軟性を有するため、人の筋肉に近い駆動力を得ることができ、その軽量さにより装着時の人への負担を軽減できる。なお、以下の説明では、軸方向の伸張及び収縮によって人工筋肉40の動作状態を示す。
By using an
図1に示すように、制御部8は、回転角度を検出する角度センサ48A;48Bと、人工筋肉40に圧縮空気を給気、人工筋肉40から圧縮空気を排気するための空気給排装置80と、空気給排装置80の動作(人工筋肉40への圧縮空気の供給及び人工筋肉40からの圧縮空気の排気)、連結体42の動作等を制御する動作制御装置84と、人の動作を判別する動作判別装置86と、を備える。
As shown in FIG. 1, the
角度センサ48A;48Bは、本実施形態に係る特徴量検出手段であって、腰フレーム24に対する大腿フレーム20の回転角度、及び大腿フレーム20に対する下腿フレーム22の回転角度を検出可能に動作補助部4に設けられる。角度センサ48A;48Bは、例えば、エンコーダ等により構成され、検出した回転角度を動作制御装置84及び動作判別装置86に出力する。
なお、各駆動機構5の配置は、上記形態に限定されず、関節に対応して設けられたプーリー44を従動的に回転可能であれば良く、腰フレーム24及び大腿フレーム20に代えて、例えば、腰フレーム24と下腿フレーム22、或いは、大腿フレーム20と下腿フレーム22に取り付けても良く、適宜変更可能である。
The
The arrangement of each
空気給排装置80は、例えば、動作制御装置84から出力される信号に基づいて、人工筋肉40内の流体の圧力を制御する。具体的には、各人工筋肉40の気室56の圧力が、動作制御装置84において設定された圧力となるように、各人工筋肉40の気室56内の空気の供給及び排出を制御する。例えば、空気給排装置80の一部の機能を構成する人工筋肉40の圧力を計測するための圧力センサ及び人工筋肉40への空気の給排を制御する空圧弁が各駆動機構5に設けられている。
The air supply and
動作制御装置84は、いわゆるコンピュータであって、ハードウェア資源として設けられたCPU等の演算処理手段、ROM,RAM等の記憶手段、ユーザーの手動操作により操作される操作パネルやスイッチ等の入力手段が接続される入力インターフェースを備える。
The
動作制御装置84は、人工筋肉制御部と、MRブレーキ制御部とを備え、記憶手段には、人工筋肉40及びMRブレーキからなる連結体42の駆動を制御するためのプログラムや目標値設定データが格納される。演算処理手段が、記憶手段に格納されたプログラムに従って各処理を実行することにより、該動作制御装置84を人工筋肉制御部やMRブレーキ制御部等として機能させる。
The
指令値設定データは、アシスト動作において人工筋肉40及び連結体42を動作させるための指令値を設定するためのデータであって、アシストの対象となる動作毎に設定される。以下で説明する指令値設定データは、膝関節の屈伸動作をアシストすることを目的として作成されたものである。目標値設定データは、目標剛性データ(単に剛性データともいう)と、目標粘性データ(単に粘性データともいう)とを含んで構成される。
The command value setting data is data for setting command values for operating the
人の関節の動作における人の粘弾性制御についての知見として、粘弾性は、運動の負荷トルクに比例することが知られている。特に、運動の起伏時(開始段階)には、拮抗筋の活動レベルを低下させて粘弾性を低下させ、運動の停止時(停止段階)には、拮抗筋と主導筋の同時活動により粘弾性を増加させることが知られている。そこで、アシスト動作における目標剛性値及び目標粘性値が人の動作における関節のトルクの増減に応じて増減するように設定した。例えば、トルクτに比例し、かつ運動の停止時にのみ高めるように設定する。なお、運動の停止時は、人の関節の動作において、関節の角速度と角加速度が異符号のときに判定することができる。 It is known from knowledge about human viscoelasticity control in human joint movements that viscoelasticity is proportional to the load torque of the movement. In particular, it is known that when the movement begins and ends (starting stage), the activity level of the antagonist muscles is lowered to reduce viscoelasticity, and when the movement stops (stopping stage), the viscoelasticity is increased by simultaneous activity of the antagonist and activating muscles. Therefore, the target stiffness value and target viscosity value in the assist operation are set to increase and decrease according to the increase or decrease in the torque of the joint in the human movement. For example, they are set to be proportional to the torque τ and to increase only when the movement stops. The stop of the movement can be determined when the angular velocity and angular acceleration of the joint have opposite signs in the movement of the human joint.
動作制御装置84は、角度センサ48により計測された角度、及び上記指令値データに基づいて、人工筋肉40内の圧力を制御するための信号、及び連結体42に出力する電圧値を信号として出力する。
The
上記構成の駆動機構5によれば、人工筋肉40に空気を供給することにより、バネ41を牽引しながらワイヤ46が移動してプーリー44を回転させる。プーリー44の回転により、大腿フレーム20が腰フレーム24に対して回転し、下腿フレーム22が大腿フレーム20に対して回転する。そして、人工筋肉40に供給する空気量或いは空気圧を調整することで、腰フレーム24に対する大腿フレーム20の回転角度θ、大腿フレーム20に対する下腿フレーム22の回転角度θを制御することができる。
さらに、プーリー44の回転時に連結体42に電圧を印加することで、プーリー44の回転に抵抗を生じさせることができる。即ち、人工筋肉40の駆動に、粘性力を生じさせるアクチュエータであり、粘性力付与手段として機能する。
According to the
Furthermore, by applying a voltage to the
動作判別装置86は、いわゆるコンピュータであって、ハードウェア資源として設けられたCPU等の演算処理手段、ROM,RAM等の記憶手段、ユーザーの手動操作により操作される操作パネルやスイッチ等の入力手段が接続される入力インターフェースを備え、人の動作を判別するための動作判別手段として機能する。記憶手段には、動作判別装置86を後述の各手段として機能させるためのプログラムが記憶されるとともに、プログラムの実行により人の動作を判別するための特徴量と比較するための閾値が記憶される。
The
動作判別装置86は、動作補助部4に設けられた角度センサ48に基づいて、装着者の動作を判別する。本実施形態では、角度センサ48について、股関節の角度を検出する角度センサを48A、膝関節の角度を検出する角度センサを48Bとして区別して説明する。また、以下の説明では、股関節に対応して設けられ角度センサ48Aにより検出される角度を腰の関節角度と言う場合がある。
角度センサ48Aにより検出された股関節の角度をθH、角度センサ48Bにより検出された膝関節の角度をθKとして示し、その角速度をθ′H、θ′Kとして示す。さらに、角度センサ48A;48Bの左右を区別するために、体の右側に設けられた角度センサにはR、左側に設けられた角度センサにはLを付した。即ち、股関節の角度をθHR、θHL、膝関節の角度をθKR、θKLとし、それらの角速度には「′」を付した。
動作判別装置86により判別される動作は、説明を簡単にするため、歩行、立ち上がり/立ち下がり、脚を前後に開いたままの立位(以降、脚を開いたまま立位)、座位、立位の5つとした。
The
The hip joint angle detected by
For ease of explanation, the movements that are discriminated by the
バランス状態判別手段86Aは、人の動作における特徴である静的バランスの取れた動作(Statically Balanced Motion 以降、SBM)と、動的バランスの取れた動作(Dynamically Ballanced Motion、以降、DBM)とを判別する。SBMとは、体の重心の移動を伴わない動作のことで、座位、立位や手を伸ばしたまま立位などが挙げられる。DBMとは、体の重心の移動を伴う動作のことで、歩行や立ち上がり、走行などが挙げられる。 The balance state discrimination means 86A discriminates between statically balanced motion (hereinafter, SBM), which is a characteristic of human movement, and dynamically balanced motion (hereinafter, DBM). SBM refers to motion that does not involve movement of the body's center of gravity, such as sitting, standing, and standing with arms outstretched. DBM refers to motion that involves movement of the body's center of gravity, such as walking, standing, and running.
バランス状態判別手段86Aでは、動作補助部4の脚の付け根に対応して設けられた角度センサ48AL及び48ARにより検出された股関節の角度θHの時間変化である角速度θ′Hを、閾値θ′Hthreと比較することで、SBMとDBMを判別する。
バランス状態判別手段86Aにおける具体的な処理としては、角度センサ48AL及び48ARから動作判別装置86に逐次入力される角度θHの変化から股関節の運動状態を示す角速度θ′Hを算出し、SBMとDBMを判別するために設定された閾値θ′Hthreを記憶手段から読み出して比較し、例えば、θ′H>θ′HthreであればYesとしてDBM、θ′H≦θ′HthreであればNoとしてSBMと判別する。
The balance state determination means 86A distinguishes between SBM and DBM by comparing the angular velocity θ'H , which is the time change in the hip joint angle θH detected by the angle sensors 48A1L and 48A1R provided corresponding to the base of the leg of the action-
The specific processing in the balance state discrimination means 86A involves calculating an angular velocity θ'H indicating the movement state of the hip joint from changes in the angle θH successively input to the
脚動作判別手段86Bは、脚を交互に動かしているかどうかについて判別する。
人が歩行しているときには、左右の脚が、交互に体の前後方向に移動する。そこで、脚動作判別手段86Bでは、歩行時の特徴である左右大腿部の動きに基づいて、脚を交互に動かしているかどうかを判別する。
脚動作判別手段86Bにおける具体的な処理としては、同時刻に角度センサ48AL及び48ARにより検出された左右の股関節の角度θHL;角度θHRの時間変化である角速度θ′HL;θ′HRを算出し、算出された角速度θ′HL;θ′HRの積を算出する。そして、算出された数値の正負を判定し、負値のとき(角速度θ′HL>0かつθ′HR<0、または、θ′HL<0かつθ′HR>0)には歩行、正値のとき(角速度θ′HL>0かつθ′HR>0、または、θ′HL<0かつθ′HR<0)には、両脚を揃えて動いていることになるため、立ち上がり/立ち下がりと判別する。
即ち、検出された股関節の角速度θ′HL>0かつθ′HR<0、または、θ′HL<0かつθ′HR>0を満たしているかどうかについて判定し、満たしている場合には、Yesとなり、歩行と判別される。満たしていなければNoとなり、立ち上がり/立ち下がりと判別する。
The leg movement determining means 86B determines whether the legs are moving alternately.
When a person is walking, the left and right legs move alternately in the front-rear direction of the body. Therefore, the leg movement determination means 86B determines whether the legs are moving alternately based on the movement of the left and right thighs, which is a characteristic of walking.
Specifically, the leg action discrimination means 86B calculates angular velocities θ'HL and θ'HR , which are the time changes of angles θHL and θHR of the left and right hip joints detected by the angle sensors 48AL and 48AR at the same time, and calculates the product of the calculated angular velocities θ'HL and θ'HR. It then judges whether the calculated numerical value is positive or negative, and determines whether the value is negative (angular velocities θ'HL > 0 and θ'HR < 0, or θ'HL < 0 and θ'HR > 0) as walking, and whether the value is positive (angular velocities θ'HL > 0 and θ'HR > 0, or θ'HL < 0 and θ'HR < 0) as both legs are moving together, and determines whether the action is standing up or falling down.
That is, it is determined whether the detected hip joint angular velocity θ′HL >0 and θ′HR <0, or θ′HL <0 and θ′HR >0 is satisfied, and if so, the answer is Yes and the motion is determined as walking. If not, the answer is No and the motion is determined as standing up/falling down.
前述のバランス状態判別手段86A及び脚動作判別手段86Bによれば、歩行と立ち上がり/立ち下がりを判別することができる。脚整列状態判別手段86Cは、バランス状態判別手段86AにおいてSBMと判別されたときに、脚が整列状態にあるかどうか、換言すれば脚が揃えられた状態にないかどうか判別することで、脚を開いたまま立位か、座位若しくは立位かを判別する。脚整列状態判別手段86Cでは、SBM状態における特徴である左右の脚の下腿部の動きに基づいて、脚が整列状態にあるかどうかを判別する。
脚整列状態判別手段86Cにおける具体的な処理としては、角度センサ48BL及び48BRにより検出された左右の膝関節の角度差δθdiff=|θKR-θKL|を算出し、脚の開脚状態を判別するために設定された閾値δθdiffthreを記憶手段から読み出して比較し、閾値δθdiffthreよりもδθdiffが大きいときにはYesとして足を揃えていないと判別し、閾値δθdiffthreよりもδθdiff以下のときにはNoとして足を揃えていると判別する。即ち、検出された左右の膝関節の角度差をδθdiff=|θKR-θKL|とし、δθdiffが閾値よりも大きければ、大きく前後に脚を開いている脚を開いたまま立位と判別し、δθdiffが閾値以下であれば、立位或いは座位であると判別されることになる。
The balance state determination means 86A and leg movement determination means 86B described above can distinguish between walking and standing up/falling down. When the balance state determination means 86A determines SBM, the leg alignment determination means 86C determines whether the legs are aligned, in other words, whether the legs are not aligned, and thus determines whether the person is standing with the legs apart, sitting, or standing. The leg alignment determination means 86C determines whether the legs are aligned based on the movement of the lower legs of the left and right legs, which is a characteristic of the SBM state.
As a specific process in the leg alignment state discrimination means 86C, the angle difference δθ diff =|θ KR -θ KL | between the left and right knee joints detected by the
座位立位判別手段86Dは、座位と立位を判別する。図5(a),(b)は、実際にモーションキャプチャーにより取得した左右の股関節及び膝関節の角度の変化を示すグラフである。座位時のθHR、θHL、θKR、θKLは、立位と歩行時のそれらよりも大きい特徴的な値となっている。したがって、股関節の角度θHR、θHL及び膝関節の角度θKR、θKLに対して、座位を判別するための閾値θHthre,θKthreを設定し、比較することで座位と立位とを判別できる。
座位立位判別手段86Dにおける具体的な処理としては、角度センサ48AL及び48ARにより検出された左右の股関節の角度θHL,θHRの両方をそれぞれ閾値θHthreと比較するとともに、角度センサ48BL及び48BRにより検出された左右の膝関節の角度θKL,θKRの両方をそれぞれ閾値θKthreと比較し、左右の股関節の角度θHL,θHRが、θHL>θHthre、θHR>θHthre、左右の膝関節の角度θKL,θKRが、θKL>θKthre、θKR>θKthre、であるときに、座位と判別し、それ以外は、立位と判別する。
なお、以下の説明では、各手段により判別された動作の信号を判別シグナルという。
The sitting/standing discrimination means 86D discriminates between sitting and standing. Figures 5(a) and 5(b) are graphs showing changes in the angles of the left and right hip joints and knee joints actually obtained by motion capture. The values of θ HR , θ HL , θ KR , and θ KL when sitting are characteristically larger than those when standing and walking. Therefore, threshold values θ Hthre and θ Kthre for discriminating between sitting and standing are set for the hip joint angles θ HR and θ HL and the knee joint angles θ KR and θ KL , and the sitting and standing positions can be discriminated by comparing the values.
The specific processing in the sitting/standing position discrimination means 86D involves comparing both the left and right hip joint angles θHL , θHR detected by
In the following description, the signal representing the operation determined by each means will be referred to as a determination signal.
図6は、本実施形態に係る動作判別装置86による処理(フローチャート)を示す図である。動作判別装置86では、角度センサ48AL;48BL及び48AR;48BRから入力される角度、及び角度の時間変化に基づいて以下の処理を実行する。
S101:足が動いているかどうか、即ち、SBMかDBMかどうかを判別する。
具体的には、股関節の角速度θ′Hと、股関節の角速度θ′Hの閾値θ′Hthreとを比較し、股関節の角速度θ′Hが閾値θ′Hthreよりも大きい(θH>θHthre)とき(Yesの場合)には、脚が動いている、即ちDBMの状態にあると判別し、S102に移行する。また、股関節の角速度θ′Hが、閾値θ′Hthre以下(θH≦θHthre)のとき(Noの場合)には、脚が動いていない、即ちSBMの状態にあると判別し、S103に移行する。
6 is a diagram showing a process (flowchart) of the
S101: Determine whether the legs are moving, i.e., whether the patient is in SBM or DBM.
Specifically, the hip joint angular velocity θ'H is compared with a threshold θ'Hthre for the hip joint angular velocity θ'H , and if the hip joint angular velocity θ'H is greater than the threshold θ'Hthre ( θH > θHthre ) (Yes), it is determined that the leg is moving, i.e., the user is in DBM, and the process proceeds to S102. If the hip joint angular velocity θ'H is equal to or less than the threshold θ'Hthre ( θH ≦ θHthre ) (No), it is determined that the leg is not moving, i.e., the user is in SBM, and the process proceeds to S103.
S102:脚を交互に動かしているかどうかを判別する。
具体的には、左股関節の角速度θ′HLの向きと、右股関節の角速度θ′HRの向きとを比較し、左股関節の角速度θ′HLと右股関節の角速度θ′HRの向きが逆(θ′HL>0かつθ′HR<0、または、θ′HL<0かつθ′HR>0)の条件を満たしているかどうかを調べ、満たしているとき(Yesの場合)には、歩行として判別する。また、満たしていないとき(Noの場合)には、両脚をそろえて動いていることとなるため、立ち上がり/立ち下がりとして判別する。
S102: It is determined whether the legs are moving alternately.
Specifically, the direction of the angular velocity θ'HL of the left hip joint is compared with the direction of the angular velocity θ'HR of the right hip joint to check whether the angular velocity θ'HL of the left hip joint and the angular velocity θ'HR of the right hip joint are in opposite directions ( θ'HL >0 and θ'HR <0, or θ'HL <0 and θ'HR >0).If this condition is met (Yes), it is determined that the person is walking.If this condition is not met (No), it is determined that the person is standing up/falling down because both legs are moving together.
S103:脚を揃えていないかどうか、即ち、SBMにおける動作状態を判別する。
具体的には、左右の股関節の角度の差δθdiff=|θKR-θKL|を算出し、δθdiffが、脚を揃えていないかどうかを判別するための閾値δθdiffthreよりも大きいとき(Yesの場合)には、脚を大きく前後に脚を開いた状態にあるものとし、脚を開いたまま立位として判別する。また、δθdiffが、閾値δθdiffthre以下のとき(Noの場合)には、脚をそろえていると判別し、S104に移行する。
S103: Determine whether the legs are not together, that is, the operating state in the SBM.
Specifically, the difference between the angles of the left and right hip joints δθ diff =|θ KR -θ KL | is calculated, and if δθ diff is greater than a threshold value δθ diffthre for determining whether the legs are not together (Yes), the legs are determined to be widely apart and the person is determined to be standing with the legs apart. On the other hand, if δθ diff is equal to or less than the threshold value δθ diffthre (No), the legs are determined to be together and the process proceeds to S104.
S104:股関節及び膝関節の角度に基づいて座位と立位とを判別する。
具体的には、股関節の角度θHR及びθHLを座位時の角度を判別するための閾値として設定された閾値θHthreと比較、膝関節の角度θKR及びθKLを座位時の膝の角度を判別するための閾値として設定された閾値θKthreとそれぞれ比較し、股関節の角度θHR及びθHL、及び、膝関節の角度θKR及びθKLが、それぞれに設定された閾値θHthre及び角度閾値θKthreより大きいとき(Yesの場合)には、座位として判別する。また、股関節の角度θHR及びθHL、及び、膝関節の角度θKR及びθKLが、それぞれに設定された閾値θHthre及び閾値θKthre以下のとき(Noの場合)には、立位として判別する。
そして、判別された結果は、判別シグナルとして動作制御装置84に出力される。
S104: The sitting position and the standing position are determined based on the angles of the hip joint and the knee joint.
Specifically, the hip joint angles θ HR and θ HL are compared with a threshold value θ Hthre set as a threshold value for determining angles in a sitting position, and the knee joint angles θ KR and θ KL are compared with a threshold value θ Kthre set as a threshold value for determining angles in a sitting position, and if the hip joint angles θ HR and θ HL and the knee joint angles θ KR and θ KL are greater than the respective threshold values θ Hthre and angle threshold value θ Kthre (Yes), the position is determined as sitting. If the hip joint angles θ HR and θ HL and the knee joint angles θ KR and θ KL are equal to or smaller than the respective threshold values θ Hthre and threshold value θ Kthre (No), the position is determined as standing.
The result of the discrimination is then output to the
前述の動作判別アルゴリズムに基づいて、モーションキャプチャーによって得た人間の動作を適用し、動作が判別できるかをシミュレーションにより検証した。
シミュレーションによる検証にあたり、動作判別のシミュレーションの入力として必要なデータをモーションキャプチャーにより測定する事前実験を行った。
必要なデータとは、人間の動作時における股関節の角度θHR、θHL、及び膝関節の角度θKR、θKLである。
Based on the above-mentioned motion discrimination algorithm, human movements obtained through motion capture were applied, and simulations were conducted to verify whether the movements could be discriminated.
To verify the simulation, a preliminary experiment was conducted to measure the data necessary as input for the motion discrimination simulation using motion capture.
The necessary data are the hip joint angles θ HR and θ HL and the knee joint angles θ KR and θ KL during human motion.
また、モーションキャプチャーによる測定では、人の動作の移り変わりによる影響を調べるために、次の3つの動作を行った。
1つ目の動作は、歩行(動作1)。
2つ目の動作は、2秒間座位を維持、2秒かけて立ち上がり、2秒間立位を維持、最後に歩行を行う(動作2)。
3つめの動作は、2秒間立位を維持、1秒かけて立ち下がり、2秒間座位を維持する(動作3)。
これらの動作を被験者4名に各7回行い、比較的ノイズの少ないデータをシミュレーションに用いた。なお、被験者4名の体型を纏めた表を図7に示す。
In addition, in the motion capture measurements, the following three movements were performed to investigate the effects of transitions in human movements:
The first movement is walking (movement 1).
The second movement involves maintaining a sitting position for 2 seconds, standing up for 2 seconds, maintaining a standing position for 2 seconds, and finally walking (movement 2).
The third movement involves maintaining a standing position for two seconds, standing up over one second, and then maintaining a sitting position for two seconds (movement 3).
These movements were performed seven times by each of the four subjects, and data with relatively little noise was used for the simulation. Figure 7 shows a table summarizing the body types of the four subjects.
動作1については、モーションキャプチャカメラ(フレームレート100fps)で動作を記録する。床にはフォースプレートを並べ、被験者の足裏に働く反力やモーメントを計測する。計測データは、A/D変換器を通して測定用PCに記録した。
For
動作2,3については、被験者の膝角度が90degとなるような椅子を用意し、その上にフォースプレートを乗せる。モーションキャプチャカメラは、動作1と同様の配置である。被験者の各体節の骨格特徴点上にマーカを26点貼り、モーションキャプチャカメラで計測した。
For
以上の環境で計測されたデータに基づき、nMotion(ナックイメージテクノロジー株式会社)を用いて筋骨格シミュレーションを行い、ここから得られた関節角度データをシミュレーションに用いた。なお、シミュレーションには、Matlab/Simulink(Mathworks.Inc)を用い、入力には、事前の実験で計測した3つの動作における被験者のθHR、θHL、θKR、θKLのデータを用いる。なお、サンプリング時間は、10msとした。 Based on the data measured in the above environment, a musculoskeletal simulation was performed using nMotion (Nac Image Technology Co., Ltd.), and the joint angle data obtained from this were used in the simulation. The simulation was performed using Matlab/Simulink (Mathworks.Inc.), and the data of the subject's θ HR , θ HL , θ KR , and θ KL in three movements measured in a previous experiment were used as input. The sampling time was 10 ms.
なお、シミュレーションによる判別率は、以下の式(4.1)のように定義する。
tjudge/tmotion[%] 式(4.1)
ここで、tjudge[s]は、特定動作に対応した判別シグナルを出力している時間で、tmotion[s]は、実際に計測したい動作をしている時間である。
また、本シミュレーションで用いた関節角度・角速度の閾値には、各動作における各被験者の関節角度の最小値を用いる。
The discrimination rate by the simulation is defined as in the following formula (4.1).
t judge / t motion [%] Equation (4.1)
Here, t judge [s] is the time during which a discrimination signal corresponding to a specific motion is output, and t motion [s] is the time during which the motion to be measured is actually being performed.
In addition, the threshold values of the joint angles and angular velocities used in this simulation were the minimum values of the joint angles of each subject during each movement.
図8は、シミュレーションによって得た判別シグナルの結果をもとに計算した判別率の結果である。図9は、アルゴリズムによって出力された判別シグナルの結果である。なお、図9に示す結果は、全被験者におけるシミュレーション結果の傾向が同様であったため、代表として被験者Aの結果のみを示した。 Figure 8 shows the discrimination rate calculated based on the discrimination signal results obtained by simulation. Figure 9 shows the discrimination signal results output by the algorithm. Note that the results shown in Figure 9 show only the results of subject A as a representative example, since the trends in the simulation results were similar for all subjects.
図8に示すように、動作1では、全被験者の判別率の平均が81.4%となった。また、図9(a)によれば、一定の周期ごとに判別シグナルは、「脚を開いたまま立位」となった。これは、角速度が閾値を下回ったためである。立脚期から遊脚期になる前後は、脚が地面を蹴り上げる必要があり、その際に関節の角速度が下がり、閾値を下回ったためと考えられる。
As shown in Figure 8, in
動作2では、座位や立位などのSBMのほうが、立ち上がりや歩行などのDBMよりも高い判別率となった。また、図9(b)によれば、座位や立位では、条件を満たし、適切な判別シグナルを出力している。一方で、立ち上がり時の途中で「座位」と判別されている。これは、次のことが原因であると考えられる。立ち上がる時に、重心が前方に移動するために、股関節を曲げる。その後、膝関節を進展させて立位となるが、この際に股関節の角速度が初期の重心移動時に比べて小さくなり、角速度の閾値を下回ったためと考えられる。なお、SBMにおいて判別率が100%とならなかったのは、計測時におけるマーカのずれが要因であると考えられる。そして歩行動作に移行してからは、動作1と同じ傾向を示し、同様に立脚期と遊脚期の入れ替わり時に歩行以外の判別をした。
In
また、動作3の立ち下がり時においても、図9(c)に示すように、動作2の立ち上がり時と同じような結果となった。また、SBMの方が、DBMよりも高い判別率となった。
以上の結果から上述の動作判別方法(アルゴリズム)を用いることで、SBM及びDBMの動作を判別することが確認され、その有用性も確認できた。
9C, the results for the fall of
From the above results, it was confirmed that the above-mentioned motion discrimination method (algorithm) can be used to discriminate between SBM and DBM motions, and its usefulness was also confirmed.
次に、実際のアシスト装具から入力される股関節及び膝関節の角度に基づいて、アルゴリズムについて検証した。
アシスト装具は、図1に示すものを用いた。可変粘弾性特性に基づいて制作されたものである。なお、複雑な要素を排除するために、粘性要素がないものとし、可変弾性特性により稼働するものとした。
Next, the algorithm was verified based on the hip and knee joint angles input from an actual assist device.
The assist device used was shown in Figure 1. It was made based on variable viscoelastic properties. In order to eliminate complex elements, it does not have any viscous elements and operates based on variable elastic properties.
図10、図11は、本実施形態に係るアルゴリズムのアシスト装具による実験条件及び実験方法を纏めたものである。具体的には、図10は、図1に示すアシスト装具を被験者に装着し、動作判別実験を行ったときのアルゴリズムである。図11は、図10に示す動作判別実験を行うときに設定したパラメータをまとめた表である。
[実験条件]
被験者は、オペレータの指示に従って次の各動作をそれぞれ5回ずつ行った。
1つ目の動作は、座位から始める歩行動作である。被験者は、オペレータの指示で座位から立ち上がり、次のオペレータの指示で歩行を開始する。歩行開始時は、右足から振り上げるように指示する。歩行範囲は5mとした。
2つ目の動作は、次のオペレータの指示で座位から立ち上がって立位、次のオペレータの指示で立ち下がって座位とする動作である。
被験者はオペレータの指示で座位から立ち上がり、立位状態になる。
なお、2つの動作実験において、被験者は動作の練習を15分行ってから実験を開始する。オペレータの指示は、任意に行われる。
動作タイミングの記録は、動作開始時に被験者がスイッチを押すことで行った。
なお、各駆動機構5には、人工筋肉40の圧力を計測するための圧力センサ及び人工筋肉40への空気の給排を制御する空圧弁が設けられている。圧力センサ、角度センサ48A;48Bからの信号は、A/D変換器を通して記録され、これらの信号に基づいて、動作補助部4の動作を制御する。空圧弁は、D/A変換器を通して操作される。
Fig. 10 and Fig. 11 summarize the experimental conditions and experimental method using the assisting orthosis of the algorithm according to this embodiment. Specifically, Fig. 10 shows an algorithm when a motion discrimination experiment was conducted with the assisting orthosis shown in Fig. 1 worn by a subject. Fig. 11 is a table summarizing the parameters set when conducting the motion discrimination experiment shown in Fig. 10.
[Experimental conditions]
The subject performed each of the following movements five times according to the operator's instructions.
The first movement is walking movement starting from a sitting position. The subject stands up from the sitting position at the instruction of the operator, and starts walking at the next instruction of the operator. When starting to walk, the subject is instructed to swing up the right foot. The walking range was set to 5 m.
The second action is to stand up from the sitting position at the command of the next operator and to stand up again at the command of the next operator and to sit down again.
At the operator's instruction, the subject stood up from the seated position and assumed a standing position.
In the two motion experiments, the subjects practiced the motion for 15 minutes before starting the experiment. The operator gave instructions at his/her discretion.
The timing of movements was recorded by having the subject press a switch when the movement began.
Each
続いて成功率を評価する。
被験者は、指示されたタイミングで動作を開始する。その際に被験者の動作と同じ動作がアルゴリズムで判別され、装具がその動作をすれば「成功」と判定する。その際に異なる動作や、動作しなかった場合には「失敗」とする。各動作において、(成功した回数)/(全試行回数)を成功率として評価した。
なお、関節角度・角速度の閾値は、準備実験よりあらかじめ設定した。
The success rate is then assessed.
The subject begins the movement at the specified timing. The algorithm determines whether the movement is the same as the subject's, and if the prosthesis performs that movement, it is judged as a "success." If the movement is different or if the prosthesis does not perform the movement, it is judged as a "failure." For each movement, the success rate was evaluated as (number of successful attempts)/(total number of attempts).
The thresholds for the joint angles and angular velocities were set in advance through preliminary experiments.
本実験で用いるアルゴリズムは、図6で示したものとほぼ同じとした。ほぼ同じとは、先の説明において立ち上がり/立ち下がりとを区別したが、本実験では、立ち上がりと立ち下がりとを区別していない点でほぼ同じと記載した。
本実験でのアルゴリズムでは、立ち上がり/立ち下がりをせずに、前後の動作の判別結果に基づいてを立ち上がりと立ち下がりとを区別するようにした。
具体的には、アルゴリズムにより「立ち上がり/立ち下がり」と判別されたときに、その直前の動作が「座位」として判別されている場合には、その動作は「立ち上がり」と判別し、その直前の動作が「立位」として判別されている場合には、「立ち下がり」として判別する。
The algorithm used in this experiment was almost the same as that shown in Fig. 6. The term "almost the same" means that, while in the previous explanation, a distinction was made between rising and falling edges, in this experiment, the rising and falling edges were not distinguished.
In the algorithm used in this experiment, instead of detecting rising and falling edges, a distinction was made between rising and falling edges based on the results of discrimination between previous and following movements.
Specifically, when the algorithm determines that an action is "standing up/falling," if the action immediately prior to that is determined as "sitting," the action is determined as "standing up," and if the action immediately prior to that is determined as "standing," the action is determined as "falling."
さらに、動作確認実験において、動作が遷移する際に、動作判別結果がチャタリングを起こした。そのため、動作が遷移した直後は、しばらくその動作を続けるようなアルゴリズムに修正した。修正したアルゴリズムを図10に示す。
各動作を続ける時間をtsit[s]、tstanding[s]、tsitting[s]、tstance[s]、tstance_wio[s]、tgait[s]として示す。
これらの時間は、動作確認実験において設定した。図11に本アルゴリズム(プログラム)で使うパラメータの値を纏めて示す。
Furthermore, in the motion verification experiment, chattering occurred in the motion discrimination results when the motion transitioned. Therefore, the algorithm was modified so that the motion would continue for a while immediately after the motion transition. The modified algorithm is shown in Figure 10.
The duration of each action is denoted as t sit [s], t standing [s], t sitting [s], t stance [s], t stance_wio [s], and t gait [s].
These times were set in an experiment to confirm the operation. Figure 11 shows the parameter values used in this algorithm (program).
実験結果
以下に、歩行動作、立ち上がり動作の2つの実験結果について説明する。
歩行動作の実験結果と考察
図12(a),(b),(c)は、本実験での判別シグナルの結果を示す。また、図12(d)の表に成功率を示す。
本実験におけるシグナルの結果は、3つのパターンに大別される。
パターン1:歩行
パターン2:歩行中に立ち下がりの信号
パターン3:歩行中に立位の信号
、である。
Experimental Results The results of two experiments, walking and standing up, are explained below.
12(a), (b), and (c) show the results of the discrimination signals in this experiment. The table in Fig. 12(d) shows the success rate.
The signal results in this experiment can be broadly divided into three patterns.
Pattern 1: walking, Pattern 2: falling signal while walking, Pattern 3: standing signal while walking.
パターン1(図12(a))において、被験者が歩行動作になったとき、図9(a)のように「歩行」と、「脚を開きながら立位」を周期的に繰り返している。これは、シミュレーションと同様の結果が得られた。 In pattern 1 (Fig. 12(a)), when the subject began to walk, he periodically repeated "walking" and "standing with legs apart" as shown in Fig. 9(a). This gave the same results as the simulation.
パターン2(図12(b))において、被験者が歩行動作になったとき、判別シグナルは「立ち下がり」となった。これは、脚を動かし始めたときに、被験者が腰を引いてしまい、装具が相対的に前かがみになった。そして、装具の両脚の角速度が同じ符号となったためと考えられる。即ち、脚を交互に動かしていない判別となり「立ち下がり」になったと考える。 In pattern 2 (Figure 12(b)), when the subject began to walk, the discrimination signal became "falling." This is thought to be because when the subject started to move his legs, he pulled his hips back, causing the brace to lean forward relatively. This resulted in the angular velocities of both legs of the brace having the same sign. In other words, it was determined that the legs were not moving alternately, resulting in a "falling" signal.
パターン3(図12(c))において、被験者が歩行動作になっても判別シグナルは、「立位」のままであった。これは、被験者が右脚を振り上げたものの、装具の被験者への密着度が低かった。そのため、被験者が動いているものの装具がその動きに追従できていなかった。したがって、関節角速度が閾値を下回り、SBMの判別をした。 In pattern 3 (Figure 12(c)), the discrimination signal remained in "standing position" even when the subject began to walk. This is because the subject raised his right leg, but the orthosis was not tightly attached to the subject. As a result, the orthosis was unable to follow the subject's movement even though he was moving. As a result, the joint angular velocity fell below the threshold, and SBM was discriminated.
立ち上がりの実験結果と考察
図13(a)(b)に立ち上がりの実験結果を示し、図13(c)に成功率を示す。歩行動作の実験と同様にパターンで分けられる。パターン1:成功パターン、パターン2:立ち上がり途中に立ち下がりである。
パターン1(図13(a))について、図10の直前の動作に基づいて「立ち上がり」と「立ち下がり」を判別するアルゴリズムが機能している。
パターン2(図13(b))において、「立ち上がり」の途中で「立ち下がり」になっている。これは、次のことが原因であると考える。被験者が立ち上がろうとすると、判別シグナルは「立ち上がり」になる。このとき、「立ち上がり」のプログラムが実行されるが、このプログラムが終わっても被験者はまだ立位になっていなかった。そのため、「立位」ではなく「立ち下がり」になった。
13(a) and (b) show the experimental results of standing up, and Fig. 13(c) shows the success rate. As with the walking experiment, the results are divided into patterns. Pattern 1: successful pattern, Pattern 2: falling in the middle of standing up.
For pattern 1 (FIG. 13(a)), an algorithm is in operation that distinguishes between a "rising edge" and a "falling edge" based on the immediately preceding operation in FIG.
In pattern 2 (Fig. 13(b)), the signal changes from "standing up" to "falling" in the middle of "standing up". This is thought to be due to the following reasons. When the subject tries to stand up, the discrimination signal becomes "standing up". At this time, the "standing up" program is executed, but the subject has not yet reached a standing position even after this program is finished. Therefore, the signal becomes "falling" instead of "standing up".
以上説明したように、上記動作判別アルゴリズムに基づいてモーションキャプチャで得られた人間の関節角度を用いて行ったシミュレーション、さらに、シミュレーション結果に基づき、実機での検証を行った結果、角度に基づいて人の動作の判別に有効との結果が得られた。 As explained above, a simulation was performed using human joint angles obtained by motion capture based on the above-mentioned movement discrimination algorithm, and verification was further performed on an actual device based on the simulation results, and the results showed that the method is effective in discriminating human movements based on angles.
なお、上記実施形態では、角度センサから出力される角度を特徴量として、角度及び角度の変化に基づいてアシスト装置の装着者の動作を判別するものとして説明したがこれに限定されない。
例えば、アシスト装具と装着者との間の相互反力に基づいて動作を判別することができる。
In the above embodiment, the angle output from the angle sensor is used as a feature, and the movement of the person wearing the assist device is determined based on the angle and the change in the angle, but this is not limited to this.
For example, a movement can be determined based on the mutual reaction force between the assist device and the wearer.
図14は、アシスト装具と装着者間に生じる相互反力の向きの定義を示している。
また、図15は、装具と装着者の間に生じる相互反力を用いて、装着者の動作を判別する動作判別アルゴリズムを示す。
本実施形態に係る動作判別方法は、装着者が動こうとする力に対して、装具に生じる反力を利用する。例えば,装具が「座位」姿勢をアシストしている場合、装着者が立ち上がろうとすると装具は装着者に引っ張られる。この特徴を利用することで本動作判別方法を構築することができる。
FIG. 14 shows the definition of the direction of the mutual reaction force generated between the assist orthosis and the wearer.
FIG. 15 shows a motion discrimination algorithm for discriminating the motion of the wearer using the mutual reaction force generated between the prosthesis and the wearer.
The motion discrimination method according to this embodiment utilizes the reaction force generated in the prosthesis against the force exerted by the wearer trying to move. For example, if the prosthesis is assisting a "sitting" posture, the wearer will pull the prosthesis when the wearer tries to stand up. This feature can be utilized to develop the motion discrimination method.
本動作判別方法においても、前述の間接の角度変化に基づくアルゴリズムと同様に、「立位」、「座位」、「立ち上がり」、「立ち下がり」、「歩行」の5つの動作を想定して示す。
図14に示すように、腰部に設けた力センサが出力する力をFw、股部に設けた力センサが出力する力を右(Right),左(Left)の添え字をつけてFh_R,Fh_Lとする。
In this movement discrimination method, as in the above-mentioned algorithm based on changes in joint angles, five movements are assumed: "standing", "sitting", "standing up", "standing down", and "walking".
As shown in FIG. 14, the force output by the force sensor provided on the waist is Fw, and the forces output by the force sensor provided on the crotch are Fh_R and Fh_L with the subscripts Right and Left.
本動作判別方法は、最初に腰部の動きから判別を開始する。Fwがある閾値を超えたときに、装着者が腰を曲げようとしていると判別できることから、立位及び歩行と、それ以外の動作とに分けることができる。このときの閾値は、例えば装着者が動き始めてから装具がその動きに追従し始めるときに生じる反力をあらかじめ調べることで得る。 This motion discrimination method starts with discrimination from waist movement. When Fw exceeds a certain threshold, it can be determined that the wearer is attempting to bend his/her waist, and therefore motions can be distinguished between standing and walking and other motions. The threshold value at this time can be obtained, for example, by investigating in advance the reaction force that occurs when the wearer starts to move and the prosthesis starts to follow that movement.
まず、立位と歩行の判別について述べる。Fwがある閾値を超えずに、右足と左足の反力が正負交互になれば歩行と判別する。そうでなければどの箇所も反力がないため、立位と判別できる。 First, we will explain how to distinguish between standing and walking. If Fw does not exceed a certain threshold and the reaction forces of the right and left feet alternate between positive and negative, it is determined that the person is walking. If this is not the case, there is no reaction force in any part, so it can be determined that the person is standing.
次に、座位,立ち上がり,立ち下がりを判別する。
座位時に、上半身の一部と股の重さによって生じる股のセンサが出力する力をFh_sit_threとして閾値を設定すると、立ち上がり時には、センサは引っ張られる方向に力が働くため、Fh<Fh_sit_threである。また、立ち下がり時には、センサが圧縮される方向に力が働くため、Fh>Fh_sit_threとなる。そして、座位時にはFh=Fh_sit_threとなると考えることができる。
Next, the sitting, standing, and falling positions are discriminated.
If the force output by the crotch sensor caused by the weight of part of the upper body and the crotch when sitting is set as Fh_sit_thre, then when standing up, the force acts in the direction that pulls the sensor, so Fh<Fh_sit_thre. When standing down, the force acts in the direction that compresses the sensor, so Fh>Fh_sit_thre. It can be considered that when sitting, Fh=Fh_sit_thre.
図15は、前述した装具と装着者の間に生じる相互反力に基づく動作判別アルゴリズムを示すフローチャートである。 Figure 15 is a flowchart showing the motion discrimination algorithm based on the mutual reaction forces generated between the prosthesis and the wearer described above.
以上説明したように、人の動作に従動的に可動する動作補助部4に設けたセンサにより検出された情報を、人の動作の特徴に基づいて情報同士、或いは情報に対してあらかじめ設定した閾値とを比較することにより、人の動作を判別することができる。
そして、装具を制御する動作制御装置84に、動作判別装置86において判別された動作に対応する判別値(シグナル)を出力することにより、装具がアシスト動作やバックドライブ動作をするように、人工筋肉40及び連結体42を制御することができる。即ち、動作補助部4に取り付けたあらゆるセンサからの情報を、情報同士、或いは閾値と比較することで装着者の動作判別をすることができる。
As described above, the information detected by the sensor provided in the action-
Then, by outputting a discrimination value (signal) corresponding to the motion discriminated by the
なお、動作判別装置86は、動作制御装置84に含ませて構成しても良く、またその逆であっても良い。
The
また、上記実施形態では、人の下肢の動作をアシストするアシスト装置を用いて、本実施形態に係る動作判別装置86について説明したが、その部位は、下肢に限定されず、腕や手等の上肢の部位の動作の判別にも適用できる。
In the above embodiment, the
また、上記実施形態では、アシスト装置1が、人工筋肉40の動作と連結体42の機能により、アシスト力を人に作用させるものとして説明したが、上述の動作判別装置86が適用されるアシスト装置は、上述の人工筋肉40の動作と連結体42の機能により、アシスト力を人に作用させるものに限定されず、人工筋肉40のみによって人にアシスト力を作用させるものであったり、連結体42の機能によりアシスト力を作用させるものであっても良い。
In addition, in the above embodiment, the
1 アシスト装置、2 フレーム、3 固定ベルト、
4 動作補助部、5 駆動機構、8 制御部、
20 大腿フレーム、22 下腿フレーム、24 腰フレーム、40 人工筋肉、
41 バネ、42 連結体、44 プーリー、46 ワイヤ、48 角度センサ、
50 円筒体、51 カーボン繊維、53A 端子部材、56 気室、
60 ケース、64 コア、69 磁性流体、
80 空気給排装置、84 動作制御装置、86 動作判別装置、
86A バランス状態判別手段、86B 脚動作判別手段、
86C 脚整列状態判別手段、86D 座位立位判別手段。
1 Assist device, 2 Frame, 3 Fixation belt,
4 Operation assistant unit, 5 Drive mechanism, 8 Control unit,
20 thigh frame, 22 lower leg frame, 24 waist frame, 40 artificial muscle,
41 spring, 42 connector, 44 pulley, 46 wire, 48 angle sensor,
50 Cylinder, 51 Carbon fiber, 53A Terminal member, 56 Air chamber,
60 case, 64 core, 69 magnetic fluid,
80 Air supply/exhaust device, 84 Operation control device, 86 Operation determination device,
86A balance state determination means, 86B leg action determination means,
86C leg alignment state determination means, 86D sitting/standing position determination means.
Claims (10)
他方の部位に装着される第2装具と、
人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
前記第1装具及び前記第2装具間に、相対的な回転力を生じさせる人工筋肉と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別装置であって、
前記特徴量検出手段により検出された特徴量の時間変化を、あらかじめ設定された動作を判別するための閾値と比較し、人の動作を判別する比較判別手段を備え、
前記比較判別手段は、
体の重心の移動を伴わない動作と体の重心の移動を伴う動作とを判別するバランス状態判別手段と、
脚を交互に動かしているかどうかについて判別する脚動作判別手段と、
脚が整列状態にあるかどうかを判別する脚整列状態判別手段と、
座位と立位を判別する座位立位判別手段とを含み、
前記脚動作判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚を交互に動かしているかどうかについて判別し、
前記脚整列状態判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚が整列状態にあるかどうかを判別し、
座位立位判別手段は、前記前記脚整列状態判別手段で判別された動作に基づいて座位と立位を判別することにより人の動作を判別することを特徴とする動作判別装置。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
a connector that rotatably connects the first orthosis and the second orthosis in response to a movement of a human joint;
An artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis;
a feature amount detection means for detecting an effect of a person's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination device for discriminating a motion of a person wearing an assist device comprising:
a comparison and discrimination means for comparing a time change of the feature amount detected by the feature amount detection means with a preset threshold value for discriminating a motion, and discriminating a motion of a person ;
The comparison and determination means
a balance state determination means for determining whether a movement does not involve a movement of the center of gravity of the body or whether a movement involves a movement of the center of gravity of the body;
a leg movement determination means for determining whether the legs are moving alternately;
a leg alignment determining means for determining whether the legs are aligned;
A sitting/standing position discrimination means for discriminating between a sitting position and a standing position,
the leg movement determining means determines whether the legs are moving alternately based on the movement determined by the balance state determining means,
the leg alignment state determination means determines whether the legs are aligned based on the movement determined by the balance state determination means;
The motion discrimination device is characterized in that the sitting/standing discrimination means discriminates between a sitting position and a standing position based on the motion discriminated by the leg alignment state discrimination means, thereby discriminating the motion of the person .
他方の部位に装着される第2装具と、
電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別装置であって、
前記特徴量検出手段により検出された特徴量の時間変化を、あらかじめ設定された動作を判別するための閾値と比較し、人の動作を判別する比較判別手段を備え、
前記比較判別手段は、
体の重心の移動を伴わない動作と体の重心の移動を伴う動作とを判別するバランス状態判別手段と、
脚を交互に動かしているかどうかについて判別する脚動作判別手段と、
脚が整列状態にあるかどうかを判別する脚整列状態判別手段と、
座位と立位を判別する座位立位判別手段とを含み、
前記脚動作判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚を交互に動かしているかどうかについて判別し、
前記脚整列状態判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚が整列状態にあるかどうかを判別し、
座位立位判別手段は、前記前記脚整列状態判別手段で判別された動作に基づいて座位と立位を判別することにより人の動作を判別することを特徴とする動作判別装置。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
A connector in which the viscosity of a functional fluid is changed based on an electrical signal, and the rotational resistance is variable, and the connector rotatably connects the first orthosis and the second orthosis in response to the movement of a human joint ;
a feature amount detection means for detecting an effect of a person 's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination device for discriminating a motion of a person wearing an assist device comprising:
a comparison and discrimination means for comparing a time change of the feature amount detected by the feature amount detection means with a preset threshold value for discriminating a motion, and discriminating a motion of a person ;
The comparison and determination means
a balance state determination means for determining whether a movement does not involve a movement of the center of gravity of the body or whether a movement involves a movement of the center of gravity of the body;
a leg movement determination means for determining whether the legs are moving alternately;
a leg alignment determining means for determining whether the legs are aligned;
A sitting/standing position discrimination means for discriminating between a sitting position and a standing position,
the leg movement determining means determines whether the legs are moving alternately based on the movement determined by the balance state determining means,
the leg alignment state determination means determines whether the legs are aligned based on the movement determined by the balance state determination means;
The motion discrimination device is characterized in that the sitting/standing discrimination means discriminates between a sitting position and a standing position based on the motion discriminated by the leg alignment state discrimination means, thereby discriminating the motion of the person .
他方の部位に装着される第2装具と、
電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
前記第1装具及び前記第2装具間に、相対的な回転力を生じさせる人工筋肉と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別装置であって、
前記特徴量検出手段により検出された特徴量の時間変化を、あらかじめ設定された動作を判別するための閾値と比較し、人の動作を判別する比較判別手段を備え、
前記比較判別手段は、
体の重心の移動を伴わない動作と体の重心の移動を伴う動作とを判別するバランス状態判別手段と、
脚を交互に動かしているかどうかについて判別する脚動作判別手段と、
脚が整列状態にあるかどうかを判別する脚整列状態判別手段と、
座位と立位を判別する座位立位判別手段とを含み、
前記脚動作判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚を交互に動かしているかどうかについて判別し、
前記脚整列状態判別手段は、前記バランス状態判別手段で判別された動作に基づいて脚が整列状態にあるかどうかを判別し、
座位立位判別手段は、前記前記脚整列状態判別手段で判別された動作に基づいて座位と立位を判別することにより人の動作を判別することを特徴とする動作判別装置。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
A connector in which the viscosity of a functional fluid is changed based on an electrical signal, and the rotational resistance is variable, and the connector rotatably connects the first orthosis and the second orthosis in response to the movement of a human joint;
An artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis;
a feature amount detection means for detecting an effect of a person's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination device for discriminating a motion of a person wearing an assist device comprising:
a comparison and discrimination means for comparing a time change of the feature amount detected by the feature amount detection means with a preset threshold value for discriminating a motion, and discriminating a motion of a person ;
The comparison and determination means
a balance state determination means for determining whether a movement does not involve a movement of the center of gravity of the body or whether a movement involves a movement of the center of gravity of the body;
a leg movement determination means for determining whether the legs are moving alternately;
a leg alignment determining means for determining whether the legs are aligned;
A sitting/standing position discrimination means for discriminating between a sitting position and a standing position,
the leg movement determining means determines whether the legs are moving alternately based on the movement determined by the balance state determining means,
the leg alignment state determination means determines whether the legs are aligned based on the movement determined by the balance state determination means,
The motion discrimination device is characterized in that the sitting/standing discrimination means discriminates between a sitting position and a standing position based on the motion discriminated by the leg alignment state discrimination means, thereby discriminating the motion of the person .
他方の部位に装着される第2装具と、
電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別プログラムであって、
前記特徴量検出手段により検出された特徴量の時間変化を、動作を判別するためにあらかじめ設定された閾値と比較し、
体の重心の移動を伴わない動作と、体の重心の移動を伴う動作とを判別する第1のステップと、
脚を交互に動かしているかどうかについて判別する第2のステップと、
脚が整列状態にあるかどうかを判別する第3のステップと、
座位と立位を判別する第4のステップと、をコンピュータに実行させ、
前記第2のステップは、前記第1のステップの判別結果に基づいて脚を交互に動かしているかどうかについて判別し、
前記第3のステップは、前記第1のステップの判別結果に基づいて脚が整列状態にあるかどうかを判別し、
前記第4のステップは、前記第3のステップの判別結果に基づいて座位と立位を判別することを特徴とする動作判別プログラム。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
A connector in which the viscosity of a functional fluid is changed based on an electrical signal, and the rotational resistance is variable, and the connector rotatably connects the first orthosis and the second orthosis in response to the movement of a human joint;
a feature amount detection means for detecting an effect of a person's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination program for discriminating a motion of a person wearing an assist device comprising:
comparing the time change of the feature amount detected by the feature amount detection means with a preset threshold value for determining an action;
A first step of distinguishing between a motion that does not involve a movement of the center of gravity of the body and a motion that involves a movement of the center of gravity of the body;
a second step of determining whether the legs are alternating;
a third step of determining whether the legs are aligned;
and a fourth step of distinguishing between a sitting position and a standing position .
the second step determining whether the legs are moving alternately based on the determination result of the first step;
the third step is to determine whether the legs are aligned based on the result of the first step;
The fourth step is to distinguish between a sitting position and a standing position based on the discrimination result of the third step .
他方の部位に装着される第2装具と、
人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
前記第1装具及び前記第2装具間に、相対的な回転力を生じさせる人工筋肉と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別プログラムであって、
前記特徴量検出手段により検出された特徴量の時間変化を、動作を判別するためにあらかじめ設定された閾値と比較し、
体の重心の移動を伴わない動作と、体の重心の移動を伴う動作とを判別する第1のステップと、
脚を交互に動かしているかどうかについて判別する第2のステップと、
脚が整列状態にあるかどうかを判別する第3のステップと、
座位と立位を判別する第4のステップと、をコンピュータに実行させ、
前記第2のステップは、前記第1のステップの判別結果に基づいて脚を交互に動かしているかどうかについて判別し、
前記第3のステップは、前記第1のステップの判別結果に基づいて脚が整列状態にあるかどうかを判別し、
前記第4のステップは、前記第3のステップの判別結果に基づいて座位と立位を判別することを特徴とする動作判別プログラム。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
a connector that rotatably connects the first orthosis and the second orthosis in response to a movement of a human joint;
An artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis;
a feature amount detection means for detecting an effect of a person's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination program for discriminating a motion of a person wearing an assist device comprising:
comparing the time change of the feature amount detected by the feature amount detection means with a preset threshold value for determining an action;
A first step of distinguishing between a motion that does not involve a movement of the center of gravity of the body and a motion that involves a movement of the center of gravity of the body;
a second step of determining whether the legs are alternating;
a third step of determining whether the legs are aligned;
and a fourth step of distinguishing between a sitting position and a standing position .
the second step determining whether the user is moving the legs alternately based on the determination result of the first step;
the third step is to determine whether the legs are aligned based on the determination result of the first step;
The fourth step is to distinguish between a sitting position and a standing position based on the discrimination result of the third step .
他方の部位に装着される第2装具と、
電気的な信号に基づいて機能性流体の粘性が変化し、回転抵抗が可変に構成され、人の関節の動作に追従して前記第1装具と前記第2装具とを回転可能に連結する連結体と、
前記第1装具及び前記第2装具間に、相対的な回転力を生じさせる人工筋肉と、
人の動作が前記第1装具及び前記第2装具に及ぼす影響を特徴量として検出する特徴量検出手段と、
を備えたアシスト装置を装着した人の動作を判別する動作判別プログラムであって、
前記特徴量検出手段により検出された特徴量の時間変化を、動作を判別するためにあらかじめ設定された閾値と比較し、
体の重心の移動を伴わない動作と、体の重心の移動を伴う動作とを判別する第1のステップと、
脚を交互に動かしているかどうかについて判別する第2のステップと、
脚が整列状態にあるかどうかを判別する第3のステップと、
座位と立位を判別する第4のステップと、をコンピュータに実行させ、
前記第2のステップは、前記第1のステップの判別結果に基づいて脚を交互に動かしているかどうかについて判別し、
前記第3のステップは、前記第1のステップの判別結果に基づいて脚が整列状態にあるかどうかを判別し、
前記第4のステップは、前記第3のステップの判別結果に基づいて座位と立位を判別することを特徴とする動作判別プログラム。 A first orthosis attached to one part of a person connected via a joint;
A second device attached to the other part; and
A connector in which the viscosity of a functional fluid is changed based on an electrical signal, and the rotational resistance is variable, and the connector rotatably connects the first orthosis and the second orthosis in response to the movement of the joint of the person;
An artificial muscle that generates a relative rotational force between the first orthosis and the second orthosis;
a feature amount detection means for detecting an effect of a person's movement on the first orthosis and the second orthosis as a feature amount;
A motion discrimination program for discriminating a motion of a person wearing an assist device comprising:
comparing the time change of the feature amount detected by the feature amount detection means with a preset threshold value for determining an action;
A first step of distinguishing between a motion that does not involve a movement of the center of gravity of the body and a motion that involves a movement of the center of gravity of the body;
a second step of determining whether the legs are alternating;
a third step of determining whether the legs are aligned;
and a fourth step of distinguishing between a sitting position and a standing position .
the second step determining whether the user is moving the legs alternately based on the determination result of the first step;
the third step is to determine whether the legs are aligned based on the determination result of the first step;
The fourth step is to distinguish between a sitting position and a standing position based on the discrimination result of the third step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024340A JP7474466B2 (en) | 2020-02-17 | 2020-02-17 | Motion discrimination device and motion discrimination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024340A JP7474466B2 (en) | 2020-02-17 | 2020-02-17 | Motion discrimination device and motion discrimination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021126446A JP2021126446A (en) | 2021-09-02 |
JP7474466B2 true JP7474466B2 (en) | 2024-04-25 |
Family
ID=77487396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020024340A Active JP7474466B2 (en) | 2020-02-17 | 2020-02-17 | Motion discrimination device and motion discrimination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7474466B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115105270B (en) * | 2022-08-29 | 2022-11-11 | 深圳市心流科技有限公司 | Dynamic adjustment method for myoelectricity matching threshold of intelligent artificial limb |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005230099A (en) | 2004-02-17 | 2005-09-02 | Yoshiyuki Yamaumi | Wearable action supporting apparatus, controlling method of drive source in wearable action supporting apparatus, and program |
JP2011147556A (en) | 2010-01-20 | 2011-08-04 | Toyota Motor Corp | Movement support device |
WO2018034128A1 (en) | 2016-08-17 | 2018-02-22 | パワーアシストインターナショナル株式会社 | Wearable assistance robot device |
JP2018050950A (en) | 2016-09-28 | 2018-04-05 | トヨタ自動車株式会社 | Walking auxiliary device and control method thereof |
JP2018102755A (en) | 2016-12-27 | 2018-07-05 | 本田技研工業株式会社 | Motion assisting device |
JP2019126668A (en) | 2018-01-26 | 2019-08-01 | 学校法人 中央大学 | Control method of assist device, and assist device |
JP2019141954A (en) | 2018-02-20 | 2019-08-29 | パワーアシストインターナショナル株式会社 | Wearable type posture holding device |
-
2020
- 2020-02-17 JP JP2020024340A patent/JP7474466B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005230099A (en) | 2004-02-17 | 2005-09-02 | Yoshiyuki Yamaumi | Wearable action supporting apparatus, controlling method of drive source in wearable action supporting apparatus, and program |
JP2011147556A (en) | 2010-01-20 | 2011-08-04 | Toyota Motor Corp | Movement support device |
WO2018034128A1 (en) | 2016-08-17 | 2018-02-22 | パワーアシストインターナショナル株式会社 | Wearable assistance robot device |
JP2018050950A (en) | 2016-09-28 | 2018-04-05 | トヨタ自動車株式会社 | Walking auxiliary device and control method thereof |
JP2018102755A (en) | 2016-12-27 | 2018-07-05 | 本田技研工業株式会社 | Motion assisting device |
JP2019126668A (en) | 2018-01-26 | 2019-08-01 | 学校法人 中央大学 | Control method of assist device, and assist device |
JP2019141954A (en) | 2018-02-20 | 2019-08-29 | パワーアシストインターナショナル株式会社 | Wearable type posture holding device |
Also Published As
Publication number | Publication date |
---|---|
JP2021126446A (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7362159B2 (en) | Flexible wearable muscle assist device | |
CN111263626B (en) | Exoskeleton fitting degree evaluation system and method | |
JP5802131B2 (en) | Method for controlling exercise assist device, walking assist device and rehabilitation method | |
US9198821B2 (en) | Lower extremity exoskeleton for gait retraining | |
Yan et al. | Review of assistive strategies in powered lower-limb orthoses and exoskeletons | |
KR102452632B1 (en) | A motion assist apparatus and a control method thereof | |
Veneman et al. | Design and evaluation of the LOPES exoskeleton robot for interactive gait rehabilitation | |
Gordon et al. | Mechanical performance of artificial pneumatic muscles to power an ankle–foot orthosis | |
KR101204540B1 (en) | Motion assistance apparatus and method of assisting motion | |
JP4168242B2 (en) | Rehabilitation support device | |
WO2013086035A1 (en) | Orthopedic lower body exoskeleton for control of pelvic obliquity during gait over-ground | |
Moltedo et al. | Walking with a powered ankle-foot orthosis: the effects of actuation timing and stiffness level on healthy users | |
JP2021536329A (en) | Wearable active auxiliary device | |
JP2013070787A (en) | Walking support device | |
Eilenberg et al. | Development and evaluation of a powered artificial gastrocnemius for transtibial amputee gait | |
WO2021116721A1 (en) | Motion assistance device | |
JP7474466B2 (en) | Motion discrimination device and motion discrimination program | |
Kong et al. | Control of an exoskeleton for realization of aquatic therapy effects | |
Pei et al. | Trajectory planning of a robot for lower limb rehabilitation | |
Berkelman et al. | Passive orthosis linkage for locomotor rehabilitation | |
US20220023134A1 (en) | Device and method for assisting with mobilizing a joint | |
Iyer et al. | Development and applicability of a cable-driven wearable adaptive rehabilitation suit (WeARS) | |
Kim et al. | Real-time gait phase detection and estimation of gait speed and ground slope for a robotic knee orthosis | |
Cao et al. | A sit-to-stand trainer system in lower limb rehabilitation | |
Shorter | The design and control of active ankle-foot orthoses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7474466 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |