[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6322984B2 - Attitude estimation apparatus, method and program - Google Patents

Attitude estimation apparatus, method and program Download PDF

Info

Publication number
JP6322984B2
JP6322984B2 JP2013253374A JP2013253374A JP6322984B2 JP 6322984 B2 JP6322984 B2 JP 6322984B2 JP 2013253374 A JP2013253374 A JP 2013253374A JP 2013253374 A JP2013253374 A JP 2013253374A JP 6322984 B2 JP6322984 B2 JP 6322984B2
Authority
JP
Japan
Prior art keywords
state
subject
transition
axis
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013253374A
Other languages
Japanese (ja)
Other versions
JP2015109915A (en
Inventor
霓 張
霓 張
一穂 前田
一穂 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013253374A priority Critical patent/JP6322984B2/en
Publication of JP2015109915A publication Critical patent/JP2015109915A/en
Application granted granted Critical
Publication of JP6322984B2 publication Critical patent/JP6322984B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、姿勢推定装置、方法及びプログラムに関する。   The present invention relates to an attitude estimation apparatus, method, and program.

高齢者、リハビリ中の患者など(以下、「対象者」とも言う)の自立生活を支援する1つの方法として、対象者の日常の行動パターンを検知する方法がある。行動パターンには、例えば起立、着座、横臥、歩行、転倒するなどの姿勢が含まれる。対象者の行動パターンにおける姿勢、或いは、歩行から転倒するといった姿勢の遷移を検知することで、対象者の健康状態に関係のある情報を抽出することができる。   One method for supporting the independent life of elderly people, rehabilitating patients, etc. (hereinafter also referred to as “subjects”) is to detect the daily behavior patterns of the subject. The behavior pattern includes postures such as standing, sitting, lying down, walking, and falling. Information related to the health condition of the subject can be extracted by detecting the posture transition in the behavior pattern of the subject or falling from walking.

対象者の姿勢は、例えば複数の加速度センサを対象者に装着することで検知可能である。しかし、対象者の体の複数箇所に加速度センサを装着したのでは、姿勢を検知する装置の構成が複雑化し、対象者への負荷が増加してしまうので、日常生活に支障が生じる可能性がある。一方、加速度センサの数を減らすと、加速度センサの出力から各姿勢を識別することが難しくなるので、対象者の姿勢推定精度が低下する可能性がある。   The posture of the subject can be detected by mounting a plurality of acceleration sensors on the subject, for example. However, if acceleration sensors are installed at multiple locations on the subject's body, the configuration of the device that detects the posture becomes complicated and the load on the subject increases, which may cause problems in daily life. is there. On the other hand, if the number of acceleration sensors is reduced, it becomes difficult to identify each posture from the output of the acceleration sensor, so that the posture estimation accuracy of the subject may be lowered.

また、加速度センサの出力から例えば座るから立つへの遷移を検知するのに用いる閾値は、対象者の身長などに応じて異なるため、対象者毎に閾値を設定しないと姿勢の誤検知 が生じる可能性がある(例えば、特許文献1,2及び非特許文献1)。   In addition, the threshold used to detect the transition from the output of the acceleration sensor to, for example, sitting to standing differs depending on the height of the target person, so if the threshold value is not set for each target person, false detection of posture may occur. (For example, Patent Documents 1 and 2 and Non-Patent Document 1).

一方、姿勢推定用の学習モデルを作成しておき、加速度センサの出力を学習モデルに当てはめることで対象者の姿勢を推定する方法が提案されている(例えば、非特許文献2)。しかし、1つの学習モデルを全ての対象者に適用したのでは、姿勢推定精度が低下する可能性がある。また、各対象者毎に専用の学習モデルを作成するのでは、学習モデルの作成に時間がかかると共に、コストが増大してしまう。さらに、学習モデルを用いた姿勢推定では、リアルタイムで対象者の姿勢を推定することは難しい。   On the other hand, a method for estimating a posture of a subject by creating a learning model for posture estimation and applying the output of an acceleration sensor to the learning model has been proposed (for example, Non-Patent Document 2). However, if one learning model is applied to all subjects, posture estimation accuracy may be reduced. In addition, if a dedicated learning model is created for each target person, it takes time to create a learning model and costs increase. Furthermore, with posture estimation using a learning model, it is difficult to estimate the posture of the subject in real time.

特開2005−245709号公報JP 2005-245709 A 特開2010−125239号公報JP 2010-125239 A

倉沢 央 他、「センサー装着場所を考慮した3軸加速度センサを用いた姿勢推定手法」、情報処理学会研究報告2006(54),15−22,2006年5月Hiroshi Kurasawa et al., “Attitude estimation method using 3-axis acceleration sensor considering sensor mounting location”, IPSJ SIG 2006 (54), 15-22, May 2006 橋田 尚幸 他、「加速度センサを用いた日常行動識別における個人適応技術の識別精度への貢献」、電子情報通信学会技術研究報告108(138),69−74,2008年7月Naoyuki Hashida et al., “Contribution to identification accuracy of personal adaptation technology in daily behavior identification using acceleration sensor”, IEICE Technical Report 108 (138), 69-74, July 2008

従来の姿勢推定方法では、対象者の姿勢、特に起立状態と着座状態を高精度に推定することは難しい。   With the conventional posture estimation method, it is difficult to accurately estimate the posture of the subject person, particularly the standing state and the sitting state.

そこで、本発明は、対象者の姿勢、特に起立状態と着座状態を高精度に推定することができる姿勢推定装置、方法及びプログラムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a posture estimation device, method, and program capable of estimating the posture of a subject person, particularly a standing state and a sitting state with high accuracy.

本発明の一観点によれば、対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定する姿勢推定装置であって、前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出し、前記静止状態に関するパラメータを記憶する静止状態検出手段と、前記静止状態検出手段による前記対象者の前記静止状態の検出と同時に、前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出し、前記運動状態に関するパラメータを記憶する運動検出手段と、前記運動検出手段が記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、前記静止状態検出手段が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出手段とを備え、前記状態遷移検出手段は、前記運動検出手段が前記対象者の運動状態を検出する前後に前記静止状態検出手段が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記対象者の運動状態を検出した後に検出した直立状態からの状態遷移の開始時の前記第1の軸の方向と重力方向とがなす傾き角度から当該状態遷移の終了時の前記第1の軸の方向と前記重力方向とがなす傾き角度への変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する姿勢推定装置が提供される。 According to one aspect of the present invention, a three-axis acceleration sensor that detects the acceleration of the upper body of the subject is connected to the subject in which the directions of the first axis and the second axis of the three-axis acceleration sensor are standing. A posture estimation device for estimating a posture of the subject worn so as to coincide with a front-rear direction and a vertical direction, wherein the stationary state of the subject is determined based on a DC signal component included in an output of the three-axis acceleration sensor. Based on an AC signal component included in the output of the three-axis acceleration sensor at the same time as detecting the stationary state of the subject by the stationary state detecting unit and detecting the stationary state by the stationary state detecting unit Motion detection means for detecting the motion state of the subject and storing parameters relating to the motion state; parameters relating to the previous motion state stored by the motion detection means; Of corresponding before and after motion state, the front stationary state detecting means and stored by s times and on the basis of the parameters relating to this stationary state, a state transition detection means for detecting a state transition of the subject, the State transition detection means, when the stationary state detected by the stationary state detection means before and after the movement detection means detects the movement state of the subject is an upright state including the sitting state and the standing state of the subject, The first axis at the end of the state transition from the inclination angle formed by the direction of the first axis and the direction of gravity at the start of the state transition from the upright state detected after detecting the motion state of the subject The displacement to the tilt angle formed by the direction of gravity and the direction of gravity is calculated. If the displacement is less than the first value, the transition to the standing state is estimated, and the second value greater than the first value is calculated. If over, go to the seated state Posture estimation apparatus is provided for estimating the transition.

開示の姿勢推定装置、方法及びプログラムによれば、対象者の姿勢、特に起立状態と着座状態を高精度に推定することができる。   According to the disclosed posture estimation apparatus, method, and program, it is possible to accurately estimate the posture of the subject, particularly the standing state and the sitting state.

一実施例における姿勢推定システムの一例を示すブロック図である。It is a block diagram which shows an example of the attitude | position estimation system in one Example. 姿勢推定装置の対象者への装着の一例を説明する図である。It is a figure explaining an example of mounting | wearing with the subject of a posture estimation apparatus. 一実施例における姿勢推定装置の一例を示すブロック図である。It is a block diagram which shows an example of the attitude | position estimation apparatus in one Example. 姿勢推定装置の動作の一例を説明するフローチャートである。It is a flowchart explaining an example of operation | movement of an attitude | position estimation apparatus. 分離処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a separation process. 装着及び運動検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of mounting | wearing and a motion detection process. 静止状態検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a stationary state detection process. 姿勢推定装置の傾き角度と座標軸の関係を説明する図である。It is a figure explaining the relationship between the inclination angle of an attitude | position estimation apparatus, and a coordinate axis. 着座及び起立判定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of seating and standing-up determination processing. 転倒検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a fall detection process. 歩行検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a walk detection process. 周期性判定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a periodicity determination process. 状態遷移検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a state transition detection process. 状態遷移判定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a state transition determination process. 状態遷移判定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a state transition determination process. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result. 実験結果の一例を示す図である。It is a figure which shows an example of an experimental result.

開示の姿勢推定装置、方法及びプログラムは、対象者の上半身の加速度を検出する3軸加速度センサの第1と第2の軸の方向が夫々起立状態の対象者の前後方向と上下方向と一致するように装着された対象者の姿勢を推定する。姿勢推定装置は、3軸加速度センサの出力に含まれる直流信号成分に基づいて対象者の静止状態を検出する静止状態検出部と、3軸加速度センサの出力に含まれる交流信号成分に基づいて対象者の運動状態を検出する運動検出部と、運動検出部が記憶した前回の運動状態に関するパラメータと、前回の運動状態の前後に相当する、静止状態検出部が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、対象者の状態遷移を検出する状態遷移検出部とを備える。状態遷移検出部は、運動検出部が運動状態を検出する前後に静止状態検出部が検出する静止状態が着座状態及び起立状態を含む直立状態であると、運動検出部が検出する運動状態の終了時までの一定期間内の、第1の軸の方向と重力方向とがなす傾き角度の変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する。   In the disclosed posture estimation apparatus, method, and program, the directions of the first and second axes of the three-axis acceleration sensor that detects the acceleration of the upper body of the subject coincide with the longitudinal direction and the vertical direction of the subject in the standing state, respectively. Thus, the posture of the subject who is worn is estimated. The posture estimation device includes a stationary state detection unit that detects a stationary state of the subject based on a DC signal component included in the output of the triaxial acceleration sensor, and a target based on the AC signal component included in the output of the triaxial acceleration sensor. A motion detection unit that detects a person's motion state, a parameter related to the previous motion state stored by the motion detection unit, and a previous and current stationary state stored by the stationary state detection unit corresponding to before and after the previous motion state And a state transition detection unit that detects a state transition of the subject based on the parameters. The state transition detection unit detects the end of the motion state detected by the motion detection unit when the stationary state detected by the stationary state detection unit before and after the motion detection unit detects the motion state is an upright state including a sitting state and a standing state. Calculating the displacement of the inclination angle formed by the direction of the first axis and the direction of gravity within a certain period until the time, and estimating the transition to the standing state if the displacement is less than the first value; If the second value, which is larger than the second value, is exceeded, the transition to the seating state is estimated.

以下に、開示の姿勢推定装置、方法及びプログラムの各実施例を図面と共に説明する。   Embodiments of the disclosed posture estimation apparatus, method, and program will be described below with reference to the drawings.

図1は、一実施例における姿勢推定システムの一例を示すブロック図である。図1に示す姿勢推定システムは、姿勢推定装置1及びサーバ11を含む。姿勢推定装置1は、プロセッサの一例であるCPU(Central Processing Unit)2、記憶部3、センサ部4及び通信部5がバス6を介して接続された構成を有する。CPU2は、姿勢推定装置1全体の動作を制御する。記憶部3は、CPU2が実行するプログラム及び各種データを格納する。各種データには、CPU2が実行する演算の中間結果、演算で用いるパラメータ(または、データ)、後述する姿勢推定処理中に算出される傾斜角度φなどのパラメータを含む対象者の静止状態または運動状態に関するパラメータなどが含まれる。記憶部3は、プログラムを格納したコンピュータ読取可能な記憶媒体の一例を形成可能である。センサ部4は、3軸加速度センサを有し、3軸加速度センサのアナログ出力をデジタル出力に変換するアナログ/デジタル変換器(ADC:Analog-to-Digital Converter)を有しても良い。3軸加速度センサは、例えばxyz座標系のx軸、y軸及びz軸に沿った加速度を検知して対応するx軸信号、y軸信号及びz軸信号(即ち、x,y,z軸に沿った加速度信号)を出力可能な周知の構成を有する。この例では、3軸加速度センサを含む姿勢推定装置1の前後方向をx軸方向、指定推定装置1の左右方向(または、横方向)をy軸方向、姿勢推定装置1の上下方向をz軸方向と定義する。通信部5は、姿勢推定装置1と外部のサーバ11との間で無線通信を行う周知の構成を有する。サーバ11は、姿勢推定装置1と無線通信を行う周知の構成を有する汎用コンピュータで形成可能であり、例えばセンサ部4を省略した姿勢推定装置1と同様の構成を有しても良い。   FIG. 1 is a block diagram illustrating an example of a posture estimation system in one embodiment. The posture estimation system shown in FIG. 1 includes a posture estimation device 1 and a server 11. The posture estimation apparatus 1 has a configuration in which a CPU (Central Processing Unit) 2, which is an example of a processor, a storage unit 3, a sensor unit 4, and a communication unit 5 are connected via a bus 6. The CPU 2 controls the operation of the posture estimation apparatus 1 as a whole. The storage unit 3 stores programs executed by the CPU 2 and various data. Various types of data include intermediate results of computations executed by the CPU 2, parameters (or data) used in the computations, parameters such as an inclination angle φ calculated during posture estimation processing described later, and the stationary state or motion state of the subject. Related parameters. The storage unit 3 can form an example of a computer-readable storage medium that stores a program. The sensor unit 4 includes a triaxial acceleration sensor, and may include an analog-to-digital converter (ADC) that converts an analog output of the triaxial acceleration sensor into a digital output. The triaxial acceleration sensor detects, for example, acceleration along the x-axis, y-axis, and z-axis of the xyz coordinate system, and corresponding x-axis signals, y-axis signals, and z-axis signals (that is, x, y, z axes). A known acceleration signal). In this example, the front-rear direction of the posture estimation device 1 including the three-axis acceleration sensor is the x-axis direction, the left-right direction (or horizontal direction) of the designated estimation device 1 is the y-axis direction, and the vertical direction of the posture estimation device 1 is the z-axis. Defined as direction. The communication unit 5 has a known configuration for performing wireless communication between the posture estimation device 1 and the external server 11. The server 11 can be formed by a general-purpose computer having a well-known configuration that performs wireless communication with the posture estimation device 1. For example, the server 11 may have the same configuration as the posture estimation device 1 in which the sensor unit 4 is omitted.

なお、図1に示す例では、CPU2、記憶部3、センサ部4及び通信部5がバス6を介して接続されているが、CPU2と姿勢推定装置1内の各部との接続はバス6による接続に限定されるものではない。また、姿勢推定装置1は、例えばスマートホンなどで形成しても良い。姿勢推定装置1がスマートホンで形成されている場合、スマートホンにインストールされたアプリケーションソフトウェアを実行することで、スマートホンは姿勢推定装置1の各手段(または、各機能)を実現できる。   In the example shown in FIG. 1, the CPU 2, the storage unit 3, the sensor unit 4, and the communication unit 5 are connected via the bus 6, but the connection between the CPU 2 and each unit in the posture estimation device 1 is via the bus 6. It is not limited to connection. Further, the posture estimation device 1 may be formed by, for example, a smart phone. When the posture estimation device 1 is formed of a smartphone, the smartphone can realize each unit (or each function) of the posture estimation device 1 by executing application software installed in the smartphone.

図2は、姿勢推定装置の対象者への装着の一例を説明する図である。姿勢推定装置1は、装着部1Aにより姿勢推定の対象となるユーザ(以下、「対象者」と言う)21の上半身の加速度を検出できる位置に装着されている。対象者21の上半身とは、例えば対象者21の腰を含む部位から上の身体の部位を言う。図2に示す例では、姿勢推定装置1は対象者21の腹部に、姿勢推定装置1の前後方向、左右方向及び上下方向が夫々起立状態にある対象者21の前後方向、左右方向及び上下方向(または、重力方向)と一致するように装着されている。従って、姿勢推定装置1を装着した起立状態にある対象者21の前後方向、左右方向(または、横方向)及び上下方向(または、重力方向)は、夫々x軸方向、y軸方向及びz軸方向に相当する。ここで、対象者21が自分の前方方向へ歩行することは、図2の例では紙面と垂直に飛び出す方向に進行することに相当する。従って、この例では、姿勢推定装置1の前後方向とは、図2において紙面と垂直な方向に相当する。装着部1Aは、姿勢推定装置1を保持する機能と、姿勢推定装置1を対象者21へ装着する機能を有する。装着部1Aは、例えば対象者21に装着可能なベルト、対象者21が既に利用しているベルトに装着可能な接続部材などで形成しても良い。   FIG. 2 is a diagram for explaining an example of wearing of the posture estimation apparatus to a subject. The posture estimation apparatus 1 is mounted at a position where the acceleration of the upper body of a user (hereinafter referred to as “subject”) 21 that is a posture estimation target can be detected by the mounting unit 1A. The upper body of the subject 21 refers to a part of the body above the part including the waist of the subject 21, for example. In the example shown in FIG. 2, the posture estimation device 1 is placed on the abdomen of the subject 21 in the front-rear direction, the left-right direction, and the up-down direction of the subject 21 in which the front-rear direction, the left-right direction, and the up-down direction of the posture estimation device 1 are standing. (Or the direction of gravity). Therefore, the front-rear direction, left-right direction (or lateral direction), and up-down direction (or gravity direction) of the subject 21 in the standing state wearing the posture estimation device 1 are the x-axis direction, the y-axis direction, and the z-axis, respectively. Corresponds to the direction. Here, when the subject 21 walks in the forward direction of his / her own, it corresponds to progress in a direction that protrudes perpendicularly to the paper surface in the example of FIG. 2. Therefore, in this example, the front-rear direction of the posture estimation device 1 corresponds to a direction perpendicular to the paper surface in FIG. The mounting unit 1A has a function of holding the posture estimation device 1 and a function of mounting the posture estimation device 1 to the subject 21. The mounting portion 1A may be formed of, for example, a belt that can be mounted on the subject 21 or a connection member that can be mounted on a belt that is already used by the subject 21.

なお、姿勢推定装置1を装着する位置は、対象者21の上半身の加速度を検出可能な位置であれば特に限定されず、例えば胸部、背部などであっても良い。   The position where the posture estimation apparatus 1 is mounted is not particularly limited as long as the acceleration of the upper body of the subject 21 can be detected, and may be, for example, the chest or the back.

図3は、一実施例における姿勢推定装置の一例を示すブロック図である。図3に示す姿状態抽出勢推定装置1は、分離手段の一例である分離部21、静止状態検出手段の一例である静止部22、運動検出手段の一例である運動検出部23及び状態遷移検出手段の一例である状態遷移検出部24を含む。   FIG. 3 is a block diagram illustrating an example of a posture estimation apparatus according to an embodiment. The appearance state extraction force estimation apparatus 1 shown in FIG. 3 includes a separation unit 21 that is an example of a separation unit, a stationary unit 22 that is an example of a stationary state detection unit, a motion detection unit 23 that is an example of a motion detection unit, and state transition detection. A state transition detection unit 24 which is an example of the means is included.

分離部21は、センサ部4からの3軸加速度センサ出力を所定サンプル数を含む一定期間毎に取得し、交流(AC)信号成分に相当する運動成分と、直流(DC)信号成分に相当する重力成分とに分離する。分離された運動成分は、運動検出部23に入力され、分離された重力成分は、静止状態検出部22に入力される。運動検出部23は、分離部21からの運動成分に基づいて対象者21の運動状態を検出し、運動状態に関するパラメータを記憶する。静止状態検出部22は、分離部21からの重力成分と、運動検出部23が記憶した前回の運動状態に関するパラメータとに基づいて、対象者21の静止状態を検出し、静止状態に関するパラメータを記憶する。状態遷移検出部24は、静止状態検出部22が記憶した前回の静止状態に関するパラメータ及び今回の静止状態に関するパラメータと、運動検出部23が記憶した前回の運動状態に関するパラメータとに基づいて、状態遷移を検出する。   The separation unit 21 acquires the triaxial acceleration sensor output from the sensor unit 4 for every predetermined period including a predetermined number of samples, and corresponds to a motion component corresponding to an alternating current (AC) signal component and a direct current (DC) signal component. Separated into gravity components. The separated motion component is input to the motion detection unit 23, and the separated gravity component is input to the stationary state detection unit 22. The motion detection unit 23 detects the motion state of the subject 21 based on the motion component from the separation unit 21 and stores parameters regarding the motion state. The stationary state detection unit 22 detects the stationary state of the target person 21 based on the gravity component from the separation unit 21 and the parameter regarding the previous movement state stored by the movement detection unit 23, and stores the parameter regarding the stationary state. To do. The state transition detection unit 24 is based on the parameter related to the previous stationary state and the parameter related to the current stationary state stored by the stationary state detection unit 22 and the parameter related to the previous motion state stored in the motion detection unit 23. Is detected.

運動検出部23が対象者21の運動状態を検出する前後に静止状態検出部22が対象者21の直立状態を検出すると、状態遷移検出部24は、運動検出部23が検出する対象者21の運動状態の終了時までの一定期間内の姿勢推定装置1の傾き角度の変位を算出し、この変位が第1の値(例えば、−20°)未満であり少なければ起立状態への遷移を推定し、第1の値より大きい第2の値(例えば、20°)を超えており多ければ着座状態への遷移を推定する。姿勢推定装置1の傾き角度は、姿勢推定装置1の前後方向と重力方向とがなす角度である。なお、対象者21の直立状態とは、対象者21の上半身の軸(z軸に相当)が重力方向と平行、或いは、略平行である静止状態を言い、着座状態及び起立状態を含む。   If the stationary state detector 22 detects the upright state of the subject 21 before and after the motion detector 23 detects the motion state of the subject 21, the state transition detector 24 detects the subject 21 detected by the motion detector 23. The displacement of the tilt angle of the posture estimation device 1 within a certain period until the end of the motion state is calculated, and if the displacement is less than a first value (for example, −20 °) and less, the transition to the standing state is estimated. If it exceeds a second value (for example, 20 °) that is larger than the first value and more, a transition to the seating state is estimated. The inclination angle of the posture estimation device 1 is an angle formed by the front-rear direction of the posture estimation device 1 and the gravity direction. The upright state of the subject 21 means a stationary state in which the axis of the upper half of the subject 21 (corresponding to the z-axis) is parallel to or substantially parallel to the direction of gravity, and includes a sitting state and a standing state.

例えば、対象者21が椅子に着座する場合、着座する重力方向への運動が終了してからのある期間内に対象者21が椅子の背もたれによりかかるなどして対象者21の前後方向への動きがある。つまり、対象者21が着座後に、ある程度の後方向への動きがある。これに対し、椅子に着座している対象者21が起立する場合、起立する重力方向とは反対方向への運動が終了してからのある期間内の対象者21の前後方向への動き、特に、後方向への動きは、着座する場合と比較すると少ない。そこで、対象者21の運動状態を検出する前後に直立状態を検出した後、運動状態の終了時までの一定期間内の対象者21の前後方向への動きに応じて、状態遷移検出部24において着座−起立遷移(即ち、着座状態から起立状態への遷移)であるか、或いは、起立−着座遷移(即ち、起立状態から着座状態への遷移)であるかを正確に判定できる。具体的には、対象者21の運動状態を検出する前後に直立状態を検出した後、運動状態の終了までの一定期間内の対象者21の前後方向への動きが第1の値未満であり少なければ、状態遷移検出部24が起立状態への遷移を推定し、第1の値より大きな第2の値を超えており多ければ、状態遷移検出部24が着座状態への遷移を推定することができる。   For example, when the subject 21 sits on a chair, the subject 21 moves in the front-rear direction because the subject 21 is seated on the back of the chair within a certain period after the movement in the gravitational direction in which the subject 21 sits. There is. That is, there is a certain amount of backward movement after the subject 21 is seated. On the other hand, when the subject 21 sitting on the chair stands up, the subject 21 moves in the front-rear direction within a certain period after the movement in the direction opposite to the direction of gravity to stand, particularly, The backward movement is less than when sitting. Therefore, in the state transition detection unit 24 according to the movement of the subject 21 in the front-rear direction within a certain period after the upright state is detected before and after detecting the exercise state of the subject 21, It is possible to accurately determine whether it is a seating-standing transition (that is, a transition from a sitting state to a standing state) or a standing-sitting transition (that is, a transition from a standing state to a sitting state). Specifically, the movement in the front-rear direction of the subject 21 within a certain period after the upright state is detected before and after the motion state of the subject 21 is detected is less than the first value. If less, the state transition detection unit 24 estimates the transition to the standing state, and if it exceeds the second value larger than the first value, the state transition detection unit 24 estimates the transition to the seating state. Can do.

図4は、姿勢推定装置の動作の一例を説明するフローチャートである。図4に示す処理は、例えばCPU2が実行可能である。図4に示す処理は、分離処理ST1、装着及び運動検出処理ST2、静止状態検出処理ST3、転倒検出処理ST4、歩行検出処理ST5、状態遷移検出処理ST6、他の運動パラメータ抽出処理ST7を含む。   FIG. 4 is a flowchart for explaining an example of the operation of the posture estimation apparatus. The process shown in FIG. 4 can be executed by the CPU 2, for example. The process shown in FIG. 4 includes a separation process ST1, a mounting and movement detection process ST2, a stationary state detection process ST3, a fall detection process ST4, a walk detection process ST5, a state transition detection process ST6, and another movement parameter extraction process ST7.

分離処理ST1は、CPU2がプログラムを実行することで実現する分離手段(または、分離機能)により実行可能であり、図3の分離部21により実行しても良い。ステップS1−1では、CPU2がセンサ部4からの3軸加速度センサ出力を例えば所定サンプル数を含む一定期間のウィンドウ毎に取得する。ステップS1−2では、CPU2がセンサ出力の交流(AC)信号成分から運動成分を抽出する。また、ステップS1−3では、CPU2がセンサ出力の直流(DC)信号成分から重力成分を抽出する。これにより、センサ出力は一定期間のウィンドウ毎にAC信号成分とDC信号成分に分離される。   The separation process ST1 can be executed by the separation means (or separation function) realized by the CPU 2 executing the program, and may be executed by the separation unit 21 in FIG. In step S1-1, the CPU 2 acquires the triaxial acceleration sensor output from the sensor unit 4 for each window of a certain period including, for example, a predetermined number of samples. In step S1-2, the CPU 2 extracts a motion component from the alternating current (AC) signal component of the sensor output. In step S1-3, the CPU 2 extracts a gravity component from the direct current (DC) signal component of the sensor output. As a result, the sensor output is separated into an AC signal component and a DC signal component for each window of a certain period.

装着及び運動検出処理ST2は、CPU2がプログラムを実行することで実現する装着及び運動検出手段(または、装着及び運動検出機能)により実行可能であり、運動検出処理は図3の運動検出部23により実行しても良い。ステップS2−1では、CPU2がステップS1−2で抽出されたAC信号成分に基づいて、姿勢推定装置1が対象者21に装着されているか否かを判定し、判定結果がNoであると処理はステップS1−2へ戻る。ステップS2−1の判定結果がYesになると、ステップS2−2では、CPU2がAC信号成分に基づいて対象者21が運動状態であるか否かを判定し、判定結果がNoであると処理は静止状態検出処理ST3へ進み、判定結果がYesであるとCPU2が運動状態を検出して処理はステップS2−3へ進む。ステップS2−3では、CPU2がステップS2−2で検出された運動状態に関するパラメータを抽出して記憶部3に記憶し、処理は転倒検出処理ST4へ進む。運動状態は、対象者21の転倒、歩行、状態遷移などの状態を含む。なお、ステップS2−1は省略可能である。   The mounting and motion detection process ST2 can be executed by mounting and motion detection means (or a mounting and motion detection function) realized by the CPU 2 executing a program. The motion detection processing is performed by the motion detection unit 23 of FIG. May be executed. In step S2-1, the CPU 2 determines whether or not the posture estimation apparatus 1 is worn on the subject 21 based on the AC signal component extracted in step S1-2. If the determination result is No, the process is performed. Returns to step S1-2. When the determination result in step S2-1 is Yes, in step S2-2, the CPU 2 determines whether the subject 21 is in an exercise state based on the AC signal component, and the process is performed when the determination result is No. The process proceeds to the stationary state detection process ST3, and if the determination result is Yes, the CPU 2 detects the movement state, and the process proceeds to step S2-3. In step S2-3, the CPU 2 extracts parameters related to the exercise state detected in step S2-2 and stores them in the storage unit 3, and the process proceeds to the fall detection process ST4. The exercise state includes states such as the subject 21 falling, walking, and state transition. Note that step S2-1 can be omitted.

ステップS2−2の判定結果がNoとなる時が、今回の静止状態の開始が検出された時、即ち、今回の運動状態の終了が検出された時に相当する。今回の静止状態が検出される前にステップS2−2の判定結果がYesとなった時が、前回の運動状態の開始が検出された時に相当する。また、前回の運動状態が検出される前にステップS2−2の判定結果がNoとなった時が、前回の静止状態の開始が検出された時に相当する。つまり、前回の静止状態の終了から今回の静止状態の開始までの期間が、前回の運動状態の開始から終了までの期間に相当する。   The time when the determination result in step S2-2 is No corresponds to the time when the start of the current stationary state is detected, that is, the time when the end of the current motion state is detected. The time when the determination result in step S2-2 is Yes before the current stationary state is detected corresponds to the time when the start of the previous motion state is detected. In addition, the time when the determination result of step S2-2 is No before the previous motion state is detected corresponds to the time when the start of the previous stationary state is detected. That is, the period from the end of the previous stationary state to the start of the current stationary state corresponds to the period from the start to the end of the previous motion state.

静止状態検出処理ST3は、CPU2がプログラムを実行することで実現する静止状態検出手段(または、静止状態検出機能)により実行可能であり、図3の静止状態検出部22により実行しても良い。ステップS3−1では、CPU2がステップS2−2におけるNoの判定結果及びステップS1−3で抽出されたDC信号成分に基づいて、対象者21の静止状態を検出する。静止状態は、対象者21の着座状態、起立状態などを含む。ステップS3−2では、CPU2がステップS3−1で検出された静止状態に関するパラメータを抽出して記憶部3に記憶し、処理は後述する状態遷移検出処理ST6へ進む。   The stationary state detection process ST3 can be executed by a stationary state detection means (or a stationary state detection function) realized by the CPU 2 executing a program, and may be executed by the stationary state detection unit 22 of FIG. In step S3-1, the CPU 2 detects the stationary state of the subject 21 based on the determination result of No in step S2-2 and the DC signal component extracted in step S1-3. The stationary state includes a seating state and a standing state of the subject 21. In step S3-2, the CPU 2 extracts the parameter related to the stationary state detected in step S3-1 and stores it in the storage unit 3, and the process proceeds to a state transition detection process ST6 described later.

転倒検出処理ST4は、CPU2がプログラムを実行することで実現する転倒検出手段(または、転倒検出機能)により実行可能である。ステップS4−1では、CPU2がステップS1−2で抽出されたAC信号成分に基づいて、対象者21が転倒状態であるか否かを判定する。ステップS4−1の判定結果がYesであると、ステップS4−2では、CPU2がステップS4−1で検出された転倒状態に関するパラメータを抽出して記憶部3に記憶すると共に、警告を出力する。一方、ステップS4−1の判定結果がNoであると、処理は歩行検出処理ST5へ進む。   The fall detection process ST4 can be executed by a fall detection means (or a fall detection function) realized by the CPU 2 executing a program. In step S4-1, the CPU 2 determines whether or not the subject 21 is in a fallen state based on the AC signal component extracted in step S1-2. If the determination result in step S4-1 is Yes, in step S4-2, the CPU 2 extracts a parameter related to the overturning state detected in step S4-1, stores the parameter in the storage unit 3, and outputs a warning. On the other hand, if the decision result in the step S4-1 is No, the process advances to a walking detection process ST5.

歩行検出処理ST5は、CPU2がプログラムを実行することで実現する歩行検出手段(または、歩行検出機能)により実行可能である。ステップS5−1では、CPU2がステップS1−2で抽出されたAC信号成分に基づいて、対象者21が歩行状態であるか否かを判定する。ステップS5−1の判定結果がYesであると、ステップS5−2では、CPU2がステップS5−1で検出された歩行状態に関するパラメータを抽出して記憶部3に記憶する。一方、ステップS5−1の判定結果がNoであるとCPU2が処理を終了する。   The walk detection process ST5 can be executed by a walk detection means (or a walk detection function) realized by the CPU 2 executing a program. In step S5-1, CPU2 determines whether the subject 21 is a walking state based on the AC signal component extracted by step S1-2. If the determination result in step S5-1 is Yes, in step S5-2, the CPU 2 extracts the parameter related to the walking state detected in step S5-1 and stores the parameter in the storage unit 3. On the other hand, if the decision result in the step S5-1 is No, the CPU 2 ends the process.

状態遷移検出処理ST6は、CPU2がプログラムを実行することで実現する状態遷移検出手段(または、状態遷移検出機能)により実行可能であり、図3の状態遷移検出部24により実行しても良い。ステップS6−0aでは、CPU2が処理するべきセンサ出力(例えば、後述するような、次に処理するべきセンサ出力のセグメント)が有るか否かを判定し、判定結果がYesであると処理は分離処理ST1のステップS1−1へ戻り次のセンサ出力(例えば、センサ出力の次のセグメント)を取得する。ステップS6−0aの判定結果がNoであると、ステップS6−0bでは、CPU2が前回の運動状態が有るか否か、即ち、前回の運動状態に関するパラメータが記憶部3に記憶されているか否かを判定し、判定結果がNoであるとCPU2が処理を終了する。一方、ステップS6−0bの判定結果がYesであると、処理はステップS6−1へ進む。ステップS6−1では、CPU2が装着及び運動検出処理ST2(または、転倒検出処理ST4、または、歩行検出処理ST5)により抽出され記憶部3に記憶された前回の運動状態に関するパラメータと、静止状態検出処理ST3により抽出され記憶部3に記憶された前回及び今回の静止状態に関するパラメータとに基づいて、対象者21の状態遷移であるか否かを判定する。ステップS6−1の判定結果がYesであると、ステップS6−2では、CPU2がステップS6−1で検出された状態遷移に関するパラメータを抽出して記憶部3に記憶し、処理は静止状態検出処理ST3のステップS3−2へ戻る。一方、ステップS6−1の判定結果がNoであると、処理は他の運動パラメータ抽出処理ST7へ進む。   The state transition detection process ST6 can be executed by state transition detection means (or a state transition detection function) realized by the CPU 2 executing a program, and may be executed by the state transition detection unit 24 of FIG. In step S6-0a, it is determined whether or not there is a sensor output to be processed by the CPU 2 (for example, a sensor output segment to be processed next as described later), and the process is separated if the determination result is Yes. Returning to step S1-1 of process ST1, the next sensor output (for example, the next segment of the sensor output) is acquired. If the decision result in the step S6-0a is No, in a step S6-0b, whether or not the CPU 2 has the previous exercise state, that is, whether or not the parameter relating to the previous exercise state is stored in the storage unit 3 If the determination result is No, the CPU 2 ends the process. On the other hand, if the decision result in the step S6-0b is Yes, the process advances to a step S6-1. In step S6-1, the CPU 2 extracts the parameters related to the previous motion state extracted by the wearing and motion detection processing ST2 (or the fall detection processing ST4 or the walking detection processing ST5) and stored in the storage unit 3, and the stationary state detection. It is determined whether or not it is a state transition of the subject 21 based on the parameters related to the previous and current stationary states extracted by the process ST3 and stored in the storage unit 3. If the determination result in step S6-1 is Yes, in step S6-2, the CPU 2 extracts parameters related to the state transition detected in step S6-1 and stores them in the storage unit 3, and the process is a stationary state detection process. Return to step S3-2 of ST3. On the other hand, if the decision result in the step S6-1 is No, the process advances to another exercise parameter extraction process ST7.

他の運動パラメータ抽出処理ST7は、CPU2が対象者21の他の運動に関するパラメータを抽出して記憶部3に記憶する。   In other exercise parameter extraction processing ST7, the CPU 2 extracts parameters related to other exercises of the subject 21 and stores them in the storage unit 3.

転倒検出処理ST4のステップS4−2、歩行検出処理ST5のステップS5−2、または他の運動パラメータ抽出処理ST7の後、ステップS8では、CPU2が処理するべきセンサ出力(例えば、次に処理するべきセンサ出力のセグメント)が有るか否かを判定する。ステップS8の判定結果がYesであると、処理は分離処理ST1のステップS1−1へ戻り次に処理するべきセンサ出力(例えば、次に処理するべきセンサ出力のセグメント)を取得する。一方、ステップS8の判定結果がNoであると、CPU2が処理を終了する。   After step S4-2 of the fall detection process ST4, step S5-2 of the walk detection process ST5, or other motion parameter extraction process ST7, in step S8, the sensor output to be processed by the CPU 2 (for example, the process to be processed next) It is determined whether there is a sensor output segment). If the decision result in the step S8 is Yes, the process returns to the step S1-1 of the separation process ST1 to acquire a sensor output to be processed next (for example, a sensor output segment to be processed next). On the other hand, if the decision result in the step S8 is No, the CPU 2 ends the process.

なお、図3に示す姿勢推定装置1の姿勢推定処理を実行する場合、図4に示す装着及び運動検出処理ST2のステップS2−1、転倒検出処理ST4及び歩行検出処理ST5は省略可能である。   Note that when the posture estimation process of the posture estimation apparatus 1 shown in FIG. 3 is executed, the step S2-1, the fall detection process ST4, and the walk detection process ST5 of the wearing and movement detection process ST2 shown in FIG. 4 can be omitted.

図5は、分離処理ST1の一例を説明するフローチャートである。図5において、ステップS1−1でCPU2がセンサ部4からの3軸加速度センサ出力を取得すると、CPU2がステップS1−2a〜S1−2dを含むステップS1−2の処理と、ステップS1−3a〜S1−3dを含むステップS1−3の処理を並行に実行する。ステップS1−2aでは、CPU2がセンサ出力に例えば中心周波数fc=0.25Hzのハイパスフィルタ処理を施す。ステップS1−2bでは、CPU2がハイパスフィルタ処理を施されたセンサ出力に例えばウィンドウサイズn=3のメディアンフィルタ処理を施してスパイクノイズを除去する。ステップS1−2cでは、CPU2がメディアンフィルタ処理を施されたセンサ出力を例えばサンプル数sのウィンドウサイズ(例えば、1秒の一定期間)のAC信号成分のセグメントに分割する。ステップS1−2dでは、CPU2がセグメントされたAC信号成分を対象者21の運動を表す運動成分として、CPU2が管理する時間情報と共に記憶部3に記憶する。CPU2が管理する時間情報には、例えば時刻を含む日時情報、CPU2が処理を実行中にCPU2の内部タイマにより計測される時間などが含まれる。   FIG. 5 is a flowchart for explaining an example of the separation process ST1. In FIG. 5, when CPU2 acquires the 3-axis acceleration sensor output from the sensor part 4 by step S1-1, CPU2 will perform the process of step S1-2 including steps S1-2a-S1-2d, and step S1-3a-. The process of step S1-3 including S1-3d is executed in parallel. In step S1-2a, the CPU 2 performs high-pass filter processing with a center frequency fc = 0.25 Hz, for example, on the sensor output. In step S1-2b, the CPU 2 performs, for example, a median filter process with a window size n = 3 on the sensor output subjected to the high-pass filter process to remove spike noise. In step S1-2c, the CPU 2 divides the sensor output subjected to the median filter processing into AC signal component segments having a window size (for example, a fixed period of 1 second) of the number of samples s. In step S1-2d, CPU2 memorize | stores the AC signal component by which CPU2 was segmented in the memory | storage part 3 with the time information which CPU2 manages as an exercise | movement component showing the exercise | movement of the subject 21. FIG. The time information managed by the CPU 2 includes, for example, date / time information including the time, and a time measured by the internal timer of the CPU 2 while the CPU 2 is executing processing.

一方、ステップS1−3aでは、CPU2がセンサ出力に例えば中心周波数fc=0.25Hzのローパスフィルタ処理を施す。ステップS1−3bでは、CPU2がローパスフィルタ処理を施されたセンサ出力に例えばウィンドウサイズn=3のメディアンフィルタ処理を施してスパイクノイズを除去する。ステップS1−3cでは、CPU2がメディアンフィルタ処理を施されたセンサ出力を例えばサンプル数sのウィンドウサイズ(例えば、1秒の一定期間)のDC信号成分のセグメントに分割する。ステップS1−3dでは、CPU2がセグメントされたDC信号成分を対象者21に加わる重力成分として、CPU2が管理する時間情報と共に記憶部3に記憶する。   On the other hand, in step S1-3a, the CPU 2 performs a low-pass filter process with a center frequency fc = 0.25 Hz, for example, on the sensor output. In step S1-3b, the CPU 2 performs, for example, a median filter process with a window size n = 3 on the sensor output subjected to the low-pass filter process to remove spike noise. In step S1-3c, the CPU 2 divides the sensor output subjected to the median filter processing into segments of DC signal components having a window size (for example, a fixed period of 1 second) of the number of samples s. In step S <b> 1-3 d, the CPU 2 stores the segmented DC signal component as a gravity component applied to the subject 21 in the storage unit 3 together with time information managed by the CPU 2.

図6は、装着及び運動検出処理ST2の一例を説明するフローチャートである。図6において、ステップS2−1aでは、CPU2が振幅ベクトルρをxyz座標系を用いて FIG. 6 is a flowchart for explaining an example of the wearing and motion detection process ST2. In FIG. 6, in step S2-1a, the CPU 2 uses the xyz coordinate system to calculate the amplitude vector ρ i.


で表すと、AC信号成分に基づいて、振幅ベクトルρの平均二乗の平方根(RMS:Root Mean Square)ρrms

Is represented by the root mean square (RMS) ρ rms of the amplitude vector ρ i based on the AC signal component.


から算出して、CPU2が管理する時間情報と共に記憶部3に記憶する。ステップS2−1bでは、CPU2がρ>ρstaticであるか否かを判定する。ρstaticは、姿勢推定装置1が対象者21に装着されておらず、例えばテーブル上に置かれた状態での振幅ベクトルを表す。ステップS2−1bの判定結果がNoであると、ステップS2−1cでは、CPU2が姿勢推定装置1が対象者21に装着されていない未装着状態であることを検出し、未装着状態に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS2−1bの判定結果がYesであると、ステップS2−2aでは、CPU2が次式で表される、x,y,z軸信号が正規化された信号振幅エリア(SMA:Signal Magnitude Area)をあるウィンドウwについて算出し、CPU2が管理する時間情報と共に記憶部3に記憶する。

And is stored in the storage unit 3 together with time information managed by the CPU 2. In step S2-1b, the CPU 2 determines whether or not ρ i > ρ static . ρ static represents an amplitude vector when the posture estimation device 1 is not worn by the subject 21 and is placed on a table, for example. If the decision result in the step S2-1b is No, in the step S2-1c, the CPU 2 detects that the posture estimation device 1 is not worn on the subject 21, and the data regarding the non-wearing state is obtained. The information is stored in the storage unit 3 together with time information managed by the CPU 2. On the other hand, if the determination result in step S2-1b is Yes, in step S2-2a, the CPU 2 represents a signal amplitude area (SMA: Signal Magnitude) in which the x, y, and z-axis signals are normalized by the following equation. Area) is calculated for a certain window w, and is stored in the storage unit 3 together with time information managed by the CPU 2.

ステップS2−2bでは、SMAの閾値をTh1で表すと、CPU2がSMA>Th1であるか否かを判定する。ステップS2−2bの判定結果がYesであると、ステップS2−2cでは、CPU2が対象者21が運動状態であることを検出し、運動状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS2−2bの判定結果がNoであると、ステップS2−2dでは、CPU2が対象者21の運動が終了して静止状態になったと判定し、処理は静止状態検出処理ST3へ進む。なお、図4のステップS2−1を省略する場合には、図6のステップS2−1a,S2−1bは省略可能であることは言うまでもない。   In step S2-2b, if the SMA threshold is represented by Th1, the CPU 2 determines whether or not SMA> Th1. If the determination result in step S2-2b is Yes, in step S2-2c, the CPU 2 detects that the subject 21 is in an exercise state, and stores parameters related to the exercise state in the storage unit 3 together with time information managed by the CPU 2. Remember. On the other hand, if the determination result of step S2-2b is No, in step S2-2d, the CPU 2 determines that the exercise of the subject 21 has been completed and has entered a stationary state, and the process proceeds to a stationary state detection process ST3. Needless to say, when step S2-1 in FIG. 4 is omitted, steps S2-1a and S2-1b in FIG. 6 can be omitted.

図7は、静止状態検出処理ST3の一例を説明するフローチャートである。図7において、ステップS3−1aでは、CPU2がステップS2−2におけるNoの判定結果及びDC信号成分に基づいて、次式で表される傾き角度φを算出し、CPU2が管理する時間情報と共に記憶部3に記憶する。上記の如く、傾き角度φは、姿勢推定装置1の前後方向と重力方向とがなす角度である。この例では、xyz座標系を用いて、対象者21の上半身の軸と平行な方向がz軸、対象者21の上半身から見た対象者21の前後方向がx軸、対象者21の上半身から見た対象者21の左右方向(または、横方向)がy軸である。例えば、対象者21が起立状態であると、重力方向はz軸と平行であるため傾き角度φ=90°であり、対象者21が例えばベッドの上で完全な横臥状態であると、重力方向はx軸と平行であるため傾き角度φ=0°である。   FIG. 7 is a flowchart illustrating an example of the stationary state detection process ST3. In FIG. 7, in step S <b> 3-1 a, the CPU 2 calculates the inclination angle φ represented by the following equation based on the determination result of No in step S <b> 2-2 and the DC signal component, and stores it along with time information managed by the CPU 2. Store in part 3. As described above, the tilt angle φ is an angle formed by the front-rear direction of the posture estimation device 1 and the gravity direction. In this example, using the xyz coordinate system, the direction parallel to the upper body axis of the subject 21 is the z axis, the front-rear direction of the subject 21 viewed from the upper body of the subject 21 is the x axis, and from the upper body of the subject 21 The left-right direction (or horizontal direction) of the viewed subject 21 is the y-axis. For example, when the subject 21 is standing, the gravitational direction is parallel to the z-axis, so the tilt angle φ is 90 °. When the subject 21 is completely lying on the bed, for example, the gravitational direction Is parallel to the x-axis, the inclination angle φ = 0 °.


ここで、重力加速度成分φは次式で表される。

Here, the gravitational acceleration component φ i is expressed by the following equation.

図8は、姿勢推定装置1の傾き角度φとxyz座標軸の関係を説明する図である。図8において、(a)は例えばφ=90°であり姿勢推定装置1を装着した対象者21が起立状態である場合、(b)は例えば60°<φ<90°であり対象者21が横臥状態である場合、(c)は例えばφ≦60°であり対象者21が着座状態である場合、(d)は例えばφ=0°であり対象者21が完全な横臥状態である場合を示す。このように、傾き角度φに応じて対象者21の起立状態、着座状態及び横臥状態を検出することができる。   FIG. 8 is a diagram for explaining the relationship between the inclination angle φ and the xyz coordinate axes of the posture estimation apparatus 1. In FIG. 8, (a) is, for example, φ = 90 ° and the subject 21 wearing the posture estimation device 1 is in a standing state, and (b) is, for example, 60 ° <φ <90 ° and the subject 21 is In the case of lying, (c) is, for example, φ ≦ 60 ° and the subject 21 is seated, and (d) is, for example, φ = 0 °, and the subject 21 is in a complete lying state. Show. Thus, the standing state, the sitting state, and the lying state of the subject 21 can be detected according to the inclination angle φ.

ステップS3−1bでは、CPU2が傾き角度φがφ>60°であるか否かを判定し、判定結果がYesであると、ステップS3−2aでは、CPU2が対象者21が図8の(b)に示す横臥状態であることを検出し、横臥状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。なお、ステップS3−1bでは、CPU2が傾き角度φがφ=0°であるか否かを判定し、判定結果がYesであると、ステップS3−2aでは、CPU2が対象者21が図8の(d)に示す完全な横臥状態であることを検出し、完全な横臥状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶するようにしても良い。また、ステップS3−1bに加えて、CPU2が傾き角度φがφ=0°であるか否かを判定するステップを設けても良い。   In step S3-1b, the CPU 2 determines whether or not the inclination angle φ is φ> 60 °, and if the determination result is Yes, in step S3-2a, the CPU 2 determines that the subject 21 in FIG. ) And the parameters related to the lying state are stored in the storage unit 3 together with the time information managed by the CPU 2. In step S3-1b, the CPU 2 determines whether or not the tilt angle φ is φ = 0 °. If the determination result is Yes, in step S3-2a, the CPU 2 determines that the subject 21 is in FIG. It is also possible to detect the complete recumbent state shown in (d) and store the parameters regarding the complete recumbent state in the storage unit 3 together with the time information managed by the CPU 2. Further, in addition to step S3-1b, the CPU 2 may provide a step of determining whether or not the tilt angle φ is φ = 0 °.

一方、ステップS3−1bの判定結果がNoであると、ステップS3−1cでは、CPU2が傾き角度φの対象者21が直立状態である時の参照傾き角度φrに対する角度変位T、静止状態の維持時間d、前回検出された運動状態などに基づいて、対象者21が着座状態であるか否かを判定する。ステップS3−1cの判定結果がYesであると、ステップS3−2bでは、CPU2が対象者21が図8の(c)に示す着座状態であることを検出し、着座状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS3−1cの判定結果がNoであると、ステップS3−2cでは、CPU2が対象者21が図8の(a)に示す起立状態であることを検出し、起立状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。   On the other hand, if the determination result in step S3-1b is No, in step S3-1c, the CPU 2 maintains the angular displacement T with respect to the reference inclination angle φr when the subject 21 having the inclination angle φ is in the upright state, and maintaining a stationary state. Whether or not the subject 21 is in the sitting state is determined based on the time d, the exercise state detected last time, and the like. If the determination result in step S3-1c is Yes, in step S3-2b, the CPU 2 detects that the subject 21 is in the sitting state shown in FIG. 8C, and the CPU 2 manages parameters relating to the sitting state. The time information is stored in the storage unit 3 together with the time information. On the other hand, if the decision result in the step S3-1c is No, in the step S3-2c, the CPU 2 detects that the subject 21 is in the standing state shown in (a) of FIG. Is stored in the storage unit 3 together with the time information managed by.

図9は、図7中破線で囲まれたステップS3−1c,S3−2b,S3−2cで実行される着座及び起立判定処理の一例を説明するフローチャートである。図9において、ステップS31では、CPU2が、傾き角度φがφ>20°であるか否かを判定する。ステップS31の判定結果がYesであると、ステップS3−2bでは、CPU2が着座状態を検出し、着座状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。   FIG. 9 is a flowchart for explaining an example of the seating and standing-up determination process executed in steps S3-1c, S3-2b, and S3-2c surrounded by a broken line in FIG. In FIG. 9, in step S31, the CPU 2 determines whether or not the inclination angle φ is φ> 20 °. If the decision result in the step S31 is Yes, in a step S3-2b, the CPU 2 detects the seating state and stores parameters relating to the seating state in the storage unit 3 together with time information managed by the CPU 2.

一方、ステップS31の判定結果がNoであると、処理はステップS32,S34,S36へ進む。ステップS32,S33、ステップS34,S35、及びステップS36,S37の処理は、CPU2が並行に実行する。   On the other hand, if the decision result in the step S31 is No, the process advances to steps S32, S34, S36. The processes of steps S32 and S33, steps S34 and S35, and steps S36 and S37 are executed by the CPU 2 in parallel.

ステップS32では、CPU2が現時点の傾き角度φから参照傾き角度φrを減算することで、角度変位T(°)=φ−φrを算出してCPU2が管理する時間情報と共に記憶部3に記憶する。参照傾き角度φrは、対象者21が直立状態にあるときの傾き角度φであり、例えば予め個々の対象者21について測定しておくことができる。ステップS33では、CPU2が角度変位Tに基づいて、次式に基づいて対象者21が着座状態である確率P(Sit)と、対象者21が起立状態である確率P(Stand)を算出してCPU2が管理する時間情報と共に記憶部3に記憶する。着座状態である確率P(Sit)は、角度変位Tが大きい程高い。 In step S32, the CPU 2 calculates the angular displacement T (°) = φ−φr by subtracting the reference inclination angle φr from the current inclination angle φ, and stores it in the storage unit 3 together with the time information managed by the CPU2. The reference inclination angle φr is an inclination angle φ when the subject 21 is in an upright state, and can be measured for each subject 21 in advance, for example. In step S33, based on the angular displacement T, the CPU 2 calculates the probability P 1 (Sit) that the subject 21 is in the seated state and the probability P 1 (Stand) that the subject 21 is in the standing state based on the following equations. And it memorize | stores in the memory | storage part 3 with the time information which CPU2 manages. The probability P 1 (Sit) of being in a seated state is higher as the angular displacement T is larger.

ステップS34では、CPU2が傾き角度φが持続される持続時間、対象者21の安静状態が持続される時間などの、対象者21の状態が持続される期間d(秒)を、例えばCPU2の内部タイマにより計測した時間に基づき算出してCPU2が管理する時間情報と共に記憶部3に記憶する。安静状態とは、対象者21が大きな運動を行わず、例えばセンサ部4からのセンサ出力(DC信号成分)がx,y,zの各軸について一定振幅以下の状態、或いは、上記SMAがある値以下の状態を言う。ステップS35では、CPU2が期間dに基づいて、次式に基づいて対象者21が着座状態である確率P(Sit)と、対象者21が起立状態である確率P(Stand)を算出して記憶部3に記憶する。着座状態である確率P(Sit)は、期間dが長い程高い。 In step S34, a period d (seconds) in which the state of the subject 21 is maintained, such as a duration in which the CPU 2 is maintained at the tilt angle φ and a time in which the subject 21 is in a resting state, It is calculated based on the time measured by the timer and stored in the storage unit 3 together with time information managed by the CPU 2. The resting state is a state in which the subject 21 does not perform a large movement, for example, the sensor output (DC signal component) from the sensor unit 4 is below a certain amplitude for each of the x, y, and z axes, or the SMA. State below the value. In step S35, based on the period d, the CPU 2 calculates a probability P 2 (Sit) that the subject 21 is seated and a probability P 2 (Stand) that the subject 21 is standing based on the following equation. And stored in the storage unit 3. The probability P 2 (Sit) of being in a seated state is higher as the period d is longer.

ステップS36では、CPU2が対象者21の前回の運動状態Mに関するパラメータを例えば記憶部3から読み出す。ステップS37では、CPU2が前回の運動状態Mに関するパラメータに基づいて、次式に基づいて対象者21が着座状態である確率P(Sit)と、対象者21が起立状態である確率P(Stand)を算出する。着座状態である確率P(Sit)は、前回の運動状態Mが着座−起立状態であると0.2、起立−着座状態であると0.0、歩行状態であると0.3、その他の状態(otherwise)であると0.5である。 In step S <b> 36, the CPU 2 reads out parameters related to the previous exercise state M of the subject person 21 from, for example, the storage unit 3. In step S37, CPU 2 is based on parameters relating to the previous state of motion M, the probability P 3 subject 21 on the basis of the following expression is sitting state (Sit), the probability P 3 subject 21 is standing state ( Stand). The probability P 3 (Sit) of being in a seated state is 0.2 if the previous motion state M is a seated-standing state, 0.0 if it is a standing-sitting state, 0.3 if it is a walking state, and others. It is 0.5 in the state (otherwise).

ステップS38では、CPU2がステップS33,S35,S37で求めた着座状態である確率P(Sit),P(Sit),P(Sit)の加重平均から次式に基づいて対象者21が着座状態である確率P(SIT)を算出すると共に、ステップS33,S35,S37で求めた起立状態である確率P(Std),P(Std),P(Std)の加重平均から次式に基づいて対象者21が起立状態である確率P(STD)を算出する。次式中、ω,ω,ωは、ω+ω+ω=1を満たす重み付け係数である。 In step S38, the target person 21 determines from the weighted average of the probabilities P 1 (Sit), P 2 (Sit), and P 3 (Sit) that are the seating states obtained by the CPU 2 in steps S33, S35, and S37 based on the following equation. The probability P (SIT) of being in a seated state is calculated, and the weighted average of the probabilities P 1 (Std), P 2 (Std), and P 3 (Std) of being in the standing state obtained in steps S33, S35, and S37 is Based on the equation, the probability P (STD) that the subject person 21 is standing is calculated. In the following equation, ω 1 , ω 2 , and ω 3 are weighting coefficients that satisfy ω 1 + ω 2 + ω 3 = 1.

ステップS39では、CPU2がP(SIT)>P(STD)であるか否かを判定し、判定結果がYesであると、ステップS3−2bでは、CPU2が着座状態を検出し、着座状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS39の判定結果がNoであると、ステップS3−2cでは、CPU2が起立状態を検出し、起立状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。   In step S39, the CPU 2 determines whether or not P (SIT)> P (STD). If the determination result is Yes, in step S3-2b, the CPU 2 detects the sitting state, and parameters related to the sitting state. Are stored in the storage unit 3 together with time information managed by the CPU 2. On the other hand, if the determination result in step S39 is No, in step S3-2c, the CPU 2 detects the standing state, and stores the parameters regarding the standing state in the storage unit 3 together with time information managed by the CPU 2.

このように、傾き角度φが第1の角度より大きいと(例えば、φ>60°であると)CPU2が対象者21の横臥状態を検出し、第1の角度以下であると(例えば、φ>60°以外であると)対象者21が着座状態であるか、或いは、起立状態であるかを判定する。そして、CPU2が傾き角度φが第1の角度以下であり、且つ、第1の角度より小さい第2の角度より大きいと(例えば、φ>20°であると)着座状態を検出し、第2の角度以下であると(例えば、φ>20°以外であると)着座状態であるか、或いは、起立状態であるかの判定を継続する。さらに、傾き角度φが第2の角度以下であると、CPU2が角度変位T(°)=φ−φと、傾き角度φが持続される持続時間、対象者21の安静状態が持続される時間などの期間d(秒)と、記憶部3に記憶された対象者21の前回の運動状態Mに関するパラメータに基づき、対象者21が起立状態である確率P(STD)及び対象者が着座状態である確率P(SIT)を算出して、P(SIT)>P(STD)であると着座状態を検出し、P(SIT)>P(STD)以外であると起立状態を検出する。 As described above, when the tilt angle φ is larger than the first angle (for example, φ> 60 °), the CPU 2 detects the lying state of the subject 21, and when it is equal to or smaller than the first angle (for example, φ It is determined whether the subject 21 is seated or standing (if it is other than> 60 °). Then, the CPU 2 detects the seating state when the tilt angle φ is equal to or smaller than the first angle and larger than the second angle smaller than the first angle (for example, φ> 20 °), and the second state is detected. If the angle is equal to or smaller than (for example, φ> 20 °), the determination of whether the seating state or the standing state is continued. Further, the inclination angle phi is equal to or less than the second angle, CPU 2 is angular displacement T and (°) = φ-φ r , duration inclination angle phi is sustained, resting condition of the subject 21 is continued Based on a period d (seconds) such as time and a parameter related to the previous exercise state M of the subject 21 stored in the storage unit 3, the probability P (STD) that the subject 21 is standing and the subject is seated The probability P (SIT) is calculated, and the seating state is detected when P (SIT)> P (STD), and the standing state is detected when other than P (SIT)> P (STD).

このように、傾き角度φの変化が一定値より大きく、傾き角度φが持続される期間dが一定値より長く、前回の運動状態Mが着座状態であると、今回は着座状態である可能性が高いので、CPU2が対象者21は着座状態であると推定する。   As described above, if the change in the inclination angle φ is larger than a certain value, the period d during which the inclination angle φ is sustained is longer than the certain value, and the previous exercise state M is the sitting state, there is a possibility that the present state is the sitting state. Therefore, the CPU 2 estimates that the subject 21 is in a seated state.

なお、CPU2が複数種類の着座状態、または、複数種類の起立状態を推定するようにしても良い。例えば、直立した着座状態ではφ<5°、前傾した着座状態ではφ>20°、後傾した着座状態ではφ>20°、直立した起立状態ではφ<5°、前傾した起立状態では20°>φ>10°であると定義して、CPU2が直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態、及び前傾した起立状態を推定するようにしても良い。   Note that the CPU 2 may estimate a plurality of types of sitting states or a plurality of types of standing states. For example, φ <5 ° in an upright seated state, φ> 20 ° in a forward tilted seat state, φ> 20 ° in a back tilted seated state, φ <5 ° in an upright standing state, and in a standing upright state By defining that 20 °> φ> 10 °, the CPU 2 estimates an upright seating state, a forward tilted seating state, a rearward tilted seating state, an upright standing state, and a forward tilted standing state. Also good.

図10は、転倒検出処理ST4の一例を説明するフローチャートである。図10において、ステップS4−1aでは、CPU2がAC信号成分に基づいて、次式で表される現時点の加速度と過去t秒間における平均加速度との差Dを算出する。 FIG. 10 is a flowchart for explaining an example of the fall detection process ST4. In FIG. 10, in step S4-1a, the CPU 2 calculates a difference D between the current acceleration expressed by the following equation and the average acceleration in the past t x seconds based on the AC signal component.

ステップS4−1bでは、CPU2が差Dの閾値をTh2で表すと、次のm秒間の差D(k=1,...、m)が、全てのkについてD>Th2であるか否かを判定し、判定結果がNoであると処理はステップS4−1aに戻る。差Dが少なくとも次のm秒間だけ閾値Th2より大きくステップS4−1bの判定結果がYesであると、ステップS4−1cでは、CPU2がφ>60°であるか否かを判定し、判定結果がNoであると対象者21は横臥状態であると判断して処理はステップS4−1aに戻る。ステップS4−1cの判定結果がYesであると、ステップS4−2aでは、CPU2が対象者21の転倒状態を検出し、転倒状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS4−2bでは、CPU2が例えば次の60秒間のSMAを算出し、図6のステップS2−2bと同様に運動状態を検出する。ステップS4−2cでは、CPU2がφ<60°であるか否かを判定し、判定結果がNoであると、ステップS4−2dでは、CPU2が警告を出力して警告に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS4−2cの判定結果がYesであると、ステップS4−2eでは、CPU2が対象者21の転倒状態から直立状態への遷移を検出し、起立状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。 In step S4-1b, if the CPU 2 represents the threshold value of the difference D by Th2, whether the difference D k (k = 1,..., M) for the next m seconds is D k > Th2 for all k. It is determined whether or not, and if the determination result is No, the processing returns to step S4-1a. If the difference Dk is greater than the threshold Th2 for at least the next m seconds and the determination result in step S4-1b is Yes, in step S4-1c, the CPU 2 determines whether φ> 60 °, and the determination result. If No, the subject 21 is determined to be in a lying position, and the process returns to step S4-1a. If the determination result in step S4-1c is Yes, in step S4-2a, the CPU 2 detects the fall state of the subject 21, and stores the parameters relating to the fall state in the storage unit 3 together with time information managed by the CPU 2. In step S4-2b, the CPU 2 calculates the SMA for the next 60 seconds, for example, and detects the exercise state in the same manner as in step S2-2b in FIG. In step S4-2c, the CPU 2 determines whether or not φ <60 °. If the determination result is No, in step S4-2d, the CPU 2 outputs a warning and the CPU 2 manages data related to the warning. It memorize | stores in the memory | storage part 3 with time information. On the other hand, if the determination result in step S4-2c is Yes, in step S4-2e, the CPU 2 detects the transition of the subject 21 from the falling state to the upright state, and the CPU 2 manages parameters related to the standing state. At the same time, it is stored in the storage unit 3.

このように、差Dが少なくとも次のm秒間だけ閾値Th2より大きく、且つ、傾き角度φが第1の角度より大きいと(例えば、φ>60°であると)、CPU2が転倒状態を検出する。また、CPU2が転倒状態を検出した後の例えば次の一定時間(例えば、60秒間)のSMAから運動状態を検出し、傾き角度φが第1の角度より大きいと(例えば、φ>60°であると)警告を出力し、第1の角度より小さいと(例えば、φ<60°であると)対象者21の転倒状態から起立状態への遷移を検出する。 As described above, when the difference Dk is larger than the threshold Th2 for at least the next m seconds and the inclination angle φ is larger than the first angle (for example, φ> 60 °), the CPU 2 detects the fall state. To do. Further, for example, when the movement state is detected from the SMA of the next fixed time (for example, 60 seconds) after the CPU 2 detects the falling state, and the inclination angle φ is larger than the first angle (for example, φ> 60 °) If there is, a warning is output, and if the angle is smaller than the first angle (for example, φ <60 °), the transition of the subject 21 from the falling state to the standing state is detected.

図11は、歩行検出処理ST5の一例を説明するフローチャートである。図11において、ステップS5−1aでは、CPU2がAC信号成分に基づいて、直立状態であり過去の一定運動期間(例えば、数秒間)における傾き角度φの平均が35°未満であるか否かを判定する。ステップS5−1aの判定結果がYesであると、ステップS5−1bでは、CPU2が運動期間が例えば5秒より長いか否かを判定する。ステップS5−1bの判定結果がYesであると、ステップS5−1cでは、CPU2が図12と共に後述する周期性判定処理により周期性の運動であるか否かを判定する。ステップS5−1a,S5−1b,S5−1cのいずれかの判定結果がNoであると、ステップS5−2bでは、CPU2が対象者21が歩行状態ではない状態であることを検出し、歩行状態ではない状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS5−1cの判定結果がYesであると、ステップS5−1dでは、CPU2が運動期間中のSMAが歩行状態以外の運動期間中の平均SMAより大きいか否かを判定する。ステップS5−1dの判定結果がYesであると、ステップS5−2aでは、CPU2が対象者21が歩行状態であることを検出し、歩行状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS5−1dの判定結果がNoであると、ステップS5−2cでは、CPU2が対象者21がおそらく歩行状態であること、即ち、対象者21が歩行状態である可能性が十分高いことを検出し、この状態に関するパラメータをCPU2が管理する時間情報と共に記憶部3に記憶する。   FIG. 11 is a flowchart for explaining an example of the walking detection process ST5. In FIG. 11, in step S5-1a, based on the AC signal component, the CPU 2 is in an upright state and determines whether or not the average of the inclination angle φ in a past fixed exercise period (for example, several seconds) is less than 35 °. judge. If the determination result in step S5-1a is Yes, in step S5-1b, the CPU 2 determines whether the exercise period is longer than, for example, 5 seconds. If the decision result in the step S5-1b is Yes, in a step S5-1c, the CPU 2 decides whether or not the exercise is a periodic exercise by a periodicity judgment process described later with reference to FIG. When the determination result of any of steps S5-1a, S5-1b, and S5-1c is No, in step S5-2b, the CPU 2 detects that the subject 21 is not in a walking state, and the walking state The parameters relating to the non-state are stored in the storage unit 3 together with the time information managed by the CPU 2. If the determination result in step S5-1c is Yes, in step S5-1d, the CPU 2 determines whether or not the SMA during the exercise period is greater than the average SMA during the exercise period other than the walking state. If the determination result in step S5-1d is Yes, in step S5-2a, the CPU 2 detects that the subject 21 is in a walking state, and stores parameters related to the walking state in the storage unit 3 together with time information managed by the CPU 2. Remember. On the other hand, if the determination result in step S5-1d is No, in step S5-2c, the CPU 2 has a sufficiently high possibility that the subject 21 is probably in a walking state, that is, the subject 21 is in a walking state. And the parameter relating to this state is stored in the storage unit 3 together with time information managed by the CPU 2.

図12は、図11中破線で囲まれたステップS5−1cにおける周期性判定処理の一例を説明するフローチャートである。図12において、ステップS51では、CPU2がAC信号成分中のz軸信号にフーリエ変換を施してピーク値を検出すると共に、z軸信号のピーク値をランダムに選択する。ステップS52では、CPU2が選択したピーク値を中心として例えば1秒間のサンプル信号Srefを取得する。ステップS53では、CPU2がサンプル信号S後の例えば10秒期間に1秒のウィンドウを順次適用する。ステップS54では、CPU2がサンプル信号Srefと、サンプル信号Sref後の10個のサンプル信号Sとの間の相関係数γを算出する。ステップS55では、CPU2がiをi=1に設定すると共に、jをj=1に設定する。ステップS56では、CPU2が相関係数γの閾値をTh3で表すと、γ>Th3であるか否かを判定する。閾値Th3は、例えば0.85である。 FIG. 12 is a flowchart illustrating an example of the periodicity determination process in step S5-1c surrounded by a broken line in FIG. In FIG. 12, in step S51, the CPU 2 performs a Fourier transform on the z-axis signal in the AC signal component to detect a peak value, and randomly selects the peak value of the z-axis signal. In step S52, for example, a sample signal S ref for 1 second is acquired with the peak value selected by the CPU 2 as the center. At step S53, sequentially applying a window of 1 second, for example 10 seconds period after the CPU2 sample signal S i. In step S54, the CPU 2 calculates a correlation coefficient γ i between the sample signal S ref and the ten sample signals S i after the sample signal S ref . In step S55, the CPU 2 sets i to i = 1 and j to j = 1. In step S56, if the threshold value of the correlation coefficient γ i is represented by Th3, the CPU 2 determines whether γ i > Th3. The threshold value Th3 is, for example, 0.85.

ステップS56の判定結果がNoであると、ステップS57では、CPU2がi>10であるか否かを判定し、判定結果がNoであると、ステップS58では、CPU2がiをi=i+1にインクリメントして処理はステップS56へ戻る。一方、ステップS57の判定結果がYesであると、ステップS59では、CPU2が対象者21の運動が周期性でない運動であることを判定し、周期性でない運動であることに関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。   If the determination result in step S56 is No, in step S57, the CPU 2 determines whether i> 10. If the determination result is No, in step S58, the CPU 2 increments i to i = i + 1. Then, the process returns to step S56. On the other hand, if the determination result in step S57 is Yes, in step S59, the CPU 2 determines that the exercise of the subject 21 is a non-periodic exercise, and the CPU 2 manages data relating to the non-periodic exercise. It memorize | stores in the memory | storage part 3 with time information.

ステップS56の判定結果がYesであると、ステップS60では、CPU2がサンプル信号Sを歩行テンプレートTの候補として記憶部3に記録する。ステップS61では、CPU2がjをj=j+1にインクリメントし、ステップS62では、CPU2がj>3であるか否かを判定する。ステップS62の判定結果がNoであると、処理はステップS57へ戻る。一方、ステップS62の判定結果がYesであると、ステップS63では、CPU2が対象者21の運動が周期性の運動であることを判定し、周期性の運動であることに関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。この例では、歩行テンプレートTの候補が例えば3個取得されるまで上記の如き処理が繰り返し実行される。 If the decision result in step S56 is Yes, in step S60, the CPU 2 records the sample signal S i in the storage unit 3 as a candidate for the walking template T j . In step S61, the CPU 2 increments j to j = j + 1. In step S62, the CPU 2 determines whether j> 3. If the decision result in the step S62 is No, the process returns to the step S57. On the other hand, if the determination result in step S62 is Yes, in step S63, the CPU 2 determines that the exercise of the subject 21 is a periodic exercise, and the CPU 2 manages data relating to the periodic exercise. It memorize | stores in the memory | storage part 3 with time information. In this example, the above process is repeatedly executed until, for example, three candidates for the walking template Tj are acquired.

このように、傾き角度φが第3の角度より小さく(例えば、φ<35°であり)、且つ、運動期間が一定時間(例えば、5秒)より長いと、歩行状態である可能性が高い。第3の角度は、第1の角度より小さく、且つ、第2の角度より大きい。そこで、さらに運動に周期性があり、且つ、運動期間中のSMAが歩行状態以外の運動期間中の平均SMAより大きいと、CPU2が歩行状態を検出する。傾き角度φが第3の角度以上であるか、或いは、運動期間が一定時間未満であるか、或いは、運動に周期性がないと、CPU2が歩行状態ではないと判定する。また、運動期間中のSMAが歩行状態以外の運動期間中の平均SMA以下であると、CPU2がおそらく歩行状態であると判定する。なお、運動に周期性があるか否かの判定は、図12と共に説明した如き歩行テンプレートが一定数(例えば、3個)取得されるか否かにより判定可能であり、一定数取得されると運動に周期性があると判定する。   Thus, when the inclination angle φ is smaller than the third angle (for example, φ <35 °) and the exercise period is longer than a certain time (for example, 5 seconds), there is a high possibility of being in a walking state. . The third angle is smaller than the first angle and larger than the second angle. Therefore, if the exercise has periodicity and the SMA during the exercise period is larger than the average SMA during the exercise period other than the walking state, the CPU 2 detects the walking state. If the inclination angle φ is greater than or equal to the third angle, or if the exercise period is less than a certain time, or if the exercise has no periodicity, the CPU 2 determines that it is not in a walking state. Further, if the SMA during the exercise period is equal to or less than the average SMA during the exercise period other than the walking state, the CPU 2 determines that it is probably in the walking state. Note that whether or not the exercise has periodicity can be determined by whether or not a certain number (for example, three) of walking templates as described with reference to FIG. 12 is acquired. Judge that the movement is periodic.

図13は、状態遷移検出処理ST6の一例を説明するフローチャートである。図13において、ステップS6−1aでは、CPU2が静止状態検出処理ST3により検出され記憶部3に記憶された前回の静止状態に関するパラメータに基づいて、前回の静止状態が横臥状態であるか否かを判定する。ステップS6−1aの判定結果がYesであると、ステップS6−1bでは、CPU2が静止状態検出処理ST3により検出され記憶部2に記憶された今回の静止状態に関するパラメータに基づいて、今回の静止状態が横臥状態であるか否かを判定する。前回または今回の静止状態が横臥状態であるか否かは、例えば図7のステップS3−1bのように前回または今回の傾き角度φが第1の角度より大きい(φ>60°)か否かに基づいて判定可能である。ステップS6−1bの判定結果がYesであると、ステップS6−2aでは、CPU2が対象者21の横臥−横臥遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS6−1bの判定結果がNoであると、ステップS6−2bでは、CPU2が対象者21の横臥−直立遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。   FIG. 13 is a flowchart for explaining an example of the state transition detection process ST6. In FIG. 13, in step S6-1a, the CPU 2 determines whether or not the previous stationary state is a recumbent state based on the parameter relating to the previous stationary state detected by the stationary state detection process ST3 and stored in the storage unit 3. judge. If the determination result in step S6-1a is Yes, in step S6-1b, the CPU 2 detects the current stationary state based on the parameters related to the stationary state detected by the stationary state detection process ST3 and stored in the storage unit 2. It is determined whether or not is in a recumbent state. Whether the previous or current stationary state is a recumbent state is, for example, whether or not the previous or current inclination angle φ is larger than the first angle (φ> 60 °) as in step S3-1b of FIG. Can be determined based on If the determination result in step S6-1b is Yes, in step S6-2a, the CPU 2 determines the recumbent-recumbent transition of the subject 21, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. Remember. If the determination result in step S6-1b is No, in step S6-2b, the CPU 2 determines whether the subject 21 is lying down and standing upright, and data related to the determination result is stored in the storage unit 3 together with time information managed by the CPU 2. Remember.

一方、ステップS6−1aの判定結果がNoであると、ステップS6−1cでは、CPU2が静止状態検出処理ST3により検出され記憶部3に記憶された今回の静止状態に関するパラメータに基づいて、今回の静止状態が直立状態であるか否かを判定する。今回の静止状態が直立状態であるか否かは、例えば今回の傾き角度φがφ=90°(起立状態に相当)またはφ<60°(着座状態に相当)を満足するかに基づいて判定可能である。ステップS6−1cの判定結果がYesであると、ステップS6−1dでは、CPU2が例えば前回傾き角度φと今回の傾き角度φとの間の変位に基づいて、着座−起立遷移または起立−着座遷移であるか否かを判定する。ステップS6−1dの判定結果がYesであると、ステップS6−1eでは、CPU2が例えば前回と今回の傾き角度φの変位に基づいて、着座−起立遷移であるか否かを判定する。ステップS6−1eの判定結果がYesであると、ステップS6−2cでは、CPU2が着座−起立遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS6−1eの判定結果がNoであると、ステップS6−2dでは、CPU2が起立−着座遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS6−1dの判定結果がNoであると、ステップS6−2eでは、CPU2が他の運動状態を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。また、ステップS6−1cの判定結果がNoであると、ステップS6−2fでは、CPU2が直立−横臥遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。   On the other hand, if the determination result in step S6-1a is No, in step S6-1c, the CPU 2 detects the current stationary state based on the parameters related to the current stationary state detected by the stationary state detection process ST3 and stored in the storage unit 3. It is determined whether the stationary state is an upright state. Whether or not the current stationary state is an upright state is determined, for example, based on whether the current inclination angle φ satisfies φ = 90 ° (corresponding to a standing state) or φ <60 ° (corresponding to a sitting state). Is possible. If the determination result in step S6-1c is Yes, in step S6-1d, the CPU 2 determines whether the sitting-standing transition or the standing-sitting transition is based on, for example, the displacement between the previous tilt angle φ and the current tilt angle φ. It is determined whether or not. If the determination result in step S6-1d is Yes, in step S6-1e, the CPU 2 determines whether it is a seating-standing transition based on, for example, the previous and current displacements of the inclination angle φ. If the determination result in step S6-1e is Yes, in step S6-2c, the CPU 2 determines the sitting-standing transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. If the determination result in step S6-1e is No, in step S6-2d, the CPU 2 determines the standing-sitting transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. If the determination result in step S6-1d is No, in step S6-2e, the CPU 2 determines another exercise state, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. If the determination result in step S6-1c is No, in step S6-2f, the CPU 2 determines the upright-backward transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. .

図14及び図15は、図13中破線で囲まれたステップS6−1d,S6−1e,S6−2c〜S6−2eで実行される状態遷移判定処理の一例を説明するフローチャートである。図14において、ステップS601では、CPU2がAC信号成分に基づいて、x軸信号を例えばスプライン曲線を用いてモデル化する。ステップS602では、CPU2がモデル化されたx軸信号のピーク数を算出する。モデル化されたx軸信号のピーク数は、起立状態の対象者21の場合であれば、対象者21の前後方向の加速度のピーク数を表す。ステップS603では、CPU2がモデル化されたx軸信号のピーク数が閾値より小さいか否かを判定し、判定結果がYesであると処理はステップS604へ進み、判定結果がNoであると処理はステップS606へ進む。ステップS604では、CPU2が前回の運動状態の開始時(または、前回の静止状態の終了時)の傾き角度φから前回の運動状態の終了時(または、今回の静止状態の開始時)の傾き角度φへの変位Δφ=φ−φを算出する。 14 and 15 are flowcharts for explaining an example of the state transition determination process executed in steps S6-1d, S6-1e, and S6-2c to S6-2e surrounded by a broken line in FIG. In FIG. 14, in step S601, the CPU 2 models the x-axis signal using, for example, a spline curve based on the AC signal component. In step S602, the CPU 2 calculates the number of peaks of the modeled x-axis signal. The number of peaks of the modeled x-axis signal represents the number of acceleration peaks in the front-rear direction of the subject 21 in the case of the subject 21 standing up. In step S603, the CPU 2 determines whether the number of peaks of the modeled x-axis signal is smaller than the threshold value. If the determination result is Yes, the process proceeds to step S604. If the determination result is No, the process is performed. The process proceeds to step S606. At step S604, the inclination at the start CPU2 is the previous state of motion (or, at the end of the previous stationary state) at the end of the previous movement status from the inclination angle phi 1 (or, at the beginning of this stationary state) The displacement Δφ = φ 2 −φ 1 to the angle φ 2 is calculated.

ステップS605では、CPU2がパラメータtを次式の如く定義すると共に、xをx=1に設定し、処理は後述するステップ607へ進む。この例では、Δφの値が正の値であるということは、対象者21が着座後または起立後に対象者21が後方へ傾いたことを表す。また、t=1であると対象者21の起立状態、t=2であると着座状態、t=0であると直立状態以外であるその他(otherwise)の状態を表す。   In step S605, the CPU 2 defines the parameter t as in the following equation, sets x to x = 1, and the process proceeds to step 607 described later. In this example, the fact that the value of Δφ is a positive value indicates that the subject 21 has tilted backward after sitting or standing. Further, when t = 1, the subject 21 stands up, when t = 2, the sitting state, and when t = 0, the other state other than the upright state.

また、ステップS603の判定結果がNoであると、CPU2がモデル化されたx軸信号のピーク数が着座と起立と間の遷移とみなすには多すぎると判断し、ステップS606では、CPU2がt,xをt=0,x=0に設定し、処理は後述するステップS607へ進む。ステップS603を設けることで、モデル化されたx軸信号のピーク数が多く閾値以上であると、対象者21の前後方向の動きが着座動作または起立動作の場合と比較すると多く、CPU2が着座−起立間の状態遷移ではないと判定できる。   If the determination result in step S603 is No, the CPU 2 determines that the number of peaks of the modeled x-axis signal is too large to be regarded as a transition between sitting and standing. In step S606, the CPU 2 , X are set to t = 0, x = 0, and the process proceeds to step S607 described later. By providing step S603, if the number of peaks of the modeled x-axis signal is large and equal to or greater than the threshold value, the movement of the subject 21 in the front-rear direction is greater than that in the seating operation or standing operation, and the CPU 2 is seated. It can be determined that the state transition is not between standing.

ステップS607では、CPU2がAC信号成分に基づいて、y軸信号を例えばスプライン曲線を用いてモデル化すると共に、z軸信号を例えばスプライン曲線を用いてモデル化する。ステップS608では、CPU2がモデル化されたy軸信号とピーク数とz軸信号のピーク数を算出する。モデル化されたy軸信号のピーク数は、起立状態の対象者21の場合であれば、対象者21の前後方向に対して左右方向(または、横方向)の加速度のピーク数を表す。モデル化されたz軸信号のピーク数は、起立状態の対象者21の場合であれば、重力方向及び重力方向とは反対方向の加速度のピーク数を表す。なお、ステップS607,608を省略し、ステップS601,S602においてさらに、y,z軸信号のモデル化及びy,z軸信号のピーク数の算出を行うようにしても良い。
ステップS609では、CPU2がz軸信号のピーク数が閾値より小さいか否かを判定し、判定結果がYesであると処理はステップS610へ進む。ステップS610では、CPU2がモデル化されたz軸信号の波形の山の最大値、山の形状、谷の最大値、谷の形状、及び山の時刻を検出する。モデル化されたz軸信号の波形の山の最大値(または、ピーク)は、例えば起立状態の対象者21の重力方向の最大加速度に相当し、山の形状は、例えば起立状態の対象者21の重力方向の加速度の変化に相当する。また、モデル化されたz軸信号の波形の谷の最大値(または、ピーク)は、例えば起立状態の対象者21の重力方向とは反対方向の最大加速度に相当し、谷の形状は、例えば起立状態の対象者21の重力方向とは反対方向の加速度の変化に相当する。z軸信号の波形の山の時刻は、起立状態の対象者21が重力方向への運動(即ち、着座動作)を行い椅子などに座り重力方向への運動が終了して(例えば、SMA≦Th1となり図6のステップS2−2bの判定結果がNoになり)z軸方向上のピーク(この例では山)が得られた時の時刻に相当する。ステップS610の後、処理はステップS611及びステップS614へ進む。一方、ステップS609の判定結果がNoであると、CPU2がモデル化されたz軸信号のピーク数が着座と起立と間の遷移とみなすには多すぎると判断し、ステップS612では、CPU2がz,yをz=0,y=0に設定し、処理は後述する図15のステップS621へ進む。
In step S607, the CPU 2 models the y-axis signal using, for example, a spline curve, and models the z-axis signal using, for example, a spline curve, based on the AC signal component. In step S608, the CPU 2 calculates the modeled y-axis signal, the number of peaks, and the number of peaks of the z-axis signal. In the case of the standing subject 21, the number of peaks of the modeled y-axis signal represents the number of acceleration peaks in the left-right direction (or the lateral direction) with respect to the front-rear direction of the subject 21. The number of peaks of the modeled z-axis signal represents the number of acceleration peaks in the direction of gravity and the direction opposite to the direction of gravity in the case of the standing subject 21. Note that steps S607 and 608 may be omitted, and the modeling of the y and z axis signals and the calculation of the number of peaks of the y and z axis signals may be further performed in steps S601 and S602.
In step S609, the CPU 2 determines whether or not the number of peaks of the z-axis signal is smaller than the threshold value. If the determination result is Yes, the process proceeds to step S610. In step S610, the CPU 2 detects the peak value, peak shape, valley maximum value, valley shape, and peak time of the modeled z-axis signal waveform. The maximum peak value (or peak) of the modeled z-axis signal waveform corresponds to, for example, the maximum acceleration in the gravitational direction of the standing subject 21, and the peak shape is, for example, the standing subject 21. This corresponds to a change in acceleration in the direction of gravity. Further, the maximum value (or peak) of the valley of the waveform of the modeled z-axis signal corresponds to, for example, the maximum acceleration in the direction opposite to the direction of gravity of the subject 21 in the standing state, and the shape of the valley is, for example, This corresponds to a change in acceleration in a direction opposite to the direction of gravity of the subject 21 in the standing state. At the time of the peak of the waveform of the z-axis signal, the standing subject 21 performs a motion in the gravitational direction (ie, a seating motion) and sits on a chair or the like to finish the motion in the gravitational direction (eg, SMA ≦ Th1 And the determination result in step S2-2b in FIG. 6 is No), which corresponds to the time when the peak (in this example, a mountain) on the z-axis direction is obtained. After step S610, the process proceeds to step S611 and step S614. On the other hand, if the determination result in step S609 is No, it is determined that the number of peaks of the z-axis signal modeled by the CPU 2 is too large to be regarded as a transition between sitting and standing. In step S612, the CPU 2 determines that z , Y are set to z = 0, y = 0, and the process proceeds to step S621 in FIG.

ステップS611では、CPU2がzを次式の如く定義する。   In step S611, the CPU 2 defines z as follows:

ステップS611において、着座−起立遷移であるとz=1であり、この場合、モデル化されたz軸信号の波形に1つの山と1つの谷があり、対象者21が起立する際は上方向の加速度が先に発生するため、山が谷より先行する。また、起立−着座遷移であるとz=2であり、この場合、モデル化されたz軸信号の波形に1つの谷と1つの山があり、対象者21が着座する際は下方向の加速度が先に発生するため、谷が山より先行する。さらに、その他(otherwise)の状態であるとz=0であり、この場合、着座−起立遷移及び起立−着座遷移の場合とは異なり、モデル化されたz軸信号の波形に例えば谷−山−谷があったり、或いは、山−谷−山があったりする。   In step S611, z = 1 when it is a sitting-standing transition, and in this case, the waveform of the modeled z-axis signal has one peak and one valley, and when the subject 21 stands up, Because the acceleration of occurs first, the mountain precedes the valley. Further, z = 2 when it is a standing-sitting transition, and in this case, the waveform of the modeled z-axis signal has one valley and one mountain, and when the subject 21 is seated, the acceleration is downward. Occurs first, so the valley precedes the mountain. Further, in an otherwise state, z = 0. In this case, unlike the case of the sitting-standing transition and the standing-sitting transition, the waveform of the modeled z-axis signal includes, for example, valley-mountain- There are valleys or mountains-valleys-mountains.

ステップS613では、CPU2がy軸信号のピーク数が閾値より小さいか否かを判定し、判定結果がYesであると処理は後述するステップS614へ進む。一方、ステップS613の判定結果がNoであると、CPU2がモデル化されたy軸信号のピーク数が着座と起立と間の遷移とみなすには多すぎると判断し、ステップS617では、CPU2がyをy=0に設定し、処理は後述する図15のステップS621へ進む。
ステップS614では、CPU2が対象者21の運動状態の終了時までの一定期間内の傾斜角度φの変位Δφを表す変位Δφwを算出する。対象者21の運動状態の終了時までの一定期間は、例えばCPU2が対象者21の運動状態の終了時までに処理するセンサ出力の最後のセグメント(または、ウィンドウw)に相当する時間(例えば、1秒)であっても良い。対象者21の運動状態の終了時は、図4のステップ2−2の判定結果がNoになることからわかる。また、CPU2が処理するセンサ出力の最後のセグメントであることは、図4のステップS6−0aの判定結果がNoになることからわかる。ステップS615では、CPU2が変位Δφwが例えば20°より大きく、且つ、ステップS610で検出したz軸信号の波形の山の時刻からある閾値時間以内に運動が終了する(即ち、図4のステップS2−2の判定結果がNoになる)か否かを判定する。ステップS615の判定結果がNoであると、処理は後述する図15のステップS621へ進む。ステップS615の判定結果がYesであると、ステップS616では、CPU2がyを次式に基づいてy=2と定義し、処理は後述する図15のステップS621へ進む。閾値時間は、例えば上記一定期間(例えば、1秒)のウィンドウwに相当する時間であっても良いが、特に限定されない。
In step S613, the CPU 2 determines whether or not the number of peaks of the y-axis signal is smaller than the threshold value. If the determination result is Yes, the process proceeds to step S614 described later. On the other hand, if the determination result in step S613 is No, it is determined that the number of peaks of the y-axis signal modeled by the CPU 2 is too large to be regarded as a transition between sitting and standing. In step S617, the CPU 2 determines that y Is set to y = 0, and the process proceeds to step S621 in FIG.
In step S614, the CPU 2 calculates a displacement Δφw representing the displacement Δφ of the inclination angle φ within a certain period until the end of the motion state of the subject 21. The certain period until the end of the exercise state of the subject 21 is, for example, a time corresponding to the last segment (or window w) of the sensor output processed by the CPU 2 until the end of the exercise state of the subject 21 (for example, 1 second). At the end of the exercise state of the subject 21, it can be understood from the determination result of Step 2-2 in FIG. Further, it can be understood that the last segment of the sensor output processed by the CPU 2 is No in the determination result in step S6-0a in FIG. In step S615, the movement of the CPU 2 is finished within a certain threshold time from the peak time of the waveform of the z-axis signal detected in step S610 when the displacement Δφw is greater than 20 °, for example (step S2- in FIG. 4). Whether the determination result of 2 is No) is determined. If the decision result in the step S615 is No, the process advances to a step S621 in FIG. If the decision result in the step S615 is Yes, in a step S616, the CPU 2 defines y as y = 2 based on the following expression, and the process advances to a step S621 in FIG. The threshold time may be, for example, a time corresponding to the window w for the predetermined period (for example, 1 second), but is not particularly limited.

ステップS615では、CPU2がステップS610で検出したz軸信号の波形の山の時刻からある閾値時間以内に対象者21の運動が終了するか否かを判定するので、対象者21が着座動作の終了部分で後傾する場合と、対象者が起立動作の終了部分で後傾する場合とを区別することができる。つまり、対象者21が着座動作の終了部分で後傾する場合、椅子の背もたれに接触するなどして閾値時間以内に対象者21の後傾が停止する。これに対し、対象者が起立動作の終了部分で後傾する場合、閾値時間以内に対象者21の後傾を停止する要素は特に無い。従って、CPU2がステップS610で検出したz軸信号の波形の山の時刻からある閾値時間以内に対象者21の運動が終了すれば、対象者21の起立状態から着座状態への遷移であり、ある閾値時間以内に対象者21の運動が終了しなければ、対象者21の起立状態から着座状態への遷移ではないことが判別可能である。   In step S615, the CPU 2 determines whether or not the exercise of the subject 21 is completed within a certain threshold time from the peak time of the waveform of the z-axis signal detected in step S610. It is possible to distinguish between the case where the part tilts backward and the case where the subject tilts backward at the end part of the standing motion. In other words, when the subject 21 tilts backward at the end of the seating operation, the backward tilt of the subject 21 stops within the threshold time, for example, by touching the back of the chair. On the other hand, when the subject tilts backward at the end of the standing motion, there is no particular element that stops the backward tilt of the subject 21 within the threshold time. Therefore, if the movement of the subject 21 is completed within a certain threshold time from the time of the peak of the waveform of the z-axis signal detected by the CPU 2 in step S610, the transition of the subject 21 from the standing state to the sitting state is If the exercise of the subject 21 is not completed within the threshold time, it can be determined that the subject 21 is not transitioning from the standing state to the sitting state.

図15において、ステップS621では、CPU2が遷移transition、起立状態std及び着座状態stdを次式の如く定義する。   In FIG. 15, in step S621, the CPU 2 defines a transition transition, a standing state std, and a seating state std as follows.


ここで、sgn(z)及びsgn(t)は、次式の如き符号関数である。

Here, sgn (z) and sgn (t) are sign functions such as the following equations.

ステップS622では、CPU2がtransition>0であるか否かを判定し、判定結果がYesであると、ステップS623では、CPU2がsit>stdであるか否かを判定する。ステップS623の判定結果がYesであると、ステップS6−2dでは、CPU2が起立−着座遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS623の判定結果がNoであると、ステップS624では、CPU2がsit<stdであるか否かを判定する。ステップS624の判定結果がYesであると、ステップS6−2cでは、CPU2が着座−起立遷移を判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。ステップS624の判定結果がNoであると、ステップS6−2gでは、CPU2が遷移の途中の中間的な状態であると判定し、この判定結果に関するデータをCPU2が管理する時間情報と共に記憶部3に記憶する。一方、ステップS622の判定結果がNoであると、ステップS6−2eでは、CPU2が他の運動状態を判定し、この判定結果に関するデータを記憶部3に記憶する。   In step S622, the CPU 2 determines whether or not transition> 0. If the determination result is Yes, in step S623, the CPU 2 determines whether or not sit> std. If the determination result in step S623 is Yes, in step S6-2d, the CPU 2 determines the standing-sitting transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. If the decision result in the step S623 is No, in a step S624, the CPU 2 decides whether or not sit <std. If the determination result in step S624 is Yes, in step S6-2c, the CPU 2 determines the seating-standing transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. If the determination result in step S624 is No, in step S6-2g, the CPU 2 determines that the intermediate state is in the middle of the transition, and stores data related to the determination result in the storage unit 3 together with time information managed by the CPU 2. Remember. On the other hand, if the determination result in step S622 is No, in step S6-2e, the CPU 2 determines another exercise state and stores data related to the determination result in the storage unit 3.

このように、CPU2が前回と今回の静止状態から横臥状態、起立状態、着座状態間の遷移を判定する。そして、前回と今回の静止状態が共に直立状態であると、CPU2が着座−起立遷移状態であるか、或いは、起立−着座遷移状態であるかを判定する。また、x軸信号については、状態遷移の開始時の傾き角度φと終了時の傾き角度φへの変位Δφ=φ−φが第1の値(例えば、−20°)より小さいと、CPU2が着座−起立遷移であると判定し、変位Δφ=φ−φが第1の値より大きな第2の値(例えば、20°)より大きいと、CPU2が起立−着座遷移であると判定する。一方、z軸信号については、モデル化されたz軸信号の波形の山と、谷と、山及び谷の形状に基づいて、CPU2が着座−起立遷移であるか、或いは、起立−着座遷移であるかを判定する。x軸信号についての状態遷移の判定結果と、z軸信号についての状態遷移の判定結果は、CPU2が図15に示す如き規則で合成し、最終的な状態遷移の判定結果を得る。 In this way, the CPU 2 determines the transition between the lying state, the standing state, and the sitting state from the previous and current stationary states. If both the previous and current stationary states are in the upright state, the CPU 2 determines whether the CPU 2 is in the sitting-standing transition state or in the standing-sitting transition state. For the x-axis signal, the displacement Δφ = φ 2 −φ 1 to the inclination angle φ 1 at the start of the state transition and the inclination angle φ 2 at the end of the state transition is smaller than the first value (for example, −20 °). When the CPU 2 determines that the transition is a sitting-standing transition and the displacement Δφ = φ 2 −φ 1 is larger than a second value (for example, 20 °) larger than the first value, the CPU 2 is in a standing-sitting transition. Judge that there is. On the other hand, with respect to the z-axis signal, the CPU 2 is in the sitting-standing transition or in the standing-sitting transition based on the modeled peaks and valleys of the z-axis signal and the shapes of the peaks and valleys. Determine if there is. The determination result of the state transition for the x-axis signal and the determination result of the state transition for the z-axis signal are combined by the CPU 2 according to the rules shown in FIG. 15 to obtain a final determination result of the state transition.

つまり、運動検出処理ST2が対象者21の運動状態を検出する前後に静止状態検出処理ST3が対象者21の着座状態及び起立状態を含む対象者21の直立状態を検出すると、状態遷移検出処理ST6は、対象者21の運動の終了までの一定期間内の傾き角度φの変位Δφwを算出し、この変位Δφwが第1の値(例えば、−20°)未満であれば対象者21の起立状態への遷移を推定し、第1の値より大きい第2の値(例えば、20°)を超えていれば対象者21の着座状態への遷移を推定する。   That is, if the stationary state detection process ST3 detects the upright state of the subject 21 including the sitting state and the standing state of the subject 21 before and after the motion detection process ST2 detects the motion state of the subject 21, the state transition detection process ST6. Calculates the displacement Δφw of the inclination angle φ within a certain period until the end of the movement of the subject 21, and if the displacement Δφw is less than a first value (for example, −20 °), the standing state of the subject 21 is calculated. The transition to is estimated, and if the second value (for example, 20 °) larger than the first value is exceeded, the transition of the subject 21 to the seating state is estimated.

例えば、対象者21が椅子に着座する場合、着座する方向への運動が終了してからのある期間内に対象者21が椅子の背もたれによりかかるなどして対象者21の前後方向への動きがある。つまり、対象者21が着座後に、ある程度の後方向への動きがある。これに対し、椅子に着座している対象者21が起立する場合、起立する方向への運動が終了してからのある期間内に対象者21の前後方向への動き、特に、後方向への動きは、着座する場合と比較すると少ない。そこで、対象者21の運動状態を検出する前後に直立状態を検出した後、対象者21の運動の終了時までの一定期間内の対象者21の前後方向への動きに応じて、CPU2が着座−起立遷移であるか、或いは、起立−着座遷移であるかを正確に判定できる。つまり、対象者21の運動状態を検出する前後に直立状態を検出した後、対象者21の運動の終了時までの一定期間内の対象者21の前後方向への動きが第1の値未満であり少なければ、CPU2が起立状態への遷移を推定し、第1の値より大きな第2の値を超えており多ければ、CPU2が着座状態への遷移を推定することができる。
また、対象者21が着座動作の終了部分で後傾する場合、椅子の背もたれに接触するなどして閾値時間以内に対象者21の後傾が止められる。これに対し、対象者が起立動作の終了部分で後傾する場合、閾値時間以内に対象者21の後傾を止める要素は特に無い。従って、CPU2がステップS610で検出したz軸信号の波形の山の時刻からある閾値時間以内に対象者21の運動が終了すれば、対象者21の起立状態から着座状態への遷移であり、ある閾値時間以内に対象者21の運動が終了しなければ、対象者21の起立状態から着座状態への遷移ではないことが判別可能である。
上記の例では、対象者21のx軸方向への動きは、傾き角度φを比較することで比較しているが、これに限定されるものではない。また、上記の例では、対象者21のz軸方向に沿った運動の終了時からの閾値時間は固定値であるが、閾値時間は例えば対象者21毎に適宜設定可能である。
For example, when the subject 21 sits on a chair, the subject 21 moves in the front-rear direction because the subject 21 is seated on the back of the chair within a certain period after the movement in the seating direction ends. is there. That is, there is a certain amount of backward movement after the subject 21 is seated. On the other hand, when the subject person 21 sitting on the chair stands up, the subject person 21 moves in the front-rear direction within a certain period after the movement in the standing direction ends, particularly in the backward direction. There is less movement compared to sitting. Therefore, after detecting the standing state before and after detecting the motion state of the subject person 21, the CPU 2 is seated in accordance with the motion of the subject person 21 in the front-rear direction within a certain period until the end of the motion of the subject person 21. -It is possible to accurately determine whether it is a standing transition or a standing-sitting transition. That is, after detecting the upright state before and after detecting the motion state of the subject 21, the motion of the subject 21 in the front-rear direction within a certain period until the end of the motion of the subject 21 is less than the first value. If not, the CPU 2 estimates the transition to the standing state, and if it exceeds the second value larger than the first value, the CPU 2 can estimate the transition to the seating state.
Further, when the subject 21 tilts backward at the end of the seating operation, the subject 21 is prevented from tilting backward within a threshold time, for example, by touching the back of the chair. On the other hand, when the subject tilts backward at the end of the standing motion, there is no particular element that stops the subject 21 from tilting backward within the threshold time. Therefore, if the movement of the subject 21 is completed within a certain threshold time from the time of the peak of the waveform of the z-axis signal detected by the CPU 2 in step S610, the transition of the subject 21 from the standing state to the sitting state is If the exercise of the subject 21 is not completed within the threshold time, it can be determined that the subject 21 is not transitioning from the standing state to the sitting state.
In the above example, the movement of the subject 21 in the x-axis direction is compared by comparing the inclination angle φ, but is not limited to this. In the above example, the threshold time from the end of the exercise along the z-axis direction of the subject 21 is a fixed value, but the threshold time can be appropriately set for each subject 21, for example.

上記実施例によれば、CPU2が上記の処理ST1〜ST7において検出した状態または状態遷移に関するデータを時間情報と共に記憶部3に記憶するため、対象者21の日常生活中の静止状態及び運動状態に関する履歴を、例えば半日単位、1日単位、1週間単位、1月単位などのある時間単位で記憶部3内に記憶することができる。このような履歴は、通信部5を介して定期的または任意のタイミングでサーバ11へ送信することで、サーバ11内で対象者21の健康状態などを履歴に基づいて解析しても良い。また、推定した各静止状態、各運動状態、及び各状態遷移を時間情報と共に記憶部3に記憶する場合、記憶部3内で履歴を記憶するのに要するデータ記憶領域を詳細な履歴情報を記憶する場合と比べて削減できる。   According to the above embodiment, since the CPU 2 stores the data related to the state or state transition detected in the above-described processes ST1 to ST7 in the storage unit 3 together with the time information, it relates to the stationary state and the exercise state of the subject 21 in daily life. The history can be stored in the storage unit 3 in a certain time unit such as a half day unit, a day unit, a week unit, or a month unit. Such a history may be transmitted to the server 11 periodically or at an arbitrary timing via the communication unit 5 to analyze the health state of the target person 21 in the server 11 based on the history. Further, when each estimated stationary state, each motion state, and each state transition is stored in the storage unit 3 together with time information, detailed history information is stored in the data storage area required to store the history in the storage unit 3 It can be reduced compared to the case of doing.

また、CPU2が装着及び運動検出処理ST2において検出した装着または運動状態に関するパラメータを時間情報と共に記憶部3に記憶するため、対象者21が姿勢推定装置1を装着した時刻、回数、期間などの情報、及び、対象者21が運動状態であった時刻、回数、期間などの情報を履歴をある時間単位で記憶部3内に記憶することができる。履歴から、対象者21が運動状態であった期間の一定期間に対する割合などの情報をCPU2或いはサーバ11で求めても良い。対象者21が運動状態であった期間の一定期間に対する割合などの情報をCPU2で求める場合には、求めた情報を記憶部3内の履歴に含めても良い。   In addition, since the CPU 2 stores parameters related to the wearing or movement state detected in the wearing and movement detection process ST2 in the storage unit 3 together with time information, information such as the time, the number of times, the period, etc. when the subject 21 wears the posture estimation device 1. And information, such as the time, the number of times, and the period when the subject 21 was in an exercise state, can be stored in the storage unit 3 in a certain time unit. From the history, the CPU 2 or the server 11 may obtain information such as a ratio of a period during which the subject 21 is in an exercise state to a certain period. When the CPU 2 obtains information such as the ratio of the period during which the subject 21 is in an exercise state to the certain period, the obtained information may be included in the history in the storage unit 3.

さらに、CPU2が静止状態検出処理ST3において検出した静止状態に関するパラメータを時間情報と共に記憶部3に記憶するため、対象者21が静止状態であった時刻、回数、期間、着座状態における傾き角度φなどの履歴をある時間単位で記憶部3内に記憶することができる。従って、履歴から、対象者21が起立状態、着座状態、横臥状態などの静止状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2或いはサーバ11で求めても良い。対象者21が起立状態、着座状態、横臥状態などの静止状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2で求める場合には、求めた情報を記憶部3内の履歴に含めても良い。   Furthermore, since the CPU 2 stores the parameters related to the stationary state detected in the stationary state detection process ST3 in the storage unit 3 together with the time information, the time, number of times, the period, the inclination angle φ in the sitting state, etc. when the subject 21 is stationary. Can be stored in the storage unit 3 in a certain time unit. Therefore, the CPU 2 or the server 11 may obtain information such as an average, a maximum value, and a ratio with respect to a certain period of the period in which the target person 21 is in a stationary state such as a standing state, a sitting state, and a lying state from the history. When the CPU 2 obtains information such as the average, maximum value, ratio for a certain period of time during which the subject 21 is in a stationary state such as a standing state, a sitting state, and a lying state, the obtained information is stored in the storage unit 3. It may be included in the history.

また、CPU2が転倒検出処理ST4において検出された転倒状態に関するパラメータを時間情報と共に記憶部3に記憶するため、対象者21が転倒状態であった時刻、回数、期間、警告が出力された回数などの情報を上記のある時間単位で記憶部3内に記憶することができる。また、履歴から、対象者21が転倒状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2或いはサーバ11で求めても良い。対象者21が転倒状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2で求める場合には、求めた情報を記憶部3内の履歴に含めても良い。さらに、転倒状態であった時刻、回数、期間、警告が出力された回数などの情報に応じて、CPU2が履歴に含める警告のレベルを決定しても良い。例えば、転倒回数が閾値を超えた場合、転倒状態であった期間が閾値を超えた場合、或いは、警告が出力された回数が閾値を超えた場合に、CPU2が警告のレベルを1レベル高く決定しても良い。   In addition, since the CPU 2 stores the parameters regarding the fall state detected in the fall detection process ST4 in the storage unit 3 together with the time information, the time, the number of times, the period, the number of times the warning was output, etc. Can be stored in the storage unit 3 in a certain time unit. Further, from the history, the CPU 2 or the server 11 may obtain information such as an average, a maximum value, a ratio with respect to a certain period of the period when the target person 21 was in a fall state. When the CPU 2 obtains information such as the average, maximum value, and ratio for a certain period during which the subject 21 has fallen, the obtained information may be included in the history in the storage unit 3. Furthermore, the warning level that the CPU 2 includes in the history may be determined in accordance with information such as the time, number of times, period, and number of times the warning has been output. For example, when the number of falls exceeds a threshold, when the period of the fall state exceeds the threshold, or when the number of times the warning is output exceeds the threshold, the CPU 2 determines the warning level to be one level higher. You may do it.

さらに、CPU2が歩行検出処理ST5において検出した歩行状態に関するパラメータを時間情報と共に記憶部3に記憶するため、対象者21が歩行状態であった時刻、回数、期間などの情報を上記のある時間単位で記憶部3内に記憶することができる。対象者21が歩行状態であった期間は、CPU2が歩行状態が持続された各期間を記憶しても、一定時間内で歩行状態である期間の合計を記憶しても良い。また、履歴から、対象者21が歩行状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2或いはサーバ11で求めても良い。対象者21が歩行状態であった期間の平均、最大値、一定期間に対する割合などの情報をCPU2で求める場合には、求めた情報を記憶部3内の履歴に含めても良い。なお、CPU2がセンサ部4からの3軸加速度センサ出力に基づき周知の方法で算出した歩数、歩行速度などの情報を履歴に含めても良い。   Furthermore, in order to memorize | store the parameter regarding the walking state which CPU2 detected in walk detection process ST5 with the time information in the memory | storage part 3, information, such as the time, the frequency | count, and the period when the target person 21 was the walking state, is said unit of time. Can be stored in the storage unit 3. As long as the subject 21 is in the walking state, the CPU 2 may store each period in which the walking state is maintained, or may store the total of the walking state within a certain time. Further, from the history, the CPU 2 or the server 11 may obtain information such as an average, a maximum value, and a ratio with respect to a certain period during which the target person 21 is in a walking state. When the CPU 2 obtains information such as the average, maximum value, and ratio for a certain period during which the subject 21 is in a walking state, the obtained information may be included in the history in the storage unit 3. Note that information such as the number of steps and walking speed calculated by the CPU 2 by a known method based on the output of the triaxial acceleration sensor from the sensor unit 4 may be included in the history.

また、CPU2が状態遷移検出処理ST6において検出された状態遷移に関するデータを時間情報と共に記憶部3に記憶するため、対象者21が状態遷移を行った時刻、回数、期間などの情報を上記のある時間単位で記憶部3内に記憶することができる。また、履歴から、対象者21が状態遷移を行った期間の平均、最大値、一定期間に対する割合などの情報をCPU2或いはサーバ11で求めても良い。対象者21が状態遷移を行った期間の平均、最大値、一定期間に対する割合などの情報をCPU2で求める場合には、求めた情報を記憶部3内の履歴に含めても良い。   In addition, since the CPU 2 stores the data regarding the state transition detected in the state transition detection process ST6 in the storage unit 3 together with the time information, the information such as the time, the number of times, the period, etc. when the target person 21 performs the state transition is as described above. It can be stored in the storage unit 3 in time units. Further, from the history, the CPU 2 or the server 11 may obtain information such as an average, a maximum value, and a ratio with respect to a certain period during which the target person 21 has made a state transition. When the CPU 2 obtains information such as the average, maximum value, and ratio for a certain period during which the target person 21 has made a state transition, the obtained information may be included in the history in the storage unit 3.

次に、装着及び運動検出処理ST2、静止状態検出処理ST3、及び状態遷移検出処理ST6の検出結果の一例を、図16〜図23と共に説明する。   Next, an example of detection results of the wearing and motion detection process ST2, the stationary state detection process ST3, and the state transition detection process ST6 will be described with reference to FIGS.

図16は、上記実施例における装着及び運動検出処理ST2及び静止状態検出処理ST3の実験結果の一例を示す図である。図16に示す実験結果は、姿勢推定装置1がテーブル上に置かれた状態で静止状態でのRMS値、標準偏差及び最小値と、対象者21が姿勢推定装置1を装着し、起立状態を30秒間維持し、次に着座状態を30秒間維持し、次に横臥状態を30秒間維持した場合のRMS値、標準偏差及び最小値とを示す。図16は、x軸、y軸、z軸、振幅ベクトルρ及びSMAに対して、静止状態、起立状態、着座状態及び横臥状態でのRMS値、標準偏差及び最小値を示す。図16中、太い実線E1で囲んで示されているSMAのRMS値は、静止状態、起立状態、着座状態及び横臥状態を示す値が互いに識別可能な程度の異なる値にはならず、特に静止状態、着座状態及び横臥状態を識別することは難しい。これに対し、図16中、太い実線E2で囲んで示されている振幅ベクトルρのRMS値は、太い実線の楕円で示す起立状態を示す値が、静止状態、着座状態及び横臥状態を示す値と比べて大きく異なり、且つ、静止状態、起立状態、着座状態及び横臥状態を示す値が互いに識別可能な程度の異なる値となることが確認され、同様の結果が複数の実験においても確認された。従って、上記実施例によれば、対象者21の静止状態、起立状態、着座状態及び横臥状態を高精度に推定可能であることが確認された。 FIG. 16 is a diagram illustrating an example of experimental results of the mounting and motion detection process ST2 and the stationary state detection process ST3 in the above embodiment. The experimental results shown in FIG. 16 show that the RMS value, the standard deviation, and the minimum value in a stationary state with the posture estimation device 1 placed on the table, and the subject 21 wears the posture estimation device 1 and stands up. The RMS value, the standard deviation, and the minimum value are shown in the case of maintaining for 30 seconds, then maintaining the sitting state for 30 seconds, and then maintaining the recumbent state for 30 seconds. FIG. 16 shows RMS values, standard deviations, and minimum values in a stationary state, a standing state, a sitting state, and a lying state with respect to the x-axis, y-axis, z-axis, amplitude vector ρ i, and SMA. In FIG. 16, the RMS value of the SMA indicated by being surrounded by a thick solid line E1 is not different from the values indicating the stationary state, the standing state, the sitting state, and the lying state, and is particularly stationary. It is difficult to identify the state, the sitting state and the lying state. On the other hand, in the RMS value of the amplitude vector ρ i shown by being surrounded by the thick solid line E2 in FIG. 16, the values indicating the standing state indicated by the thick solid line ellipse indicate the stationary state, the sitting state, and the lying state. It was confirmed that the values indicating the static state, the standing state, the sitting state, and the lying state are different from each other so that they can be distinguished from each other, and similar results have been confirmed in a plurality of experiments. It was. Therefore, according to the said Example, it was confirmed that the stationary state of the subject 21, a standing state, a sitting state, and a lying state can be estimated with high precision.

図17は、上記実施例における静止状態検出処理ST3の実験結果の一例を示す図である。図17に示す実験結果は、対象者21が姿勢推定装置1を装着し、うつぶせでベッドに横たわる横臥状態、あお向けでベッドに横たわる横臥状態、右向きでベッドに横たわる横臥状態、左向きでベッドに横たわる横臥状態、ラウンジチェアでの着座状態、椅子への着座状態、前傾した着座状態、及び起立状態を夫々1分間維持し、同じ動作を3回繰り返した場合を示す。図17において、縦軸はz軸方向の加速度(g)を示し、破線はz=0.5、即ち、φ=60°の境界Bを示す。この境界Bよりz軸方向の加速度が低い領域では対象者21は横臥状態にあり、この境界よりz軸方向の加速度が高い領域では対象者21が着座状態にあることが確認され、同様の結果が複数の実験においても確認された。従って、上記実施例によれば、対象者21の着座状態及び横臥状態を識別できると共に、着座状態及び横臥状態を高精度に推定可能であることが確認された。   FIG. 17 is a diagram illustrating an example of an experimental result of the stationary state detection process ST3 in the embodiment. The experiment results shown in FIG. 17 show that the subject 21 wears the posture estimation device 1 and lies on the bed lying down, lying on the bed with his back facing down, lying on the bed in the right direction, lying on the bed in the left direction. A state where a state, a sitting state on a lounge chair, a sitting state on a chair, a sitting state tilted forward, and a standing state are each maintained for 1 minute and the same operation is repeated three times is shown. In FIG. 17, the vertical axis indicates the acceleration (g) in the z-axis direction, and the broken line indicates the boundary B where z = 0.5, that is, φ = 60 °. It is confirmed that the subject 21 is lying in the region where the acceleration in the z-axis direction is lower than the boundary B, and the subject 21 is seated in the region where the acceleration in the z-axis direction is higher than the boundary. Was also confirmed in several experiments. Therefore, according to the said Example, while being able to identify the subject's 21 sitting state and recumbent state, it was confirmed that a seating state and recumbent state can be estimated with high precision.

図18は、上記実施例における静止状態検出処理ST3の実験結果の一例を示す図である。図18に示す実験結果は、対象者21が着座状態と起立状態を夫々1分間維持し、同じ動作を20回繰り返した場合を示す。図18は、3つのケースについて、着座、起立、及び着座と起立の合計の正解率、不正解率及び正解とも不正解とも言えないその他の確率を示す。第1のケースでは、角度変位Δφのみを用いて対象者21の静止状態を推定して実際の静止状態と比較し、第2のケースでは、前回の運動のみを用いて対象者21の静止状態を推定して実際の静止状態と比較した。これに対し、第3のケースでは、上記実施例の如く、角度変位Δφ、静止状態が維持された期間及び前回の運動に基づき対象者21の静止状態を推定して実際の静止状態と比較した。比較の結果、上記実施例によれば、着座、起立、及び着座と起立の合計の正解率、不正解率及び正解とも不正解とも言えないその他の確率が第1及び第2のケースと比べて向上することが確認された。従って、上記実施例によれば、対象者21の着座状態及び起立状態を識別できると共に、着座状態及び起立状態を高精度に推定可能であることが確認された。   FIG. 18 is a diagram illustrating an example of an experimental result of the stationary state detection process ST3 in the embodiment. The experimental result shown in FIG. 18 shows a case where the subject 21 maintains the sitting state and the standing state for 1 minute each and repeats the same operation 20 times. FIG. 18 shows seating, standing, and the correct answer rate of sitting and standing, the incorrect answer rate, and other probabilities that cannot be said to be correct or incorrect for the three cases. In the first case, the stationary state of the subject 21 is estimated using only the angular displacement Δφ and compared with the actual stationary state, and in the second case, the stationary state of the subject 21 using only the previous motion. Was estimated and compared with the actual stationary state. On the other hand, in the third case, as in the above embodiment, the stationary state of the subject 21 is estimated and compared with the actual stationary state based on the angular displacement Δφ, the period during which the stationary state is maintained, and the previous movement. . As a result of the comparison, according to the above-described embodiment, the correct rate of sitting, standing up, and the total of sitting and standing up, incorrect rate, and other probabilities that cannot be said to be correct or incorrect are compared to the first and second cases. It was confirmed to improve. Therefore, according to the said Example, while being able to identify the seating state and standing state of the subject 21, it was confirmed that the seating state and standing state can be estimated with high precision.

図19は、上記実施例における静止状態検出処理ST3の実験結果の一例を示す図である。図19に示す実験結果は、対象者21が直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態及び前傾した起立状態を夫々1分間維持し、同じ動作を10回繰り返した場合を示す。直立した着座状態ではφ<5°、前傾した着座状態ではφ>20°、後傾した着座状態ではφ>20°、直立した起立状態ではφ<5°、及び前傾した起立状態では20°>φ>10°である。図19では、直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態及び前傾した起立状態の正解率を1.00を最大値(即ち、正解率が100%)として、上記特許文献1と類似した方法により静止状態を検出した場合に相当する比較例1、上記特許文献2と類似した方法により静止状態を検出した場合に相当する比較例2、及び上記実施例に相当する実施例1について示す。実施例1によれば、対象者21の直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態及び前傾した起立状態の全ての正解率が比較例1,2に比べて向上することが確認された。従って、上記実施例によれば、対象者21の直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態及び前傾した起立状態を識別できると共に、直立した着座状態、前傾した着座状態、後傾した着座状態、直立した起立状態及び前傾した起立状態を高精度に推定可能であることが確認された。   FIG. 19 is a diagram illustrating an example of an experimental result of the stationary state detection process ST3 in the embodiment. The experimental results shown in FIG. 19 show that the subject 21 maintains the upright sitting state, the forward tilted seating state, the rearward tilted seating state, the upright standing state and the forward tilted standing state for 1 minute, respectively, Indicates the case of repeated times. Φ <5 ° in an upright seated state, φ> 20 ° in a forward tilted seat state, φ> 20 ° in a rearward tilted seat state, φ <5 ° in an upright standing state, and 20 in a forward tilted standing state. °> φ> 10 °. In FIG. 19, the correct rate of the upright seating state, the forward tilted seating state, the rearward tilted seating state, the upright standing state, and the forward tilted standing state is 1.00 (ie, the correct answer rate is 100%). Comparative Example 1 corresponding to a case where a stationary state is detected by a method similar to Patent Document 1, Comparative Example 2 corresponding to a case where a stationary state is detected by a method similar to Patent Document 2, and the above Example Example 1 corresponding to is shown. According to Example 1, all the correct answer rates of the subject 21 in the upright sitting state, the forward tilted seating state, the rearward tilted seating state, the upright standing state, and the forward tilted standing state are in Comparative Examples 1 and 2. It was confirmed that it was improved. Therefore, according to the above-described embodiment, the subject 21 can be identified from the upright sitting state, the forward tilted seating state, the rearward tilted seating state, the upright standing state, and the forward tilted standing state, It was confirmed that the seating state tilted forward, the seating state tilted backward, the standing upright state, and the standing state tilted forward can be estimated with high accuracy.

図20は、上記実施例における状態遷移検出処理ST6の実験結果の一例を示す図である。図20は、対象者21が起立状態を5秒間維持し、起立−着座遷移を経て着座状態を5秒間維持し、着座−起立遷移を経て起立状態を5秒間維持する動作を30回繰り返した場合の実験結果の一部を示す。また、起立−着座遷移及び着座−起立遷移の各遷移の時間は、1秒〜5秒の範囲で変えると共に、前傾をランダムに合計10回挿入した。図20は、縦軸はx軸方向の加速度x(g)、y軸方向の加速度y(g)及びz軸方向の加速度z(g)を示し、横軸は時間(サンプル数)を示す。図20において、Q1はz軸信号に1つの谷と1つの山があり、谷が山より先行する起立−着座遷移である場合を示し、Q2はz軸信号に1つの山と1つの谷があり、山が谷より先行する着座−起立遷移である場合を示す。また、図20に示す縦方向に延びる破線のうち、波形の山及び谷を含む区間を示す隣り合う2本の破線は夫々、例えば運動状態が検出される前後、即ち、この運動状態が検出される前の静止状態の終了時点とこの運動状態が検出された後の静止状態の開始時点に相当する。   FIG. 20 is a diagram illustrating an example of an experimental result of the state transition detection process ST6 in the embodiment. FIG. 20 shows a case where the subject 21 maintains the standing state for 5 seconds, maintains the sitting state for 5 seconds through the standing-sitting transition, and repeats the operation for maintaining the standing state for 5 seconds through the sitting-standing transition 30 times. Some of the experimental results are shown. In addition, the time of each transition of the standing-sitting transition and the sitting-sitting transition was changed in the range of 1 to 5 seconds, and the forward tilt was randomly inserted 10 times in total. In FIG. 20, the vertical axis represents the acceleration x (g) in the x-axis direction, the acceleration y (g) in the y-axis direction, and the acceleration z (g) in the z-axis direction, and the horizontal axis represents time (number of samples). In FIG. 20, Q1 shows a case where there is one valley and one mountain in the z-axis signal, and the valley is a standing-sitting transition preceding the mountain, and Q2 shows one mountain and one valley in the z-axis signal. There is a case where the mountain is a sitting-standing transition that precedes the valley. In addition, among the broken lines extending in the vertical direction shown in FIG. 20, two adjacent broken lines indicating the section including the peak and valley of the waveform are detected before and after the movement state, for example, this movement state is detected. This corresponds to the end point of the stationary state before the moving state and the starting point of the stationary state after the movement state is detected.

図21は、上記実施例に相当する実施例1における状態遷移検出処理ST6の実験結果の一例を示す図である。図21は、図20の如き遷移に対して得られる結果を示し、30回の起立−着座遷移のうち、25回の起立−着座遷移が正しく推定され、30回の着座−起立遷移のうち27回の着座−起立遷移が正しく推定され、10回の前傾のうち6回の前傾が誤って起立−着座遷移として推定された。図21及び後述する図22及び図23では、状態遷移の正解率を1.00を最大値(即ち、正解率が100%)として示す。   FIG. 21 is a diagram illustrating an example of an experimental result of the state transition detection process ST6 in Example 1 corresponding to the above example. FIG. 21 shows the results obtained for the transition as shown in FIG. 20. Of the 30 standing-sitting transitions, 25 standing-sitting transitions are correctly estimated, and 27 out of 30 sitting-sitting transitions. The seating-standing transition was correctly estimated, and 6 forward tilts out of 10 forward tilts were erroneously estimated as the standing-sitting transition. In FIG. 21 and FIGS. 22 and 23 described later, the correct rate of state transition is shown as 1.00 with the maximum value (that is, the correct rate is 100%).

図22は、上記特許文献1と類似した方法により状態遷移を検出した場合に相当する比較例1おいて図20の如き遷移に対して得られる実験結果の一例を示す図である。また、図23は、上記特許文献2と類似した方法により状態遷移を検出した場合に相当する比較例2おいて図20の如き遷移に対して得られる実験結果の一例を示す図である。   FIG. 22 is a diagram showing an example of an experimental result obtained for the transition as shown in FIG. 20 in Comparative Example 1 corresponding to the case where the state transition is detected by a method similar to Patent Document 1. FIG. 23 is a diagram showing an example of an experimental result obtained for the transition as shown in FIG. 20 in the comparative example 2 corresponding to the case where the state transition is detected by a method similar to the above-mentioned Patent Document 2.

図21と図22及び図23との比較からも明らかなように、実施例1によれば、対象者21の起立−着座遷移及び着座−起立遷移の正解率が比較例1,2に比べて向上することが確認された。従って、上記実施例によれば、対象者21の起立−着座遷移及び着座−起立遷移を識別できると共に、起立−着座遷移及び着座−起立遷移を高精度に推定可能であることが確認された。   As is clear from a comparison between FIG. 21, FIG. 22, and FIG. 23, according to Example 1, the correct rate of the standing-sitting transition and the sitting-standing transition of the subject 21 is higher than that of Comparative Examples 1 and 2. It was confirmed to improve. Therefore, according to the above-described embodiment, it was confirmed that the standing-sitting transition and the sitting-standing transition of the subject 21 can be identified, and the standing-sitting transition and the sitting-standing transition can be estimated with high accuracy.

ところで、上記実施例では、姿勢推定処理は姿勢推定装置1のCPU2が実行するが、姿勢推定処理は、姿勢推定装置1のCPU2及びサーバ11による分散処理により実行しても良い。   By the way, in the said Example, although CPU2 of the posture estimation apparatus 1 performs a posture estimation process, you may perform a posture estimation process by the distributed process by CPU2 and the server 11 of the posture estimation apparatus 1. FIG.

姿勢推定処理を全て、或いは、姿勢推定処理の大部分を姿勢推定装置1のCPU2が実行する場合、リアルタイムで姿勢を推定できる。また、推定した各静止状態、各運動状態、及び各状態遷移を時間情報と共に記憶部3に記憶する場合、記憶部3内で履歴を記憶するのに要するデータ記憶領域を詳細な履歴情報を記憶する場合と比べて削減できる。   When the CPU 2 of the posture estimation apparatus 1 executes all of the posture estimation processing or most of the posture estimation processing, the posture can be estimated in real time. Further, when each estimated stationary state, each motion state, and each state transition is stored in the storage unit 3 together with time information, detailed history information is stored in the data storage area required to store the history in the storage unit 3 It can be reduced compared to the case of doing.

一方、姿勢推定処理を全て、或いは、姿勢推定処理の大部分をサーバ11が実行する場合、姿勢推定装置1側のCPU2の負荷を軽減することができる。   On the other hand, when the server 11 executes all of the posture estimation processing or most of the posture estimation processing, the load on the CPU 2 on the posture estimation device 1 side can be reduced.

なお、上記実施例において、傾き角度φを比較対象と比較する場合、比較対象に対して一定の許容範囲を設けて、例えば許容範囲内での一致の検出を比較対象との一致の検出として許容するようにしても良いことは言うまでもない。   In the above embodiment, when the inclination angle φ is compared with the comparison object, a certain allowable range is provided for the comparison object, and for example, detection of coincidence within the allowable range is allowed as detection of coincidence with the comparison object. Needless to say, you can do it.

開示の姿勢推定装置、方法及びプログラムによれば、対象者21の姿勢、特に起立状態と着座状態、及び、起立状態と着座状態間の遷移状態を高精度に推定することができる。また、対象者21の姿勢は、単一の3軸加速度センサを用いた、対象者21への装着により日常生活に支障が生じない程度の比較的簡単な構成で、リアルタイムで推定することができる。   According to the disclosed posture estimation apparatus, method, and program, the posture of the subject 21, particularly the standing state and the sitting state, and the transition state between the standing state and the sitting state can be estimated with high accuracy. In addition, the posture of the subject 21 can be estimated in real time with a relatively simple configuration using a single three-axis acceleration sensor that does not interfere with daily life when worn on the subject 21. .

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定する姿勢推定装置であって、
前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出し、前記静止状態に関するパラメータを記憶する静止状態検出手段と、
前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出し、前記運動状態に関するパラメータを記憶する運動検出手段と、
前記運動検出手段が記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、前記静止状態検出手段が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出手段とを備え、
前記状態遷移検出手段は、前記運動検出手段が前記対象者の運動状態を検出する前後に前記静止状態検出手段が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記運動検出手段が検出する前記対象者の運動状態の終了時までの一定期間内の、前記第1の軸の方向と重力方向とがなす傾き角度の変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、姿勢推定装置。
(付記2)
前記状態遷移検出手段は、前記運動検出手段が前記3軸加速度センサの出力をモデル化した前記第2の軸の方向に沿った加速度信号のピークが得られる時刻からある閾値時間以内に前記対象者の運動の終了を検出すると、前記起立状態から前記着座状態への遷移を検出することを特徴とする、付記1記載の姿勢推定装置。
(付記3)
前記第1の値は−20°であり、前記第2の値は20°であることを特徴とする、付記1または2記載の姿勢推定装置。
(付記4)
前記状態遷移検出手段は、前回の静止状態が横臥状態ではなく、且つ、今回の静止状態が直立状態であると判定すると、着座−起立遷移であるか、或いは、起立−着座遷移であるかを判定し、判定結果に関するデータを時間情報と共に記憶することを特徴とする、付記1乃至3のいずれか1項記載の姿勢推定装置。
(付記5)
前記状態遷移検出手段は、前記3軸加速度センサの出力をモデル化した前記第1の軸の方向に沿った加速度信号または前記第2の軸の方向に沿った加速度信号のピーク数が閾値以上であると、着座−起立間の状態遷移ではないと判定することを特徴とする、付記1乃至4のいずれか1項記載の姿勢推定装置。
(付記6)
前記静止状態検出手段は、前記傾き角度が前記第1の値より大きくないと、前記傾き角度と前記対象者が前記直立状態にあるときの参照傾き角度との差で表される角度変位と、前記傾き角度を含む前記対象者の状態が持続される期間と、前記対象者の前回の運動状態に関するデータに基づき、前記対象者が起立状態である確率P(STD)及び前記対象者が着座状態である確率P(SIT)を算出して、P(SIT)>P(STD)であると着座状態を検出し、P(SIT)>P(STD)以外であると起立状態を検出することを特徴とする、付記1乃至5のいずれか1項記載の姿勢推定装置。
(付記7)
対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定する姿勢推定方法であって、
プロセッサが、前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出して前記静止状態に関するパラメータを記憶し、
前記プロセッサが、前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出して前記運動状態に関するパラメータを記憶し、
前記プロセッサが、記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出し、
前記状態遷移の検出は、前記運動の検出が前記対象者の運動状態を検出する前後に前記静止状態の検出が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記運動の検出が検出する前記対象者の運動状態の終了時までの一定期間内の、前記第1の軸の方向と重力方向とがなす傾き角度の変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、姿勢推定方法。
(付記8)
前記状態遷移の検出は、前記運動の検出が前記3軸加速度センサの出力をモデル化した前記第2の軸の方向に沿った加速度信号のピークが得られる時刻からある閾値時間以内に前記対象者の運動の終了を検出すると、前記起立状態から前記着座状態への遷移を検出することを特徴とする、付記7記載の姿勢推定方法。
(付記9)
前記第1の値は−20°であり、前記第2の値は20°であることを特徴とする、付記7または8記載の姿勢推定方法。
(付記10)
前記状態遷移の検出は、前回の静止状態が横臥状態ではなく、且つ、今回の静止状態が直立状態であると判定すると、着座−起立遷移であるか、或いは、起立−着座遷移であるかを判定し、判定結果に関するデータを時間情報と共に記憶することを特徴とする、付記7乃至9のいずれか1項記載の姿勢推定方法。
(付記11)
前記状態遷移の検出は、前記3軸加速度センサの出力をモデル化した前記第1の軸の方向に沿った加速度信号または前記第2の軸の方向に沿った加速度信号のピーク数が閾値以上であると、着座−起立間の状態遷移ではないと判定することを特徴とする、付記7乃至10のいずれか1項記載の姿勢推定方法。
(付記12)
前記静止状態の検出は、前記傾き角度が前記第1の値より大きくないと、前記傾き角度と前記対象者が前記直立状態にあるときの参照傾き角度との差で表される角度変位と、前記傾き角度を含む前記対象者の状態が持続される期間と、前記対象者の前回の運動状態に関するデータに基づき、前記対象者が起立状態である確率P(STD)及び前記対象者が着座状態である確率P(SIT)を算出して、P(SIT)>P(STD)であると着座状態を検出し、P(SIT)>P(STD)以外であると起立状態を検出することを特徴とする、付記7乃至11のいずれか1項記載の姿勢推定方法。
(付記13)
コンピュータに、対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定させるプログラムであって、
前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出して前記静止状態に関するパラメータを記憶部に記憶する静止状態検出手順と、
前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出して前記運動状態に関するパラメータを前記記憶部に記憶する運動検出手順と、
前記運動検出手順が記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、前記静止状態検出手順が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出手順段と
を前記コンピュータに実行させ、
前記状態遷移検出手順は、前記運動検出手順が前記対象者の運動状態を検出する前後に前記静止状態検出手順が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記運動検出手順が検出する前記対象者の運動状態の終了時までの一定期間内の、前記第1の軸の方向と重力方向とがなす傾き角度の変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、プログラム。
(付記14)
前記状態遷移検出手順は、前記運動検出手順が前記3軸加速度センサの出力をモデル化した前記第2の軸の方向に沿った加速度信号のピークが得られる時刻からある閾値時間以内に前記対象者の運動の終了を検出すると、前記起立状態から前記着座状態への遷移を検出することを特徴とする、付記13記載のプログラム。
(付記15)
前記第1の値は−20°であり、前記第2の値は20°であることを特徴とする、付記13または14記載のプログラム。
(付記16)
前記状態遷移検出手順は、前回の静止状態が横臥状態ではなく、且つ、今回の静止状態が直立状態であると判定すると、着座−起立遷移であるか、或いは、起立−着座遷移であるかを判定し、判定結果に関するデータを時間情報と共に記憶することを特徴とする、付記13乃至15のいずれか1項記載のプログラム。
(付記17)
前記状態遷移検出手順は、前記3軸加速度センサの出力をモデル化した前記第1の軸の方向に沿った加速度信号または前記第2の軸の方向に沿った加速度信号のピーク数が閾値以上であると、着座−起立間の状態遷移ではないと判定することを特徴とする、付記13乃至16のいずれか1項記載のプログラム。
(付記18)
前記静止状態検出手順は、前記傾き角度が前記第1の値より大きくないと、前記傾き角度と前記対象者が前記直立状態にあるときの参照傾き角度との差で表される角度変位と、前記傾き角度を含む前記対象者の状態が持続される期間と、前記対象者の前回の運動状態に関するデータに基づき、前記対象者が起立状態である確率P(STD)及び前記対象者が着座状態である確率P(SIT)を算出して、P(SIT)>P(STD)であると着座状態を検出し、P(SIT)>P(STD)以外であると起立状態を検出することを特徴とする、付記13乃至17のいずれか1項記載のプログラム。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
A three-axis acceleration sensor that detects the acceleration of the upper body of the subject so that the directions of the first axis and the second axis of the three-axis acceleration sensor coincide with the front-rear direction and the vertical direction of the subject in the standing state, respectively. A posture estimation device for estimating the posture of the subject person attached to the device,
A stationary state detecting means for detecting a stationary state of the subject based on a DC signal component included in an output of the three-axis acceleration sensor and storing a parameter relating to the stationary state;
Motion detection means for detecting a motion state of the subject based on an AC signal component included in an output of the three-axis acceleration sensor, and storing a parameter relating to the motion state;
Based on the parameters related to the previous motion state stored by the motion detection means and the parameters related to the previous and current stationary states stored by the stationary state detection means corresponding to before and after the previous motion state, the subject State transition detecting means for detecting the state transition of
In the state transition detection unit, the stationary state detected by the stationary state detection unit before and after the movement detection unit detects the movement state of the subject is an upright state including the sitting state and the standing state of the subject. , Calculating a displacement of an inclination angle formed by the direction of the first axis and the direction of gravity within a certain period until the end of the motion state of the subject detected by the motion detection means, and the displacement is the first The posture estimation device, wherein the posture estimation device estimates the transition to the standing state if the value is less than the value of, and estimates the transition to the sitting state if the value exceeds the second value greater than the first value.
(Appendix 2)
The state transition detection unit is configured to detect the subject within a threshold time from a time at which a peak of the acceleration signal along the direction of the second axis obtained by modeling the output of the triaxial acceleration sensor is obtained by the motion detection unit. The posture estimation apparatus according to appendix 1, wherein a transition from the standing state to the seating state is detected when the end of the movement of the body is detected.
(Appendix 3)
The posture estimation apparatus according to appendix 1 or 2, wherein the first value is -20 ° and the second value is 20 °.
(Appendix 4)
When the state transition detection unit determines that the previous stationary state is not a recumbent state and the current stationary state is an upright state, the state transition detecting unit determines whether the state is a sitting-standing transition or a standing-sitting transition. 4. The posture estimation apparatus according to any one of appendices 1 to 3, wherein determination is made and data relating to the determination result is stored together with time information.
(Appendix 5)
The state transition detection means has a peak number of acceleration signals along the direction of the first axis or the direction of the second axis that models the output of the three-axis acceleration sensor equal to or greater than a threshold value. The posture estimation apparatus according to any one of appendices 1 to 4, wherein if there is, it is determined that the state transition is not between sitting and standing.
(Appendix 6)
The stationary state detection means, if the tilt angle is not larger than the first value, an angular displacement represented by the difference between the tilt angle and a reference tilt angle when the subject is in the upright state, The probability P (STD) that the subject is in a standing state and the subject is in a sitting state based on a period in which the state of the subject including the tilt angle is sustained and data on the previous exercise state of the subject. The probability P (SIT) is calculated, the seating state is detected when P (SIT)> P (STD), and the standing state is detected when other than P (SIT)> P (STD). The posture estimation apparatus according to any one of appendices 1 to 5, which is a feature.
(Appendix 7)
A three-axis acceleration sensor that detects the acceleration of the upper body of the subject so that the directions of the first axis and the second axis of the three-axis acceleration sensor coincide with the front-rear direction and the vertical direction of the subject in the standing state, respectively. A posture estimation method for estimating the posture of the subject worn on the body,
A processor detects a stationary state of the subject based on a DC signal component included in the output of the three-axis acceleration sensor and stores a parameter related to the stationary state;
The processor detects a motion state of the subject based on an AC signal component included in an output of the three-axis acceleration sensor and stores a parameter related to the motion state;
The processor detects the state transition of the subject based on the stored parameters relating to the previous exercise state and the stored parameters relating to the previous and current stationary states corresponding to before and after the previous exercise state,
In the detection of the state transition, the stationary state detected by the stationary state detection before and after the movement detection detects the movement state of the subject is an upright state including the sitting state and the standing state of the subject. The displacement of the tilt angle formed by the direction of the first axis and the direction of gravity within a certain period until the end of the motion state of the subject detected by the motion detection is calculated, and the displacement is the first A posture estimation method characterized by estimating a transition to a standing state if it is less than the value of, and estimating a transition to a seating state if it exceeds a second value that is greater than the first value.
(Appendix 8)
The state transition is detected within a certain threshold time from the time at which the peak of the acceleration signal is obtained along the direction of the second axis in which the detection of the motion models the output of the three-axis acceleration sensor. 8. The posture estimation method according to appendix 7, wherein a transition from the standing state to the seating state is detected when the end of the movement is detected.
(Appendix 9)
9. The posture estimation method according to appendix 7 or 8, wherein the first value is −20 ° and the second value is 20 °.
(Appendix 10)
The state transition is detected when the previous stationary state is not a recumbent state and the current stationary state is an upright state, whether it is a sitting-standing transition or a standing-sitting transition. 10. The posture estimation method according to any one of appendices 7 to 9, wherein determination is made and data relating to the determination result is stored together with time information.
(Appendix 11)
The state transition is detected by detecting whether the number of acceleration signals along the direction of the first axis or the acceleration signal along the direction of the second axis that models the output of the three-axis acceleration sensor is greater than or equal to a threshold value. The posture estimation method according to any one of appendices 7 to 10, wherein if there is, it is determined that the state transition is not between sitting and standing.
(Appendix 12)
In the detection of the stationary state, if the tilt angle is not larger than the first value, an angular displacement represented by a difference between the tilt angle and a reference tilt angle when the subject is in the upright state, The probability P (STD) that the subject is in a standing state and the subject is in a sitting state based on a period in which the state of the subject including the tilt angle is sustained and data on the previous exercise state of the subject. The probability P (SIT) is calculated, the seating state is detected when P (SIT)> P (STD), and the standing state is detected when other than P (SIT)> P (STD). 12. The posture estimation method according to any one of appendices 7 to 11, which is a feature.
(Appendix 13)
A computer is provided with a three-axis acceleration sensor for detecting the acceleration of the upper body of the subject, the front-rear direction and the vertical direction of the subject in which the directions of the first axis and the second axis of the three-axis acceleration sensor are standing, respectively. A program for estimating the posture of the subject that is worn so as to match,
A stationary state detection procedure for detecting a stationary state of the subject based on a DC signal component included in the output of the three-axis acceleration sensor and storing a parameter related to the stationary state in a storage unit;
A motion detection procedure for detecting a motion state of the subject based on an AC signal component included in an output of the three-axis acceleration sensor and storing a parameter relating to the motion state in the storage unit;
Based on the parameters related to the previous motion state stored by the motion detection procedure and the parameters related to the previous and current still states stored by the stationary state detection procedure corresponding to before and after the previous motion state, the subject Causing the computer to execute a state transition detection procedure step for detecting a state transition of
In the state transition detection procedure, the stationary state detected by the stationary state detection procedure before and after the motion detection procedure detects the motion state of the subject is an upright state including the sitting state and the standing state of the subject. , Calculating a displacement of an inclination angle formed by the direction of the first axis and the direction of gravity within a certain period until the end of the motion state of the subject detected by the motion detection procedure, and the displacement is the first A program for estimating a transition to a standing state if it is less than a value of, and estimating a transition to a seating state if it exceeds a second value greater than the first value.
(Appendix 14)
In the state transition detection procedure, the subject is within a threshold time from a time at which a peak of an acceleration signal along the direction of the second axis obtained by modeling the output of the triaxial acceleration sensor is obtained by the motion detection procedure. The program according to appendix 13, wherein a transition from the standing state to the seating state is detected when the end of the movement of the body is detected.
(Appendix 15)
The program according to appendix 13 or 14, wherein the first value is -20 ° and the second value is 20 °.
(Appendix 16)
If it is determined that the previous stationary state is not a recumbent state and the current stationary state is an upright state, the state transition detection procedure determines whether it is a sitting-standing transition or a standing-sitting transition. The program according to any one of appendices 13 to 15, wherein the program is determined and data regarding the determination result is stored together with time information.
(Appendix 17)
In the state transition detection procedure, the peak number of acceleration signals along the direction of the first axis or the direction of the second axis obtained by modeling the output of the three-axis acceleration sensor is greater than or equal to a threshold value. The program according to any one of appendices 13 to 16, wherein if there is, it is determined that the state transition is not between sitting and standing.
(Appendix 18)
In the stationary state detection procedure, if the tilt angle is not larger than the first value, an angular displacement represented by a difference between the tilt angle and a reference tilt angle when the subject is in the upright state; The probability P (STD) that the subject is in a standing state and the subject is in a sitting state based on a period in which the state of the subject including the tilt angle is sustained and data on the previous exercise state of the subject. The probability P (SIT) is calculated, the seating state is detected when P (SIT)> P (STD), and the standing state is detected when other than P (SIT)> P (STD). 18. The program according to any one of appendices 13 to 17, which is a feature.

以上、開示の姿勢推定装置、方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   As described above, the disclosed posture estimation apparatus, method, and program have been described by way of examples. However, the present invention is not limited to the above examples, and various modifications and improvements can be made within the scope of the present invention. Needless to say.

1 姿勢推定装置
1A 装着部
2 CPU
3 記憶部
4 センサ部
5 通信部
6 バス
11 サーバ
21 分離部
22 静止状態検出部
23 運動検出部
24 状態遷移検出部
1 posture estimation device 1A mounting unit 2 CPU
3 storage unit 4 sensor unit 5 communication unit 6 bus 11 server 21 separation unit 22 stationary state detection unit 23 motion detection unit 24 state transition detection unit

Claims (5)

対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定する姿勢推定装置であって、
前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出し、前記静止状態に関するパラメータを記憶する静止状態検出手段と、
前記静止状態検出手段による前記対象者の前記静止状態の検出と同時に、前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出し、前記運動状態に関するパラメータを記憶する運動検出手段と、
前記運動検出手段が記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、前記静止状態検出手段が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出手段とを備え、
前記状態遷移検出手段は、前記運動検出手段が前記対象者の運動状態を検出する前後に前記静止状態検出手段が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記対象者の運動状態を検出した後に検出した直立状態からの状態遷移の開始時の前記第1の軸の方向と重力方向とがなす傾き角度から当該状態遷移の終了時の前記第1の軸の方向と前記重力方向とがなす傾き角度への変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、姿勢推定装置。
A three-axis acceleration sensor that detects the acceleration of the upper body of the subject so that the directions of the first axis and the second axis of the three-axis acceleration sensor coincide with the front-rear direction and the vertical direction of the subject in the standing state, respectively. A posture estimation device for estimating the posture of the subject person attached to the device,
A stationary state detecting means for detecting a stationary state of the subject based on a DC signal component included in an output of the three-axis acceleration sensor and storing a parameter relating to the stationary state;
Simultaneously with the detection of the stationary state of the subject by the stationary state detecting means , the motion state of the subject is detected based on an AC signal component included in the output of the three-axis acceleration sensor, and parameters relating to the motion state are determined. A motion detection means for storing;
And parameters relating to the motion state of the last time the motion detecting means is stored, corresponding to before and after the last motion state, the stationary state detecting means on the basis of the parameters relating to people gyrus and this quiescent before storing, the A state transition detecting means for detecting the state transition of the target person,
In the state transition detection unit, the stationary state detected by the stationary state detection unit before and after the movement detection unit detects the movement state of the subject is an upright state including the sitting state and the standing state of the subject. The first angle at the end of the state transition is determined from the inclination angle formed by the direction of the first axis and the direction of gravity at the start of the state transition from the upright state detected after detecting the motion state of the subject. A displacement to an inclination angle formed by the direction of the axis and the direction of gravity is calculated. If the displacement is less than a first value, a transition to a standing state is estimated, and a second value greater than the first value. A posture estimation device that estimates a transition to a seated state if the distance exceeds.
前記状態遷移検出手段は、前記運動検出手段が前記3軸加速度センサの出力をモデル化した前記第2の軸の方向に沿った加速度信号のピークが得られる時刻からある閾値時間以内に前記対象者の運動状態の終了を検出すると、前記起立状態から前記着座状態への遷移を検出することを特徴とする、請求項1記載の姿勢推定装置。   The state transition detection unit is configured to detect the subject within a threshold time from a time at which a peak of the acceleration signal along the direction of the second axis obtained by modeling the output of the triaxial acceleration sensor is obtained by the motion detection unit. The posture estimation device according to claim 1, wherein a transition from the standing state to the seating state is detected when the end of the movement state of the vehicle is detected. 前記第1の値は−20°であり、前記第2の値は20°であることを特徴とする、請求項1または2記載の姿勢推定装置。   The posture estimation apparatus according to claim 1, wherein the first value is −20 ° and the second value is 20 °. 対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定する姿勢推定方法であって、
プロセッサが、前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出して前記静止状態に関するパラメータを記憶する静止状態検出処理と、
前記プロセッサが、前記静止状態検出処理による前記対象者の前記静止状態の検出と同時に、前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出して前記運動状態に関するパラメータを記憶する運動検出処理と、
前記プロセッサが、記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出処理と、
を実行し、
前記状態遷移検出処理は、前記運動検出処理が前記対象者の運動状態を検出する前後に前記静止状態検出処理が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記対象者の運動状態を検出した後に検出した直立状態からの状態遷移の開始時の前記第1の軸の方向と重力方向とがなす傾き角度から当該状態遷移の終了時の前記第1の軸の方向と前記重力方向とがなす傾き角度への変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、姿勢推定方法。
A three-axis acceleration sensor that detects the acceleration of the upper body of the subject so that the directions of the first axis and the second axis of the three-axis acceleration sensor coincide with the front-rear direction and the vertical direction of the subject in the standing state, respectively. A posture estimation method for estimating the posture of the subject worn on the body,
A stationary state detection process in which a processor detects a stationary state of the subject based on a DC signal component included in an output of the three-axis acceleration sensor and stores a parameter related to the stationary state;
The processor detects the motion state of the subject based on an AC signal component included in the output of the three-axis acceleration sensor simultaneously with the detection of the still state of the subject by the rest state detection processing, and the motion Motion detection processing for storing parameters relating to the state;
Wherein the processor, and a parameter relating to previous motion state stored, corresponding to before and after the last motion state, before storing s times and on the basis of the parameters relating to this stationary state, detecting a state transition of the subject State transition detection processing to
Run
In the state transition detection process, the stationary state detected by the stationary state detection process before and after the movement detection process detects the movement state of the subject is an upright state including the sitting state and the standing state of the subject. The first angle at the end of the state transition is determined from the inclination angle formed by the direction of the first axis and the direction of gravity at the start of the state transition from the upright state detected after detecting the motion state of the subject. A displacement to an inclination angle formed by the direction of the axis and the direction of gravity is calculated. If the displacement is less than a first value, a transition to a standing state is estimated, and a second value greater than the first value. A posture estimation method characterized by estimating a transition to a seated state if exceeding.
コンピュータに、対象者の上半身の加速度を検出する3軸加速度センサを、前記3軸加速度センサの第1の軸と第2の軸の方向が夫々起立状態の前記対象者の前後方向と上下方向と一致するように装着した前記対象者の姿勢を推定させるプログラムであって、
前記3軸加速度センサの出力に含まれる直流信号成分に基づいて前記対象者の静止状態を検出して前記静止状態に関するパラメータを記憶部に記憶する静止状態検出手順と、
前記静止状態検出手順による前記対象者の前記静止状態の検出と同時に、前記3軸加速度センサの出力に含まれる交流信号成分に基づいて前記対象者の運動状態を検出して前記運動状態に関するパラメータを前記記憶部に記憶する運動検出手順と、
前記運動検出手順が記憶した前回の運動状態に関するパラメータと、前記前回の運動状態の前後に相当する、前記静止状態検出手順が記憶した前回及び今回の静止状態に関するパラメータとに基づいて、前記対象者の状態遷移を検出する状態遷移検出手順と、
を前記コンピュータに実行させ、
前記状態遷移検出手順は、前記運動検出手順が前記対象者の運動状態を検出する前後に前記静止状態検出手順が検出する静止状態が前記対象者の着座状態及び起立状態を含む直立状態であると、前記対象者の運動状態を検出した後に検出した直立状態からの状態遷移の開始時の前記第1の軸の方向と重力方向とがなす傾き角度から当該状態遷移の終了時の前記第1の軸の方向と前記重力方向とがなす傾き角度への変位を算出し、前記変位が第1の値未満であれば起立状態への遷移を推定し、前記第1の値より大きい第2の値を超えていれば着座状態への遷移を推定する
ことを特徴とする、プログラム。
A computer is provided with a three-axis acceleration sensor for detecting the acceleration of the upper body of the subject, the front-rear direction and the vertical direction of the subject in which the directions of the first axis and the second axis of the three-axis acceleration sensor are standing, respectively. A program for estimating the posture of the subject that is worn so as to match,
A stationary state detection procedure for detecting a stationary state of the subject based on a DC signal component included in the output of the three-axis acceleration sensor and storing a parameter related to the stationary state in a storage unit;
Simultaneously with the detection of the stationary state of the subject by the stationary state detection procedure , the motion state of the subject is detected based on an AC signal component included in the output of the three-axis acceleration sensor, and the parameters relating to the motion state are determined. A motion detection procedure stored in the storage unit;
And parameters relating to the motion state of the last time the motion detection procedure is stored, corresponding to before and after the last motion state, the stationary state detecting procedure based on the parameters related to stationary state before storing s times and time, the A state transition detection procedure for detecting a target person's state transition;
To the computer,
In the state transition detection procedure, the stationary state detected by the stationary state detection procedure before and after the motion detection procedure detects the motion state of the subject is an upright state including the sitting state and the standing state of the subject. The first angle at the end of the state transition is determined from the inclination angle formed by the direction of the first axis and the direction of gravity at the start of the state transition from the upright state detected after detecting the motion state of the subject. A displacement to an inclination angle formed by the direction of the axis and the direction of gravity is calculated. If the displacement is less than a first value, a transition to a standing state is estimated, and a second value greater than the first value. A program characterized by estimating a transition to a seated state if exceeding.
JP2013253374A 2013-12-06 2013-12-06 Attitude estimation apparatus, method and program Active JP6322984B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013253374A JP6322984B2 (en) 2013-12-06 2013-12-06 Attitude estimation apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253374A JP6322984B2 (en) 2013-12-06 2013-12-06 Attitude estimation apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2015109915A JP2015109915A (en) 2015-06-18
JP6322984B2 true JP6322984B2 (en) 2018-05-16

Family

ID=53525358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253374A Active JP6322984B2 (en) 2013-12-06 2013-12-06 Attitude estimation apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6322984B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6644480B2 (en) * 2015-06-01 2020-02-12 株式会社イトーキ Posture determination method, posture determination program, activity amount measurement method, and activity amount measurement program.
JP6542718B2 (en) * 2016-06-27 2019-07-10 日本電信電話株式会社 Change point detection device, change point detection method and change point detection program
CN110496308B (en) * 2018-05-16 2023-08-22 山东蓓明医疗科技有限公司 Functional electric stimulation system capable of providing customized rehabilitation training and control method
CN109709576B (en) * 2018-12-20 2022-05-17 安徽优思天成智能科技有限公司 Attitude estimation method for waste gas laser radar
JP6804599B2 (en) * 2019-08-28 2020-12-23 株式会社イトーキ Posture discrimination method, posture discrimination program, activity amount measurement method, and activity amount measurement program.
CN114659486B (en) * 2022-02-28 2023-09-29 成都唐源电气股份有限公司 Digital filtering-based rail inertia wave mill measuring method
CN115211846B (en) * 2022-03-14 2023-03-24 北京中科睿医信息科技有限公司 Repeated seat standing test quantitative evaluation method and device based on depth sensor

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061935A (en) * 2001-08-22 2003-03-04 Matsushita Electric Ind Co Ltd Personal information terminal and behavior discriminating system
JP4214259B2 (en) * 2002-08-27 2009-01-28 学校法人日本大学 Human operating state monitoring method and apparatus
JP4565999B2 (en) * 2002-09-19 2010-10-20 パナソニック株式会社 Physical exercise evaluation device
JP2004135920A (en) * 2002-10-18 2004-05-13 Tcc Corporation Ltd Physiology measuring instrument of human body
JP2005168590A (en) * 2003-12-08 2005-06-30 Matsushita Electric Ind Co Ltd Motor assessment apparatus
JP5202257B2 (en) * 2008-11-29 2013-06-05 学校法人日本大学 Human posture motion discrimination device
JP2010207488A (en) * 2009-03-12 2010-09-24 Gifu Univ Behavior analyzing device and program

Also Published As

Publication number Publication date
JP2015109915A (en) 2015-06-18

Similar Documents

Publication Publication Date Title
JP6322984B2 (en) Attitude estimation apparatus, method and program
Lee et al. Inertial sensing-based pre-impact detection of falls involving near-fall scenarios
US10687707B2 (en) Detecting activity by a wheelchair user
CN110916679B (en) Human body lower limb pose gait detection device and method
US9392966B2 (en) Fall prevention system
JP6444309B2 (en) Method and apparatus for identifying transitions between sitting and standing positions
JP5724237B2 (en) Walking change judgment device
KR102107379B1 (en) Method for Prediction Frailty Using Triple Axis Motion Meter, Prediction Frailty System using Triple Axis Motion Meter and Wearable Prediction Frailty Device
JP4547537B2 (en) BODY STATE DETECTION DEVICE, DETECTION METHOD AND DETECTION PROGRAM
JP6288706B2 (en) Upper body motion measurement system and upper body motion measurement method
US11497966B2 (en) Automatic coaching system and method for coaching user&#39;s exercise
JP2010017525A5 (en)
JP7101835B2 (en) Motion recognition system
WO2014197199A1 (en) System and method for detecting transitions between sitting and standing states
JP6775151B2 (en) Standing motion support device, standing motion support method and program
EP3298955A1 (en) Method and system for determining postural balance of a person
JP2014504932A (en) Apparatus and method for classifying mammalian body orientation
KR102043104B1 (en) Motion sensing method and apparatus
JP2012024275A (en) Walking posture determination device
JP2012223452A (en) Leg strength evaluation method, and leg strength evaluation device using the same
JP2016041155A (en) Posture and walking state estimation device
JP6649323B2 (en) Gait analysis system and method
JP6356401B2 (en) Standing support apparatus and method
EP3427127B1 (en) Occupant support device and system for controlling objects
KR101941604B1 (en) Method for estimating position of wearable devices and apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6322984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150