JP6932946B2 - Detection system, detection method, and detection program - Google Patents
Detection system, detection method, and detection program Download PDFInfo
- Publication number
- JP6932946B2 JP6932946B2 JP2017036132A JP2017036132A JP6932946B2 JP 6932946 B2 JP6932946 B2 JP 6932946B2 JP 2017036132 A JP2017036132 A JP 2017036132A JP 2017036132 A JP2017036132 A JP 2017036132A JP 6932946 B2 JP6932946 B2 JP 6932946B2
- Authority
- JP
- Japan
- Prior art keywords
- human body
- detection
- unit
- pronation
- landing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 447
- 230000033001 locomotion Effects 0.000 claims description 121
- 238000004458 analytical method Methods 0.000 claims description 111
- 210000002414 leg Anatomy 0.000 claims description 95
- 210000003127 knee Anatomy 0.000 claims description 50
- 238000010521 absorption reaction Methods 0.000 claims description 15
- 230000007935 neutral effect Effects 0.000 claims description 11
- 230000035945 sensitivity Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 154
- 210000002683 foot Anatomy 0.000 description 70
- 238000006073 displacement reaction Methods 0.000 description 58
- 238000004364 calculation method Methods 0.000 description 55
- 238000000034 method Methods 0.000 description 33
- 239000013598 vector Substances 0.000 description 29
- 238000004891 communication Methods 0.000 description 17
- 239000010410 layer Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 239000000463 material Substances 0.000 description 12
- 239000000049 pigment Substances 0.000 description 12
- 210000003371 toe Anatomy 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 229920005989 resin Polymers 0.000 description 4
- 239000011347 resin Substances 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 229920000459 Nitrile rubber Polymers 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000000975 dye Substances 0.000 description 2
- 239000005038 ethylene vinyl acetate Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 229920001200 poly(ethylene-vinyl acetate) Polymers 0.000 description 2
- 229920002725 thermoplastic elastomer Polymers 0.000 description 2
- MJFITTKTVWJPNO-UHFFFAOYSA-N 3h-dithiole;nickel Chemical compound [Ni].C1SSC=C1 MJFITTKTVWJPNO-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 244000043261 Hevea brasiliensis Species 0.000 description 1
- 208000010040 Sprains and Strains Diseases 0.000 description 1
- 208000013201 Stress fracture Diseases 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- PYKYMHQGRFAEBM-UHFFFAOYSA-N anthraquinone Natural products CCC(=O)c1c(O)c2C(=O)C3C(C=CC=C3O)C(=O)c2cc1CC(=O)OC PYKYMHQGRFAEBM-UHFFFAOYSA-N 0.000 description 1
- 150000004056 anthraquinones Chemical class 0.000 description 1
- 230000000844 anti-bacterial effect Effects 0.000 description 1
- 230000003373 anti-fouling effect Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 150000004696 coordination complex Chemical class 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910002804 graphite Inorganic materials 0.000 description 1
- 239000010439 graphite Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920003052 natural elastomer Polymers 0.000 description 1
- 229920001194 natural rubber Polymers 0.000 description 1
- IEQIEDJGQAUEQZ-UHFFFAOYSA-N phthalocyanine Chemical compound N1C(N=C2C3=CC=CC=C3C(N=C3C4=CC=CC=C4C(=N4)N3)=N2)=C(C=CC=C2)C2=C1N=C1C2=CC=CC=C2C4=N1 IEQIEDJGQAUEQZ-UHFFFAOYSA-N 0.000 description 1
- -1 polyazo Polymers 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 239000004800 polyvinyl chloride Substances 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- ANRHNWWPFJCPAZ-UHFFFAOYSA-M thionine Chemical compound [Cl-].C1=CC(N)=CC2=[S+]C3=CC(N)=CC=C3N=C21 ANRHNWWPFJCPAZ-UHFFFAOYSA-M 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、検出システム、検出方法、検出プログラム、処理装置、及び運動用マットに関する。 The present invention relates to a detection system, a detection method, a detection program, a processing device, and an exercise mat.
運動中の人物を適切な状態で撮像する技術が提案されている(例えば、下記の特許文献1参照)。
A technique for imaging a person in motion in an appropriate state has been proposed (see, for example,
本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備え、解析部は、検出部の検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出システムが提供される。
本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果に基づいて人体の移動方向を検出する方向検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備え、解析部は、検出結果から人体の移動方向に対する交差方向において基準に対する人体の脚部の少なくとも一部の位置を検出し、脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出システムが提供される。
本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備える検出システムが提供される。
本発明の第1の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果の時間変化を算出する変位算出部と、変位算出部の算出結果に基づいて人体の着地を判定する着地判定部と、を備える検出システムが提供される。
According to the aspect of the present invention, the analysis unit includes a detection unit that optically detects a moving human body and an analysis unit that analyzes the pronation of the leg of the human body using the detection result of the detection unit. The position of the human body is detected from the detection result of the detection unit, at least a part of the leg is specified from the detected position of the human body, the position of at least a part of the specified leg is compared with the reference, and the pronation A detection system is provided that determines the condition.
According to the aspect of the present invention, a detection unit that optically detects a moving human body, a direction detection unit that detects the moving direction of the human body based on the detection result of the detection unit, and a human body using the detection result of the detection unit. The analysis unit includes an analysis unit that analyzes the pronation of the leg of the human body, and the analysis unit detects the position of at least a part of the leg of the human body with respect to the reference in the crossing direction with respect to the movement direction of the human body from the detection result. A detection system is provided that compares at least some positions with a reference to determine the state of pronation.
According to the aspect of the present invention, there is provided a detection system including a detection unit that optically detects a moving human body and an analysis unit that analyzes the pronation of the leg of the human body using the detection result of the detection unit. NS.
According to the first aspect of the present invention, a detection unit that optically detects a moving human body, a displacement calculation unit that calculates a time change of the detection result of the detection unit, and a human body based on the calculation result of the displacement calculation unit. A detection system including a landing determination unit for determining the landing of the vehicle is provided.
本発明の第1の態様に従えば、移動する人体を光学的に検出した検出結果の時間変化に基づいて人体の着地を判定した着地タイミングを受信する受信部と、受信部が受信した着地タイミングに基づいて人体の脚部のプロネーションを解析する解析部と、を備える処理装置が提供される。 According to the first aspect of the present invention, a receiving unit that receives a landing timing that determines the landing of the human body based on a time change of a detection result that optically detects a moving human body, and a landing timing that the receiving unit receives. Provided is a processing device including an analysis unit that analyzes the pronation of the leg of the human body based on the above.
本発明の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果に基づいて、人体の脚部のプロネーションを検出することと、を含み、プロネーションの検出では、人体を検出した検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出方法が提供される。
本発明の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果に基づいて、人体の脚部のプロネーションを検出することと、を含む検出方法が提供される。
本発明の第2の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果の時間変化を算出することと、時間変化に基づいて人体の着地を判定することと、を含む検出方法が提供される。
According to the aspect of the present invention, the detection of the pronation includes optically detecting the moving human body and detecting the pronation of the leg of the human body based on the detection result of detecting the human body. Then, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and the position of at least a part of the specified leg is compared with the reference. A detection method for determining the pronation status is provided.
According to an aspect of the present invention, there is provided a detection method including optically detecting a moving human body and detecting pronation of a leg of the human body based on the detection result of detecting the human body. NS.
According to the second aspect of the present invention, the moving human body is optically detected, the time change of the detection result of detecting the human body is calculated, and the landing of the human body is determined based on the time change. And, a detection method including.
本発明の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果に基づいて、人体の脚部のプロネーションを検出すること、を実行させ、プロネーションの検出では、人体を検出した検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出プログラムが提供される。
本発明の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果に基づいて、人体の脚部のプロネーションを検出すること、を実行させる検出プログラムが提供される。
本発明の第3の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果の時間変化を算出することと、時間変化に基づいて人体の着地を判定することと、を実行させる検出プログラムが提供される。
According to the aspect of the present invention, the computer is made to detect the pronation of the leg of the human body based on the detection result of optically detecting the moving human body, and in the detection of the pronation, the human body is detected. The position of the human body is detected from the detected detection result, at least a part of the leg is specified from the detected position of the human body, the position of at least a part of the specified leg is compared with the reference, and the state of the pronation. A detection program is provided to determine.
According to an aspect of the present invention, there is provided a detection program that causes a computer to detect pronation of a leg of a human body based on a detection result of optically detecting a moving human body.
According to the third aspect of the present invention, the computer performs the calculation of the time change of the detection result of optically detecting the moving human body and the determination of the landing of the human body based on the time change. A detection program is provided.
本発明の態様に従えば、移動する人体の運動範囲に配置され、人体を光学的に検出する検出部が感度を有する赤外光の波長帯において人体よりも赤外光の吸収率が高い運動用マットが提供される。
本発明の第4の態様に従えば、移動する人体の移動経路上に設けられ、人体を光学的に検出する検出部が感度を有する赤外光の波長帯において人体よりも前記赤外光の吸収率が高い運動用マットが提供される。
According to the aspect of the present invention, the motion is arranged in the motion range of the moving human body, and the absorption rate of infrared light is higher than that of the human body in the wavelength band of infrared light in which the detection unit that optically detects the human body has sensitivity. Mats are provided.
According to the fourth aspect of the present invention, in the wavelength band of infrared light provided on the moving path of the moving human body and having a sensitivity of the detection unit for optically detecting the human body, the infrared light of the infrared light is higher than that of the human body. An exercise mat with a high absorption rate is provided.
[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出システムを示す図である。実施形態に係る検出システム1は、例えば、履物選定、人認証セキュリティ、ファッションショー及びスポーツ(例、野球、サッカー、ゴルフ、ヨガ))等に用いられる。実施形態に係る検出システム1は、例えば、動作検出システムや運動支援システムなどである。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a detection system according to an embodiment. The
検出システム1は、所定の方向に移動するターゲット(例、ユーザ)の人体HM(身体)を検出する。人体HMの移動は、例えば、人体HMの脚部又は腕部の移動を伴う運動(例、歩行、走行及び姿勢変化などの動作)などである。検出システム1は、例えば、人体HMの下方(例、重力方向)の支持面G上で移動(例、運動)する人体HMを検出する。上記の支持面Gは、例えば、人体HMを支持する面、人体HMが移動する面(移動面)、及び人体HMが着地する面(着地面)の少なくとも1つを含む。なお、検出システム1(又は検出装置2)は、所定の方向に移動する物体、生物又はロボット(例、人型ロボット)を検出することを含む。
The
支持面Gは、例えば、地面もしくは床面などの所定面、または所定面に敷かれたシートもしくはマットなどの上面を含む。検出システム1が人体HMを検出する際に、人体HMは、裸足の状態で移動してもよいし、靴などの装着物(例、人体HMとともに移動する物体)を付けた状態で移動してもよい。また、人体HMの移動は、人体HMに付けられた物体の移動を含む。例えば、検出システム1による人体HMの検出は、人体HMとともに移動する装着物の検出を含んでもよい。
The support surface G includes, for example, a predetermined surface such as the ground or floor surface, or an upper surface such as a sheet or mat laid on the predetermined surface. When the
検出システム1は、検出装置2、処理装置3、及び表示装置4を備える。検出装置2は、移動する人体HM(例、脚部、腕部などの部位)を光学的に検出する。処理装置3は、検出装置2の検出結果(例、画像の画素値、受光信号)に基づいて、人体HMの着地(例、着地状態、移動中の動作姿勢)を判定する。例えば、処理装置3は、裸足の人体HMが支持面Gに着地したか否かを判定する。処理装置3は、人体HMに付された装着物が支持面Gに着地したか否かを判定してもよい。以下、検出システム1の各部について説明する。
The
検出装置2は、例えば、検出部5および記憶部6を備える。検出部5は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を実行する。検出部5は、例えば、撮像素子のような受光素子を含む。撮像素子は、例えば、CCDイメージセンサあるいはCMOSイメージセンサなどである。検出部5は、例えば、撮像処理によって人体HMを光学的に検出する。検出部5は、その検出結果として、例えば撮像した画像(以下、撮像画像という)のデータ(例、RGBデータやグレースケールなどの画素値)を出力する。
The
記憶部6は、例えば、不揮発性メモリを含む。記憶部6は、検出部5の検出結果を記憶する。記憶部6は、例えば、検出部5の検出結果を、検出部5が検出を実行したタイミングの情報と関係づけて記憶する。上記のタイミングの情報は、例えば、検出を実行した順に割り付けられる番号(例、フレーム番号)でもよい。また、上記のタイミングの情報は、例えば、人体HMに対する検出を実行したタイミングに基づいた時刻(以下、検出時刻という)でもよい。検出時刻は、例えば、検出装置2に内蔵される計時デバイス(例、内部時計)が測定する時刻でもよいし、外部から受信する情報(例、標準時を示す標準電波)によって取得される時刻でもよい。
The
検出装置2は、例えば、検出部5によって人体HMを撮像し、その撮像画像のデータ(例、RGBデータやグレースケールなどの画素値)を記憶部6に記憶させる。検出装置2は、検出部5の検出結果を外部に出力可能である。例えば、検出部5は、記憶部6に記憶された撮像画像のデータを読み出して、外部に出力する。検出装置2は、記憶部6を介することなく(例、リアルタイムで)、検出結果を外部に出力してもよい。この場合、検出装置2は、記憶部6を備えなくてもよい。
For example, the
処理装置3は、例えば、検出装置2が出力する情報(例、検出結果)を処理する情報処理装置である。処理装置3は、例えば、検出装置2と有線または無線によって通信可能に接続される。処理装置3は、例えば、検出装置2の検出結果として撮像画像のデータを、検出装置2から取得(例、受信)する。なお、処理装置3は、検出装置2との通信を介することなく、検出装置2の検出結果あるいは処理結果を取得してもよい。例えば、処理装置3は、不揮発性メモリなどの記憶媒体を介して、検出装置2から検出結果を取得してもよい。例えば、検出装置2の記憶部6は、検出装置2から取り外し可能なメモリーカードなどの記憶媒体でもよい。処理装置3は、例えば、処理装置3から取り外された記憶部6と接続されることで、検出装置2の検出結果を取得してもよい。
The
処理装置3は、処理部7、変位算出部8、着地判定部9、及び記憶部10を備える。処理部7は、検出装置2から出力される情報(例、検出結果、処理結果)を処理する。処理部7は、例えば、検出装置2から出力される撮像画像のデータを処理する画像処理部である。処理部7は、例えば、検出装置2の検出結果に基づいて、人体HMの位置情報を検出する。
The
実施形態に係る位置情報(位置に関する情報)は、予め定められた座標系における座標(例、脚部の座標)と、この座標の時間変化(位置の時間変化量)に相当する量(例、脚部の速度)と、この量の時間変化量に相当する量(例、脚部の加速度)との少なくと1つを含む。上記の座標系は、例えば、検出部5あるいは処理部7が設定する座標系である。例えば、上記の座標系は、撮像画像における座標系である。例えば、人体HMの座標は、撮像画像における水平走査方向の画素の位置、及び撮像画像の垂直走査方向における画素の位置で表される。また、人体HMの位置情報は、例えば、人体HMの部位(例、頭、胴体、脚部、腕部)の少なくとも1つの位置情報を含む。
The position information (information about the position) according to the embodiment is the coordinates in the predetermined coordinate system (eg, the coordinates of the legs) and the amount corresponding to the time change of the coordinates (the time change amount of the position) (eg, the time change amount of the position). It includes at least one of (the speed of the legs) and an amount corresponding to this amount of time variation (eg, acceleration of the legs). The above coordinate system is, for example, a coordinate system set by the
図2は、実施形態に係る検出部の処理および処理部の処理を示す図である。図2において符号Im1は、検出部5が撮像した撮像画像である。処理部7は、例えば、撮像画像Im1に対してエッジ検出処理を施し、撮像画像Im1における人体HM(例、形状、輪郭)を特定する。処理部7は、例えば、パターン認識によって、撮像画像Im1における人体HMの部位を特定する。
FIG. 2 is a diagram showing processing of the detection unit and processing of the processing unit according to the embodiment. In FIG. 2, reference numeral Im1 is an image captured by the
処理部7は、撮像画像Im1における人体HMの位置を検出する。例えば、処理部7は、人体HMのうち支持面Gに支持される部位(例、支持面Gに接触する部位)の位置情報を検出する。処理部7は、例えば、検出装置2が検出した人体HMの脚部Q1の撮像画像Im1における位置情報を検出する。脚部Q1は、例えば、腰Q2からつま先Q3までの部位である。
The
脚部Q1の位置情報は、左足の位置または右足の位置でもよいし、左足の位置および右足の位置を一組にした情報でもよい。また、脚部Q1の位置情報は、脚部Q1を代表する位置(例、脚部Q1の輪郭の中心)でもよいし、脚部Q1に含まれる部位(例、つま先Q3、かかとQ4、膝Q5)の少なくとも1つの位置でもよい。なお、脚部Q1は、かかとや甲などを含み、例えばかかとQ4と一体的に移動する領域(例、甲など)を含む。また、人体HMの位置情報は、検出結果(例、撮像画像Im1)における人体HMの1つの部位の位置のみを含んだ情報でもよいし、人体HMの複数の部位(例、膝Q5、かかとQ4、つま先Q3)のそれぞれの位置を一組にした情報でもよい。 The position information of the leg portion Q1 may be the position of the left foot or the position of the right foot, or may be information in which the position of the left foot and the position of the right foot are combined. Further, the position information of the leg Q1 may be a position representing the leg Q1 (eg, the center of the contour of the leg Q1), or a part included in the leg Q1 (eg, toe Q3, heel Q4, knee Q5). ) May be at least one position. The leg Q1 includes a heel, an instep, and the like, and includes, for example, a region (eg, an instep, etc.) that moves integrally with the heel Q4. Further, the position information of the human body HM may be information including only the position of one part of the human body HM in the detection result (eg, captured image Im1), or may be information including a plurality of parts of the human body HM (eg, knee Q5, heel Q4). , Toe Q3) may be a set of information.
なお、位置情報として人体HMに周囲と区別可能なマーク(例、特徴部分、コード)が予め付けられており、処理部7は、このマークを特定してもよい。上記のマークは、周囲(例、支持面G)と光学特性(例、反射率、吸収率)が異なる部材でもよい。また、上記のマークは、周囲と区別可能な形状の図形を含んでもよい。人体HMの位置情報は、例えば、人体HMに付けられた部材(例、装着物、靴、ウェア)の位置の情報を含んでもよい。
A mark (eg, feature portion, code) that can be distinguished from the surroundings is attached to the human body HM as position information in advance, and the
図1の説明に戻り、処理部7は、検出部5が人体HMの検出(例、撮像処理)を実行するたびに、人体HMの位置を検出する。例えば、処理部7は、検出部5が撮像した1枚の撮像画像ごとに、撮像画像における人体HMの絶対的又は相対的な位置を検出する。処理部7は、検出部5が人体HMの検出を複数回実行するたびに、人体HMの位置を検出してもよい。例えば、処理部7は、検出部5が撮像した複数の撮像画像から選択される1枚の撮像画像における人体HMの位置を検出してもよい。また、処理部7は、2以上の撮像画像のそれぞれについて人体HMの位置を検出し、検出した位置に対して補間あるいは平均等の演算処理を行って、人体HMの位置情報を算出してもよい。そして、処理部7は、例えば、検出した人体HMの位置情報を外部へ出力する。処理部7は、例えば、検出した人体HMの位置情報を記憶部10に記憶させる。
Returning to the description of FIG. 1, the
変位算出部8は、検出部5の検出結果の時間変化(時間に対する変化量)を算出する。例えば、変位算出部8は、処理部7が出力する人体HMの位置情報を取得し、位置情報に含まれる人体HMの位置の時間変化を算出する。変位算出部8は、例えば、記憶部10に記憶されている位置情報を読み出して、位置の時間変化を算出する。変位算出部8は、例えば、検出部5が撮像した第1の撮像画像から処理部7が検出した位置と、検出部5が撮像した第2の撮像画像から処理部7が検出した位置とを比較して、位置の時間変化を算出する。上記の第1の撮像画像と第2の撮像画像とは、検出部5による撮像のタイミングが互いに異なる撮像画像である。
The
変位算出部8は、検出部5の検出結果の時間変化を示す変位情報を出力する。例えば、変位算出部8は、変位情報として、処理部7が検出した位置情報(例、人体HMの部位の空間位置)の時間変化(変化量)又は該時間変化に基づく変位ベクトル(変位方向、変位距離など)を出力する。変位算出部8は、例えば、変位情報を記憶部10に記憶させる。着地判定部9は、変位算出部8の算出結果に基づいて人体の着地を推定して判定する。
The
図3は、実施形態に係る変位算出部の処理、着地判定部の処理を示す図である。図3(A)において、横軸は時刻(時間経過)である。また、符号TR(実線)は人体HMの右足のかかとの位置である。符号TLは、人体HMの左足のかかとの位置である。図3(A)のデータは、例えば、処理部7が検出したかかとQ4の位置を時刻に対してプロットしたデータ点を平滑線で結ぶことなどで得られる。
FIG. 3 is a diagram showing processing of the displacement calculation unit and processing of the landing determination unit according to the embodiment. In FIG. 3A, the horizontal axis is time (elapsed time). The symbol TR (solid line) is the position of the heel of the right foot of the human body HM. The symbol TL is the position of the heel of the left foot of the human body HM. The data of FIG. 3A can be obtained, for example, by connecting the data points obtained by plotting the position of the heel Q4 detected by the
図3(A)の時刻t1において、左足(位置TL参照)は、着地した状態である。この状態において、左足の位置TLは、ほぼ一定である。時刻t1において、右足(位置TR参照)は、前方への移動を開始した状態である。右足は、例えば、左足を支持として前方へ移動し、その位置TRが時間変化する。右足は、着地するとその位置TRの時間変化が右足の移動時よりも減少する。右足が着地すると、左足は、右足を支持として前方に移動し、その位置TLの時間変化が左足の着地時よりも増加する。 At time t1 in FIG. 3A, the left foot (see position TL) is in a landed state. In this state, the position TL of the left foot is almost constant. At time t1, the right foot (see position TR) is in a state of starting to move forward. For example, the right foot moves forward with the left foot as a support, and its position TR changes with time. When the right foot lands, the time change of the position TR becomes smaller than that when the right foot moves. When the right foot lands, the left foot moves forward with the right foot as a support, and the time change of the position TL increases as compared with the time when the left foot lands.
変位算出部8(図1参照)は、例えば、人体HMの脚部Q1(例、かかとQ4)の位置の時間変化を算出する。例えば、変位算出部8は、検出部5が撮像した前回の撮像画像におけるかかとQ4の位置と、検出部5が撮像した今回の撮像画像におけるかかとQ4の位置との差分を、かかとQ4の位置の時間変化として算出する。かかとQ4の位置の時間変化は、例えば、かかとQ4の速度に相当する。
The displacement calculation unit 8 (see FIG. 1) calculates, for example, the time change of the position of the leg portion Q1 (eg, heel Q4) of the human body HM. For example, the
図3(B)は、右足のかかとQ4の位置TRの時間変化(速度)を示す図である。右足のかかとQ4は、時刻t1において支持面G(図1参照)から離れ、時間経過とともに速度が増加する。また、右足のかかとQ4は、速度が極大になった後に、時刻t2において着地する。図3(C)は、左足のかかとQ4の位置の時間変化(速度)を示す図である。左足のかかとQ4は、時刻t1から時刻t3まで着地した状態である。左足のかかとQ4は、時刻t3において支持面G(図1参照)から離れ、時間経過とともに速度が増加する。また、左足のかかとQ4は、速度が極大になった後に、時刻t4において着地する。 FIG. 3B is a diagram showing the time change (velocity) of the position TR of the heel Q4 of the right foot. The heel Q4 of the right foot separates from the support surface G (see FIG. 1) at time t1, and the speed increases with the passage of time. Further, the heel Q4 of the right foot lands at time t2 after the speed reaches the maximum. FIG. 3C is a diagram showing the time change (velocity) of the position of the heel Q4 of the left foot. The heel Q4 of the left foot is in a state of landing from time t1 to time t3. The heel Q4 of the left foot separates from the support surface G (see FIG. 1) at time t3, and the speed increases with the passage of time. Further, the heel Q4 of the left foot lands at time t4 after the speed reaches the maximum.
着地判定部9は、時間変化から推定される支持面G(着地面)に対する脚部Q1の着地状態に基づき人体の着地を判定する。例えば、脚部Q1の位置の時間変化が閾値以下である場合、脚部Q1が支持面Gに接した着地状態であると推定される。脚部Q1の着地状態は、脚部Q1の少なくとも一部(例、つま先Q3、かかとQ4)の着地姿勢を含んでもよい。
The
着地判定部9(図1参照)は、例えば、変位算出部8が算出した脚部(例、かかと)の位置の時間変化と閾値とを比較して、その比較結果(例、閾値以下の結果、閾値以上の結果)に基づいて着地を判定する。着地判定部9は、例えば、変位算出部8が算出した右足のかかとの位置の時間変化(図3(B)の速度)が閾値TH以下である場合に、右足のかかとが着地したと推定して判定する。着地判定部9は、例えば、変位算出部8が算出した左足のかかとの位置の時間変化(図3(C)の速度)が閾値TH以下である場合に、左足のかかとが着地したと推定して判定する。着地判定部9は、例えば、位置情報(例、位置(座標)、速度、加速度)の時間履歴に基づいて、補間などによって着地状態を推定してもよい。
The landing determination unit 9 (see FIG. 1) compares, for example, the time change of the position of the leg (eg, heel) calculated by the
図1の説明に戻り、着地判定部9は、例えば、その判定結果(例、着地の有無)を記憶部10に記憶させる。表示装置4は、例えば、液晶ディスプレイ等である。表示装置4は、処理装置3の処理結果を表示する。処理装置3は、例えば、着地判定部9の判定結果を示す画像のデータを表示装置4に供給する。処理装置3は、例えば、着地判定部9の判定結果を示す画像を、表示装置4に表示させる。
Returning to the description of FIG. 1, the
次に、上述の検出システム1の動作に基づき、実施形態に係る検出方法について説明する。図4は、実施形態に係る検出方法を示すフローチャートである。検出システム1の各部については、適宜、図1を参照する。ステップS1において、検出装置2は、移動する人体HMを光学的に検出する。例えば、検出部5は、移動する人体HMを撮像する。例えば、検出部5は、予め設定された期間(以下、検出設定期間という)において人体HMを繰り返し検出(例、撮像)した後、検出を終了する。
Next, the detection method according to the embodiment will be described based on the operation of the
処理部7は、検出部5の検出結果に基づいて、人体HMの少なくとも一部の位置を検出する(位置検出処理を実行する)。処理部7は、検出部5による検出処理(例、撮像処理)の少なくとも一部と並行して、位置検出処理を実行してもよい。また、処理部7は、検出部5による検出の終了後(例、上記の検出設定期間の終了後)に、位置検出処理を実行してもよい。
The
ステップS2において、変位算出部8は、検出部5の検出結果の時間変化を算出する。変位算出部8は、例えば、処理部7が検出した人体HMの位置(例、かかとQ4の位置)の時間変化を算出する。例えば、変位算出部8は、上記の検出設定期間における検出部5の検出結果について処理部7による位置検出処理が完了した後に、位置検出処理の処理結果の全て又は一部を取得し、人体HMの位置の時間変化を算出する。
In step S2, the
ステップS3およびステップS4において、着地判定部9は、人体HMの着地を判定する。例えば、ステップS3において、着地判定部9は、処理部7が検出した人体HMの位置の時間変化が閾値TH以下であるか否かを判定する。着地判定部9は、時間変化が閾値以下であると判定した場合(ステップS3;Yes)、人体HMが着地したと判定する(ステップS4)。また、着地判定部9は、時間変化が閾値を超えると判定した場合(ステップS3;No)、人体HMが着地していないと判定する(ステップS5)。
In step S3 and step S4, the
上述の実施形態において、検出システム1の少なくとも一部(例、処理装置3)は、コンピュータシステムを含んでもよい。処理装置3は、記憶部10に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行してもよい。この検出プログラムは、例えば、コンピュータに、移動する人体HMを検出した検出結果の時間変化を算出することと、時間変化に基づいて人体HMの着地を判定することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
In the above embodiments, at least a portion of the detection system 1 (eg, processing device 3) may include a computer system. The
実施形態において、検出システム1は、所定の移動方向(例、進行方向、奥行方向)に移動する人体HMを光学的に検出した検出結果の時間変化に基づいて、人体HMの着地を判定する。この場合、検出システム1は、例えば、人体HMの着地を高精度で判定可能である。変位算出部8は、例えば、検出部5が検出した人体HMの一部(部位)の位置の時間変化を算出する。この場合、検出システム1は、例えば、人体HMの部位の位置の時間変化を高精度で算出可能である。なお、変位算出部8は、検出部5が検出した人体HMの複数の部位の位置の時間変化を算出してもよい。着地判定部9は、人体HMの複数の部分の位置の時間変化に基づいて、着地を判定してもよい。
In the embodiment, the
また、変位算出部8は、例えば、検出部5が検出した脚部の位置の時間変化を算出する。例えば、脚部は着地することで脚部の位置の時間変化がほぼ一定(例、0)になり、検出システム1は、着地を高精度で判定可能である。なお、変位算出部8は、検出部5が検出した人体HMのうち脚部Q1以外の部分の位置の時間変化を算出してもよい。例えば、変位算出部8は、検出部5が検出した人体HMのうち、脚部Q1と連動して動く部分(例、図1の腕部Q6)の位置の時間変化を算出してもよい。腕部Q6は、例えば、肩Q7から手Q8(例、指先)までの少なくとも一部の部位を含む。右の腕部Q6の振りは、例えば、歩行または走行において左の脚部Q1と移動と連動し、脚部Q1が着地している間の少なくとも一部において静止する。着地判定部9は、例えば、右の腕部Q6の位置の時間変化が閾値以下になった場合に左足が着地したと判定してもよい。
Further, the
また、着地判定部9は、例えば陸上競技のクラウチングスタート、水泳競技のスタートなどにおいて、位置の時間変化から推定される支持面G(着地面)に対する腕部Q6の着地状態に基づき人体HMの着地を判定してもよい。
Further, the
また、着地判定部9は、例えば、変位算出部8が算出したかかとQ4の位置の時間変化に基づいて、着地を判定する。例えば、歩行等において脚部Q1のうちかかとQ4は他の部位(例、つま先Q3)よりも先に着地し、検出システム1は、着地を高精度で判定可能である。なお、着地判定部9は、例えば、変位算出部8が算出したかかとQ4以外の部位の位置の時間変化に基づいて、着地を判定してもよい。なお、着地判定部9は、左足と右足とのうち、一方の足の着地のみを判定してもよい。
Further, the
また、着地判定部9は、上記の着地判定の処理に加え、前回など過去に検出(測定)したユーザ(例、自分、見本(教師)となる人)の人体HMの検出結果(例、過去の撮像画像)を用いて現在において検出した検出結果(例、現在の撮像画像およびその着地判定結果)と比較して、それら撮像画像同士のターゲット部分(例、脚部や腕部)における類似度から人体HMの着地を推定して判定してもよい。この場合、上記の記憶部10は、検出したタイミング等において、過去に検出(測定)したユーザの人体HMの検出結果(例、過去の撮像画像)を人体HMごとに記憶するように構成される。
Further, in addition to the above-mentioned landing determination processing, the
処理装置3の少なくとも一部(例、処理部7、変位算出部8、着地判定部9)は、検出装置2による人体HMの検出が完了した後に、処理を実行してもよい。また、処理装置3の少なくとも一部は、検出装置2による人体HMの検出処理の少なくとも一部と並行して、処理を実行してもよい。例えば、検出部5は、人体HMを撮像するたびに撮像画像のデータを出力し、処理部7は、検出装置2から撮像画像のデータが出力されるたびに、次の撮像処理と並行して人体HMの位置を検出してもよい。
At least a part of the processing device 3 (eg, processing
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図5は、実施形態に係る検出装置を示す図である。本実施形態において、検出装置2は、人体HMの各部からの距離を光学的に検出する。検出装置2は、例えば、モーションキャプチャ装置でもよく、人体HMの形状を検出してもよい。検出装置2は、例えば、検出部5、処理部7、及び記憶部6を備える。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 5 is a diagram showing a detection device according to an embodiment. In the present embodiment, the
検出部5は、例えば、デプスセンサなどの測距器である。検出部5は、例えば、所定の視点(例、検出部5の位置、視点)から人体HMの表面上の各点までの距離を検出する。検出部5は、例えば、TOF(time of flight)法によって距離を検出する。検出部5は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報)を含む。検出部5は、例えば、人体HMの複数の部位の三次元的な位置情報を出力する。
The
なお、検出部5は、TOF法以外他の手法で距離を検出するデバイスでもよい。検出部5は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。検出部5は、例えば、人体HMが通る領域に所定のパターンを投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。検出部5は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。検出部5は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。また、検出部5は、例えばステレオカメラなどによって複数の視点から人体HMを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。検出部5は、上述した複数の検出法のうち2以上を組み合わせて、人体HMを検出するデバイスでもよい。検出部5は、距離を検出するセンサ、及び第1実施形態で説明したイメージセンサを含んでもよい。
The
図6は、実施形態に係る処理部の処理を示す図である。検出部5(図5参照)は、例えば、デプス画像Im2のデータを出力する。デプス画像Im2において、各画素の画素値は、例えば、デプス画像Im2上の画素の位置に相当する実空間上の点と検出部5との距離を表す。例えば、図6のデプス画像Im2はグレースケールで表されており、暗い部分は、明るい部分よりも検出部5からの距離が離れている。
FIG. 6 is a diagram showing processing of the processing unit according to the embodiment. The detection unit 5 (see FIG. 5) outputs, for example, the data of the depth image Im2. In the depth image Im2, the pixel value of each pixel represents, for example, the distance between the
処理部7(図5参照)は、検出部5の検出結果に基づいて、人体HMの位置を検出(算出)する。処理部7は、例えば、デプス画像Im2のデータを処理(例、透視変換処理、射影変換処理)することによって、人体HMの形状を示す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えば人体HMの表面の複数の点データを含む。例えば、複数の点データは、それぞれ3次元座標で表される。
The processing unit 7 (see FIG. 5) detects (calculates) the position of the human body HM based on the detection result of the
処理部7は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体HM)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
The
処理部7は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。処理部7は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
For example, the
処理部7は、検出部5の検出結果に基づいて、人体HMの特徴部位(例、特徴点)の位置情報PDを生成する。人体HMの特徴部位は、例えば、人体HMの他の部位と区別可能な部位である。人体HMの特徴部位は、例えば、人体HMの末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。人体HMの末端部は、例えば、つま先Q3、頭Q9、手先Q10、などである。また、人体HMの関節は、例えば、腰Q2、膝Q5、肩Q7、肘Q11、手首Q12、などである。また、人体HMの中間部は、例えば、首Q13、肩中央Q14、背骨Q15、腰中央Q16などである。
The
処理部7は、例えば、点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報PDを生成する。特徴部位の位置情報は、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。例えば、処理部7が生成する特徴部位の位置情報は、脚部Q1の少なくとも一部の座標を含む。脚部Q1は、例えば、腰Q2からつま先Q3までの部位である。処理部7は、例えば、腰Q2の座標、膝Q5の座標、かかとQ4の座標、つま先Q3の座標の少なくとも1つを含む位置情報PDを生成する。処理部7は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。
The
処理部7は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置と、検出部5の検出タイミングとを関連付けたデータを生成する。処理部7は、例えば、特徴部位の名称と検出部5の検出タイミングとを関連付けた変数に、特徴部位の座標を格納する。例えば、左のかかとQ4の変数名は、ALnで表される。例えば、ALは、左のかかとであることを表し、nは、位置情報のもとになる検出部5の検出タイミング(例、検出した順番)に基づいて割り付けられる番号(例、1、2、3・・・)である。処理部7は、例えば、n番目の検出結果から得られる左のかかとQ4の座標を、ALnに格納する。処理部7は、例えば、予め設定された特徴部位の位置情報を組にした位置情報PD(例、テーブルデータ)を生成する。位置情報PDは、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。
For example, the
図5の説明に戻り、検出装置2は、処理部7が生成した位置情報を外部に出力する。例えば、処理部7は、生成した位置情報を記憶部6に記憶させる。検出装置2は、例えば、記憶部6に記憶された位置情報を処理装置3に出力する。処理装置3は、検出装置2から出力された位置情報を記憶部10に記憶させる。
Returning to the description of FIG. 5, the
変位算出部8は、検出部5の検出結果の時間変化(時間の変化量)を算出する。例えば、変位算出部8は、検出装置2から出力された特徴部位の位置情報を用いて、検出部5の検出結果の時間変化を算出する。変位算出部8は、例えば、記憶部10に記憶された位置情報を読み出して、検出部5の検出結果の時間変化を算出する。例えば、変位算出部8は、(n−1)番目の検出結果に対応する左のかかとの位置(ALn−1)と、n番目の検出結果に対応する左のかかとの位置(ALn)との差分を、左のかかとの位置の時間変化量として算出する。変位算出部8は、例えば、算出した特徴部位の位置の時間変化を記憶部10に記憶させる。
The
着地判定部9は、変位算出部8の算出結果に基づいて人体HMの着地を判定する。着地判定部9は、例えば、記憶部10に記憶された特徴部位の時間変化を読み出し、人体HMの着地を判定する。以下の説明において、人体HMが着地したタイミングとして着地判定部9が認識するタイミングを着地タイミングという。着地タイミングは、例えば、その元になる検出部5の検出結果の番号(例、フレーム番号)で表されてもよいし、時刻で表されてもよい。
The
着地判定部9は、その判定結果を出力する。着地判定部9の判定結果は、例えば、任意のタイミングにおいて着地の状態であるか否かの情報と、上記の着地タイミングとの一方または双方を含む。着地判定部9は、例えば、その判定結果を運動解析部11に出力する。着地判定部9は、その判定結果を記憶部10に記憶させてもよい。なお、判定結果は、ヘッダ情報や識別番号などを含んでもよい。着地判定部9は、判定結果と、ヘッダ情報や識別番号などとを関連付けて記憶部10に記憶させてもよい。
The
なお、着地判定部9は、変位算出部8の算出結果に基づいて、着地から脱した状態(以下、離地という)を検出してもよい。離地(非着地)は、例えば、支持面G(例、地面、床面)から離れて浮いた状態(非着地状態)である。着地判定部9は、離地を判定してもよい(離地判定処理を実行してもよい)。以下の説明において、人体HMが離地したタイミング(着地から脱したタイミング)として着地判定部9が認識するタイミングを離地タイミングという。離地タイミングは、例えば、その元になる検出部5の検出結果の番号(例、フレーム番号)で表されてもよいし、時刻で表されてもよい。着地判定部9の判定結果は、離地タイミングを含んでもよい。
The
本実施形態において、処理装置3は、運動解析部11を備える。運動解析部11は、人体HMの着地を着地判定部9が検出したことを示す検出信号をトリガーとして、検出部5の検出結果を用いて人体HMの運動を解析する。例えば、運動解析部11は、着地判定部9の検出結果に基づいて、人体HMが着地したタイミングに応じた検出部5の検出結果を用いて人体HMの運動を解析する。運動解析部11は、例えば、上記の着地タイミングに応じて選択される検出部5の検出結果に基づいて、人体HMの運動を解析する。例えば、着地判定部9は、検出部5の第1検出タイミングにおける検出結果を用いて、人体HMが着地したと判定する。この場合、運動解析部11は、上記の第1検出タイミングに基づいて選択される検出部5の検出結果を用いて、人体HMの運動を解析する。なお、運動解析部11は、上記検出信号がない場合(着地していない非着地状態)、人体HMの運動を解析しない。
In the present embodiment, the
運動解析部11は、所定面における人体HMの着地に付随する運動を解析(例、検出)する。例えば、運動解析部11は、脚部Q1が着地する際の脚部Q1の運動を解析する。運動解析部11は、例えば、着地判定部9が着地の判定処理に用いる人体HMの部位の位置と別の部位の位置とを用いた演算によって、人体HMの運動を解析する。例えば、着地判定部9は、第1の部位(例、かかと)の位置を用いて着地の判定処理を実行し、運動解析部は、第1の部位と異なる第2の部位(例、膝)の位置とを用いて、運動を解析する。運動解析部は、第1の部位の位置と第2の部位(例、膝)の位置とを用いて、運動を解析してもよい。
The
運動解析部11は、例えば、脚部Q1のプロネーション(回内運動、回外運動)を解析(例、検出)する。プロネーションは、例えば歩行あるいは走行において脚部が着地する際に、脚部が着地の衝撃を受け止める一連の運動(動作)である。プロネーションは、例えば、着地の際に脚部Q1(例、腰から足首までの部分)が人体HMの中心に対して同じ側(内側)または反対側(外側)に傾く運動である。
The
プロネーションは、例えば、着地の際に脚部Q1が傾くレベルによって、オーバープロネーション、ニュートラル、アンダープロネーションの3つの状態に分類される。オーバープロネーションは、土踏まずのアーチ構造が潰れるように、脚部が内側に向かって、所定の範囲を超えて傾く状態である。アンダープロネーションは、脚部が外側に向かって、所定の範囲を超えて傾く状態である。ニュートラルは、脚部の傾きが内側または外側の所定の範囲に収まる状態である。以下の説明において、着地の際に脚部Q1が傾くレベルを、適宜、プロネーションのレベルという。 Pronations are classified into three states, for example, overpronation, neutral, and underpronation, depending on the level at which the leg Q1 is tilted at the time of landing. Overpronation is a state in which the legs are tilted inward beyond a predetermined range so that the arch structure of the arch is crushed. Underpronation is a state in which the legs are tilted outward beyond a predetermined range. Neutral is a state in which the inclination of the leg is within a predetermined range inside or outside. In the following description, the level at which the leg Q1 tilts at the time of landing is appropriately referred to as the pronation level.
プロネーションのレベルによっては、脚部Q1に負担がかかる場合がある。例えば、オーバープロネーションは、脚部Q1の捻挫、疲労骨折などの原因となる場合がある。プロネーションのレベルを補正するには、例えば、着地の際の脚部の傾きを調整する靴が用いられる。例えば、オーバープロネーションは、土踏まずをサポートするインソールを有する靴によって、ニュートラルに補正される。例えば、ランニング等の分野において、専門家(例、トレーナー)は、補正しない状態のプロネーションを目視によって観察し、プロネーションのレベルを判断する。例えば、専門家が判断したプロネーションのレベルに基づいた靴の選択によって、プロネーションが補正される。 Depending on the level of pronation, the leg Q1 may be burdened. For example, overpronation may cause sprains and stress fractures of the leg Q1. To correct the level of pronation, for example, shoes that adjust the inclination of the legs during landing are used. For example, overpronation is neutralized by shoes with insoles that support the arch. For example, in a field such as running, an expert (eg, a trainer) visually observes the uncorrected pronation to determine the level of pronation. For example, the pronation is corrected by the selection of shoes based on the level of pronation judged by the expert.
運動解析部11は、例えば、人体HMが着地したタイミングに基づいた検出部5の検出結果から得られる人体HMの脚部の膝の位置を用いて、人体HMの運動として脚部Q1のプロネーションを検出する。運動解析部11は、例えば、検出部5の検出結果から得られる膝Q5の位置と基準とを比較して、プロネーションのレベルを示す指標値を算出する。
The
図7は、実施形態に係る処理装置の処理を示す図である。図7において、横軸は時刻である。検出部5は、例えば、ユーザの指令によって検出を開始し、所定の時間間隔で検出を繰り返す。図7において、符号ALは、検出部5の検出結果から得られる左足のかかとQ4(図6参照)の位置である。左足のかかとQ4の位置ALは、例えば、検出部5が出力するデプス画像Im2(図6参照)のデータを処理部7が処理することで得られる。
FIG. 7 is a diagram showing processing of the processing apparatus according to the embodiment. In FIG. 7, the horizontal axis is time. The
変位算出部8は、かかとQ4の位置ALの時間変化を算出する。着地判定部9は、例えば、変位算出部8が算出したかかとQ4の位置ALの時間変化を監視する。着地判定部9は、図3で説明したように、変位算出部8が算出したかかとQ4の位置ALの時間変化に基づいて、着地を判定する。図7において、符号t11は、人体HMが着地した時刻として着地判定部9が認識する時刻(着地タイミング)である。例えば、着地判定部9は、時刻t11における検出部5の検出(例、今回の検出)から得られるかかとQ4の位置ALと、時刻t11よりも前の検出部5の検出(例、前回の検出)から得られるQ4の位置ALとの差が閾値TH(図3参照)以下である場合に、時刻t11において着地したと判定する。
The
また、符号t12は、人体HMが離地した時刻として着地判定部9が認識する時刻(離地タイミング)である。例えば、着地判定部9は、時刻t12における検出部5の検出(例、今回の検出)から得られるかかとQ4の位置ALと、時刻t12よりも前の検出部5の検出(例、前回の検出)から得られるQ4の位置ALとの差が閾値TH(図3参照)を超える場合に、時刻t12において着地したと判定する。また、符号T1は、人体HMが着地している期間として着地判定部9が認識する期間(以下、着地期間という)である。着地期間T1は、着地タイミング(例、時刻t11)から離地タイミング(例、時刻t12)までの期間である。
Further, the reference numeral t12 is a time (takeoff timing) recognized by the
また、図7において、符号ΔKLは、左足の膝Q5(図6参照)の水平方向の位置の変化量(例、膝Q5の位置の差分値、時間微分値などのパラメータ)である。ここでは、膝Q5が人体HMの中心に対して内側へ向かう際の変化量ΔKLを正(+)とし、膝Q5が人体HMの中心に対して外側へ向かう際の変化量ΔKLを負(−)とした。例えば、変化量ΔKLは、正である場合に回内運動(例、オーバープロネーション)であることを表し、負である場合に回外運動(例、アンダープロネーション)であることを表す。 Further, in FIG. 7, the symbol ΔKL is the amount of change in the horizontal position of the left foot knee Q5 (see FIG. 6) (eg, parameters such as the difference value of the position of the knee Q5 and the time differential value). Here, the amount of change ΔKL when the knee Q5 moves inward with respect to the center of the human body HM is positive (+), and the amount of change ΔKL when the knee Q5 moves outward with respect to the center of the human body HM is negative (-). ). For example, the amount of change ΔKL indicates that it is an inward movement (eg, overpronation) when it is positive, and indicates that it is a supination movement (eg, underpronation) when it is negative.
変化量ΔKLは、例えば、検出部5が出力するデプス画像Im2(図6参照)のデータを処理部7が処理して得られる膝Q5の位置を、変位算出部8が処理して得られる。運動解析部11は、例えば、着地期間に関連付けられる期間における運動(例、プロネーション)を検出する。例えば、運動解析部11は、着地期間T1の少なくとも一部におけるプロネーションを検出する。例えば、運動解析部11は、着地タイミング(例、時刻t11)と離地タイミング(例、時刻t12)との一方または双方に対して予め定められた所定の期間T2におけるプロネーションを検出する。所定の期間T2は、例えば、着地タイミング(例、時刻t11)を起点して予め定められた長さの期間である。
The amount of change ΔKL is obtained, for example, by the
運動解析部11は、例えば、所定の期間T2における検出部5の検出結果から得られる膝Q5の位置情報を取得(例、抽出、監視)する。所定の期間T2における検出部5の検出結果は、人体HMが着地したタイミング(例、時刻t11)よりも後に検出部5が人体HMを検出した検出結果を含む。膝Q5の位置情報は、例えば、検出部5の検出結果を処理部7が処理して得られる膝Q5の位置(例、座標)と、膝Q5の位置情報を変位算出部8が処理して得られる膝Q5の位置の時間変化(例、変化量ΔKL、膝Q5の速度)と、変化量ΔKLの時間変化(例、加速度)との少なくとも1つを含む。
The
運動解析部11は、例えば、膝Q5の位置情報として、変位算出部8が算出する膝Q5の位置の変化量ΔKLを監視する。所定の期間T2における膝の位置情報(例、変化量ΔKL)は、例えば、プロネーションのレベルを表す指標値として利用可能である。例えば、変化量ΔKLが正である状態は、膝がQ5内側に向かうように脚部Q1が傾く状態に相当する。例えば、変化量ΔKLが所定値よりも大きい状態は、オーバープロネーションに相当する。例えば、変化量ΔKLが負である状態は、膝Q5が外側に向かうように脚部Q1が傾く状態に相当する。例えば、変化量ΔKLが所定値よりも小さい状態は、アンダープロネーションに相当する。
The
運動解析部11は、例えば、上記の指標値として、所定の期間T2における変化量ΔKLの統計量(例、最大値、積算値、平均値)を算出する。運動解析部11は、1回の着地に対する指標値を算出してもよいし、複数回の着地のそれぞれに対する指標値を算出してもよい。また、運動解析部11は、複数回の着地のそれぞれに対する個別の指標値を算出し、さらに、算出した個別の指標値の統計量(例、最大値、平均値、積算値)を指標値として算出してもよい。運動解析部11は、例えば、膝Q5の位置情報として上記の指標値を算出してもよい。
For example, the
運動解析部11は、例えば、所定の期間T2における膝Q5の位置情報(例、変化量ΔKL)と第1の閾値TH1とを比較する。第1の閾値THは、膝Q5が人体HMの中心に対して内側へ向かう際の値を正(+)として、正の値に設定される。運動解析部11は、例えば図7(A)に示すように所定の期間T2における変化量ΔKLが第1の閾値TH1を超える場合、プロネーションがオーバープロネーションに該当すると判定する。
The
また、運動解析部11は、例えば、所定の期間T2における膝Q5の位置情報(例、変化量ΔKL)と第2の閾値TH2とを比較する。第2の閾値TH2は、膝Q5が人体HMの中心に対して外側へ向かう際の値を負(−)として、負の値に設定される。運動解析部11は、例えば、例えば図7(B)に示すように所定の期間T2における変化量ΔKLが第2の閾値TH2よりも小さい場合、プロネーションがアンダープロネーションに該当すると判定する。また、運動解析部11は、例えば図7(C)に示すように、所定の期間T2における変化量ΔKLが第2の閾値TH2以上第1の閾値以下の範囲内である場合、プロネーションがニュートラル(ノーマル)であると判定する。
Further, the
なお、運動解析部11は、変化量ΔKLと閾値との大小関係と異なる判定基準を用いて、プロネーションを判定してもよい。例えば、運動解析部11は、変化量ΔKLが閾値を超える頻度に基づいて、プロネーションを判定してもよい。例えば、運動解析部11は、変化量ΔKLが第1の閾値TH1を超え頻度(例、回数)を計数し、この頻度が所定値を超える場合にプロネーションがオーバープロネーションに該当すると判定してもよい。運動解析部11は、変化量ΔKLと閾値との大小関係と、上記の頻度との双方を用いて、プロネーションを判定してもよい。また、運動解析部11は、上記の基準として、膝Q5の位置のサンプル(例、画像、座標)を用いて、プロネーションを検出してもよい。
The
なお、上記の閾値(第1の閾値TH1、第2の閾値TH2)は、固定値でもよいし、可変値でもよい。例えば、上記の閾値は、ユーザの入力などによって指定される可変値でもよい。上記の閾値は、例えば、検出対象の人体HMの寸法(例、身長、足の長さ)に基づいて設定されてもよい。例えば、検出システム1は、検出対象の人体HMの情報(例、身長)の入力を受け付け、入力された情報に基づいて上記の閾値を設定してもよい。例えば、記憶部10は、人体の身長と上記の閾値とを関連付けた参照情報(例、テーブルデータ)を記憶してもよい。運動解析部11は、入力された検出対象の人体HMの情報と上記の参照情報とを比較して、上記の閾値を設定してもよい。上記の閾値と上記の参照情報との一方または双方は、処理装置3の外部の装置(例、外部のデータベース)から供給されてもよい。
The above threshold values (first threshold value TH1, second threshold value TH2) may be fixed values or variable values. For example, the above threshold value may be a variable value specified by user input or the like. The above threshold value may be set based on, for example, the dimensions (eg, height, foot length) of the human body HM to be detected. For example, the
なお、運動解析部11は、膝の位置の時間変化(例、変化量ΔKL)と別のパラメータを用いて、プロネーションを検出してもよい。図8は、変形例に係る運動解析部の処理を示す図である。図8(A)のXYZ直交座標系において、Z方向は人体HMの移動方向である。人体HMの移動方向は、例えば、検出部5の検出方向との角度が予め設定されている。検出部5の検出方向(後に図12に示す)は、検出部5の検出範囲の中心(例、視野中心、画角中心)と検出部5とを結ぶ方向である。X方向は、人体HMの移動方向に交差(例、直交)する方向である。Y方向は、例えば、人体HMの高さ方向(例、鉛直方向)である。
The
図8において、原点Oは、例えば検出部5の位置である。また、HLn、KLn、及びALnは、それぞれ、XYZ直交座標系において人体HMの特徴部位の位置を示す位置ベクトルである。これらの位置ベクトルは、例えば、処理部7が算出する特徴部位の位置情報を、適宜、座標変換することで得られる。HLnは、検出部5のn番目の検出結果から得られる左側の腰Q2(図6参照)の位置ベクトルである。KLnは、検出部5のn番目の検出結果から得られる左足の膝Q5(図6参照)の位置ベクトルである。ALnは、検出部5のn番目の検出結果に対応する左足のかかとQ4(図6参照)の位置ベクトルである。
In FIG. 8, the origin O is, for example, the position of the
運動解析部11は、検出部5の検出結果から得られる膝Q5の位置と、基準BLとを比較して、プロネーションを検出する。基準BLは、例えば、検出部5が検出する人体HMの脚部Q1における上体側の端部(例、腰Q2)とかかとQ4とを結ぶ線である。運動解析部11は、例えば、基準BLに対する膝Q5の位置を検出して、プロネーションを検出する。例えば、運動解析部11は、基準BLに対して膝Q5が配置される側を検出することで、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを判定する。
The
また、運動解析部11は、検出部5の検出結果から得られる膝Q5の位置と、基準BLとを比較して、プロネーションのレベルを示す指標値を検出する。図8(A)において、ベクトルV1nは、かかとQ4と腰Q2とを結ぶベクトル(基準)である。また、ベクトルV2nは、かかとQ4と膝Q5とを結ぶベクトルである。図8(B)に示すように、ベクトルV1nは、腰Q2の位置ベクトルHLnと、かかとQ4の位置ベクトルALnとの差である。また、ベクトルV2nは、膝Q5の位置ベクトルKLnと、かかとQ4の位置ベクトルALnとの差である。
Further, the
運動解析部11は、プロネーションの指標値として、例えば、ベクトルV1nとベクトルV2nとの角度θln、または角度θlnを変数とする関数の値を算出する。例えば、運動解析部11は、プロネーションの指標値としてcosθlnを算出する。cosθlnは、図8(C)に示すように、ベクトルV1nとベクトルV2nとの内積を、ベクトルV1nの大きさおよびベクトルV2nの大きさで除算することで、算出される。指標値(cosθln)が0に近い場合、θlnの絶対値が0に近いことに相当し、例えば、プロネーションがニュートラルであることを表す。また、指標値(cosθln)が大きい場合、θlnの絶対値が大きいことに相当し、例えば、プロネーションがオーバープロネーションであることを表す。
The
なお、運動解析部11は、角度θlnを変数とする関数の値として、cosθlnの時間変化量を用いてもよい。また、運動解析部11は、角度θln以外の角度を指標値に用いてもよい。例えば、運動解析部11は、膝Q5とかかとQ4とを結ぶ線(例、ベクトル)と、膝Q5と腰Q2とを結ぶ線(例、ベクトル)との角度αを指標値に用いてもよい。また、運動解析部11は、腰Q2と膝Q5とを結ぶ線(例、ベクトル)と、と腰Q2とかかとQ4とを結ぶ線(例、ベクトル)との角度βを指標値に用いてもよい。また、運動解析部11は、角度θlnと角度αと角度βとの2つ以上を指標値に用いてもよい。
The
なお、運動解析部11は、少なくとも1つのプロネーション状態(オーバープロネーション、ニュートラル、又はアンダープロネーション)について、2以上の段階で評価してもよい。例えば、運動解析部11は、オーバープロネーションの程度を、複数のレベル(例、1、2、3・・・)で表してもよい。
The
なお、運動解析部11は、着地タイミングと同時に、又は着地タイミングよりも前に検出部5が人体を検出した検出結果と、着地タイミングよりも後に検出部5が人体を検出した検出結果とを比較して、人体HMの運動を検出してもよい。例えば、右足が離地である状態において、右足は、支持面Gから直接的な拘束を受けない。右足が離地である状態における基準と膝との相対位置は、例えば、着地によるプロネーションがない状態における基準と膝との相対位置として利用可能である。例えば、運動解析部11は、離地した状態と着地した状態とで基準と膝との相対位置を比較し、プロネーションを検出してもよい。運動解析部11は、右足と左足とのそれぞれについてプロネーションを検出してもよいし、一方の足についてのみプロネーションを検出してもよい。
The
図5の説明に戻り、運動解析部11は、例えば、解析結果を記憶部10に記憶させる。運動解析部11は、例えば、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを示す解析結果を記憶部10に記憶させる。また、運動解析部11は、例えば、プロネーションの指標値を記憶部10に記憶させる。
Returning to the description of FIG. 5, the
表示装置4は、処理装置3の処理結果(例、運動解析部11の解析結果)を表示する。例えば、処理装置3は、プロネーションの情報を示す画像のデータを表示装置4に供給する。例えば、処理装置3は、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを示す画像のデータを表示装置4に供給する。また、処理装置3は、プロネーションの指標値を示す画像のデータを表示装置4に供給する。表示装置4は、処理装置3から供給される画像のデータに基づいて、画像を表示する。処理装置3は、表示装置4と別の装置にプロネーションの情報を供給してもよい。例えば、処理装置3は、通信回線(例、インターネット回線)を介して、プロネーションの情報を送信してもよい。
The
次に、上述の検出システム1の動作に基づき、実施形態に係る検出方法について説明する。図9は、実施形態に係る検出方法を示すフローチャートである。ステップS1からステップS5の処理については、図4と同様である。ステップS4において、着地したと着地判定部9が判定した後、運動解析部11は、ステップS11において人体HMの運動を解析する。運動解析部11は、例えば、着地期間T1の少なくとも一部についてプロネーションを検出する。運動解析部11は、例えば、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを判定する。運動解析部11は、例えば、プロネーションのレベルを示す指標値を算出する。ステップS12において、表示装置4は、処理装置3の処理結果を表示する。例えば、処理装置3は、プロネーションの情報を示す画像のデータを表示装置4に供給する。表示装置4は、処理装置3から供給された画像のデータに基づいて、この画像を表示する。
Next, the detection method according to the embodiment will be described based on the operation of the
上述の実施形態において、検出システム1の少なくとも一部(例、処理装置3)は、コンピュータシステムを含んでもよい。処理装置3は、記憶部6に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行してもよい。この検出プログラムは、例えば、コンピュータに、移動する人体HMを検出した検出結果の時間変化を算出することと、時間変化に基づいて人体HMの着地を判定することと、人体HMの着地の判定結果に基づいて、人体HMの運動を解析することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
In the above embodiments, at least a portion of the detection system 1 (eg, processing device 3) may include a computer system. The
なお、検出システム1は、プロネーション以外の項目について検出を実行してもよい。例えば、検出システム1は、人体HMの移動速度を検出してもよい。例えば、検出システム1(例、変位算出部8)は、人体HMの特徴部位(例、図6の腰中央Q16、頭Q9)の位置の時間変化を、移動速度として算出してもよい。
The
また、検出システム1は、所定方向の歩幅を検出してもよい。例えば、検出システム1(例、変位算出部8)は、人体HMの移動方向において、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、他方の足(例、左足)の次の着地タイミングにおける他方の足の位置までの距離を歩幅として算出してもよい。検出システム1は、重複歩幅(重複歩長)を算出してもよい。例えば、検出システム1(例、変位算出部8)は、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、一方の足の次の着地タイミングにおける一方の足の位置までの距離を重複歩幅として算出してもよい。
Further, the
また、検出システム1は、所定方向の歩隔を検出してもよい。例えば、例えば、検出システム1(例、変位算出部8)は、人体HMの移動方向に直交する方向において、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、他方の足(例、左足)の次の着地タイミングにおける他方の足の位置までの距離を歩隔として算出してもよい。
Further, the
また、検出システム1は、上体のぶれを検出してもよい。例えば、検出システム1(例、処理部7)は、図6に示した腰中央Q16に対する頭Q9の相対位置を算出してもよい。また、検出システム1(例、変位算出部8)は、図6に示した腰中央Q16に対する頭Q9の相対位置の時間変化を算出してもよい。
Further, the
また、検出システム1は、例えば人体HMの静止状態において、人体HMの姿勢を検出してもよい。例えば、検出システム1は、例えば図8で説明したように、基準BLと膝Q5との相対位置を検出し、左右の脚部がX脚、O脚、平行脚のいずれの傾向にあるかを判定してもよい。また、検出システム1は、かかとに対するつま先の向き(内側:Toe-in、外側:Toe-out、平行:ニュートラル)を検出してもよい。
Further, the
検出システム1は、上述した項目の1または2以上について検出を実行してもよい。また、検出システム1は、上述した項目についての検出を実行しなくてもよい。なお、処理装置3は、検出システム1の少なくとも一部(例、検出装置2)と別に提供されてもよい。また、処理装置3は、検出装置2の少なくとも一部(例、処理部7)を備えてもよい。
The
[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図10は、実施形態に係る検出システムを示す図である。検出システム1は、方向検出部12を備える。
[Third Embodiment]
A third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 10 is a diagram showing a detection system according to an embodiment. The
方向検出部12は、検出部5の検出結果に基づいて人体HMの移動方向D1を検出する。方向検出部12は、例えば、着地判定部9の判定結果に基づいて、人体HMの移動方向D1(進行方向、運動方向)を検出する。例えば、方向検出部12は、第1の着地タイミングにおける左足(例、かかとQ4)の位置を取得する。また、方向検出部12は、第1の着地タイミングより後の第2の着地タイミングにおける左足(例、かかとQ4)の位置を取得する。方向検出部12は、第1の着地タイミングと第2の着地タイミングとの間における左足の位置の変化(例、ベクトル)を算出する。このベクトルは、左足の移動方向に相当する。
The direction detection unit 12 detects the moving direction D1 of the human body HM based on the detection result of the
方向検出部12は、例えば、右足について左足と同様に移動方向を算出する。方向検出部12は、例えば、左足の移動方向と、右足の移動方向との平均を算出することで、人体HMの移動方向D1を算出する。なお、方向検出部12は、左足と右足との一方のみの移動方向を、人体HMの移動方向D1として算出してもよい。方向検出部12は、例えば、検出した移動方向D1を記憶部10に記憶させる。方向検出部12は、例えば、検出した移動方向を運動解析部11に出力する。
The direction detection unit 12 calculates, for example, the moving direction of the right foot in the same manner as the left foot. The direction detection unit 12 calculates the moving direction D1 of the human body HM by, for example, calculating the average of the moving direction of the left foot and the moving direction of the right foot. The direction detection unit 12 may calculate the moving direction of only one of the left foot and the right foot as the moving direction D1 of the human body HM. The direction detection unit 12 stores, for example, the detected moving direction D1 in the
本実施形態において、運動解析部11は、方向検出部12の検出結果を用いて人体HMの運動を解析する。人体HMの移動方向は、例えば、予め定められていなくてもよい。運動解析部11は、例えば、図8で説明した処理において、方向検出部12が検出した移動方向D1をZ方向として人体HMの特徴部位の座標を変換する。運動解析部11は、例えば、変換された特徴部位の座標を用いて、運動を解析する。
In the present embodiment, the
なお、方向検出部12は、検出部5が検出する脚部Q1以外の部位の位置を用いて移動方向D1を検出してもよい。例えば、方向検出部12は、人体HMの頭Q9の位置の時間変化を用いて、移動方向D1を検出してもよい。また、方向検出部12は、着地タイミングごとに移動方向を検出してもよい。例えば、方向検出部12は、任意の着地タイミングにおけるかかとQ4の位置と、その次の着地タイミングにおけるかかとQ4の位置との比較によって、2つの着地タイミングの間の移動方向を検出してもよい。また、運動解析部11は、着地タイミングごとに方向検出部12が検出する移動方向を用いて、運動を解析してもよい。また、方向検出部12は、着地タイミングを用いないで移動方向D1を検出してもよい。
The direction detection unit 12 may detect the moving direction D1 by using the position of a portion other than the leg portion Q1 detected by the
次に、実施形態にかかる検出部5の検出方向について説明する。図11は、実施形態に係る検出部の配置を示す図である。検出部5の検出方向D2は、例えば、検出部5の検出範囲の中心線の方向である。検出部5は、着地判定に用いられる人体HMの特徴部位が検出範囲FVを通るように、配置される。また、運動解析部11がプロネーションを検出する場合、検出部5は、移動方向D1に交差する方向(例、X方向)における膝の変位を検出可能なように配置される。例えば、検出部5は、撮像によって人体HMを検出する場合、移動方向D1と検出方向D2との角度φが0°よりも大きく90°よりも小さくなるように、配置される。
Next, the detection direction of the
移動方向D1と検出方向D2との角度φは、検出部5が人体HMの三次元的な位置を検出する場合、0°以上90°以下の任意の角度に設定されてもよい。また、移動方向D1が予め設定されず、検出システム1は、移動方向D1を検出してもよい。
The angle φ between the moving direction D1 and the detection direction D2 may be set to an arbitrary angle of 0 ° or more and 90 ° or less when the
また、図11(B)に示すように、検出部5は、例えば、撮像によって人体HMを検出する複数の検出部(例、第1検出部5a、第2検出部5b)を備えてもよい。第1検出部5aは、例えば、移動方向D1と検出方向D2aとが平行になるように、配置されてもよい。第2検出部5bは、例えば、移動方向D1と検出方向D2bとが直交するように、配置されてもよい。着地判定部9は、例えば、第2検出部5bの検出結果に基づいて、着判定処理を行ってもよい。また、運動解析部11は、例えば、第1検出部5aの検出結果に基づいて、プロネーションを検出してもよい。
Further, as shown in FIG. 11B, the
[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、実施形態に係る検出システムを示す図である。本実施形態において、処理装置3は、通信部21(送信部)を備える。通信部21は、着地判定部9の処理結果の少なくとも一部を外部に送信する。着地判定部9は、移動する人体HMを光学的に検出した検出結果の時間変化に基づいて、人体HMの着地タイミングを検出(例、推定)する。通信部21は、着地判定部9の処理結果として、人体HMの着地タイミングを送信する。
[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a detection system according to the embodiment. In the present embodiment, the
また、検出システム1は、処理装置25を備える。処理装置25は、通信部26(受信部と送信部)および解析部27を備える。通信部26は、移動する人体HMを光学的に検出した検出結果の時間変化に基づいて人体HMの着地を判定した着地タイミングを受信する。通信部26は、有線または無線によって処理装置3の通信部21と通信可能に接続される。通信部26は、処理装置3の通信部21から、着地判定部9が検出した人体HMの着地タイミングを受信する。
Further, the
解析部27は、通信部26が受信した着地タイミングに基づいて、人体HMの脚部Q1のプロネーションを解析する。解析部27は、着地タイミングを解析の開始信号とし、例えば図5で説明した運動解析部11と同様の処理によって、プロネーションを解析する。例えば、処理装置3の通信部21は、変位算出部8が算出した変位情報を、処理装置25の通信部26へ送信する。解析部27は、通信部26が受信した着地タイミングおよび変位情報に基づいて、脚部Q1のプロネーションを検出する。なお、通信部26は、検出装置2から検出結果(検出部5の検出結果、処理部7の処理結果)の少なくとも一部を受信してもよい。そして、解析部27は、通信部26が受信した着地タイミング、及び検出装置2の検出結果に基づいて、プロネーションを検出してもよい。
The
処理装置25は、例えば、解析部27の解析結果を記憶部に記憶させる。処理装置25は、解析部27の解析結果を、外部の装置(例、表示装置)に出力してもよい。なお、処理装置25は、検出システム1の少なくとも一部と別に提供されてもよい。例えば、処理装置25は、処理装置3と別に提供されてもよい。また、処理装置25は、検出装置2と別に提供されてもよい。また、また、処理装置25は、検出装置2の少なくとも一部(例、検出部5、処理部7)を備えてもよい。
The
また、運動解析部11は、上記の解析処理に加え、前回など過去に検出(解析)したユーザ(例、自分、見本(教師)となる人)の人体HMの脚部のプロネーションの解析結果(例、過去の解析結果)を用いて現在において解析した解析結果(例、現在の解析結果)と比較して、それら解析結果同士の脚部における類似度から人体HMの脚部のプロネーションを検出してもよい。この場合、上記の記憶部10は、解析したタイミング等において、過去に検出(解析)した人体HMの解析結果を人体HMの脚部ごとに記憶するように構成される。
Further, in addition to the above analysis processing, the
次に、実施形態に係る運動用マットについて説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図13は、実施形態に係る運動用マットを示す図である。運動用マット30は、移動する人体HMの移動範囲(例、運動範囲、支持面G)に配置される。運動用マット30は、例えば、シート状、マット状の部材である。運動用マット30は、例えば、エクササイズマット、ヨガマット、トレーニングマット、フィットネスマット、ゴルフや野球などのスウィング用マット)などである。運動用マット30は、例えば、ルームランナーなどの運動機器において、人体HMを支持する面に設けられてもよい。例えば、人体HMは、支持面G(例、支持面Gは競技用トラックの面、競技用の床などを含む)に敷かれた運動用マット30上で運動あるいは移動する。なお、運動用マット30は、支持面Gの全面又は一部に設定されてもよいし、支持面Gに全部又は部分的に埋め込まれてもよい。
Next, the exercise mat according to the embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 13 is a diagram showing an exercise mat according to the embodiment. The
運動用マット30は、マット自体からの反射光のノイズを低減させるために、人体HMを光学的に検出する検出部5が感度を有する光の波長帯(例、赤外光の波長帯、可視光の波長帯、X線の波長帯)において人体HMよりも光(例、赤外光)の吸収率が高く構成されている。また、運動用マット30は、人体HMと比べて光(例、赤外光)の反射率が低く構成されている。例えば、検出部5は、所定の波長帯の光を人体HMに照射し、この光の照射によって人体HMから放射される光を検出する。上記の所定の波長帯は、例えば、赤外光(例、近赤外光)の波長帯を含む。人体HMから放射される光は、例えば、赤外光(例、近赤外光)を含む。運動用マット30は、例えば、検出部5から照射される光に対する吸収率が人体HMよりも高い。また、運動用マット30は、検出部5が感度を有する光の波長帯において人体HMとのコントラストの差が際立つような光学特性を備えるように構成されてもよい。
In the
図13(B)は、実施形態に係る運動用マットを示す断面図である。運動用マット30は、基材31、吸収層32、及び下地層33を含む。基材31は、例えば樹脂材料で形成される。上記の樹脂材料は、例えば、ニトリルゴム(NBR)、天然ゴム、熱可塑性エラストマー(TPE)、ポリ塩化ビニル(PVC)、ポリマー環境樹脂(PER)、及びエチレン酢酸ビニルコポリマー(EVA)の少なくとも1つを含む。
FIG. 13B is a cross-sectional view showing an exercise mat according to the embodiment. The
吸収層32は、層内において一様に配置され、検出部5が感度を有する波長帯(例、赤外光の波長帯)において人体HMよりも吸収率が高い色素(材料)を含む。吸収層32は、例えば、800nm以上1200nm以下の波長帯又は750nm以上3000nm以下の波長帯に吸収極大を有する。上記の色素は、例えば、フタロシアニン系色素、金属錯体系色素、ニッケルジチオレン錯体系色素、シアニン系色素、スクアリリウム系色素、ポリメチン系色素、アゾメチン系色素、アゾ系色素、ポリアゾ系色素、ジイモニウム系色素、アミニウム系色素、及びアントラキノン系色素のうち1種または2種以上を含む。吸収層32は、例えば、グラファイトを分散させた樹脂材料で形成されてもよい。
The
下地層33は、例えば、支持面Gに対する摩擦係数が基材31よりも大きい材料で形成される。下地層33は、支持面Gとの滑りが抑制されるように、その表面に複数の微小な凹凸を有してもよい。
The
運動用マット30は、例えば、ロール状に巻き回すことが可能なレベルの可撓性を有する。例えば、基材31、吸収層32、及び下地層33は、それぞれ、上記の可撓性を有するように材料が選択される。なお、図13(B)に示した運動用マット30の構成は、一例であり、適宜変更可能である。例えば、運動用マット30は、吸収層32に対して基材31と反対側(例、運動用マット30の表面側)に、吸収層32を保護する保護層(例、抗菌や防汚のコーティング層)を含んでもよい。また、運動用マット30は、吸収層32に対して基材31と反対側(例、運動用マット30の表面側)に、反射防止層(例、ARコーティング)を含んでもよい。
The
運動用マット30から検出部5に入射する光L1の強度は、例えば、人体HMから検出部5に入射する光L2の強度よりも弱い。検出部5は、例えば、運動用マット30上を移動する人体HMを高精度で検出可能である。例えば、検出部5を備える検出システムは、運動用マット30上を移動する人体HMの脚部と運動用マット30とを高精度で判別可能である。これ(例、脚部を高精度に判別した結果)を用いることによって、検出システム1は、上記した人体HMの着地判定(例、脚部の着地判定)や人体HMの運動解析(例、脚部のプロネーション解析)を更に高精度に処理することが可能である。この検出システムは、図1などに示した検出システム1であってもよいし、検出システム1でなくてもよい。また、図1などに示した検出システム1は、運動用マット30を備えてもよい。
The intensity of the light L1 incident on the
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.
1・・・検出システム、2・・・検出装置、3・・・処理装置、4・・・表示装置
5・・・検出部、8・・・変位算出部、9・・・着地判定部、11・・・運動解析部、12・・・方向検出部、21・・・光学部材、BL・・・基準、D1・・・移動方向、HM・・・人体、Q1・・・脚部、Q4・・・かかと、Q5・・・膝
1 ... Detection system, 2 ... Detection device, 3 ... Processing device, 4 ...
Claims (11)
前記検出部の検出結果を用いて前記人体の脚部のプロネーションを解析する解析部と、
を備え、
前記解析部は、前記検出部の検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出システム。 A detector that optically detects the moving human body,
An analysis unit that analyzes the pronation of the legs of the human body using the detection results of the detection unit,
Equipped with a,
The analysis unit detects the position of the human body from the detection result of the detection unit, identifies at least a part of the leg from the detected position of the human body, and sets the position of at least a part of the identified leg. A detection system that determines the state of the pronation by comparing it with a reference.
前記解析部は、前記受信部が受信した前記着地タイミングに基づいて、前記人体の前記脚部の前記プロネーションを解析する、請求項1から請求項5のいずれか一項に記載の検出システム。 A receiving unit for receiving the landing timing for determining the landing of the human body based on the time change of the detection result of optically detecting the moving human body is provided.
The detection system according to any one of claims 1 to 5, wherein the analysis unit analyzes the pronation of the leg portion of the human body based on the landing timing received by the receiving unit.
前記人体を検出した検出結果に基づいて、前記人体の脚部のプロネーションを検出することと、
を含み、
前記プロネーションの検出では、前記人体を検出した検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出方法。 Optically detecting the moving human body and
To detect the pronation of the leg of the human body based on the detection result of detecting the human body,
Only including,
In the detection of the pronation, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and at least a part of the specified leg is detected. A detection method for determining the state of the pronation by comparing the position of the head and the reference.
移動する人体を光学的に検出した検出結果に基づいて、前記人体の脚部のプロネーションを検出すること、
を実行させ、
前記プロネーションの検出では、前記人体を検出した検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出プログラム。 On the computer
To detect the pronation of the leg of the human body based on the detection result of optically detecting the moving human body.
To run ,
In the detection of the pronation, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and at least a part of the specified leg is detected. A detection program that determines the state of the pronation by comparing the position of the pronation with the reference.
前記検出部の検出結果に基づいて前記人体の移動方向を検出する方向検出部と、 A direction detection unit that detects the moving direction of the human body based on the detection result of the detection unit, and
前記検出部の検出結果を用いて前記人体の脚部のプロネーションを解析する解析部と、 An analysis unit that analyzes the pronation of the legs of the human body using the detection results of the detection unit,
を備え、 With
前記解析部は、前記検出結果から前記人体の移動方向に対する交差方向において基準に対する前記人体の脚部の少なくとも一部の位置を検出し、前記脚部の少なくとも一部の位置と前記基準とを比較して、前記プロネーションの状態を判定する、検出システム。 From the detection result, the analysis unit detects at least a part of the position of the leg of the human body with respect to the reference in the crossing direction with respect to the moving direction of the human body, and compares the position of at least a part of the leg with the reference. A detection system that determines the state of the pronation.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017036132A JP6932946B2 (en) | 2017-02-28 | 2017-02-28 | Detection system, detection method, and detection program |
JP2021131244A JP7327449B2 (en) | 2017-02-28 | 2021-08-11 | detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017036132A JP6932946B2 (en) | 2017-02-28 | 2017-02-28 | Detection system, detection method, and detection program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021131244A Division JP7327449B2 (en) | 2017-02-28 | 2021-08-11 | detection system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018139902A JP2018139902A (en) | 2018-09-13 |
JP2018139902A5 JP2018139902A5 (en) | 2020-03-19 |
JP6932946B2 true JP6932946B2 (en) | 2021-09-08 |
Family
ID=63527136
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017036132A Active JP6932946B2 (en) | 2017-02-28 | 2017-02-28 | Detection system, detection method, and detection program |
JP2021131244A Active JP7327449B2 (en) | 2017-02-28 | 2021-08-11 | detection system |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021131244A Active JP7327449B2 (en) | 2017-02-28 | 2021-08-11 | detection system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6932946B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022065241A (en) * | 2020-10-15 | 2022-04-27 | 株式会社日立ハイテク | Motion visualization system and motion visualization method |
WO2022209286A1 (en) * | 2021-03-29 | 2022-10-06 | Necソリューションイノベータ株式会社 | Determination device |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4659602A (en) * | 1985-11-12 | 1987-04-21 | Jorgen Birch | Broad spectrum camouflage mat |
JP4595104B2 (en) | 1999-08-30 | 2010-12-08 | 勝義 川崎 | Objective severity assessment method for movement disorders |
JP4008792B2 (en) | 2002-09-27 | 2007-11-14 | 株式会社ジェイエスピー | duct |
JP4856427B2 (en) * | 2006-01-13 | 2012-01-18 | 株式会社ジャパーナ | Athletic shoes or running shoes selection system and presentation system |
US7954261B2 (en) * | 2006-09-27 | 2011-06-07 | Rush University Medical Center | Joint load reducing footwear |
JP4933365B2 (en) * | 2007-07-04 | 2012-05-16 | 株式会社アシックス | Ankle joint dynamic alignment evaluation system and ankle joint dynamic alignment evaluation method |
CA2707912C (en) | 2007-12-03 | 2016-01-05 | Shimane Prefectural Government | Image recognition device and image recognition method |
JP6188332B2 (en) | 2013-01-21 | 2017-08-30 | 東芝メディカルシステムズ株式会社 | Medical image display apparatus and program |
JP2016121421A (en) | 2014-12-25 | 2016-07-07 | 株式会社ダイセル | Method for producing peek resin fiber, peek resin fiber and nonwoven fabric |
US20160310790A1 (en) * | 2015-04-27 | 2016-10-27 | Dominic Novak | Method for Muscle and Body Alignment and Strength Training |
WO2018033965A1 (en) * | 2016-08-16 | 2018-02-22 | 株式会社アシックス | Lower leg behavior analysis system and analysis method, and lower leg behavior evaluation system and evaluation method |
-
2017
- 2017-02-28 JP JP2017036132A patent/JP6932946B2/en active Active
-
2021
- 2021-08-11 JP JP2021131244A patent/JP7327449B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7327449B2 (en) | 2023-08-16 |
JP2018139902A (en) | 2018-09-13 |
JP2021178224A (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240241255A1 (en) | Detector for identifying at least one material property | |
JP5898199B2 (en) | Posture estimation apparatus, posture estimation method, and posture estimation program | |
US10244990B2 (en) | Systems and methods for rehabilitation of limb motion | |
US9737239B2 (en) | Systems and methods for tracking body surfaces of individuals | |
KR101118654B1 (en) | rehabilitation device using motion analysis based on motion capture and method thereof | |
Ye et al. | A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis | |
US20160104298A1 (en) | Apparatus and method for poomsae recognition and dan promotion test of taekwondo based on skeleton of human body using depth camera | |
US20020028003A1 (en) | Methods and systems for distinguishing individuals utilizing anatomy and gait parameters | |
JP6369811B2 (en) | Gait analysis system and gait analysis program | |
JP7327449B2 (en) | detection system | |
KR101913667B1 (en) | Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same | |
KR101818198B1 (en) | Apparatus and method for evaluating Taekwondo motion using multi-directional recognition | |
EP4147637A1 (en) | Gait analysis system and method | |
US9235895B2 (en) | Method for estimating direction of person standing still | |
CN114267088B (en) | Gait information processing method and device and electronic equipment | |
Nouredanesh et al. | Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool | |
KR20220076550A (en) | System and method for recommending user-customized footwear | |
KR102054818B1 (en) | Method of providing virtual reality based on footprint image pattern analysis | |
JP6031386B2 (en) | Walking measurement system | |
KR101229088B1 (en) | Apparatus and method for measuring 3d depth by an infrared camera using led lighting and tracking hand motion | |
Huang et al. | Sports motion recognition based on foot trajectory state sequence mapping | |
US20240377533A1 (en) | Detector for identifying at least one material property | |
Foo et al. | Application of Signed Distance Function Neural Network in Real-Time Feet Tracking | |
Rymut et al. | Kinematic analysis of hurdle clearance using a mobile device | |
Catteau et al. | Concept and preliminary experiments with a wearable computer vision system for measuring shoe position and orientation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |