[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6932946B2 - Detection system, detection method, and detection program - Google Patents

Detection system, detection method, and detection program Download PDF

Info

Publication number
JP6932946B2
JP6932946B2 JP2017036132A JP2017036132A JP6932946B2 JP 6932946 B2 JP6932946 B2 JP 6932946B2 JP 2017036132 A JP2017036132 A JP 2017036132A JP 2017036132 A JP2017036132 A JP 2017036132A JP 6932946 B2 JP6932946 B2 JP 6932946B2
Authority
JP
Japan
Prior art keywords
human body
detection
unit
pronation
landing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017036132A
Other languages
Japanese (ja)
Other versions
JP2018139902A (en
JP2018139902A5 (en
Inventor
源洋 中川
源洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017036132A priority Critical patent/JP6932946B2/en
Publication of JP2018139902A publication Critical patent/JP2018139902A/en
Publication of JP2018139902A5 publication Critical patent/JP2018139902A5/en
Priority to JP2021131244A priority patent/JP7327449B2/en
Application granted granted Critical
Publication of JP6932946B2 publication Critical patent/JP6932946B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、検出システム、検出方法、検出プログラム、処理装置、及び運動用マットに関する。 The present invention relates to a detection system, a detection method, a detection program, a processing device, and an exercise mat.

運動中の人物を適切な状態で撮像する技術が提案されている(例えば、下記の特許文献1参照)。 A technique for imaging a person in motion in an appropriate state has been proposed (see, for example, Patent Document 1 below).

特開2007−288682号公報Japanese Unexamined Patent Publication No. 2007-288682

本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備え、解析部は、検出部の検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出システムが提供される。
本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果に基づいて人体の移動方向を検出する方向検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備え、解析部は、検出結果から人体の移動方向に対する交差方向において基準に対する人体の脚部の少なくとも一部の位置を検出し、脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出システムが提供される。
本発明の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果を用いて人体の脚部のプロネーションを解析する解析部と、を備える検出システムが提供される。
本発明の第1の態様に従えば、移動する人体を光学的に検出する検出部と、検出部の検出結果の時間変化を算出する変位算出部と、変位算出部の算出結果に基づいて人体の着地を判定する着地判定部と、を備える検出システムが提供される。
According to the aspect of the present invention, the analysis unit includes a detection unit that optically detects a moving human body and an analysis unit that analyzes the pronation of the leg of the human body using the detection result of the detection unit. The position of the human body is detected from the detection result of the detection unit, at least a part of the leg is specified from the detected position of the human body, the position of at least a part of the specified leg is compared with the reference, and the pronation A detection system is provided that determines the condition.
According to the aspect of the present invention, a detection unit that optically detects a moving human body, a direction detection unit that detects the moving direction of the human body based on the detection result of the detection unit, and a human body using the detection result of the detection unit. The analysis unit includes an analysis unit that analyzes the pronation of the leg of the human body, and the analysis unit detects the position of at least a part of the leg of the human body with respect to the reference in the crossing direction with respect to the movement direction of the human body from the detection result. A detection system is provided that compares at least some positions with a reference to determine the state of pronation.
According to the aspect of the present invention, there is provided a detection system including a detection unit that optically detects a moving human body and an analysis unit that analyzes the pronation of the leg of the human body using the detection result of the detection unit. NS.
According to the first aspect of the present invention, a detection unit that optically detects a moving human body, a displacement calculation unit that calculates a time change of the detection result of the detection unit, and a human body based on the calculation result of the displacement calculation unit. A detection system including a landing determination unit for determining the landing of the vehicle is provided.

本発明の第1の態様に従えば、移動する人体を光学的に検出した検出結果の時間変化に基づいて人体の着地を判定した着地タイミングを受信する受信部と、受信部が受信した着地タイミングに基づいて人体の脚部のプロネーションを解析する解析部と、を備える処理装置が提供される。 According to the first aspect of the present invention, a receiving unit that receives a landing timing that determines the landing of the human body based on a time change of a detection result that optically detects a moving human body, and a landing timing that the receiving unit receives. Provided is a processing device including an analysis unit that analyzes the pronation of the leg of the human body based on the above.

本発明の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果に基づいて、人体の脚部のプロネーションを検出することと、を含み、プロネーションの検出では、人体を検出した検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出方法が提供される。
本発明の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果に基づいて、人体の脚部のプロネーションを検出することと、を含む検出方法が提供される。
本発明の第2の態様に従えば、移動する人体を光学的に検出することと、人体を検出した検出結果の時間変化を算出することと、時間変化に基づいて人体の着地を判定することと、を含む検出方法が提供される。
According to the aspect of the present invention, the detection of the pronation includes optically detecting the moving human body and detecting the pronation of the leg of the human body based on the detection result of detecting the human body. Then, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and the position of at least a part of the specified leg is compared with the reference. A detection method for determining the pronation status is provided.
According to an aspect of the present invention, there is provided a detection method including optically detecting a moving human body and detecting pronation of a leg of the human body based on the detection result of detecting the human body. NS.
According to the second aspect of the present invention, the moving human body is optically detected, the time change of the detection result of detecting the human body is calculated, and the landing of the human body is determined based on the time change. And, a detection method including.

本発明の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果に基づいて、人体の脚部のプロネーションを検出すること、を実行させ、プロネーションの検出では、人体を検出した検出結果から人体の位置を検出し、検出した人体の位置から脚部の少なくとも一部を特定し、特定した脚部の少なくとも一部の位置と基準とを比較して、プロネーションの状態を判定する、検出プログラムが提供される。
本発明の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果に基づいて、人体の脚部のプロネーションを検出すること、を実行させる検出プログラムが提供される。
本発明の第3の態様に従えば、コンピュータに、移動する人体を光学的に検出した検出結果の時間変化を算出することと、時間変化に基づいて人体の着地を判定することと、を実行させる検出プログラムが提供される。
According to the aspect of the present invention, the computer is made to detect the pronation of the leg of the human body based on the detection result of optically detecting the moving human body, and in the detection of the pronation, the human body is detected. The position of the human body is detected from the detected detection result, at least a part of the leg is specified from the detected position of the human body, the position of at least a part of the specified leg is compared with the reference, and the state of the pronation. A detection program is provided to determine.
According to an aspect of the present invention, there is provided a detection program that causes a computer to detect pronation of a leg of a human body based on a detection result of optically detecting a moving human body.
According to the third aspect of the present invention, the computer performs the calculation of the time change of the detection result of optically detecting the moving human body and the determination of the landing of the human body based on the time change. A detection program is provided.

本発明の態様に従えば、移動する人体の運動範囲に配置され、人体を光学的に検出する検出部が感度を有する赤外光の波長帯において人体よりも赤外光の吸収率が高い運動用マットが提供される。
本発明の第4の態様に従えば、移動する人体の移動経路上に設けられ、人体を光学的に検出する検出部が感度を有する赤外光の波長帯において人体よりも前記赤外光の吸収率が高い運動用マットが提供される。
According to the aspect of the present invention, the motion is arranged in the motion range of the moving human body, and the absorption rate of infrared light is higher than that of the human body in the wavelength band of infrared light in which the detection unit that optically detects the human body has sensitivity. Mats are provided.
According to the fourth aspect of the present invention, in the wavelength band of infrared light provided on the moving path of the moving human body and having a sensitivity of the detection unit for optically detecting the human body, the infrared light of the infrared light is higher than that of the human body. An exercise mat with a high absorption rate is provided.

第1実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 1st Embodiment. 第1実施形態に係る検出部の処理および処理部の処理を示す図である。It is a figure which shows the process of the detection part and the process of a processing part which concerns on 1st Embodiment. 第1実施形態に係る変位算出部の処理、着地判定部の処理を示す図である。It is a figure which shows the process of the displacement calculation part and the process of a landing determination part which concerns on 1st Embodiment. 第1実施形態に係る検出方法を示すフローチャートである。It is a flowchart which shows the detection method which concerns on 1st Embodiment. 第2実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 2nd Embodiment. 第2実施形態に係る処理部による処理を示す図である。It is a figure which shows the processing by the processing part which concerns on 2nd Embodiment. 第2実施形態に係る処理装置の処理を示す図である。It is a figure which shows the processing of the processing apparatus which concerns on 2nd Embodiment. 第2実施形態に係る検出方法を示すフローチャートである。It is a flowchart which shows the detection method which concerns on 2nd Embodiment. 変形例に係る運動解析部の処理を示す図である。It is a figure which shows the processing of the motion analysis part which concerns on the modification. 第3実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 3rd Embodiment. 実施形態に係る検出部の配置を示す図である。It is a figure which shows the arrangement of the detection part which concerns on embodiment. 第4実施形態に係る検出システムを示す図である。It is a figure which shows the detection system which concerns on 4th Embodiment. 実施形態に係る運動用マットを示す図である。It is a figure which shows the exercise mat which concerns on embodiment.

[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出システムを示す図である。実施形態に係る検出システム1は、例えば、履物選定、人認証セキュリティ、ファッションショー及びスポーツ(例、野球、サッカー、ゴルフ、ヨガ))等に用いられる。実施形態に係る検出システム1は、例えば、動作検出システムや運動支援システムなどである。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a detection system according to an embodiment. The detection system 1 according to the embodiment is used, for example, for footwear selection, person authentication security, fashion shows and sports (eg, baseball, soccer, golf, yoga) and the like. The detection system 1 according to the embodiment is, for example, a motion detection system, an exercise support system, or the like.

検出システム1は、所定の方向に移動するターゲット(例、ユーザ)の人体HM(身体)を検出する。人体HMの移動は、例えば、人体HMの脚部又は腕部の移動を伴う運動(例、歩行、走行及び姿勢変化などの動作)などである。検出システム1は、例えば、人体HMの下方(例、重力方向)の支持面G上で移動(例、運動)する人体HMを検出する。上記の支持面Gは、例えば、人体HMを支持する面、人体HMが移動する面(移動面)、及び人体HMが着地する面(着地面)の少なくとも1つを含む。なお、検出システム1(又は検出装置2)は、所定の方向に移動する物体、生物又はロボット(例、人型ロボット)を検出することを含む。 The detection system 1 detects the human body HM (body) of a target (eg, user) moving in a predetermined direction. The movement of the human body HM is, for example, an exercise involving the movement of the legs or arms of the human body HM (eg, movements such as walking, running, and posture change). The detection system 1 detects, for example, a human body HM moving (eg, moving) on a support surface G below the human body HM (eg, in the direction of gravity). The support surface G includes, for example, at least one of a surface that supports the human body HM, a surface on which the human body HM moves (moving surface), and a surface on which the human body HM lands (landing). The detection system 1 (or detection device 2) includes detecting an object, a living thing, or a robot (eg, a humanoid robot) moving in a predetermined direction.

支持面Gは、例えば、地面もしくは床面などの所定面、または所定面に敷かれたシートもしくはマットなどの上面を含む。検出システム1が人体HMを検出する際に、人体HMは、裸足の状態で移動してもよいし、靴などの装着物(例、人体HMとともに移動する物体)を付けた状態で移動してもよい。また、人体HMの移動は、人体HMに付けられた物体の移動を含む。例えば、検出システム1による人体HMの検出は、人体HMとともに移動する装着物の検出を含んでもよい。 The support surface G includes, for example, a predetermined surface such as the ground or floor surface, or an upper surface such as a sheet or mat laid on the predetermined surface. When the detection system 1 detects the human body HM, the human body HM may move barefoot or move with an attachment such as shoes (for example, an object moving with the human body HM). May be good. Further, the movement of the human body HM includes the movement of an object attached to the human body HM. For example, the detection of the human body HM by the detection system 1 may include the detection of an attachment moving with the human body HM.

検出システム1は、検出装置2、処理装置3、及び表示装置4を備える。検出装置2は、移動する人体HM(例、脚部、腕部などの部位)を光学的に検出する。処理装置3は、検出装置2の検出結果(例、画像の画素値、受光信号)に基づいて、人体HMの着地(例、着地状態、移動中の動作姿勢)を判定する。例えば、処理装置3は、裸足の人体HMが支持面Gに着地したか否かを判定する。処理装置3は、人体HMに付された装着物が支持面Gに着地したか否かを判定してもよい。以下、検出システム1の各部について説明する。 The detection system 1 includes a detection device 2, a processing device 3, and a display device 4. The detection device 2 optically detects a moving human body HM (eg, a part such as a leg or an arm). The processing device 3 determines the landing of the human body HM (eg, landing state, operating posture during movement) based on the detection result of the detection device 2 (eg, pixel value of an image, received signal). For example, the processing device 3 determines whether or not the barefoot human body HM has landed on the support surface G. The processing device 3 may determine whether or not the attachment attached to the human body HM has landed on the support surface G. Hereinafter, each part of the detection system 1 will be described.

検出装置2は、例えば、検出部5および記憶部6を備える。検出部5は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を実行する。検出部5は、例えば、撮像素子のような受光素子を含む。撮像素子は、例えば、CCDイメージセンサあるいはCMOSイメージセンサなどである。検出部5は、例えば、撮像処理によって人体HMを光学的に検出する。検出部5は、その検出結果として、例えば撮像した画像(以下、撮像画像という)のデータ(例、RGBデータやグレースケールなどの画素値)を出力する。 The detection device 2 includes, for example, a detection unit 5 and a storage unit 6. The detection unit 5 executes the detection process at a predetermined frequency (eg, sampling rate, frame rate), for example. The detection unit 5 includes, for example, a light receiving element such as an image sensor. The image sensor is, for example, a CCD image sensor or a CMOS image sensor. The detection unit 5 optically detects the human body HM by, for example, an imaging process. As the detection result, the detection unit 5 outputs, for example, data (eg, RGB data, pixel values such as gray scale) of an captured image (hereinafter, referred to as an captured image).

記憶部6は、例えば、不揮発性メモリを含む。記憶部6は、検出部5の検出結果を記憶する。記憶部6は、例えば、検出部5の検出結果を、検出部5が検出を実行したタイミングの情報と関係づけて記憶する。上記のタイミングの情報は、例えば、検出を実行した順に割り付けられる番号(例、フレーム番号)でもよい。また、上記のタイミングの情報は、例えば、人体HMに対する検出を実行したタイミングに基づいた時刻(以下、検出時刻という)でもよい。検出時刻は、例えば、検出装置2に内蔵される計時デバイス(例、内部時計)が測定する時刻でもよいし、外部から受信する情報(例、標準時を示す標準電波)によって取得される時刻でもよい。 The storage unit 6 includes, for example, a non-volatile memory. The storage unit 6 stores the detection result of the detection unit 5. The storage unit 6 stores, for example, the detection result of the detection unit 5 in relation to the information of the timing when the detection unit 5 executes the detection. The above timing information may be, for example, a number (eg, frame number) assigned in the order in which detection is executed. Further, the above timing information may be, for example, a time based on the timing at which the detection for the human body HM is executed (hereinafter, referred to as a detection time). The detection time may be, for example, a time measured by a time measuring device (eg, an internal clock) built in the detection device 2, or a time acquired by information received from the outside (eg, a standard radio wave indicating standard time). ..

検出装置2は、例えば、検出部5によって人体HMを撮像し、その撮像画像のデータ(例、RGBデータやグレースケールなどの画素値)を記憶部6に記憶させる。検出装置2は、検出部5の検出結果を外部に出力可能である。例えば、検出部5は、記憶部6に記憶された撮像画像のデータを読み出して、外部に出力する。検出装置2は、記憶部6を介することなく(例、リアルタイムで)、検出結果を外部に出力してもよい。この場合、検出装置2は、記憶部6を備えなくてもよい。 For example, the detection device 2 images the human body HM by the detection unit 5, and stores the captured image data (eg, RGB data, pixel values such as gray scale) in the storage unit 6. The detection device 2 can output the detection result of the detection unit 5 to the outside. For example, the detection unit 5 reads out the data of the captured image stored in the storage unit 6 and outputs the data to the outside. The detection device 2 may output the detection result to the outside without going through the storage unit 6 (for example, in real time). In this case, the detection device 2 does not have to include the storage unit 6.

処理装置3は、例えば、検出装置2が出力する情報(例、検出結果)を処理する情報処理装置である。処理装置3は、例えば、検出装置2と有線または無線によって通信可能に接続される。処理装置3は、例えば、検出装置2の検出結果として撮像画像のデータを、検出装置2から取得(例、受信)する。なお、処理装置3は、検出装置2との通信を介することなく、検出装置2の検出結果あるいは処理結果を取得してもよい。例えば、処理装置3は、不揮発性メモリなどの記憶媒体を介して、検出装置2から検出結果を取得してもよい。例えば、検出装置2の記憶部6は、検出装置2から取り外し可能なメモリーカードなどの記憶媒体でもよい。処理装置3は、例えば、処理装置3から取り外された記憶部6と接続されることで、検出装置2の検出結果を取得してもよい。 The processing device 3 is, for example, an information processing device that processes information (eg, detection result) output by the detection device 2. The processing device 3 is communicably connected to the detection device 2, for example, by wire or wirelessly. The processing device 3 acquires (eg, receives) the data of the captured image from the detection device 2 as the detection result of the detection device 2, for example. The processing device 3 may acquire the detection result or the processing result of the detection device 2 without communication with the detection device 2. For example, the processing device 3 may acquire the detection result from the detection device 2 via a storage medium such as a non-volatile memory. For example, the storage unit 6 of the detection device 2 may be a storage medium such as a memory card that can be removed from the detection device 2. The processing device 3 may acquire the detection result of the detection device 2 by being connected to the storage unit 6 removed from the processing device 3, for example.

処理装置3は、処理部7、変位算出部8、着地判定部9、及び記憶部10を備える。処理部7は、検出装置2から出力される情報(例、検出結果、処理結果)を処理する。処理部7は、例えば、検出装置2から出力される撮像画像のデータを処理する画像処理部である。処理部7は、例えば、検出装置2の検出結果に基づいて、人体HMの位置情報を検出する。 The processing device 3 includes a processing unit 7, a displacement calculation unit 8, a landing determination unit 9, and a storage unit 10. The processing unit 7 processes the information (eg, detection result, processing result) output from the detection device 2. The processing unit 7 is, for example, an image processing unit that processes the data of the captured image output from the detection device 2. The processing unit 7 detects the position information of the human body HM based on the detection result of the detection device 2, for example.

実施形態に係る位置情報(位置に関する情報)は、予め定められた座標系における座標(例、脚部の座標)と、この座標の時間変化(位置の時間変化量)に相当する量(例、脚部の速度)と、この量の時間変化量に相当する量(例、脚部の加速度)との少なくと1つを含む。上記の座標系は、例えば、検出部5あるいは処理部7が設定する座標系である。例えば、上記の座標系は、撮像画像における座標系である。例えば、人体HMの座標は、撮像画像における水平走査方向の画素の位置、及び撮像画像の垂直走査方向における画素の位置で表される。また、人体HMの位置情報は、例えば、人体HMの部位(例、頭、胴体、脚部、腕部)の少なくとも1つの位置情報を含む。 The position information (information about the position) according to the embodiment is the coordinates in the predetermined coordinate system (eg, the coordinates of the legs) and the amount corresponding to the time change of the coordinates (the time change amount of the position) (eg, the time change amount of the position). It includes at least one of (the speed of the legs) and an amount corresponding to this amount of time variation (eg, acceleration of the legs). The above coordinate system is, for example, a coordinate system set by the detection unit 5 or the processing unit 7. For example, the above coordinate system is a coordinate system in a captured image. For example, the coordinates of the human body HM are represented by the positions of the pixels in the horizontal scanning direction in the captured image and the positions of the pixels in the vertical scanning direction of the captured image. Further, the position information of the human body HM includes, for example, at least one position information of a part of the human body HM (eg, head, torso, legs, arms).

図2は、実施形態に係る検出部の処理および処理部の処理を示す図である。図2において符号Im1は、検出部5が撮像した撮像画像である。処理部7は、例えば、撮像画像Im1に対してエッジ検出処理を施し、撮像画像Im1における人体HM(例、形状、輪郭)を特定する。処理部7は、例えば、パターン認識によって、撮像画像Im1における人体HMの部位を特定する。 FIG. 2 is a diagram showing processing of the detection unit and processing of the processing unit according to the embodiment. In FIG. 2, reference numeral Im1 is an image captured by the detection unit 5. For example, the processing unit 7 performs edge detection processing on the captured image Im1 to specify the human body HM (eg, shape, contour) in the captured image Im1. The processing unit 7 identifies a part of the human body HM in the captured image Im1 by, for example, pattern recognition.

処理部7は、撮像画像Im1における人体HMの位置を検出する。例えば、処理部7は、人体HMのうち支持面Gに支持される部位(例、支持面Gに接触する部位)の位置情報を検出する。処理部7は、例えば、検出装置2が検出した人体HMの脚部Q1の撮像画像Im1における位置情報を検出する。脚部Q1は、例えば、腰Q2からつま先Q3までの部位である。 The processing unit 7 detects the position of the human body HM in the captured image Im1. For example, the processing unit 7 detects the position information of a portion of the human body HM supported by the support surface G (eg, a portion in contact with the support surface G). The processing unit 7 detects, for example, the position information of the leg portion Q1 of the human body HM detected by the detection device 2 in the captured image Im1. The leg Q1 is, for example, a portion from the waist Q2 to the toes Q3.

脚部Q1の位置情報は、左足の位置または右足の位置でもよいし、左足の位置および右足の位置を一組にした情報でもよい。また、脚部Q1の位置情報は、脚部Q1を代表する位置(例、脚部Q1の輪郭の中心)でもよいし、脚部Q1に含まれる部位(例、つま先Q3、かかとQ4、膝Q5)の少なくとも1つの位置でもよい。なお、脚部Q1は、かかとや甲などを含み、例えばかかとQ4と一体的に移動する領域(例、甲など)を含む。また、人体HMの位置情報は、検出結果(例、撮像画像Im1)における人体HMの1つの部位の位置のみを含んだ情報でもよいし、人体HMの複数の部位(例、膝Q5、かかとQ4、つま先Q3)のそれぞれの位置を一組にした情報でもよい。 The position information of the leg portion Q1 may be the position of the left foot or the position of the right foot, or may be information in which the position of the left foot and the position of the right foot are combined. Further, the position information of the leg Q1 may be a position representing the leg Q1 (eg, the center of the contour of the leg Q1), or a part included in the leg Q1 (eg, toe Q3, heel Q4, knee Q5). ) May be at least one position. The leg Q1 includes a heel, an instep, and the like, and includes, for example, a region (eg, an instep, etc.) that moves integrally with the heel Q4. Further, the position information of the human body HM may be information including only the position of one part of the human body HM in the detection result (eg, captured image Im1), or may be information including a plurality of parts of the human body HM (eg, knee Q5, heel Q4). , Toe Q3) may be a set of information.

なお、位置情報として人体HMに周囲と区別可能なマーク(例、特徴部分、コード)が予め付けられており、処理部7は、このマークを特定してもよい。上記のマークは、周囲(例、支持面G)と光学特性(例、反射率、吸収率)が異なる部材でもよい。また、上記のマークは、周囲と区別可能な形状の図形を含んでもよい。人体HMの位置情報は、例えば、人体HMに付けられた部材(例、装着物、靴、ウェア)の位置の情報を含んでもよい。 A mark (eg, feature portion, code) that can be distinguished from the surroundings is attached to the human body HM as position information in advance, and the processing unit 7 may specify this mark. The above mark may be a member having different optical characteristics (eg, reflectance, absorptivity) from the surroundings (eg, support surface G). Further, the above mark may include a figure having a shape that can be distinguished from the surroundings. The position information of the human body HM may include, for example, information on the position of a member (eg, attachment, shoes, wear) attached to the human body HM.

図1の説明に戻り、処理部7は、検出部5が人体HMの検出(例、撮像処理)を実行するたびに、人体HMの位置を検出する。例えば、処理部7は、検出部5が撮像した1枚の撮像画像ごとに、撮像画像における人体HMの絶対的又は相対的な位置を検出する。処理部7は、検出部5が人体HMの検出を複数回実行するたびに、人体HMの位置を検出してもよい。例えば、処理部7は、検出部5が撮像した複数の撮像画像から選択される1枚の撮像画像における人体HMの位置を検出してもよい。また、処理部7は、2以上の撮像画像のそれぞれについて人体HMの位置を検出し、検出した位置に対して補間あるいは平均等の演算処理を行って、人体HMの位置情報を算出してもよい。そして、処理部7は、例えば、検出した人体HMの位置情報を外部へ出力する。処理部7は、例えば、検出した人体HMの位置情報を記憶部10に記憶させる。 Returning to the description of FIG. 1, the processing unit 7 detects the position of the human body HM each time the detection unit 5 detects the human body HM (eg, imaging process). For example, the processing unit 7 detects the absolute or relative position of the human body HM in the captured image for each captured image captured by the detection unit 5. The processing unit 7 may detect the position of the human body HM each time the detection unit 5 detects the human body HM a plurality of times. For example, the processing unit 7 may detect the position of the human body HM in one captured image selected from the plurality of captured images captured by the detection unit 5. Further, the processing unit 7 may detect the position of the human body HM for each of the two or more captured images, perform arithmetic processing such as interpolation or averaging on the detected position, and calculate the position information of the human body HM. good. Then, the processing unit 7 outputs, for example, the detected position information of the human body HM to the outside. The processing unit 7 stores, for example, the detected position information of the human body HM in the storage unit 10.

変位算出部8は、検出部5の検出結果の時間変化(時間に対する変化量)を算出する。例えば、変位算出部8は、処理部7が出力する人体HMの位置情報を取得し、位置情報に含まれる人体HMの位置の時間変化を算出する。変位算出部8は、例えば、記憶部10に記憶されている位置情報を読み出して、位置の時間変化を算出する。変位算出部8は、例えば、検出部5が撮像した第1の撮像画像から処理部7が検出した位置と、検出部5が撮像した第2の撮像画像から処理部7が検出した位置とを比較して、位置の時間変化を算出する。上記の第1の撮像画像と第2の撮像画像とは、検出部5による撮像のタイミングが互いに異なる撮像画像である。 The displacement calculation unit 8 calculates the time change (change amount with respect to time) of the detection result of the detection unit 5. For example, the displacement calculation unit 8 acquires the position information of the human body HM output by the processing unit 7 and calculates the time change of the position of the human body HM included in the position information. The displacement calculation unit 8 reads, for example, the position information stored in the storage unit 10 and calculates the time change of the position. The displacement calculation unit 8 determines, for example, a position detected by the processing unit 7 from the first captured image captured by the detection unit 5 and a position detected by the processing unit 7 from the second captured image captured by the detection unit 5. By comparison, the time change of the position is calculated. The first captured image and the second captured image are captured images in which the timing of imaging by the detection unit 5 is different from each other.

変位算出部8は、検出部5の検出結果の時間変化を示す変位情報を出力する。例えば、変位算出部8は、変位情報として、処理部7が検出した位置情報(例、人体HMの部位の空間位置)の時間変化(変化量)又は該時間変化に基づく変位ベクトル(変位方向、変位距離など)を出力する。変位算出部8は、例えば、変位情報を記憶部10に記憶させる。着地判定部9は、変位算出部8の算出結果に基づいて人体の着地を推定して判定する。 The displacement calculation unit 8 outputs displacement information indicating a time change of the detection result of the detection unit 5. For example, the displacement calculation unit 8 uses the time change (change amount) of the position information (eg, the spatial position of the part of the human body HM) detected by the processing unit 7 as the displacement information, or the displacement vector (displacement direction,) based on the time change. (Displacement distance, etc.) is output. The displacement calculation unit 8 stores, for example, the displacement information in the storage unit 10. The landing determination unit 9 estimates and determines the landing of the human body based on the calculation result of the displacement calculation unit 8.

図3は、実施形態に係る変位算出部の処理、着地判定部の処理を示す図である。図3(A)において、横軸は時刻(時間経過)である。また、符号TR(実線)は人体HMの右足のかかとの位置である。符号TLは、人体HMの左足のかかとの位置である。図3(A)のデータは、例えば、処理部7が検出したかかとQ4の位置を時刻に対してプロットしたデータ点を平滑線で結ぶことなどで得られる。 FIG. 3 is a diagram showing processing of the displacement calculation unit and processing of the landing determination unit according to the embodiment. In FIG. 3A, the horizontal axis is time (elapsed time). The symbol TR (solid line) is the position of the heel of the right foot of the human body HM. The symbol TL is the position of the heel of the left foot of the human body HM. The data of FIG. 3A can be obtained, for example, by connecting the data points obtained by plotting the position of the heel Q4 detected by the processing unit 7 with respect to the time with a smooth line.

図3(A)の時刻t1において、左足(位置TL参照)は、着地した状態である。この状態において、左足の位置TLは、ほぼ一定である。時刻t1において、右足(位置TR参照)は、前方への移動を開始した状態である。右足は、例えば、左足を支持として前方へ移動し、その位置TRが時間変化する。右足は、着地するとその位置TRの時間変化が右足の移動時よりも減少する。右足が着地すると、左足は、右足を支持として前方に移動し、その位置TLの時間変化が左足の着地時よりも増加する。 At time t1 in FIG. 3A, the left foot (see position TL) is in a landed state. In this state, the position TL of the left foot is almost constant. At time t1, the right foot (see position TR) is in a state of starting to move forward. For example, the right foot moves forward with the left foot as a support, and its position TR changes with time. When the right foot lands, the time change of the position TR becomes smaller than that when the right foot moves. When the right foot lands, the left foot moves forward with the right foot as a support, and the time change of the position TL increases as compared with the time when the left foot lands.

変位算出部8(図1参照)は、例えば、人体HMの脚部Q1(例、かかとQ4)の位置の時間変化を算出する。例えば、変位算出部8は、検出部5が撮像した前回の撮像画像におけるかかとQ4の位置と、検出部5が撮像した今回の撮像画像におけるかかとQ4の位置との差分を、かかとQ4の位置の時間変化として算出する。かかとQ4の位置の時間変化は、例えば、かかとQ4の速度に相当する。 The displacement calculation unit 8 (see FIG. 1) calculates, for example, the time change of the position of the leg portion Q1 (eg, heel Q4) of the human body HM. For example, the displacement calculation unit 8 sets the difference between the position of the heel Q4 in the previous captured image captured by the detection unit 5 and the position of the heel Q4 in the current captured image captured by the detection unit 5 at the position of the heel Q4. Calculated as a time change. The time change of the position of the heel Q4 corresponds to, for example, the velocity of the heel Q4.

図3(B)は、右足のかかとQ4の位置TRの時間変化(速度)を示す図である。右足のかかとQ4は、時刻t1において支持面G(図1参照)から離れ、時間経過とともに速度が増加する。また、右足のかかとQ4は、速度が極大になった後に、時刻t2において着地する。図3(C)は、左足のかかとQ4の位置の時間変化(速度)を示す図である。左足のかかとQ4は、時刻t1から時刻t3まで着地した状態である。左足のかかとQ4は、時刻t3において支持面G(図1参照)から離れ、時間経過とともに速度が増加する。また、左足のかかとQ4は、速度が極大になった後に、時刻t4において着地する。 FIG. 3B is a diagram showing the time change (velocity) of the position TR of the heel Q4 of the right foot. The heel Q4 of the right foot separates from the support surface G (see FIG. 1) at time t1, and the speed increases with the passage of time. Further, the heel Q4 of the right foot lands at time t2 after the speed reaches the maximum. FIG. 3C is a diagram showing the time change (velocity) of the position of the heel Q4 of the left foot. The heel Q4 of the left foot is in a state of landing from time t1 to time t3. The heel Q4 of the left foot separates from the support surface G (see FIG. 1) at time t3, and the speed increases with the passage of time. Further, the heel Q4 of the left foot lands at time t4 after the speed reaches the maximum.

着地判定部9は、時間変化から推定される支持面G(着地面)に対する脚部Q1の着地状態に基づき人体の着地を判定する。例えば、脚部Q1の位置の時間変化が閾値以下である場合、脚部Q1が支持面Gに接した着地状態であると推定される。脚部Q1の着地状態は、脚部Q1の少なくとも一部(例、つま先Q3、かかとQ4)の着地姿勢を含んでもよい。 The landing determination unit 9 determines the landing of the human body based on the landing state of the leg Q1 with respect to the support surface G (landing) estimated from the time change. For example, when the time change of the position of the leg Q1 is equal to or less than the threshold value, it is presumed that the leg Q1 is in the landing state in contact with the support surface G. The landing state of the leg Q1 may include the landing posture of at least a part of the leg Q1 (eg, toe Q3, heel Q4).

着地判定部9(図1参照)は、例えば、変位算出部8が算出した脚部(例、かかと)の位置の時間変化と閾値とを比較して、その比較結果(例、閾値以下の結果、閾値以上の結果)に基づいて着地を判定する。着地判定部9は、例えば、変位算出部8が算出した右足のかかとの位置の時間変化(図3(B)の速度)が閾値TH以下である場合に、右足のかかとが着地したと推定して判定する。着地判定部9は、例えば、変位算出部8が算出した左足のかかとの位置の時間変化(図3(C)の速度)が閾値TH以下である場合に、左足のかかとが着地したと推定して判定する。着地判定部9は、例えば、位置情報(例、位置(座標)、速度、加速度)の時間履歴に基づいて、補間などによって着地状態を推定してもよい。 The landing determination unit 9 (see FIG. 1) compares, for example, the time change of the position of the leg (eg, heel) calculated by the displacement calculation unit 8 with the threshold value, and the comparison result (eg, the result below the threshold value). , Results above the threshold) to determine landing. The landing determination unit 9 estimates that the heel of the right foot has landed, for example, when the time change (velocity in FIG. 3B) of the heel position of the right foot calculated by the displacement calculation unit 8 is equal to or less than the threshold value TH. To judge. The landing determination unit 9 estimates that the heel of the left foot has landed, for example, when the time change (velocity in FIG. 3C) of the heel position of the left foot calculated by the displacement calculation unit 8 is equal to or less than the threshold value TH. To judge. The landing determination unit 9 may estimate the landing state by interpolation or the like based on, for example, the time history of position information (eg, position (coordinates), velocity, acceleration).

図1の説明に戻り、着地判定部9は、例えば、その判定結果(例、着地の有無)を記憶部10に記憶させる。表示装置4は、例えば、液晶ディスプレイ等である。表示装置4は、処理装置3の処理結果を表示する。処理装置3は、例えば、着地判定部9の判定結果を示す画像のデータを表示装置4に供給する。処理装置3は、例えば、着地判定部9の判定結果を示す画像を、表示装置4に表示させる。 Returning to the description of FIG. 1, the landing determination unit 9 stores, for example, the determination result (eg, presence / absence of landing) in the storage unit 10. The display device 4 is, for example, a liquid crystal display or the like. The display device 4 displays the processing result of the processing device 3. The processing device 3 supplies, for example, image data showing the determination result of the landing determination unit 9 to the display device 4. The processing device 3 causes the display device 4 to display, for example, an image showing the determination result of the landing determination unit 9.

次に、上述の検出システム1の動作に基づき、実施形態に係る検出方法について説明する。図4は、実施形態に係る検出方法を示すフローチャートである。検出システム1の各部については、適宜、図1を参照する。ステップS1において、検出装置2は、移動する人体HMを光学的に検出する。例えば、検出部5は、移動する人体HMを撮像する。例えば、検出部5は、予め設定された期間(以下、検出設定期間という)において人体HMを繰り返し検出(例、撮像)した後、検出を終了する。 Next, the detection method according to the embodiment will be described based on the operation of the detection system 1 described above. FIG. 4 is a flowchart showing a detection method according to the embodiment. For each part of the detection system 1, refer to FIG. 1 as appropriate. In step S1, the detection device 2 optically detects the moving human body HM. For example, the detection unit 5 images a moving human body HM. For example, the detection unit 5 repeatedly detects (eg, images) the human body HM in a preset period (hereinafter referred to as a detection set period), and then ends the detection.

処理部7は、検出部5の検出結果に基づいて、人体HMの少なくとも一部の位置を検出する(位置検出処理を実行する)。処理部7は、検出部5による検出処理(例、撮像処理)の少なくとも一部と並行して、位置検出処理を実行してもよい。また、処理部7は、検出部5による検出の終了後(例、上記の検出設定期間の終了後)に、位置検出処理を実行してもよい。 The processing unit 7 detects the position of at least a part of the human body HM based on the detection result of the detection unit 5 (executes the position detection process). The processing unit 7 may execute the position detection process in parallel with at least a part of the detection process (eg, the imaging process) by the detection unit 5. Further, the processing unit 7 may execute the position detection process after the detection by the detection unit 5 is completed (for example, after the detection setting period is completed).

ステップS2において、変位算出部8は、検出部5の検出結果の時間変化を算出する。変位算出部8は、例えば、処理部7が検出した人体HMの位置(例、かかとQ4の位置)の時間変化を算出する。例えば、変位算出部8は、上記の検出設定期間における検出部5の検出結果について処理部7による位置検出処理が完了した後に、位置検出処理の処理結果の全て又は一部を取得し、人体HMの位置の時間変化を算出する。 In step S2, the displacement calculation unit 8 calculates the time change of the detection result of the detection unit 5. The displacement calculation unit 8 calculates, for example, the time change of the position of the human body HM detected by the processing unit 7 (eg, the position of the heel Q4). For example, the displacement calculation unit 8 acquires all or a part of the processing result of the position detection processing after the position detection processing by the processing unit 7 is completed for the detection result of the detection unit 5 in the above detection setting period, and the human body HM. Calculate the time change of the position of.

ステップS3およびステップS4において、着地判定部9は、人体HMの着地を判定する。例えば、ステップS3において、着地判定部9は、処理部7が検出した人体HMの位置の時間変化が閾値TH以下であるか否かを判定する。着地判定部9は、時間変化が閾値以下であると判定した場合(ステップS3;Yes)、人体HMが着地したと判定する(ステップS4)。また、着地判定部9は、時間変化が閾値を超えると判定した場合(ステップS3;No)、人体HMが着地していないと判定する(ステップS5)。 In step S3 and step S4, the landing determination unit 9 determines the landing of the human body HM. For example, in step S3, the landing determination unit 9 determines whether or not the time change of the position of the human body HM detected by the processing unit 7 is equal to or less than the threshold value TH. When the landing determination unit 9 determines that the time change is equal to or less than the threshold value (step S3; Yes), it determines that the human body HM has landed (step S4). Further, when the landing determination unit 9 determines that the time change exceeds the threshold value (step S3; No), it determines that the human body HM has not landed (step S5).

上述の実施形態において、検出システム1の少なくとも一部(例、処理装置3)は、コンピュータシステムを含んでもよい。処理装置3は、記憶部10に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行してもよい。この検出プログラムは、例えば、コンピュータに、移動する人体HMを検出した検出結果の時間変化を算出することと、時間変化に基づいて人体HMの着地を判定することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。 In the above embodiments, at least a portion of the detection system 1 (eg, processing device 3) may include a computer system. The processing device 3 may read the detection program stored in the storage unit 10 and execute various processes according to the detection program. This detection program causes a computer to execute, for example, calculating the time change of the detection result of detecting the moving human body HM, and determining the landing of the human body HM based on the time change. The detection program may be recorded and provided on a computer-readable storage medium.

実施形態において、検出システム1は、所定の移動方向(例、進行方向、奥行方向)に移動する人体HMを光学的に検出した検出結果の時間変化に基づいて、人体HMの着地を判定する。この場合、検出システム1は、例えば、人体HMの着地を高精度で判定可能である。変位算出部8は、例えば、検出部5が検出した人体HMの一部(部位)の位置の時間変化を算出する。この場合、検出システム1は、例えば、人体HMの部位の位置の時間変化を高精度で算出可能である。なお、変位算出部8は、検出部5が検出した人体HMの複数の部位の位置の時間変化を算出してもよい。着地判定部9は、人体HMの複数の部分の位置の時間変化に基づいて、着地を判定してもよい。 In the embodiment, the detection system 1 determines the landing of the human body HM based on the time change of the detection result of optically detecting the human body HM moving in a predetermined moving direction (eg, traveling direction, depth direction). In this case, the detection system 1 can determine, for example, the landing of the human body HM with high accuracy. The displacement calculation unit 8 calculates, for example, the time change of the position of a part (part) of the human body HM detected by the detection unit 5. In this case, the detection system 1 can calculate, for example, the time change of the position of the part of the human body HM with high accuracy. The displacement calculation unit 8 may calculate the time change of the position of a plurality of parts of the human body HM detected by the detection unit 5. The landing determination unit 9 may determine the landing based on the time change of the positions of the plurality of parts of the human body HM.

また、変位算出部8は、例えば、検出部5が検出した脚部の位置の時間変化を算出する。例えば、脚部は着地することで脚部の位置の時間変化がほぼ一定(例、0)になり、検出システム1は、着地を高精度で判定可能である。なお、変位算出部8は、検出部5が検出した人体HMのうち脚部Q1以外の部分の位置の時間変化を算出してもよい。例えば、変位算出部8は、検出部5が検出した人体HMのうち、脚部Q1と連動して動く部分(例、図1の腕部Q6)の位置の時間変化を算出してもよい。腕部Q6は、例えば、肩Q7から手Q8(例、指先)までの少なくとも一部の部位を含む。右の腕部Q6の振りは、例えば、歩行または走行において左の脚部Q1と移動と連動し、脚部Q1が着地している間の少なくとも一部において静止する。着地判定部9は、例えば、右の腕部Q6の位置の時間変化が閾値以下になった場合に左足が着地したと判定してもよい。 Further, the displacement calculation unit 8 calculates, for example, the time change of the position of the leg portion detected by the detection unit 5. For example, when the leg lands, the time change of the position of the leg becomes almost constant (eg, 0), and the detection system 1 can determine the landing with high accuracy. The displacement calculation unit 8 may calculate the time change of the position of the portion of the human body HM detected by the detection unit 5 other than the leg portion Q1. For example, the displacement calculation unit 8 may calculate the time change of the position of the portion of the human body HM detected by the detection unit 5 that moves in conjunction with the leg portion Q1 (eg, the arm portion Q6 in FIG. 1). The arm Q6 includes, for example, at least a part of the shoulder Q7 to the hand Q8 (eg, fingertip). The swing of the right arm Q6 is linked with the movement of the left leg Q1 during walking or running, and is stationary at least partly while the leg Q1 is landing. The landing determination unit 9 may determine that the left foot has landed, for example, when the time change of the position of the right arm Q6 becomes equal to or less than the threshold value.

また、着地判定部9は、例えば陸上競技のクラウチングスタート、水泳競技のスタートなどにおいて、位置の時間変化から推定される支持面G(着地面)に対する腕部Q6の着地状態に基づき人体HMの着地を判定してもよい。 Further, the landing determination unit 9 makes a landing of the human body HM based on the landing state of the arm Q6 with respect to the support surface G (landing) estimated from the time change of the position at, for example, the crawling start of the athletics or the start of the swimming competition. May be determined.

また、着地判定部9は、例えば、変位算出部8が算出したかかとQ4の位置の時間変化に基づいて、着地を判定する。例えば、歩行等において脚部Q1のうちかかとQ4は他の部位(例、つま先Q3)よりも先に着地し、検出システム1は、着地を高精度で判定可能である。なお、着地判定部9は、例えば、変位算出部8が算出したかかとQ4以外の部位の位置の時間変化に基づいて、着地を判定してもよい。なお、着地判定部9は、左足と右足とのうち、一方の足の着地のみを判定してもよい。 Further, the landing determination unit 9 determines the landing based on, for example, the time change of the position of the heel Q4 calculated by the displacement calculation unit 8. For example, in walking or the like, the heel Q4 of the leg Q1 lands before other parts (eg, toe Q3), and the detection system 1 can determine the landing with high accuracy. The landing determination unit 9 may determine the landing based on, for example, the time change of the position of the portion other than the heel Q4 calculated by the displacement calculation unit 8. The landing determination unit 9 may determine only the landing of one of the left foot and the right foot.

また、着地判定部9は、上記の着地判定の処理に加え、前回など過去に検出(測定)したユーザ(例、自分、見本(教師)となる人)の人体HMの検出結果(例、過去の撮像画像)を用いて現在において検出した検出結果(例、現在の撮像画像およびその着地判定結果)と比較して、それら撮像画像同士のターゲット部分(例、脚部や腕部)における類似度から人体HMの着地を推定して判定してもよい。この場合、上記の記憶部10は、検出したタイミング等において、過去に検出(測定)したユーザの人体HMの検出結果(例、過去の撮像画像)を人体HMごとに記憶するように構成される。 Further, in addition to the above-mentioned landing determination processing, the landing determination unit 9 detects the human body HM of a user (eg, himself / herself, a person who becomes a sample (teacher)) who has detected (measured) in the past such as the previous time (eg, past). Compared with the detection results currently detected using the captured images (eg, the current captured images and their landing determination results), the similarity between the captured images in the target portion (eg, legs and arms) The landing of the human body HM may be estimated from and determined. In this case, the storage unit 10 is configured to store the detection result (eg, past captured image) of the user's human body HM detected (measured) in the past for each human body HM at the detection timing or the like. ..

処理装置3の少なくとも一部(例、処理部7、変位算出部8、着地判定部9)は、検出装置2による人体HMの検出が完了した後に、処理を実行してもよい。また、処理装置3の少なくとも一部は、検出装置2による人体HMの検出処理の少なくとも一部と並行して、処理を実行してもよい。例えば、検出部5は、人体HMを撮像するたびに撮像画像のデータを出力し、処理部7は、検出装置2から撮像画像のデータが出力されるたびに、次の撮像処理と並行して人体HMの位置を検出してもよい。 At least a part of the processing device 3 (eg, processing unit 7, displacement calculation unit 8, landing determination unit 9) may execute the processing after the detection of the human body HM by the detection device 2 is completed. Further, at least a part of the processing device 3 may execute the process in parallel with at least a part of the detection process of the human body HM by the detection device 2. For example, the detection unit 5 outputs the data of the captured image each time the human body HM is imaged, and the processing unit 7 outputs the data of the captured image each time the detection device 2 outputs the data of the captured image, in parallel with the next imaging process. The position of the human body HM may be detected.

[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図5は、実施形態に係る検出装置を示す図である。本実施形態において、検出装置2は、人体HMの各部からの距離を光学的に検出する。検出装置2は、例えば、モーションキャプチャ装置でもよく、人体HMの形状を検出してもよい。検出装置2は、例えば、検出部5、処理部7、及び記憶部6を備える。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 5 is a diagram showing a detection device according to an embodiment. In the present embodiment, the detection device 2 optically detects the distance from each part of the human body HM. The detection device 2 may be, for example, a motion capture device or may detect the shape of the human body HM. The detection device 2 includes, for example, a detection unit 5, a processing unit 7, and a storage unit 6.

検出部5は、例えば、デプスセンサなどの測距器である。検出部5は、例えば、所定の視点(例、検出部5の位置、視点)から人体HMの表面上の各点までの距離を検出する。検出部5は、例えば、TOF(time of flight)法によって距離を検出する。検出部5は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報)を含む。検出部5は、例えば、人体HMの複数の部位の三次元的な位置情報を出力する。 The detection unit 5 is, for example, a range finder such as a depth sensor. The detection unit 5 detects, for example, the distance from a predetermined viewpoint (eg, the position of the detection unit 5, the viewpoint) to each point on the surface of the human body HM. The detection unit 5 detects the distance by, for example, the TOF (time of flight) method. The detection unit 5 outputs, for example, position information indicating the distribution of distances as the detection result (eg, position information). The above position information includes, for example, depth information (eg, depth image data, depth information). The detection unit 5 outputs, for example, three-dimensional position information of a plurality of parts of the human body HM.

なお、検出部5は、TOF法以外他の手法で距離を検出するデバイスでもよい。検出部5は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。検出部5は、例えば、人体HMが通る領域に所定のパターンを投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。検出部5は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。検出部5は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。また、検出部5は、例えばステレオカメラなどによって複数の視点から人体HMを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。検出部5は、上述した複数の検出法のうち2以上を組み合わせて、人体HMを検出するデバイスでもよい。検出部5は、距離を検出するセンサ、及び第1実施形態で説明したイメージセンサを含んでもよい。 The detection unit 5 may be a device that detects the distance by a method other than the TOF method. The detection unit 5 may include, for example, a laser scanner (eg, a laser rangefinder) and may be a device that detects a distance by laser scanning. The detection unit 5 may be, for example, a device that projects a predetermined pattern on a region through which the human body HM passes and measures the distance based on the detection result of this pattern. The detection unit 5 may be, for example, a device including a phase difference sensor and detecting a distance by a phase difference method. The detection unit 5 may be, for example, a device that detects a distance by a DFD (depth from defocus) method. Further, the detection unit 5 may be a device that detects the distance by triangulation using captured images obtained by capturing the human body HM from a plurality of viewpoints by, for example, a stereo camera. The detection unit 5 may be a device that detects the human body HM by combining two or more of the plurality of detection methods described above. The detection unit 5 may include a sensor that detects a distance and an image sensor described in the first embodiment.

図6は、実施形態に係る処理部の処理を示す図である。検出部5(図5参照)は、例えば、デプス画像Im2のデータを出力する。デプス画像Im2において、各画素の画素値は、例えば、デプス画像Im2上の画素の位置に相当する実空間上の点と検出部5との距離を表す。例えば、図6のデプス画像Im2はグレースケールで表されており、暗い部分は、明るい部分よりも検出部5からの距離が離れている。 FIG. 6 is a diagram showing processing of the processing unit according to the embodiment. The detection unit 5 (see FIG. 5) outputs, for example, the data of the depth image Im2. In the depth image Im2, the pixel value of each pixel represents, for example, the distance between the detection unit 5 and the point in the real space corresponding to the position of the pixel on the depth image Im2. For example, the depth image Im2 of FIG. 6 is represented in grayscale, and the dark portion is farther from the detection unit 5 than the bright portion.

処理部7(図5参照)は、検出部5の検出結果に基づいて、人体HMの位置を検出(算出)する。処理部7は、例えば、デプス画像Im2のデータを処理(例、透視変換処理、射影変換処理)することによって、人体HMの形状を示す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えば人体HMの表面の複数の点データを含む。例えば、複数の点データは、それぞれ3次元座標で表される。 The processing unit 7 (see FIG. 5) detects (calculates) the position of the human body HM based on the detection result of the detection unit 5. The processing unit 7 generates (calculates) shape information indicating the shape of the human body HM by, for example, processing the data of the depth image Im2 (eg, perspective conversion processing, projection conversion processing). The shape information includes, for example, point cloud data. The point cloud data includes, for example, a plurality of point data on the surface of the human body HM. For example, each of the plurality of point data is represented by three-dimensional coordinates.

処理部7は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体HM)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。 The processing unit 7 may calculate surface information as shape information. The surface information is, for example, polygon data, vector data, draw data, or the like. The surface information includes, for example, the coordinates of a plurality of points and the connection information between the plurality of points. The connection information includes, for example, information that associates points at both ends of a line corresponding to a ridgeline (eg, an edge) of an object (eg, human body HM) with each other. The connection information includes, for example, information that associates a plurality of lines corresponding to the contour of a surface on an object with each other.

処理部7は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。処理部7は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。 For example, the processing unit 7 estimates a surface between a point selected from a plurality of points included in the point cloud data and a point in the vicinity thereof, and converts the point cloud data into polygon data having plane information between the points. You may. The processing unit 7 converts the point cloud data into polygon data by, for example, an algorithm using the least squares method. This algorithm may be, for example, an application of an algorithm published in a point cloud processing library.

処理部7は、検出部5の検出結果に基づいて、人体HMの特徴部位(例、特徴点)の位置情報PDを生成する。人体HMの特徴部位は、例えば、人体HMの他の部位と区別可能な部位である。人体HMの特徴部位は、例えば、人体HMの末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。人体HMの末端部は、例えば、つま先Q3、頭Q9、手先Q10、などである。また、人体HMの関節は、例えば、腰Q2、膝Q5、肩Q7、肘Q11、手首Q12、などである。また、人体HMの中間部は、例えば、首Q13、肩中央Q14、背骨Q15、腰中央Q16などである。 The processing unit 7 generates position information PD of a feature portion (eg, feature point) of the human body HM based on the detection result of the detection unit 5. The characteristic part of the human body HM is, for example, a part that can be distinguished from other parts of the human body HM. Characteristic sites of the human body HM include, for example, at least one of the ends, joints, or between the ends and the joints or between the two joints of the human body HM. The terminal portion of the human body HM is, for example, toe Q3, head Q9, hand Q10, and the like. The joints of the human body HM are, for example, waist Q2, knee Q5, shoulder Q7, elbow Q11, wrist Q12, and the like. The intermediate portion of the human body HM is, for example, the neck Q13, the shoulder center Q14, the spine Q15, the waist center Q16, and the like.

処理部7は、例えば、点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報PDを生成する。特徴部位の位置情報は、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。例えば、処理部7が生成する特徴部位の位置情報は、脚部Q1の少なくとも一部の座標を含む。脚部Q1は、例えば、腰Q2からつま先Q3までの部位である。処理部7は、例えば、腰Q2の座標、膝Q5の座標、かかとQ4の座標、つま先Q3の座標の少なくとも1つを含む位置情報PDを生成する。処理部7は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。 The processing unit 7 generates the position information PD of the above-mentioned feature portion by, for example, recognition processing (eg, pattern recognition, shape recognition, skeleton recognition) using point cloud data. The position information of the feature portion includes, for example, the coordinates of a point representing the feature portion (eg, three-dimensional coordinates). For example, the position information of the feature portion generated by the processing unit 7 includes at least a part of the coordinates of the leg portion Q1. The leg Q1 is, for example, a portion from the waist Q2 to the toes Q3. The processing unit 7 generates position information PD including at least one of the coordinates of the waist Q2, the coordinates of the knee Q5, the coordinates of the heel Q4, and the coordinates of the toe Q3, for example. The processing unit 7 calculates the coordinates of the points representing the feature portions by, for example, the above recognition process.

処理部7は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置と、検出部5の検出タイミングとを関連付けたデータを生成する。処理部7は、例えば、特徴部位の名称と検出部5の検出タイミングとを関連付けた変数に、特徴部位の座標を格納する。例えば、左のかかとQ4の変数名は、ALnで表される。例えば、ALは、左のかかとであることを表し、nは、位置情報のもとになる検出部5の検出タイミング(例、検出した順番)に基づいて割り付けられる番号(例、1、2、3・・・)である。処理部7は、例えば、n番目の検出結果から得られる左のかかとQ4の座標を、ALnに格納する。処理部7は、例えば、予め設定された特徴部位の位置情報を組にした位置情報PD(例、テーブルデータ)を生成する。位置情報PDは、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。 For example, the processing unit 7 generates data in which the name of the feature portion, the position of the feature portion, and the detection timing of the detection unit 5 are associated with each of the feature portions. The processing unit 7 stores, for example, the coordinates of the feature portion in a variable associated with the name of the feature portion and the detection timing of the detection unit 5. For example, the variable name of the left heel Q4 is represented by ALn. For example, AL represents the left heel, and n is a number assigned based on the detection timing (eg, the order of detection) of the detection unit 5 which is the source of the position information (eg, 1, 2, 3 ...). The processing unit 7 stores, for example, the coordinates of the left heel Q4 obtained from the nth detection result in ALn. The processing unit 7 generates, for example, a position information PD (eg, table data) in which the position information of a preset feature portion is set. The position information PD includes, for example, the position information of a plurality of feature portions obtained from the detection results of the same detection timing.

図5の説明に戻り、検出装置2は、処理部7が生成した位置情報を外部に出力する。例えば、処理部7は、生成した位置情報を記憶部6に記憶させる。検出装置2は、例えば、記憶部6に記憶された位置情報を処理装置3に出力する。処理装置3は、検出装置2から出力された位置情報を記憶部10に記憶させる。 Returning to the description of FIG. 5, the detection device 2 outputs the position information generated by the processing unit 7 to the outside. For example, the processing unit 7 stores the generated position information in the storage unit 6. The detection device 2 outputs, for example, the position information stored in the storage unit 6 to the processing device 3. The processing device 3 stores the position information output from the detection device 2 in the storage unit 10.

変位算出部8は、検出部5の検出結果の時間変化(時間の変化量)を算出する。例えば、変位算出部8は、検出装置2から出力された特徴部位の位置情報を用いて、検出部5の検出結果の時間変化を算出する。変位算出部8は、例えば、記憶部10に記憶された位置情報を読み出して、検出部5の検出結果の時間変化を算出する。例えば、変位算出部8は、(n−1)番目の検出結果に対応する左のかかとの位置(ALn−1)と、n番目の検出結果に対応する左のかかとの位置(ALn)との差分を、左のかかとの位置の時間変化量として算出する。変位算出部8は、例えば、算出した特徴部位の位置の時間変化を記憶部10に記憶させる。 The displacement calculation unit 8 calculates the time change (time change amount) of the detection result of the detection unit 5. For example, the displacement calculation unit 8 calculates the time change of the detection result of the detection unit 5 by using the position information of the feature portion output from the detection device 2. The displacement calculation unit 8 reads, for example, the position information stored in the storage unit 10 and calculates the time change of the detection result of the detection unit 5. For example, the displacement calculation unit 8 has a left heel position (ALn-1) corresponding to the (n-1) th detection result and a left heel position (ALn) corresponding to the nth detection result. The difference is calculated as the amount of time change in the position of the left heel. The displacement calculation unit 8 stores, for example, the time change of the calculated position of the feature portion in the storage unit 10.

着地判定部9は、変位算出部8の算出結果に基づいて人体HMの着地を判定する。着地判定部9は、例えば、記憶部10に記憶された特徴部位の時間変化を読み出し、人体HMの着地を判定する。以下の説明において、人体HMが着地したタイミングとして着地判定部9が認識するタイミングを着地タイミングという。着地タイミングは、例えば、その元になる検出部5の検出結果の番号(例、フレーム番号)で表されてもよいし、時刻で表されてもよい。 The landing determination unit 9 determines the landing of the human body HM based on the calculation result of the displacement calculation unit 8. The landing determination unit 9 reads, for example, the time change of the feature portion stored in the storage unit 10 and determines the landing of the human body HM. In the following description, the timing recognized by the landing determination unit 9 as the timing when the human body HM has landed is referred to as the landing timing. The landing timing may be represented by, for example, the number (eg, frame number) of the detection result of the detection unit 5 which is the source thereof, or may be represented by the time.

着地判定部9は、その判定結果を出力する。着地判定部9の判定結果は、例えば、任意のタイミングにおいて着地の状態であるか否かの情報と、上記の着地タイミングとの一方または双方を含む。着地判定部9は、例えば、その判定結果を運動解析部11に出力する。着地判定部9は、その判定結果を記憶部10に記憶させてもよい。なお、判定結果は、ヘッダ情報や識別番号などを含んでもよい。着地判定部9は、判定結果と、ヘッダ情報や識別番号などとを関連付けて記憶部10に記憶させてもよい。 The landing determination unit 9 outputs the determination result. The determination result of the landing determination unit 9 includes, for example, information on whether or not the landing state is in the landing state at an arbitrary timing, and one or both of the above landing timings. The landing determination unit 9 outputs the determination result to the motion analysis unit 11, for example. The landing determination unit 9 may store the determination result in the storage unit 10. The determination result may include header information, an identification number, and the like. The landing determination unit 9 may store the determination result in the storage unit 10 in association with the header information, the identification number, and the like.

なお、着地判定部9は、変位算出部8の算出結果に基づいて、着地から脱した状態(以下、離地という)を検出してもよい。離地(非着地)は、例えば、支持面G(例、地面、床面)から離れて浮いた状態(非着地状態)である。着地判定部9は、離地を判定してもよい(離地判定処理を実行してもよい)。以下の説明において、人体HMが離地したタイミング(着地から脱したタイミング)として着地判定部9が認識するタイミングを離地タイミングという。離地タイミングは、例えば、その元になる検出部5の検出結果の番号(例、フレーム番号)で表されてもよいし、時刻で表されてもよい。着地判定部9の判定結果は、離地タイミングを含んでもよい。 The landing determination unit 9 may detect a state of being out of landing (hereinafter referred to as takeoff) based on the calculation result of the displacement calculation unit 8. The takeoff (non-landing) is, for example, a state of floating away from the support surface G (eg, ground, floor) (non-landing state). The landing determination unit 9 may determine the takeoff (the takeoff determination process may be executed). In the following description, the timing recognized by the landing determination unit 9 as the timing when the human body HM takes off (the timing when the human body HM departs from the landing) is referred to as the takeoff timing. The takeoff timing may be represented by, for example, the number (eg, frame number) of the detection result of the detection unit 5 which is the source thereof, or may be represented by the time. The determination result of the landing determination unit 9 may include the takeoff timing.

本実施形態において、処理装置3は、運動解析部11を備える。運動解析部11は、人体HMの着地を着地判定部9が検出したことを示す検出信号をトリガーとして、検出部5の検出結果を用いて人体HMの運動を解析する。例えば、運動解析部11は、着地判定部9の検出結果に基づいて、人体HMが着地したタイミングに応じた検出部5の検出結果を用いて人体HMの運動を解析する。運動解析部11は、例えば、上記の着地タイミングに応じて選択される検出部5の検出結果に基づいて、人体HMの運動を解析する。例えば、着地判定部9は、検出部5の第1検出タイミングにおける検出結果を用いて、人体HMが着地したと判定する。この場合、運動解析部11は、上記の第1検出タイミングに基づいて選択される検出部5の検出結果を用いて、人体HMの運動を解析する。なお、運動解析部11は、上記検出信号がない場合(着地していない非着地状態)、人体HMの運動を解析しない。 In the present embodiment, the processing device 3 includes a motion analysis unit 11. The motion analysis unit 11 analyzes the motion of the human body HM using the detection result of the detection unit 5 by using the detection signal indicating that the landing determination unit 9 has detected the landing of the human body HM as a trigger. For example, the motion analysis unit 11 analyzes the motion of the human body HM using the detection result of the detection unit 5 according to the timing when the human body HM lands, based on the detection result of the landing determination unit 9. The motion analysis unit 11 analyzes the motion of the human body HM based on the detection result of the detection unit 5 selected according to the landing timing, for example. For example, the landing determination unit 9 determines that the human body HM has landed by using the detection result at the first detection timing of the detection unit 5. In this case, the motion analysis unit 11 analyzes the motion of the human body HM using the detection result of the detection unit 5 selected based on the above-mentioned first detection timing. The motion analysis unit 11 does not analyze the motion of the human body HM in the absence of the detection signal (non-landing state without landing).

運動解析部11は、所定面における人体HMの着地に付随する運動を解析(例、検出)する。例えば、運動解析部11は、脚部Q1が着地する際の脚部Q1の運動を解析する。運動解析部11は、例えば、着地判定部9が着地の判定処理に用いる人体HMの部位の位置と別の部位の位置とを用いた演算によって、人体HMの運動を解析する。例えば、着地判定部9は、第1の部位(例、かかと)の位置を用いて着地の判定処理を実行し、運動解析部は、第1の部位と異なる第2の部位(例、膝)の位置とを用いて、運動を解析する。運動解析部は、第1の部位の位置と第2の部位(例、膝)の位置とを用いて、運動を解析してもよい。 The motion analysis unit 11 analyzes (eg, detects) the motion associated with the landing of the human body HM on a predetermined surface. For example, the motion analysis unit 11 analyzes the motion of the leg Q1 when the leg Q1 lands. The motion analysis unit 11 analyzes the motion of the human body HM by calculation using, for example, the position of a portion of the human body HM used by the landing determination unit 9 for the landing determination process and the position of another portion. For example, the landing determination unit 9 executes a landing determination process using the position of the first portion (eg, heel), and the motion analysis unit performs a second portion (eg, knee) different from the first portion. The motion is analyzed using the position of. The motion analysis unit may analyze the motion by using the position of the first portion and the position of the second portion (eg, knee).

運動解析部11は、例えば、脚部Q1のプロネーション(回内運動、回外運動)を解析(例、検出)する。プロネーションは、例えば歩行あるいは走行において脚部が着地する際に、脚部が着地の衝撃を受け止める一連の運動(動作)である。プロネーションは、例えば、着地の際に脚部Q1(例、腰から足首までの部分)が人体HMの中心に対して同じ側(内側)または反対側(外側)に傾く運動である。 The motion analysis unit 11 analyzes (eg, detects) the pronation (inward movement, supination movement) of the leg Q1, for example. Pronation is a series of movements (movements) in which the legs receive the impact of landing when the legs land, for example, during walking or running. Pronation is, for example, a movement in which the leg Q1 (eg, the part from the waist to the ankle) tilts to the same side (inside) or opposite side (outside) to the center of the human body HM at the time of landing.

プロネーションは、例えば、着地の際に脚部Q1が傾くレベルによって、オーバープロネーション、ニュートラル、アンダープロネーションの3つの状態に分類される。オーバープロネーションは、土踏まずのアーチ構造が潰れるように、脚部が内側に向かって、所定の範囲を超えて傾く状態である。アンダープロネーションは、脚部が外側に向かって、所定の範囲を超えて傾く状態である。ニュートラルは、脚部の傾きが内側または外側の所定の範囲に収まる状態である。以下の説明において、着地の際に脚部Q1が傾くレベルを、適宜、プロネーションのレベルという。 Pronations are classified into three states, for example, overpronation, neutral, and underpronation, depending on the level at which the leg Q1 is tilted at the time of landing. Overpronation is a state in which the legs are tilted inward beyond a predetermined range so that the arch structure of the arch is crushed. Underpronation is a state in which the legs are tilted outward beyond a predetermined range. Neutral is a state in which the inclination of the leg is within a predetermined range inside or outside. In the following description, the level at which the leg Q1 tilts at the time of landing is appropriately referred to as the pronation level.

プロネーションのレベルによっては、脚部Q1に負担がかかる場合がある。例えば、オーバープロネーションは、脚部Q1の捻挫、疲労骨折などの原因となる場合がある。プロネーションのレベルを補正するには、例えば、着地の際の脚部の傾きを調整する靴が用いられる。例えば、オーバープロネーションは、土踏まずをサポートするインソールを有する靴によって、ニュートラルに補正される。例えば、ランニング等の分野において、専門家(例、トレーナー)は、補正しない状態のプロネーションを目視によって観察し、プロネーションのレベルを判断する。例えば、専門家が判断したプロネーションのレベルに基づいた靴の選択によって、プロネーションが補正される。 Depending on the level of pronation, the leg Q1 may be burdened. For example, overpronation may cause sprains and stress fractures of the leg Q1. To correct the level of pronation, for example, shoes that adjust the inclination of the legs during landing are used. For example, overpronation is neutralized by shoes with insoles that support the arch. For example, in a field such as running, an expert (eg, a trainer) visually observes the uncorrected pronation to determine the level of pronation. For example, the pronation is corrected by the selection of shoes based on the level of pronation judged by the expert.

運動解析部11は、例えば、人体HMが着地したタイミングに基づいた検出部5の検出結果から得られる人体HMの脚部の膝の位置を用いて、人体HMの運動として脚部Q1のプロネーションを検出する。運動解析部11は、例えば、検出部5の検出結果から得られる膝Q5の位置と基準とを比較して、プロネーションのレベルを示す指標値を算出する。 The motion analysis unit 11 uses, for example, the position of the knee of the leg of the human body HM obtained from the detection result of the detection unit 5 based on the timing when the human body HM lands, and pronations the leg Q1 as the motion of the human body HM. Is detected. The motion analysis unit 11 compares, for example, the position of the knee Q5 obtained from the detection result of the detection unit 5 with the reference, and calculates an index value indicating the level of pronation.

図7は、実施形態に係る処理装置の処理を示す図である。図7において、横軸は時刻である。検出部5は、例えば、ユーザの指令によって検出を開始し、所定の時間間隔で検出を繰り返す。図7において、符号ALは、検出部5の検出結果から得られる左足のかかとQ4(図6参照)の位置である。左足のかかとQ4の位置ALは、例えば、検出部5が出力するデプス画像Im2(図6参照)のデータを処理部7が処理することで得られる。 FIG. 7 is a diagram showing processing of the processing apparatus according to the embodiment. In FIG. 7, the horizontal axis is time. The detection unit 5 starts detection according to a user command, for example, and repeats detection at predetermined time intervals. In FIG. 7, the symbol AL is the position of the heel Q4 (see FIG. 6) of the left foot obtained from the detection result of the detection unit 5. The position AL of the heel Q4 of the left foot is obtained by, for example, processing the data of the depth image Im2 (see FIG. 6) output by the detection unit 5 by the processing unit 7.

変位算出部8は、かかとQ4の位置ALの時間変化を算出する。着地判定部9は、例えば、変位算出部8が算出したかかとQ4の位置ALの時間変化を監視する。着地判定部9は、図3で説明したように、変位算出部8が算出したかかとQ4の位置ALの時間変化に基づいて、着地を判定する。図7において、符号t11は、人体HMが着地した時刻として着地判定部9が認識する時刻(着地タイミング)である。例えば、着地判定部9は、時刻t11における検出部5の検出(例、今回の検出)から得られるかかとQ4の位置ALと、時刻t11よりも前の検出部5の検出(例、前回の検出)から得られるQ4の位置ALとの差が閾値TH(図3参照)以下である場合に、時刻t11において着地したと判定する。 The displacement calculation unit 8 calculates the time change of the position AL of the heel Q4. The landing determination unit 9 monitors, for example, the time change of the position AL of the heel Q4 calculated by the displacement calculation unit 8. As described with reference to FIG. 3, the landing determination unit 9 determines the landing based on the time change of the position AL of the heel Q4 calculated by the displacement calculation unit 8. In FIG. 7, reference numeral t11 is a time (landing timing) recognized by the landing determination unit 9 as the time when the human body HM has landed. For example, the landing determination unit 9 detects the position AL of the heel Q4 obtained from the detection of the detection unit 5 at time t11 (eg, the current detection) and the detection unit 5 before the time t11 (eg, the previous detection). ) Is equal to or less than the threshold value TH (see FIG. 3), it is determined that the landing is made at time t11.

また、符号t12は、人体HMが離地した時刻として着地判定部9が認識する時刻(離地タイミング)である。例えば、着地判定部9は、時刻t12における検出部5の検出(例、今回の検出)から得られるかかとQ4の位置ALと、時刻t12よりも前の検出部5の検出(例、前回の検出)から得られるQ4の位置ALとの差が閾値TH(図3参照)を超える場合に、時刻t12において着地したと判定する。また、符号T1は、人体HMが着地している期間として着地判定部9が認識する期間(以下、着地期間という)である。着地期間T1は、着地タイミング(例、時刻t11)から離地タイミング(例、時刻t12)までの期間である。 Further, the reference numeral t12 is a time (takeoff timing) recognized by the landing determination unit 9 as the time when the human body HM has taken off. For example, the landing determination unit 9 detects the position AL of the heel Q4 obtained from the detection of the detection unit 5 at time t12 (eg, the current detection) and the detection unit 5 before the time t12 (eg, the previous detection). ) Exceeds the threshold TH (see FIG. 3) from the position AL of Q4, and it is determined that the landing has occurred at time t12. Further, the reference numeral T1 is a period recognized by the landing determination unit 9 as a period during which the human body HM is landing (hereinafter, referred to as a landing period). The landing period T1 is a period from the landing timing (eg, time t11) to the takeoff timing (eg, time t12).

また、図7において、符号ΔKLは、左足の膝Q5(図6参照)の水平方向の位置の変化量(例、膝Q5の位置の差分値、時間微分値などのパラメータ)である。ここでは、膝Q5が人体HMの中心に対して内側へ向かう際の変化量ΔKLを正(+)とし、膝Q5が人体HMの中心に対して外側へ向かう際の変化量ΔKLを負(−)とした。例えば、変化量ΔKLは、正である場合に回内運動(例、オーバープロネーション)であることを表し、負である場合に回外運動(例、アンダープロネーション)であることを表す。 Further, in FIG. 7, the symbol ΔKL is the amount of change in the horizontal position of the left foot knee Q5 (see FIG. 6) (eg, parameters such as the difference value of the position of the knee Q5 and the time differential value). Here, the amount of change ΔKL when the knee Q5 moves inward with respect to the center of the human body HM is positive (+), and the amount of change ΔKL when the knee Q5 moves outward with respect to the center of the human body HM is negative (-). ). For example, the amount of change ΔKL indicates that it is an inward movement (eg, overpronation) when it is positive, and indicates that it is a supination movement (eg, underpronation) when it is negative.

変化量ΔKLは、例えば、検出部5が出力するデプス画像Im2(図6参照)のデータを処理部7が処理して得られる膝Q5の位置を、変位算出部8が処理して得られる。運動解析部11は、例えば、着地期間に関連付けられる期間における運動(例、プロネーション)を検出する。例えば、運動解析部11は、着地期間T1の少なくとも一部におけるプロネーションを検出する。例えば、運動解析部11は、着地タイミング(例、時刻t11)と離地タイミング(例、時刻t12)との一方または双方に対して予め定められた所定の期間T2におけるプロネーションを検出する。所定の期間T2は、例えば、着地タイミング(例、時刻t11)を起点して予め定められた長さの期間である。 The amount of change ΔKL is obtained, for example, by the displacement calculation unit 8 processing the position of the knee Q5 obtained by processing the data of the depth image Im2 (see FIG. 6) output by the detection unit 5. The motion analysis unit 11 detects, for example, motion (eg, pronation) during the period associated with the landing period. For example, the motion analysis unit 11 detects pronation in at least a part of the landing period T1. For example, the motion analysis unit 11 detects pronation in a predetermined period T2 for one or both of the landing timing (eg, time t11) and the takeoff timing (eg, time t12). The predetermined period T2 is, for example, a period having a predetermined length starting from the landing timing (eg, time t11).

運動解析部11は、例えば、所定の期間T2における検出部5の検出結果から得られる膝Q5の位置情報を取得(例、抽出、監視)する。所定の期間T2における検出部5の検出結果は、人体HMが着地したタイミング(例、時刻t11)よりも後に検出部5が人体HMを検出した検出結果を含む。膝Q5の位置情報は、例えば、検出部5の検出結果を処理部7が処理して得られる膝Q5の位置(例、座標)と、膝Q5の位置情報を変位算出部8が処理して得られる膝Q5の位置の時間変化(例、変化量ΔKL、膝Q5の速度)と、変化量ΔKLの時間変化(例、加速度)との少なくとも1つを含む。 The motion analysis unit 11 acquires (eg, extracts, monitors) the position information of the knee Q5 obtained from the detection result of the detection unit 5 during a predetermined period T2, for example. The detection result of the detection unit 5 in the predetermined period T2 includes the detection result in which the detection unit 5 detects the human body HM after the timing when the human body HM lands (eg, time t11). The position information of the knee Q5 is, for example, the position (eg, coordinates) of the knee Q5 obtained by processing the detection result of the detection unit 5 by the processing unit 7, and the displacement calculation unit 8 processing the position information of the knee Q5. It includes at least one of a time change of the position of the obtained knee Q5 (eg, change amount ΔKL, velocity of the knee Q5) and a time change of the change amount ΔKL (eg, acceleration).

運動解析部11は、例えば、膝Q5の位置情報として、変位算出部8が算出する膝Q5の位置の変化量ΔKLを監視する。所定の期間T2における膝の位置情報(例、変化量ΔKL)は、例えば、プロネーションのレベルを表す指標値として利用可能である。例えば、変化量ΔKLが正である状態は、膝がQ5内側に向かうように脚部Q1が傾く状態に相当する。例えば、変化量ΔKLが所定値よりも大きい状態は、オーバープロネーションに相当する。例えば、変化量ΔKLが負である状態は、膝Q5が外側に向かうように脚部Q1が傾く状態に相当する。例えば、変化量ΔKLが所定値よりも小さい状態は、アンダープロネーションに相当する。 The motion analysis unit 11 monitors, for example, the amount of change ΔKL of the position of the knee Q5 calculated by the displacement calculation unit 8 as the position information of the knee Q5. The knee position information (eg, change amount ΔKL) during the predetermined period T2 can be used, for example, as an index value indicating the level of pronation. For example, the state in which the amount of change ΔKL is positive corresponds to the state in which the leg portion Q1 is tilted so that the knee faces the inside of Q5. For example, a state in which the amount of change ΔKL is larger than a predetermined value corresponds to overpronation. For example, a state in which the amount of change ΔKL is negative corresponds to a state in which the leg portion Q1 is tilted so that the knee Q5 faces outward. For example, a state in which the amount of change ΔKL is smaller than a predetermined value corresponds to underpronation.

運動解析部11は、例えば、上記の指標値として、所定の期間T2における変化量ΔKLの統計量(例、最大値、積算値、平均値)を算出する。運動解析部11は、1回の着地に対する指標値を算出してもよいし、複数回の着地のそれぞれに対する指標値を算出してもよい。また、運動解析部11は、複数回の着地のそれぞれに対する個別の指標値を算出し、さらに、算出した個別の指標値の統計量(例、最大値、平均値、積算値)を指標値として算出してもよい。運動解析部11は、例えば、膝Q5の位置情報として上記の指標値を算出してもよい。 For example, the motion analysis unit 11 calculates a statistic (eg, maximum value, integrated value, average value) of the amount of change ΔKL in a predetermined period T2 as the above index value. The motion analysis unit 11 may calculate an index value for one landing, or may calculate an index value for each of a plurality of landings. Further, the motion analysis unit 11 calculates an individual index value for each of the plurality of landings, and further uses the calculated statistic of the individual index value (eg, maximum value, average value, integrated value) as the index value. It may be calculated. The motion analysis unit 11 may calculate the above index value as the position information of the knee Q5, for example.

運動解析部11は、例えば、所定の期間T2における膝Q5の位置情報(例、変化量ΔKL)と第1の閾値TH1とを比較する。第1の閾値THは、膝Q5が人体HMの中心に対して内側へ向かう際の値を正(+)として、正の値に設定される。運動解析部11は、例えば図7(A)に示すように所定の期間T2における変化量ΔKLが第1の閾値TH1を超える場合、プロネーションがオーバープロネーションに該当すると判定する。 The motion analysis unit 11 compares, for example, the position information of the knee Q5 (eg, the amount of change ΔKL) in the predetermined period T2 with the first threshold value TH1. The first threshold value TH is set to a positive value, where the value when the knee Q5 moves inward with respect to the center of the human body HM is positive (+). For example, as shown in FIG. 7A, the motion analysis unit 11 determines that the pronation corresponds to the overpronation when the amount of change ΔKL in the predetermined period T2 exceeds the first threshold value TH1.

また、運動解析部11は、例えば、所定の期間T2における膝Q5の位置情報(例、変化量ΔKL)と第2の閾値TH2とを比較する。第2の閾値TH2は、膝Q5が人体HMの中心に対して外側へ向かう際の値を負(−)として、負の値に設定される。運動解析部11は、例えば、例えば図7(B)に示すように所定の期間T2における変化量ΔKLが第2の閾値TH2よりも小さい場合、プロネーションがアンダープロネーションに該当すると判定する。また、運動解析部11は、例えば図7(C)に示すように、所定の期間T2における変化量ΔKLが第2の閾値TH2以上第1の閾値以下の範囲内である場合、プロネーションがニュートラル(ノーマル)であると判定する。 Further, the motion analysis unit 11 compares, for example, the position information of the knee Q5 (eg, the amount of change ΔKL) in the predetermined period T2 with the second threshold value TH2. The second threshold value TH2 is set to a negative value, where the value when the knee Q5 moves outward with respect to the center of the human body HM is negative (−). For example, as shown in FIG. 7B, the motion analysis unit 11 determines that the pronation corresponds to the underpronation when the amount of change ΔKL in the predetermined period T2 is smaller than the second threshold value TH2. Further, as shown in FIG. 7C, for example, the motion analysis unit 11 pronation is neutral when the amount of change ΔKL in the predetermined period T2 is within the range of the second threshold value TH2 or more and the first threshold value or less. Judged as (normal).

なお、運動解析部11は、変化量ΔKLと閾値との大小関係と異なる判定基準を用いて、プロネーションを判定してもよい。例えば、運動解析部11は、変化量ΔKLが閾値を超える頻度に基づいて、プロネーションを判定してもよい。例えば、運動解析部11は、変化量ΔKLが第1の閾値TH1を超え頻度(例、回数)を計数し、この頻度が所定値を超える場合にプロネーションがオーバープロネーションに該当すると判定してもよい。運動解析部11は、変化量ΔKLと閾値との大小関係と、上記の頻度との双方を用いて、プロネーションを判定してもよい。また、運動解析部11は、上記の基準として、膝Q5の位置のサンプル(例、画像、座標)を用いて、プロネーションを検出してもよい。 The motion analysis unit 11 may determine the pronation by using a determination criterion different from the magnitude relationship between the change amount ΔKL and the threshold value. For example, the motion analysis unit 11 may determine the pronation based on the frequency with which the amount of change ΔKL exceeds the threshold value. For example, the motion analysis unit 11 counts the frequency (eg, number of times) when the amount of change ΔKL exceeds the first threshold value TH1, and determines that the pronation corresponds to the overpronation when the frequency exceeds a predetermined value. May be good. The motion analysis unit 11 may determine the pronation by using both the magnitude relationship between the amount of change ΔKL and the threshold value and the above frequency. Further, the motion analysis unit 11 may detect the pronation using a sample (eg, image, coordinates) of the position of the knee Q5 as the above reference.

なお、上記の閾値(第1の閾値TH1、第2の閾値TH2)は、固定値でもよいし、可変値でもよい。例えば、上記の閾値は、ユーザの入力などによって指定される可変値でもよい。上記の閾値は、例えば、検出対象の人体HMの寸法(例、身長、足の長さ)に基づいて設定されてもよい。例えば、検出システム1は、検出対象の人体HMの情報(例、身長)の入力を受け付け、入力された情報に基づいて上記の閾値を設定してもよい。例えば、記憶部10は、人体の身長と上記の閾値とを関連付けた参照情報(例、テーブルデータ)を記憶してもよい。運動解析部11は、入力された検出対象の人体HMの情報と上記の参照情報とを比較して、上記の閾値を設定してもよい。上記の閾値と上記の参照情報との一方または双方は、処理装置3の外部の装置(例、外部のデータベース)から供給されてもよい。 The above threshold values (first threshold value TH1, second threshold value TH2) may be fixed values or variable values. For example, the above threshold value may be a variable value specified by user input or the like. The above threshold value may be set based on, for example, the dimensions (eg, height, foot length) of the human body HM to be detected. For example, the detection system 1 may accept input of information (eg, height) of the human body HM to be detected and set the above threshold value based on the input information. For example, the storage unit 10 may store reference information (eg, table data) in which the height of the human body is associated with the above threshold value. The motion analysis unit 11 may set the above threshold value by comparing the input information of the human body HM to be detected with the above reference information. One or both of the above threshold value and the above reference information may be supplied from an external device (eg, an external database) of the processing device 3.

なお、運動解析部11は、膝の位置の時間変化(例、変化量ΔKL)と別のパラメータを用いて、プロネーションを検出してもよい。図8は、変形例に係る運動解析部の処理を示す図である。図8(A)のXYZ直交座標系において、Z方向は人体HMの移動方向である。人体HMの移動方向は、例えば、検出部5の検出方向との角度が予め設定されている。検出部5の検出方向(後に図12に示す)は、検出部5の検出範囲の中心(例、視野中心、画角中心)と検出部5とを結ぶ方向である。X方向は、人体HMの移動方向に交差(例、直交)する方向である。Y方向は、例えば、人体HMの高さ方向(例、鉛直方向)である。 The motion analysis unit 11 may detect the pronation by using a parameter different from the time change of the knee position (eg, the amount of change ΔKL). FIG. 8 is a diagram showing the processing of the motion analysis unit according to the modified example. In the XYZ Cartesian coordinate system of FIG. 8A, the Z direction is the moving direction of the human body HM. For the moving direction of the human body HM, for example, an angle with the detection direction of the detection unit 5 is preset. The detection direction of the detection unit 5 (later shown in FIG. 12) is a direction connecting the center of the detection range of the detection unit 5 (eg, the center of the field of view, the center of the angle of view) and the detection unit 5. The X direction is a direction that intersects (eg, is orthogonal) with the moving direction of the human body HM. The Y direction is, for example, the height direction of the human body HM (eg, the vertical direction).

図8において、原点Oは、例えば検出部5の位置である。また、HLn、KLn、及びALnは、それぞれ、XYZ直交座標系において人体HMの特徴部位の位置を示す位置ベクトルである。これらの位置ベクトルは、例えば、処理部7が算出する特徴部位の位置情報を、適宜、座標変換することで得られる。HLnは、検出部5のn番目の検出結果から得られる左側の腰Q2(図6参照)の位置ベクトルである。KLnは、検出部5のn番目の検出結果から得られる左足の膝Q5(図6参照)の位置ベクトルである。ALnは、検出部5のn番目の検出結果に対応する左足のかかとQ4(図6参照)の位置ベクトルである。 In FIG. 8, the origin O is, for example, the position of the detection unit 5. Further, HLn, KLn, and ALn are position vectors indicating the positions of the characteristic parts of the human body HM in the XYZ Cartesian coordinate system, respectively. These position vectors can be obtained, for example, by appropriately converting the position information of the feature portion calculated by the processing unit 7 into coordinates. HLn is a position vector of the left waist Q2 (see FIG. 6) obtained from the nth detection result of the detection unit 5. KLn is a position vector of the left knee Q5 (see FIG. 6) obtained from the nth detection result of the detection unit 5. ALn is a position vector of the heel Q4 (see FIG. 6) of the left foot corresponding to the nth detection result of the detection unit 5.

運動解析部11は、検出部5の検出結果から得られる膝Q5の位置と、基準BLとを比較して、プロネーションを検出する。基準BLは、例えば、検出部5が検出する人体HMの脚部Q1における上体側の端部(例、腰Q2)とかかとQ4とを結ぶ線である。運動解析部11は、例えば、基準BLに対する膝Q5の位置を検出して、プロネーションを検出する。例えば、運動解析部11は、基準BLに対して膝Q5が配置される側を検出することで、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを判定する。 The motion analysis unit 11 detects the pronation by comparing the position of the knee Q5 obtained from the detection result of the detection unit 5 with the reference BL. The reference BL is, for example, a line connecting the upper end (eg, waist Q2) and the heel Q4 of the leg Q1 of the human body HM detected by the detection unit 5. The motion analysis unit 11 detects, for example, the position of the knee Q5 with respect to the reference BL to detect the pronation. For example, the motion analysis unit 11 detects whether the knee Q5 is arranged with respect to the reference BL to determine whether the pronation corresponds to overpronation, neutral, or underpronation.

また、運動解析部11は、検出部5の検出結果から得られる膝Q5の位置と、基準BLとを比較して、プロネーションのレベルを示す指標値を検出する。図8(A)において、ベクトルV1nは、かかとQ4と腰Q2とを結ぶベクトル(基準)である。また、ベクトルV2nは、かかとQ4と膝Q5とを結ぶベクトルである。図8(B)に示すように、ベクトルV1nは、腰Q2の位置ベクトルHLnと、かかとQ4の位置ベクトルALnとの差である。また、ベクトルV2nは、膝Q5の位置ベクトルKLnと、かかとQ4の位置ベクトルALnとの差である。 Further, the motion analysis unit 11 compares the position of the knee Q5 obtained from the detection result of the detection unit 5 with the reference BL, and detects an index value indicating the level of pronation. In FIG. 8A, the vector V1n is a vector (reference) connecting the heel Q4 and the waist Q2. Further, the vector V2n is a vector connecting the heel Q4 and the knee Q5. As shown in FIG. 8B, the vector V1n is the difference between the position vector HLn of the waist Q2 and the position vector ALn of the heel Q4. Further, the vector V2n is the difference between the position vector KLn of the knee Q5 and the position vector ALn of the heel Q4.

運動解析部11は、プロネーションの指標値として、例えば、ベクトルV1nとベクトルV2nとの角度θln、または角度θlnを変数とする関数の値を算出する。例えば、運動解析部11は、プロネーションの指標値としてcosθlnを算出する。cosθlnは、図8(C)に示すように、ベクトルV1nとベクトルV2nとの内積を、ベクトルV1nの大きさおよびベクトルV2nの大きさで除算することで、算出される。指標値(cosθln)が0に近い場合、θlnの絶対値が0に近いことに相当し、例えば、プロネーションがニュートラルであることを表す。また、指標値(cosθln)が大きい場合、θlnの絶対値が大きいことに相当し、例えば、プロネーションがオーバープロネーションであることを表す。 The motion analysis unit 11 calculates, for example, the value of a function whose variable is the angle θln between the vector V1n and the vector V2n or the angle θln as the index value of the pronation. For example, the motion analysis unit 11 calculates cosθln as an index value of pronation. As shown in FIG. 8C, cosθln is calculated by dividing the inner product of the vector V1n and the vector V2n by the magnitude of the vector V1n and the magnitude of the vector V2n. When the index value (cosθln) is close to 0, it corresponds to the absolute value of θln being close to 0, and for example, it means that the pronation is neutral. Further, when the index value (cosθln) is large, it corresponds to the fact that the absolute value of θln is large, and for example, it means that the pronation is an overpronation.

なお、運動解析部11は、角度θlnを変数とする関数の値として、cosθlnの時間変化量を用いてもよい。また、運動解析部11は、角度θln以外の角度を指標値に用いてもよい。例えば、運動解析部11は、膝Q5とかかとQ4とを結ぶ線(例、ベクトル)と、膝Q5と腰Q2とを結ぶ線(例、ベクトル)との角度αを指標値に用いてもよい。また、運動解析部11は、腰Q2と膝Q5とを結ぶ線(例、ベクトル)と、と腰Q2とかかとQ4とを結ぶ線(例、ベクトル)との角度βを指標値に用いてもよい。また、運動解析部11は、角度θlnと角度αと角度βとの2つ以上を指標値に用いてもよい。 The motion analysis unit 11 may use the amount of time change of cosθln as the value of the function with the angle θln as a variable. Further, the motion analysis unit 11 may use an angle other than the angle θln as an index value. For example, the motion analysis unit 11 may use the angle α between the line connecting the knee Q5 and the heel Q4 (eg, vector) and the line connecting the knee Q5 and the waist Q2 (eg, vector) as an index value. .. Further, the motion analysis unit 11 may use the angle β between the line connecting the waist Q2 and the knee Q5 (eg, vector) and the line connecting the waist Q2 and the heel Q4 (eg, vector) as an index value. good. Further, the motion analysis unit 11 may use two or more of the angle θln, the angle α, and the angle β as index values.

なお、運動解析部11は、少なくとも1つのプロネーション状態(オーバープロネーション、ニュートラル、又はアンダープロネーション)について、2以上の段階で評価してもよい。例えば、運動解析部11は、オーバープロネーションの程度を、複数のレベル(例、1、2、3・・・)で表してもよい。 The motion analysis unit 11 may evaluate at least one pronation state (overpronation, neutral, or underpronation) in two or more stages. For example, the motion analysis unit 11 may express the degree of overpronation at a plurality of levels (eg, 1, 2, 3, ...).

なお、運動解析部11は、着地タイミングと同時に、又は着地タイミングよりも前に検出部5が人体を検出した検出結果と、着地タイミングよりも後に検出部5が人体を検出した検出結果とを比較して、人体HMの運動を検出してもよい。例えば、右足が離地である状態において、右足は、支持面Gから直接的な拘束を受けない。右足が離地である状態における基準と膝との相対位置は、例えば、着地によるプロネーションがない状態における基準と膝との相対位置として利用可能である。例えば、運動解析部11は、離地した状態と着地した状態とで基準と膝との相対位置を比較し、プロネーションを検出してもよい。運動解析部11は、右足と左足とのそれぞれについてプロネーションを検出してもよいし、一方の足についてのみプロネーションを検出してもよい。 The motion analysis unit 11 compares the detection result in which the detection unit 5 detects the human body at the same time as the landing timing or before the landing timing with the detection result in which the detection unit 5 detects the human body after the landing timing. Then, the movement of the human body HM may be detected. For example, when the right foot is off the ground, the right foot is not directly restrained by the support surface G. The relative position between the reference and the knee when the right foot is off can be used, for example, as the relative position between the reference and the knee when there is no pronation due to landing. For example, the motion analysis unit 11 may detect the pronation by comparing the relative positions of the reference and the knee between the state of taking off and the state of landing. The motion analysis unit 11 may detect pronations for each of the right foot and the left foot, or may detect pronations for only one foot.

図5の説明に戻り、運動解析部11は、例えば、解析結果を記憶部10に記憶させる。運動解析部11は、例えば、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを示す解析結果を記憶部10に記憶させる。また、運動解析部11は、例えば、プロネーションの指標値を記憶部10に記憶させる。 Returning to the description of FIG. 5, the motion analysis unit 11 stores, for example, the analysis result in the storage unit 10. The motion analysis unit 11 stores, for example, an analysis result indicating whether the pronation corresponds to overpronation, neutral, or underpronation in the storage unit 10. Further, the motion analysis unit 11 stores, for example, the index value of the pronation in the storage unit 10.

表示装置4は、処理装置3の処理結果(例、運動解析部11の解析結果)を表示する。例えば、処理装置3は、プロネーションの情報を示す画像のデータを表示装置4に供給する。例えば、処理装置3は、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを示す画像のデータを表示装置4に供給する。また、処理装置3は、プロネーションの指標値を示す画像のデータを表示装置4に供給する。表示装置4は、処理装置3から供給される画像のデータに基づいて、画像を表示する。処理装置3は、表示装置4と別の装置にプロネーションの情報を供給してもよい。例えば、処理装置3は、通信回線(例、インターネット回線)を介して、プロネーションの情報を送信してもよい。 The display device 4 displays the processing result of the processing device 3 (eg, the analysis result of the motion analysis unit 11). For example, the processing device 3 supplies image data indicating pronation information to the display device 4. For example, the processing device 3 supplies the display device 4 with image data indicating whether the pronation corresponds to overpronation, neutral, or underpronation. Further, the processing device 3 supplies the display device 4 with image data indicating the index value of the pronation. The display device 4 displays an image based on the image data supplied from the processing device 3. The processing device 3 may supply pronation information to a device other than the display device 4. For example, the processing device 3 may transmit pronation information via a communication line (eg, an internet line).

次に、上述の検出システム1の動作に基づき、実施形態に係る検出方法について説明する。図9は、実施形態に係る検出方法を示すフローチャートである。ステップS1からステップS5の処理については、図4と同様である。ステップS4において、着地したと着地判定部9が判定した後、運動解析部11は、ステップS11において人体HMの運動を解析する。運動解析部11は、例えば、着地期間T1の少なくとも一部についてプロネーションを検出する。運動解析部11は、例えば、プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを判定する。運動解析部11は、例えば、プロネーションのレベルを示す指標値を算出する。ステップS12において、表示装置4は、処理装置3の処理結果を表示する。例えば、処理装置3は、プロネーションの情報を示す画像のデータを表示装置4に供給する。表示装置4は、処理装置3から供給された画像のデータに基づいて、この画像を表示する。 Next, the detection method according to the embodiment will be described based on the operation of the detection system 1 described above. FIG. 9 is a flowchart showing a detection method according to the embodiment. The processing of steps S1 to S5 is the same as in FIG. After the landing determination unit 9 determines that the landing has occurred in step S4, the motion analysis unit 11 analyzes the motion of the human body HM in step S11. The motion analysis unit 11 detects the pronation for at least a part of the landing period T1, for example. The motion analysis unit 11 determines, for example, whether the pronation corresponds to overpronation, neutral, or underpronation. The motion analysis unit 11 calculates, for example, an index value indicating the level of pronation. In step S12, the display device 4 displays the processing result of the processing device 3. For example, the processing device 3 supplies image data indicating pronation information to the display device 4. The display device 4 displays this image based on the image data supplied from the processing device 3.

上述の実施形態において、検出システム1の少なくとも一部(例、処理装置3)は、コンピュータシステムを含んでもよい。処理装置3は、記憶部6に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行してもよい。この検出プログラムは、例えば、コンピュータに、移動する人体HMを検出した検出結果の時間変化を算出することと、時間変化に基づいて人体HMの着地を判定することと、人体HMの着地の判定結果に基づいて、人体HMの運動を解析することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。 In the above embodiments, at least a portion of the detection system 1 (eg, processing device 3) may include a computer system. The processing device 3 may read the detection program stored in the storage unit 6 and execute various processes according to the detection program. This detection program calculates, for example, the time change of the detection result of detecting the moving human body HM on a computer, determines the landing of the human body HM based on the time change, and determines the landing of the human body HM. Based on, the movement of the human body HM is analyzed and executed. The detection program may be recorded and provided on a computer-readable storage medium.

なお、検出システム1は、プロネーション以外の項目について検出を実行してもよい。例えば、検出システム1は、人体HMの移動速度を検出してもよい。例えば、検出システム1(例、変位算出部8)は、人体HMの特徴部位(例、図6の腰中央Q16、頭Q9)の位置の時間変化を、移動速度として算出してもよい。 The detection system 1 may execute detection for items other than pronation. For example, the detection system 1 may detect the moving speed of the human body HM. For example, the detection system 1 (eg, displacement calculation unit 8) may calculate the time change of the position of the characteristic portion of the human body HM (eg, waist center Q16, head Q9 in FIG. 6) as the moving speed.

また、検出システム1は、所定方向の歩幅を検出してもよい。例えば、検出システム1(例、変位算出部8)は、人体HMの移動方向において、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、他方の足(例、左足)の次の着地タイミングにおける他方の足の位置までの距離を歩幅として算出してもよい。検出システム1は、重複歩幅(重複歩長)を算出してもよい。例えば、検出システム1(例、変位算出部8)は、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、一方の足の次の着地タイミングにおける一方の足の位置までの距離を重複歩幅として算出してもよい。 Further, the detection system 1 may detect a stride in a predetermined direction. For example, the detection system 1 (eg, displacement calculation unit 8) moves from the position of one foot at an arbitrary landing timing of one foot (eg, right foot) in the moving direction of the human body HM to the other foot (eg, left foot). The distance to the position of the other foot at the next landing timing of) may be calculated as the stride length. The detection system 1 may calculate the overlapping stride (overlapping step length). For example, the detection system 1 (eg, displacement calculation unit 8) can change the position of one foot from the position of one foot at an arbitrary landing timing of one foot (eg, right foot) to the position of one foot at the next landing timing of one foot. The distance to may be calculated as an overlapping stride.

また、検出システム1は、所定方向の歩隔を検出してもよい。例えば、例えば、検出システム1(例、変位算出部8)は、人体HMの移動方向に直交する方向において、一方の足(例、右足)の任意の着地タイミングにおける一方の足の位置から、他方の足(例、左足)の次の着地タイミングにおける他方の足の位置までの距離を歩隔として算出してもよい。 Further, the detection system 1 may detect the step distance in a predetermined direction. For example, for example, the detection system 1 (eg, displacement calculation unit 8) can be used from the position of one foot at an arbitrary landing timing of one foot (eg, right foot) in a direction orthogonal to the moving direction of the human body HM. The distance to the position of the other foot at the next landing timing of one foot (eg, left foot) may be calculated as the step distance.

また、検出システム1は、上体のぶれを検出してもよい。例えば、検出システム1(例、処理部7)は、図6に示した腰中央Q16に対する頭Q9の相対位置を算出してもよい。また、検出システム1(例、変位算出部8)は、図6に示した腰中央Q16に対する頭Q9の相対位置の時間変化を算出してもよい。 Further, the detection system 1 may detect the shake of the upper body. For example, the detection system 1 (eg, processing unit 7) may calculate the relative position of the head Q9 with respect to the waist center Q16 shown in FIG. Further, the detection system 1 (eg, displacement calculation unit 8) may calculate the time change of the relative position of the head Q9 with respect to the waist center Q16 shown in FIG.

また、検出システム1は、例えば人体HMの静止状態において、人体HMの姿勢を検出してもよい。例えば、検出システム1は、例えば図8で説明したように、基準BLと膝Q5との相対位置を検出し、左右の脚部がX脚、O脚、平行脚のいずれの傾向にあるかを判定してもよい。また、検出システム1は、かかとに対するつま先の向き(内側:Toe-in、外側:Toe-out、平行:ニュートラル)を検出してもよい。 Further, the detection system 1 may detect the posture of the human body HM, for example, in a stationary state of the human body HM. For example, as described in FIG. 8, the detection system 1 detects the relative position between the reference BL and the knee Q5, and determines whether the left and right legs tend to be X-legs, O-legs, or parallel legs. You may judge. Further, the detection system 1 may detect the orientation of the toe with respect to the heel (inside: Toe-in, outside: Toe-out, parallel: neutral).

検出システム1は、上述した項目の1または2以上について検出を実行してもよい。また、検出システム1は、上述した項目についての検出を実行しなくてもよい。なお、処理装置3は、検出システム1の少なくとも一部(例、検出装置2)と別に提供されてもよい。また、処理装置3は、検出装置2の少なくとも一部(例、処理部7)を備えてもよい。 The detection system 1 may perform detection on one or more of the above items. Further, the detection system 1 does not have to execute the detection for the above-mentioned items. The processing device 3 may be provided separately from at least a part of the detection system 1 (eg, the detection device 2). Further, the processing device 3 may include at least a part of the detection device 2 (eg, the processing unit 7).

[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図10は、実施形態に係る検出システムを示す図である。検出システム1は、方向検出部12を備える。
[Third Embodiment]
A third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 10 is a diagram showing a detection system according to an embodiment. The detection system 1 includes a direction detection unit 12.

方向検出部12は、検出部5の検出結果に基づいて人体HMの移動方向D1を検出する。方向検出部12は、例えば、着地判定部9の判定結果に基づいて、人体HMの移動方向D1(進行方向、運動方向)を検出する。例えば、方向検出部12は、第1の着地タイミングにおける左足(例、かかとQ4)の位置を取得する。また、方向検出部12は、第1の着地タイミングより後の第2の着地タイミングにおける左足(例、かかとQ4)の位置を取得する。方向検出部12は、第1の着地タイミングと第2の着地タイミングとの間における左足の位置の変化(例、ベクトル)を算出する。このベクトルは、左足の移動方向に相当する。 The direction detection unit 12 detects the moving direction D1 of the human body HM based on the detection result of the detection unit 5. The direction detection unit 12 detects, for example, the movement direction D1 (traveling direction, motion direction) of the human body HM based on the determination result of the landing determination unit 9. For example, the direction detection unit 12 acquires the position of the left foot (eg, heel Q4) at the first landing timing. Further, the direction detection unit 12 acquires the position of the left foot (eg, heel Q4) at the second landing timing after the first landing timing. The direction detection unit 12 calculates a change (eg, vector) in the position of the left foot between the first landing timing and the second landing timing. This vector corresponds to the moving direction of the left foot.

方向検出部12は、例えば、右足について左足と同様に移動方向を算出する。方向検出部12は、例えば、左足の移動方向と、右足の移動方向との平均を算出することで、人体HMの移動方向D1を算出する。なお、方向検出部12は、左足と右足との一方のみの移動方向を、人体HMの移動方向D1として算出してもよい。方向検出部12は、例えば、検出した移動方向D1を記憶部10に記憶させる。方向検出部12は、例えば、検出した移動方向を運動解析部11に出力する。 The direction detection unit 12 calculates, for example, the moving direction of the right foot in the same manner as the left foot. The direction detection unit 12 calculates the moving direction D1 of the human body HM by, for example, calculating the average of the moving direction of the left foot and the moving direction of the right foot. The direction detection unit 12 may calculate the moving direction of only one of the left foot and the right foot as the moving direction D1 of the human body HM. The direction detection unit 12 stores, for example, the detected moving direction D1 in the storage unit 10. The direction detection unit 12 outputs, for example, the detected movement direction to the motion analysis unit 11.

本実施形態において、運動解析部11は、方向検出部12の検出結果を用いて人体HMの運動を解析する。人体HMの移動方向は、例えば、予め定められていなくてもよい。運動解析部11は、例えば、図8で説明した処理において、方向検出部12が検出した移動方向D1をZ方向として人体HMの特徴部位の座標を変換する。運動解析部11は、例えば、変換された特徴部位の座標を用いて、運動を解析する。 In the present embodiment, the motion analysis unit 11 analyzes the motion of the human body HM using the detection result of the direction detection unit 12. The moving direction of the human body HM may not be predetermined, for example. For example, in the process described with reference to FIG. 8, the motion analysis unit 11 converts the coordinates of the characteristic portion of the human body HM with the movement direction D1 detected by the direction detection unit 12 as the Z direction. The motion analysis unit 11 analyzes the motion using, for example, the coordinates of the converted feature portion.

なお、方向検出部12は、検出部5が検出する脚部Q1以外の部位の位置を用いて移動方向D1を検出してもよい。例えば、方向検出部12は、人体HMの頭Q9の位置の時間変化を用いて、移動方向D1を検出してもよい。また、方向検出部12は、着地タイミングごとに移動方向を検出してもよい。例えば、方向検出部12は、任意の着地タイミングにおけるかかとQ4の位置と、その次の着地タイミングにおけるかかとQ4の位置との比較によって、2つの着地タイミングの間の移動方向を検出してもよい。また、運動解析部11は、着地タイミングごとに方向検出部12が検出する移動方向を用いて、運動を解析してもよい。また、方向検出部12は、着地タイミングを用いないで移動方向D1を検出してもよい。 The direction detection unit 12 may detect the moving direction D1 by using the position of a portion other than the leg portion Q1 detected by the detection unit 5. For example, the direction detection unit 12 may detect the moving direction D1 by using the time change of the position of the head Q9 of the human body HM. Further, the direction detection unit 12 may detect the moving direction at each landing timing. For example, the direction detection unit 12 may detect the moving direction between the two landing timings by comparing the position of the heel Q4 at an arbitrary landing timing with the position of the heel Q4 at the next landing timing. Further, the motion analysis unit 11 may analyze the motion by using the movement direction detected by the direction detection unit 12 at each landing timing. Further, the direction detection unit 12 may detect the moving direction D1 without using the landing timing.

次に、実施形態にかかる検出部5の検出方向について説明する。図11は、実施形態に係る検出部の配置を示す図である。検出部5の検出方向D2は、例えば、検出部5の検出範囲の中心線の方向である。検出部5は、着地判定に用いられる人体HMの特徴部位が検出範囲FVを通るように、配置される。また、運動解析部11がプロネーションを検出する場合、検出部5は、移動方向D1に交差する方向(例、X方向)における膝の変位を検出可能なように配置される。例えば、検出部5は、撮像によって人体HMを検出する場合、移動方向D1と検出方向D2との角度φが0°よりも大きく90°よりも小さくなるように、配置される。 Next, the detection direction of the detection unit 5 according to the embodiment will be described. FIG. 11 is a diagram showing the arrangement of the detection unit according to the embodiment. The detection direction D2 of the detection unit 5 is, for example, the direction of the center line of the detection range of the detection unit 5. The detection unit 5 is arranged so that the characteristic portion of the human body HM used for the landing determination passes through the detection range FV. When the motion analysis unit 11 detects the pronation, the detection unit 5 is arranged so that the displacement of the knee in the direction intersecting the moving direction D1 (eg, the X direction) can be detected. For example, when the human body HM is detected by imaging, the detection unit 5 is arranged so that the angle φ between the moving direction D1 and the detecting direction D2 is larger than 0 ° and smaller than 90 °.

移動方向D1と検出方向D2との角度φは、検出部5が人体HMの三次元的な位置を検出する場合、0°以上90°以下の任意の角度に設定されてもよい。また、移動方向D1が予め設定されず、検出システム1は、移動方向D1を検出してもよい。 The angle φ between the moving direction D1 and the detection direction D2 may be set to an arbitrary angle of 0 ° or more and 90 ° or less when the detection unit 5 detects the three-dimensional position of the human body HM. Further, the moving direction D1 may not be set in advance, and the detection system 1 may detect the moving direction D1.

また、図11(B)に示すように、検出部5は、例えば、撮像によって人体HMを検出する複数の検出部(例、第1検出部5a、第2検出部5b)を備えてもよい。第1検出部5aは、例えば、移動方向D1と検出方向D2aとが平行になるように、配置されてもよい。第2検出部5bは、例えば、移動方向D1と検出方向D2bとが直交するように、配置されてもよい。着地判定部9は、例えば、第2検出部5bの検出結果に基づいて、着判定処理を行ってもよい。また、運動解析部11は、例えば、第1検出部5aの検出結果に基づいて、プロネーションを検出してもよい。 Further, as shown in FIG. 11B, the detection unit 5 may include, for example, a plurality of detection units (eg, first detection unit 5a, second detection unit 5b) that detect the human body HM by imaging. .. The first detection unit 5a may be arranged, for example, so that the movement direction D1 and the detection direction D2a are parallel to each other. The second detection unit 5b may be arranged so that, for example, the moving direction D1 and the detecting direction D2b are orthogonal to each other. The landing determination unit 9 may perform the landing determination process based on the detection result of the second detection unit 5b, for example. Further, the motion analysis unit 11 may detect the pronation based on the detection result of the first detection unit 5a, for example.

[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、実施形態に係る検出システムを示す図である。本実施形態において、処理装置3は、通信部21(送信部)を備える。通信部21は、着地判定部9の処理結果の少なくとも一部を外部に送信する。着地判定部9は、移動する人体HMを光学的に検出した検出結果の時間変化に基づいて、人体HMの着地タイミングを検出(例、推定)する。通信部21は、着地判定部9の処理結果として、人体HMの着地タイミングを送信する。
[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a detection system according to the embodiment. In the present embodiment, the processing device 3 includes a communication unit 21 (transmission unit). The communication unit 21 transmits at least a part of the processing result of the landing determination unit 9 to the outside. The landing determination unit 9 detects (eg, estimates) the landing timing of the human body HM based on the time change of the detection result of optically detecting the moving human body HM. The communication unit 21 transmits the landing timing of the human body HM as the processing result of the landing determination unit 9.

また、検出システム1は、処理装置25を備える。処理装置25は、通信部26(受信部と送信部)および解析部27を備える。通信部26は、移動する人体HMを光学的に検出した検出結果の時間変化に基づいて人体HMの着地を判定した着地タイミングを受信する。通信部26は、有線または無線によって処理装置3の通信部21と通信可能に接続される。通信部26は、処理装置3の通信部21から、着地判定部9が検出した人体HMの着地タイミングを受信する。 Further, the detection system 1 includes a processing device 25. The processing device 25 includes a communication unit 26 (reception unit and transmission unit) and an analysis unit 27. The communication unit 26 receives the landing timing at which the landing of the human body HM is determined based on the time change of the detection result of optically detecting the moving human body HM. The communication unit 26 is communicably connected to the communication unit 21 of the processing device 3 by wire or wirelessly. The communication unit 26 receives the landing timing of the human body HM detected by the landing determination unit 9 from the communication unit 21 of the processing device 3.

解析部27は、通信部26が受信した着地タイミングに基づいて、人体HMの脚部Q1のプロネーションを解析する。解析部27は、着地タイミングを解析の開始信号とし、例えば図5で説明した運動解析部11と同様の処理によって、プロネーションを解析する。例えば、処理装置3の通信部21は、変位算出部8が算出した変位情報を、処理装置25の通信部26へ送信する。解析部27は、通信部26が受信した着地タイミングおよび変位情報に基づいて、脚部Q1のプロネーションを検出する。なお、通信部26は、検出装置2から検出結果(検出部5の検出結果、処理部7の処理結果)の少なくとも一部を受信してもよい。そして、解析部27は、通信部26が受信した着地タイミング、及び検出装置2の検出結果に基づいて、プロネーションを検出してもよい。 The analysis unit 27 analyzes the pronation of the leg Q1 of the human body HM based on the landing timing received by the communication unit 26. The analysis unit 27 uses the landing timing as the start signal of the analysis, and analyzes the pronation by the same processing as the motion analysis unit 11 described in FIG. 5, for example. For example, the communication unit 21 of the processing device 3 transmits the displacement information calculated by the displacement calculation unit 8 to the communication unit 26 of the processing device 25. The analysis unit 27 detects the pronation of the leg portion Q1 based on the landing timing and displacement information received by the communication unit 26. The communication unit 26 may receive at least a part of the detection result (detection result of the detection unit 5 and processing result of the processing unit 7) from the detection device 2. Then, the analysis unit 27 may detect the pronation based on the landing timing received by the communication unit 26 and the detection result of the detection device 2.

処理装置25は、例えば、解析部27の解析結果を記憶部に記憶させる。処理装置25は、解析部27の解析結果を、外部の装置(例、表示装置)に出力してもよい。なお、処理装置25は、検出システム1の少なくとも一部と別に提供されてもよい。例えば、処理装置25は、処理装置3と別に提供されてもよい。また、処理装置25は、検出装置2と別に提供されてもよい。また、また、処理装置25は、検出装置2の少なくとも一部(例、検出部5、処理部7)を備えてもよい。 The processing device 25 stores, for example, the analysis result of the analysis unit 27 in the storage unit. The processing device 25 may output the analysis result of the analysis unit 27 to an external device (eg, a display device). The processing device 25 may be provided separately from at least a part of the detection system 1. For example, the processing device 25 may be provided separately from the processing device 3. Further, the processing device 25 may be provided separately from the detection device 2. Further, the processing device 25 may include at least a part of the detection device 2 (eg, the detection unit 5 and the processing unit 7).

また、運動解析部11は、上記の解析処理に加え、前回など過去に検出(解析)したユーザ(例、自分、見本(教師)となる人)の人体HMの脚部のプロネーションの解析結果(例、過去の解析結果)を用いて現在において解析した解析結果(例、現在の解析結果)と比較して、それら解析結果同士の脚部における類似度から人体HMの脚部のプロネーションを検出してもよい。この場合、上記の記憶部10は、解析したタイミング等において、過去に検出(解析)した人体HMの解析結果を人体HMの脚部ごとに記憶するように構成される。 Further, in addition to the above analysis processing, the motion analysis unit 11 analyzes the pronation of the leg of the human body HM of the user (eg, himself / herself, the person who becomes the sample (teacher)) detected (analyzed) in the past such as the previous time. Compared with the analysis results currently analyzed using (eg, past analysis results) (eg, current analysis results), the pronation of the legs of the human body HM is determined from the similarity of the legs between these analysis results. It may be detected. In this case, the storage unit 10 is configured to store the analysis result of the human body HM detected (analyzed) in the past for each leg of the human body HM at the analysis timing or the like.

次に、実施形態に係る運動用マットについて説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図13は、実施形態に係る運動用マットを示す図である。運動用マット30は、移動する人体HMの移動範囲(例、運動範囲、支持面G)に配置される。運動用マット30は、例えば、シート状、マット状の部材である。運動用マット30は、例えば、エクササイズマット、ヨガマット、トレーニングマット、フィットネスマット、ゴルフや野球などのスウィング用マット)などである。運動用マット30は、例えば、ルームランナーなどの運動機器において、人体HMを支持する面に設けられてもよい。例えば、人体HMは、支持面G(例、支持面Gは競技用トラックの面、競技用の床などを含む)に敷かれた運動用マット30上で運動あるいは移動する。なお、運動用マット30は、支持面Gの全面又は一部に設定されてもよいし、支持面Gに全部又は部分的に埋め込まれてもよい。 Next, the exercise mat according to the embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 13 is a diagram showing an exercise mat according to the embodiment. The exercise mat 30 is arranged in the movement range (eg, movement range, support surface G) of the moving human body HM. The exercise mat 30 is, for example, a sheet-shaped or mat-shaped member. The exercise mat 30 is, for example, an exercise mat, a yoga mat, a training mat, a fitness mat, a swing mat for golf, baseball, or the like). The exercise mat 30 may be provided on a surface that supports the human body HM in exercise equipment such as a treadmill. For example, the human body HM exercises or moves on an exercise mat 30 laid on a support surface G (eg, the support surface G includes a surface of a competition track, a competition floor, and the like). The exercise mat 30 may be set on the entire surface or a part of the support surface G, or may be completely or partially embedded in the support surface G.

運動用マット30は、マット自体からの反射光のノイズを低減させるために、人体HMを光学的に検出する検出部5が感度を有する光の波長帯(例、赤外光の波長帯、可視光の波長帯、X線の波長帯)において人体HMよりも光(例、赤外光)の吸収率が高く構成されている。また、運動用マット30は、人体HMと比べて光(例、赤外光)の反射率が低く構成されている。例えば、検出部5は、所定の波長帯の光を人体HMに照射し、この光の照射によって人体HMから放射される光を検出する。上記の所定の波長帯は、例えば、赤外光(例、近赤外光)の波長帯を含む。人体HMから放射される光は、例えば、赤外光(例、近赤外光)を含む。運動用マット30は、例えば、検出部5から照射される光に対する吸収率が人体HMよりも高い。また、運動用マット30は、検出部5が感度を有する光の波長帯において人体HMとのコントラストの差が際立つような光学特性を備えるように構成されてもよい。 In the exercise mat 30, in order to reduce the noise of the reflected light from the mat itself, the wavelength band of light having the sensitivity of the detection unit 5 that optically detects the human body HM (eg, the wavelength band of infrared light, visible). In the wavelength band of light and the wavelength band of X-rays), the absorption rate of light (eg, infrared light) is higher than that of the human body HM. Further, the exercise mat 30 is configured to have a lower reflectance of light (eg, infrared light) than the human body HM. For example, the detection unit 5 irradiates the human body HM with light in a predetermined wavelength band, and detects the light emitted from the human body HM by the irradiation of the light. The above-mentioned predetermined wavelength band includes, for example, a wavelength band of infrared light (eg, near infrared light). The light emitted from the human body HM includes, for example, infrared light (eg, near-infrared light). For example, the exercise mat 30 has a higher absorption rate for the light emitted from the detection unit 5 than the human body HM. Further, the exercise mat 30 may be configured to have optical characteristics such that the difference in contrast with the human body HM is conspicuous in the wavelength band of light having the sensitivity of the detection unit 5.

図13(B)は、実施形態に係る運動用マットを示す断面図である。運動用マット30は、基材31、吸収層32、及び下地層33を含む。基材31は、例えば樹脂材料で形成される。上記の樹脂材料は、例えば、ニトリルゴム(NBR)、天然ゴム、熱可塑性エラストマー(TPE)、ポリ塩化ビニル(PVC)、ポリマー環境樹脂(PER)、及びエチレン酢酸ビニルコポリマー(EVA)の少なくとも1つを含む。 FIG. 13B is a cross-sectional view showing an exercise mat according to the embodiment. The exercise mat 30 includes a base material 31, an absorption layer 32, and a base layer 33. The base material 31 is made of, for example, a resin material. The above resin material is, for example, at least one of nitrile rubber (NBR), natural rubber, thermoplastic elastomer (TPE), polyvinyl chloride (PVC), polymer environmental resin (PER), and ethylene vinyl acetate copolymer (EVA). including.

吸収層32は、層内において一様に配置され、検出部5が感度を有する波長帯(例、赤外光の波長帯)において人体HMよりも吸収率が高い色素(材料)を含む。吸収層32は、例えば、800nm以上1200nm以下の波長帯又は750nm以上3000nm以下の波長帯に吸収極大を有する。上記の色素は、例えば、フタロシアニン系色素、金属錯体系色素、ニッケルジチオレン錯体系色素、シアニン系色素、スクアリリウム系色素、ポリメチン系色素、アゾメチン系色素、アゾ系色素、ポリアゾ系色素、ジイモニウム系色素、アミニウム系色素、及びアントラキノン系色素のうち1種または2種以上を含む。吸収層32は、例えば、グラファイトを分散させた樹脂材料で形成されてもよい。 The absorption layer 32 contains a dye (material) that is uniformly arranged in the layer and has a higher absorption rate than the human body HM in a wavelength band in which the detection unit 5 has sensitivity (eg, a wavelength band of infrared light). The absorption layer 32 has, for example, an absorption maximum in a wavelength band of 800 nm or more and 1200 nm or less or a wavelength band of 750 nm or more and 3000 nm or less. The above dyes include, for example, phthalocyanine pigments, metal complex pigments, nickel dithiolene complex pigments, cyanine pigments, squarylium pigments, polymethine pigments, azomethine pigments, azo pigments, polyazo pigments, and diimonium pigments. , Aminium-based pigments, and anthraquinone-based pigments, including one or more. The absorption layer 32 may be formed of, for example, a resin material in which graphite is dispersed.

下地層33は、例えば、支持面Gに対する摩擦係数が基材31よりも大きい材料で形成される。下地層33は、支持面Gとの滑りが抑制されるように、その表面に複数の微小な凹凸を有してもよい。 The base layer 33 is formed of, for example, a material having a coefficient of friction with respect to the support surface G larger than that of the base material 31. The base layer 33 may have a plurality of minute irregularities on its surface so as to suppress slippage with the support surface G.

運動用マット30は、例えば、ロール状に巻き回すことが可能なレベルの可撓性を有する。例えば、基材31、吸収層32、及び下地層33は、それぞれ、上記の可撓性を有するように材料が選択される。なお、図13(B)に示した運動用マット30の構成は、一例であり、適宜変更可能である。例えば、運動用マット30は、吸収層32に対して基材31と反対側(例、運動用マット30の表面側)に、吸収層32を保護する保護層(例、抗菌や防汚のコーティング層)を含んでもよい。また、運動用マット30は、吸収層32に対して基材31と反対側(例、運動用マット30の表面側)に、反射防止層(例、ARコーティング)を含んでもよい。 The exercise mat 30 has a level of flexibility that allows it to be rolled around, for example. For example, the materials of the base material 31, the absorption layer 32, and the base layer 33 are selected so as to have the above-mentioned flexibility. The configuration of the exercise mat 30 shown in FIG. 13B is an example and can be changed as appropriate. For example, the exercise mat 30 has a protective layer (eg, antibacterial or antifouling coating) that protects the absorption layer 32 on the side opposite to the base material 31 (eg, the surface side of the exercise mat 30) with respect to the absorption layer 32. Layer) may be included. Further, the exercise mat 30 may include an antireflection layer (eg, AR coating) on the side opposite to the base material 31 (eg, the surface side of the exercise mat 30) with respect to the absorption layer 32.

運動用マット30から検出部5に入射する光L1の強度は、例えば、人体HMから検出部5に入射する光L2の強度よりも弱い。検出部5は、例えば、運動用マット30上を移動する人体HMを高精度で検出可能である。例えば、検出部5を備える検出システムは、運動用マット30上を移動する人体HMの脚部と運動用マット30とを高精度で判別可能である。これ(例、脚部を高精度に判別した結果)を用いることによって、検出システム1は、上記した人体HMの着地判定(例、脚部の着地判定)や人体HMの運動解析(例、脚部のプロネーション解析)を更に高精度に処理することが可能である。この検出システムは、図1などに示した検出システム1であってもよいし、検出システム1でなくてもよい。また、図1などに示した検出システム1は、運動用マット30を備えてもよい。 The intensity of the light L1 incident on the detection unit 5 from the exercise mat 30 is weaker than, for example, the intensity of the light L2 incident on the detection unit 5 from the human body HM. The detection unit 5 can detect, for example, the human body HM moving on the exercise mat 30 with high accuracy. For example, the detection system including the detection unit 5 can discriminate between the legs of the human body HM moving on the exercise mat 30 and the exercise mat 30 with high accuracy. By using this (eg, the result of discriminating the legs with high accuracy), the detection system 1 can perform the above-mentioned landing determination of the human body HM (eg, landing determination of the legs) and motion analysis of the human body HM (eg, legs). It is possible to process the pronation analysis of the part with higher accuracy. This detection system may be the detection system 1 shown in FIG. 1 or the like, or may not be the detection system 1. Further, the detection system 1 shown in FIG. 1 or the like may include an exercise mat 30.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.

1・・・検出システム、2・・・検出装置、3・・・処理装置、4・・・表示装置
5・・・検出部、8・・・変位算出部、9・・・着地判定部、11・・・運動解析部、12・・・方向検出部、21・・・光学部材、BL・・・基準、D1・・・移動方向、HM・・・人体、Q1・・・脚部、Q4・・・かかと、Q5・・・膝
1 ... Detection system, 2 ... Detection device, 3 ... Processing device, 4 ... Display device 5 ... Detection unit, 8 ... Displacement calculation unit, 9 ... Landing determination unit, 11 ... Motion analysis unit, 12 ... Direction detection unit, 21 ... Optical member, BL ... Reference, D1 ... Movement direction, HM ... Human body, Q1 ... Legs, Q4 ... heel, Q5 ... knee

Claims (11)

移動する人体を光学的に検出する検出部と、
前記検出部の検出結果を用いて前記人体の脚部のプロネーションを解析する解析部と、
を備え
前記解析部は、前記検出部の検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出システム。
A detector that optically detects the moving human body,
An analysis unit that analyzes the pronation of the legs of the human body using the detection results of the detection unit,
Equipped with a,
The analysis unit detects the position of the human body from the detection result of the detection unit, identifies at least a part of the leg from the detected position of the human body, and sets the position of at least a part of the identified leg. A detection system that determines the state of the pronation by comparing it with a reference.
前記解析部は、前記検出部の検出結果から得られる前記脚部の膝の位置を用いて、前記プロネーションを検出する、請求項1に記載の検出システム。 The detection system according to claim 1, wherein the analysis unit detects the pronation by using the position of the knee of the leg portion obtained from the detection result of the detection unit. 前記解析部は、前記膝の位置と前記基準とを比較して、前記プロネーションのレベルを示す指標値を算出する、請求項2に記載の検出システム。 Wherein the analysis unit compares the said reference position of said knee, calculates an index value that indicates the level of the pronation The detection system of claim 2. 前記解析部は、前記人体の移動方向に対する交差方向において前記基準に対する前記膝の位置を検出し、前記プロネーションがオーバープロネーション、ニュートラル、又はアンダープロネーションのいずれに該当するかを判定する、請求項3に記載の検出システム。 The analysis unit detects the position of the knee with respect to the reference in the crossing direction with respect to the moving direction of the human body, and determines whether the pronation corresponds to overpronation, neutral, or underpronation. Item 3. The detection system according to item 3. 前記基準は、前記検出部が検出する前記人体の前記脚部における上体側の端部とかかととを結ぶ線を含む、請求項1から請求項4のいずれか一項に記載の検出システム。 The detection system according to any one of claims 1 to 4, wherein the reference includes a line connecting the upper end and the heel of the leg of the human body detected by the detection unit. 移動する前記人体を光学的に検出した検出結果の時間変化に基づいて、前記人体の着地を判定した着地タイミングを受信する受信部を備え、
前記解析部は、前記受信部が受信した前記着地タイミングに基づいて、前記人体の前記脚部の前記プロネーションを解析する、請求項1から請求項5のいずれか一項に記載の検出システム。
A receiving unit for receiving the landing timing for determining the landing of the human body based on the time change of the detection result of optically detecting the moving human body is provided.
The detection system according to any one of claims 1 to 5, wherein the analysis unit analyzes the pronation of the leg portion of the human body based on the landing timing received by the receiving unit.
前記解析部の解析結果を表示する表示装置を備える、請求項1から請求項6のいずれか一項に記載の検出システム。 The detection system according to any one of claims 1 to 6, further comprising a display device for displaying the analysis result of the analysis unit. 前記人体の運動範囲に配置され、前記検出部が感度を有する赤外光の波長帯において前記人体よりも前記赤外光の吸収率が高い運動用マットを備える、請求項1から請求項7のいずれか一項に記載の検出システム。 Claims 1 to 7 include an exercise mat that is arranged in the motion range of the human body and whose detection unit has a higher absorption rate of infrared light than the human body in the wavelength band of infrared light having sensitivity. The detection system according to any one item. 移動する人体を光学的に検出することと、
前記人体を検出した検出結果に基づいて、前記人体の脚部のプロネーションを検出することと、
を含み、
前記プロネーションの検出では、前記人体を検出した検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出方法。
Optically detecting the moving human body and
To detect the pronation of the leg of the human body based on the detection result of detecting the human body,
Only including,
In the detection of the pronation, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and at least a part of the specified leg is detected. A detection method for determining the state of the pronation by comparing the position of the head and the reference.
コンピュータに、
移動する人体を光学的に検出した検出結果に基づいて、前記人体の脚部のプロネーションを検出すること、
を実行させ
前記プロネーションの検出では、前記人体を検出した検出結果から前記人体の位置を検出し、検出した前記人体の位置から前記脚部の少なくとも一部を特定し、特定した前記脚部の少なくとも一部の位置と基準とを比較して、前記プロネーションの状態を判定する、検出プログラム。
On the computer
To detect the pronation of the leg of the human body based on the detection result of optically detecting the moving human body.
To run ,
In the detection of the pronation, the position of the human body is detected from the detection result of detecting the human body, at least a part of the leg is specified from the detected position of the human body, and at least a part of the specified leg is detected. A detection program that determines the state of the pronation by comparing the position of the pronation with the reference.
移動する人体を光学的に検出する検出部と、 A detector that optically detects the moving human body,
前記検出部の検出結果に基づいて前記人体の移動方向を検出する方向検出部と、 A direction detection unit that detects the moving direction of the human body based on the detection result of the detection unit, and
前記検出部の検出結果を用いて前記人体の脚部のプロネーションを解析する解析部と、 An analysis unit that analyzes the pronation of the legs of the human body using the detection results of the detection unit,
を備え、 With
前記解析部は、前記検出結果から前記人体の移動方向に対する交差方向において基準に対する前記人体の脚部の少なくとも一部の位置を検出し、前記脚部の少なくとも一部の位置と前記基準とを比較して、前記プロネーションの状態を判定する、検出システム。 From the detection result, the analysis unit detects at least a part of the position of the leg of the human body with respect to the reference in the crossing direction with respect to the moving direction of the human body, and compares the position of at least a part of the leg with the reference. A detection system that determines the state of the pronation.
JP2017036132A 2017-02-28 2017-02-28 Detection system, detection method, and detection program Active JP6932946B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017036132A JP6932946B2 (en) 2017-02-28 2017-02-28 Detection system, detection method, and detection program
JP2021131244A JP7327449B2 (en) 2017-02-28 2021-08-11 detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017036132A JP6932946B2 (en) 2017-02-28 2017-02-28 Detection system, detection method, and detection program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021131244A Division JP7327449B2 (en) 2017-02-28 2021-08-11 detection system

Publications (3)

Publication Number Publication Date
JP2018139902A JP2018139902A (en) 2018-09-13
JP2018139902A5 JP2018139902A5 (en) 2020-03-19
JP6932946B2 true JP6932946B2 (en) 2021-09-08

Family

ID=63527136

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017036132A Active JP6932946B2 (en) 2017-02-28 2017-02-28 Detection system, detection method, and detection program
JP2021131244A Active JP7327449B2 (en) 2017-02-28 2021-08-11 detection system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021131244A Active JP7327449B2 (en) 2017-02-28 2021-08-11 detection system

Country Status (1)

Country Link
JP (2) JP6932946B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022065241A (en) * 2020-10-15 2022-04-27 株式会社日立ハイテク Motion visualization system and motion visualization method
WO2022209286A1 (en) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 Determination device

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4659602A (en) * 1985-11-12 1987-04-21 Jorgen Birch Broad spectrum camouflage mat
JP4595104B2 (en) 1999-08-30 2010-12-08 勝義 川崎 Objective severity assessment method for movement disorders
JP4008792B2 (en) 2002-09-27 2007-11-14 株式会社ジェイエスピー duct
JP4856427B2 (en) * 2006-01-13 2012-01-18 株式会社ジャパーナ Athletic shoes or running shoes selection system and presentation system
US7954261B2 (en) * 2006-09-27 2011-06-07 Rush University Medical Center Joint load reducing footwear
JP4933365B2 (en) * 2007-07-04 2012-05-16 株式会社アシックス Ankle joint dynamic alignment evaluation system and ankle joint dynamic alignment evaluation method
CA2707912C (en) 2007-12-03 2016-01-05 Shimane Prefectural Government Image recognition device and image recognition method
JP6188332B2 (en) 2013-01-21 2017-08-30 東芝メディカルシステムズ株式会社 Medical image display apparatus and program
JP2016121421A (en) 2014-12-25 2016-07-07 株式会社ダイセル Method for producing peek resin fiber, peek resin fiber and nonwoven fabric
US20160310790A1 (en) * 2015-04-27 2016-10-27 Dominic Novak Method for Muscle and Body Alignment and Strength Training
WO2018033965A1 (en) * 2016-08-16 2018-02-22 株式会社アシックス Lower leg behavior analysis system and analysis method, and lower leg behavior evaluation system and evaluation method

Also Published As

Publication number Publication date
JP7327449B2 (en) 2023-08-16
JP2018139902A (en) 2018-09-13
JP2021178224A (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US20240241255A1 (en) Detector for identifying at least one material property
JP5898199B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
US10244990B2 (en) Systems and methods for rehabilitation of limb motion
US9737239B2 (en) Systems and methods for tracking body surfaces of individuals
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
US20160104298A1 (en) Apparatus and method for poomsae recognition and dan promotion test of taekwondo based on skeleton of human body using depth camera
US20020028003A1 (en) Methods and systems for distinguishing individuals utilizing anatomy and gait parameters
JP6369811B2 (en) Gait analysis system and gait analysis program
JP7327449B2 (en) detection system
KR101913667B1 (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
KR101818198B1 (en) Apparatus and method for evaluating Taekwondo motion using multi-directional recognition
EP4147637A1 (en) Gait analysis system and method
US9235895B2 (en) Method for estimating direction of person standing still
CN114267088B (en) Gait information processing method and device and electronic equipment
Nouredanesh et al. Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool
KR20220076550A (en) System and method for recommending user-customized footwear
KR102054818B1 (en) Method of providing virtual reality based on footprint image pattern analysis
JP6031386B2 (en) Walking measurement system
KR101229088B1 (en) Apparatus and method for measuring 3d depth by an infrared camera using led lighting and tracking hand motion
Huang et al. Sports motion recognition based on foot trajectory state sequence mapping
US20240377533A1 (en) Detector for identifying at least one material property
Foo et al. Application of Signed Distance Function Neural Network in Real-Time Feet Tracking
Rymut et al. Kinematic analysis of hurdle clearance using a mobile device
Catteau et al. Concept and preliminary experiments with a wearable computer vision system for measuring shoe position and orientation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6932946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250