[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019024550A - Detection device, detection system, processing device, detection method and detection program - Google Patents

Detection device, detection system, processing device, detection method and detection program

Info

Publication number
JP2019024550A
JP2019024550A JP2017143770A JP2017143770A JP2019024550A JP 2019024550 A JP2019024550 A JP 2019024550A JP 2017143770 A JP2017143770 A JP 2017143770A JP 2017143770 A JP2017143770 A JP 2017143770A JP 2019024550 A JP2019024550 A JP 2019024550A
Authority
JP
Japan
Prior art keywords
data
unit
detection
posture
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143770A
Other languages
Japanese (ja)
Other versions
JP7011416B2 (en
Inventor
学千 金
Hakcheon Kim
学千 金
源洋 中川
Motohiro Nakagawa
源洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Quantum Inc
Original Assignee
Nikon Corp
Quantum Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Quantum Inc filed Critical Nikon Corp
Priority to JP2017143770A priority Critical patent/JP7011416B2/en
Publication of JP2019024550A publication Critical patent/JP2019024550A/en
Application granted granted Critical
Publication of JP7011416B2 publication Critical patent/JP7011416B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide instruction image data and the like that is suitable for a user.SOLUTION: A detection device includes: a detector for detecting a human body of a user; and an update part for updating teacher data using posture data of the user based on a comparison result acquired by comparing the posture data of the user that is acquired from a detection result by the detector to the teacher data of the user that was acquired in the past.SELECTED DRAWING: Figure 1

Description

本発明は、検出装置、検出システム、処理装置、検出方法、及び検出プログラムに関する。   The present invention relates to a detection device, a detection system, a processing device, a detection method, and a detection program.

運動中の人物(ユーザ)に対して指導用の映像データを提供する技術、運動中の人物を適切な状態で撮像する技術が提案されている(例えば、下記の特許文献1参照)。しかしながら、そういった指導用の映像データ等は、ユーザにとって最適なデータではない場合もある。   A technique for providing instructional video data to a person (user) in motion and a technique for capturing an image of the person in motion in an appropriate state have been proposed (for example, see Patent Document 1 below). However, such instructional video data may not be optimal data for the user.

特開2007−288682号公報JP 2007-288682 A

本発明の第1の態様に従えば、ユーザの人体を検出する検出部と、検出部の検出結果から得られるユーザの姿勢データと過去に取得されたユーザの教師データとを比較して得られる比較結果に基づいて、ユーザの姿勢データを用いて教師データを更新する更新部と、を備える検出装置が提供される。   According to the first aspect of the present invention, the detection unit for detecting the user's human body, the user posture data obtained from the detection result of the detection unit, and the user's teacher data acquired in the past are obtained. There is provided a detection device including an update unit that updates teacher data using user posture data based on the comparison result.

本発明の第2の態様に従えば、ユーザの人体を検出する検出部と、検出部の検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較する比較部と、比較部の比較結果に基づいて、ユーザの姿勢データを用いてユーザの教師データを生成する処理部と、を備える検出装置が提供される。   According to the second aspect of the present invention, the detection unit for detecting the human body of the user, the comparison unit for comparing the posture data of the user obtained from the detection result of the detection unit, and the teacher data of the user acquired in the past And a processing unit that generates user teacher data using user posture data based on the comparison result of the comparison unit.

本発明の第3の態様に従えば、第1の態様又は第2の態様の検出装置を備える検出システムが提供される。   According to the third aspect of the present invention, a detection system including the detection device according to the first aspect or the second aspect is provided.

本発明の第4の態様に従えば、ユーザの人体を検出した検出結果から得られる人体の姿勢データと、過去に取得されたユーザの教師データとの比較結果に基づいて、姿勢データを用いて教師データを更新する更新部を備える処理装置が提供される。   According to the fourth aspect of the present invention, based on the result of comparison between the posture data of the human body obtained from the detection result of detecting the human body of the user and the user's teacher data acquired in the past, the posture data is used. A processing device is provided that includes an updating unit that updates teacher data.

本発明の第5の態様に従えば、ユーザの人体を検出することと、検出から得られる人体の姿勢データと、過去に取得されたユーザの教師データとの比較結果に基づいて、姿勢データを用いて教師データを更新することと、を含む検出方法が提供される。   According to the fifth aspect of the present invention, the posture data is detected based on the result of comparison between the detection of the human body of the user, the posture data of the human body obtained from the detection, and the teacher data of the user acquired in the past. Using the method to update the teacher data.

本発明の第6の態様に従えば、コンピュータに、ユーザの人体を検出した検出結果から得られる人体の姿勢データと、過去に取得されたユーザの教師データとの比較結果に基づいて、姿勢データを用いて教師データを更新することと、を実行させる検出プログラムが提供される。   According to the sixth aspect of the present invention, based on the comparison result between the posture data of the human body obtained from the detection result of detecting the human body of the user and the teacher data of the user acquired in the past, A detection program is provided that executes updating teacher data using.

第1実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 1st Embodiment. 第1実施形態に係る検出装置の処理を示す図である。It is a figure which shows the process of the detection apparatus which concerns on 1st Embodiment. 第1実施形態に係る比較部の処理を示す図である。It is a figure which shows the process of the comparison part which concerns on 1st Embodiment. 実施形態に係る検出方法を示すフローチャートである。It is a flowchart which shows the detection method which concerns on embodiment. 第2実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 2nd Embodiment. 第2実施形態に係る検出装置の処理を示す図である。It is a figure which shows the process of the detection apparatus which concerns on 2nd Embodiment. 第2実施形態に係る比較部の処理を示す図である。It is a figure which shows the process of the comparison part which concerns on 2nd Embodiment. 第3実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 3rd Embodiment. 第4実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 4th Embodiment. 第4実施形態に係る比較部の処理を示す図である。It is a figure which shows the process of the comparison part which concerns on 4th Embodiment. 第5実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 5th Embodiment. 第6実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 6th Embodiment. 第7実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 7th Embodiment. 第8実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on 8th Embodiment. 実施形態に係る検出装置を示す図である。It is a figure which shows the detection apparatus which concerns on embodiment.

[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出装置を示す図である。この検出装置1は、例えば、目標(基本)の姿勢(ポーズ、フォーム)に近づくように姿勢をとるユーザUの人体HMを検出する。検出装置1は、例えば、スポーツ(例、野球、サッカー、ゴルフ、体操、エクササイズ、ヨガ、ボディビル)、ファッションショー(例、ウォーキング、ポージング)、ゲーム、又は人物認証(例、セキュリティ)等の各種分野で利用可能である。例えば、ユーザUは、ヨガやゴルフ等をテーマにしたゲームのプレイヤーでもよく、検出装置1は、ゲームをプレイするユーザUの人体HMを検出してもよい。
[First Embodiment]
A first embodiment will be described. FIG. 1 is a diagram illustrating a detection device according to an embodiment. For example, the detection device 1 detects the human body HM of the user U who takes a posture so as to approach the target (basic) posture (pose, form). The detection device 1 is, for example, a variety of sports (eg, baseball, soccer, golf, gymnastics, exercise, yoga, bodybuilding), fashion shows (eg, walking, posing), games, or person authentication (eg, security). Available in the field. For example, the user U may be a player of a game with the theme of yoga or golf, and the detection device 1 may detect the human body HM of the user U who plays the game.

検出装置1は、例えば、姿勢検出装置、動作検出装置、運動支援装置、姿勢評価装置などを含む。実施形態に係る検出システムSYSは、検出装置1を備える。本実施形態における検出システムSYSは、複数の検出装置1を備えてもよいし、検出装置1と後述の表示部4と入力部5との一方または双方を備えてもよい。   The detection device 1 includes, for example, a posture detection device, a motion detection device, an exercise support device, a posture evaluation device, and the like. The detection system SYS according to the embodiment includes a detection device 1. The detection system SYS in the present embodiment may include a plurality of detection devices 1, or may include one or both of the detection device 1, a display unit 4 and an input unit 5 described later.

以下の説明において、検出装置1は、ヨガにおける所定の姿勢(例、三日月のポーズ、猫のポーズ、牛のポーズ、戦士のポーズ)をとるユーザUを検出するものとする。なお、検出装置1が人体HMを検出する際に、衣類、靴、あるいはプロテクタなどの装着物(例、人体HMとともに移動する物体)を付けた状態でもよい。検出装置1による人体HMの検出は、人体HMとともに移動する装着物の検出を含んでもよい。また、検出装置1は、目標の姿勢に配置される物体、又は目標の姿勢をとる生物もしくはロボット(例、人型ロボット)を検出してもよい。   In the following description, it is assumed that the detection device 1 detects a user U taking a predetermined posture in yoga (eg, crescent moon pose, cat pose, cow pose, warrior pose). In addition, when the detection apparatus 1 detects the human body HM, it may be in a state in which an attachment such as clothing, shoes, or a protector (for example, an object that moves with the human body HM) is attached. The detection of the human body HM by the detection device 1 may include the detection of an attachment that moves with the human body HM. Further, the detection apparatus 1 may detect an object placed in a target posture, or a living organism or a robot (eg, a humanoid robot) that takes the target posture.

検出装置1は、ユーザUに対する今回の検出から得られる姿勢データFD(例、現在の人体HMの姿勢データFD)を、教師データTDと比較する(比較処理を実行する)。姿勢データFDは、ユーザUの人体HMの姿勢(例、二次元形状、三次元形状)を表す情報である。本実施形態において、姿勢データFDは、ユーザのヨガに関する姿勢データを含む。例えば、図1において、姿勢データFDは、ヨガの三日月のポーズをとるユーザUの姿勢を表す情報を含む。姿勢データFDは、例えば、人体HMの少なくとも一部の輪郭(例、シルエット)を表す情報を含む。姿勢データFDは、例えば、人体HMの各関節の伸びまたは曲がりが表れた情報を含む。また、姿勢データFDは、例えば、検出部2の検出結果(例、画像など)から推定して特定される人体HMにおける各関節(関節点)を線で結んで表示する情報を含む。   The detection device 1 compares posture data FD (eg, current posture data FD of the current human body HM) obtained from the current detection for the user U with the teacher data TD (executes comparison processing). The posture data FD is information representing the posture (eg, two-dimensional shape, three-dimensional shape) of the human body HM of the user U. In the present embodiment, the posture data FD includes posture data related to the user's yoga. For example, in FIG. 1, the posture data FD includes information indicating the posture of the user U taking a yoga crescent pose. The posture data FD includes, for example, information representing at least a part of the outline (eg, silhouette) of the human body HM. The posture data FD includes, for example, information indicating the elongation or bending of each joint of the human body HM. Further, the posture data FD includes, for example, information that displays the joints (joint points) in the human body HM that are estimated and identified from the detection results (eg, images) of the detection unit 2 by connecting with lines.

また、姿勢データFDは、人体の各部の位置関係を特定可能な情報を含んでもよい。例えば、姿勢データFDは、人体HMの部位の位置情報(例、絶対位置、相対位置、座標)を含んでもよい。人体の位置情報は、例えば、人体HMの末端部分(例、手先、足先、頭)の位置と、人体HMの関節(例、肩、肘、手首、膝)の位置との一方または双方を含む。また、人体HMの位置情報は、例えば、末端部分と関節との間の部分(例、首、前腕、下肢)の位置と、関節と関節との間の部分(例、上腕、上肢)の位置との一方または双方を含む。   In addition, the posture data FD may include information that can specify the positional relationship of each part of the human body. For example, the posture data FD may include position information (eg, absolute position, relative position, coordinates) of a part of the human body HM. The position information of the human body includes, for example, one or both of the position of the end portion (eg, hand, foot, head) of the human body HM and the position of the joint (eg, shoulder, elbow, wrist, knee) of the human body HM. Including. The position information of the human body HM includes, for example, the position between the end portion and the joint (eg, neck, forearm, lower limb) and the position between the joint and joint (eg, upper arm, upper limb). And one or both of them.

教師データTDは、検出装置1による今回(現在)のユーザUの検出よりも前に、同じユーザUに対して行われた検出の検出結果から得られる姿勢データ(以下、過去の姿勢データという)を含む。例えば、教師データTDは、例えば、検出装置1が人体HMを今回よりも前に検出した検出結果から得られた姿勢データ、又は初期(出荷時を含む)に設定された姿勢データである。教師データTDは、検出装置1と別の検出装置が人体HMを今回よりも前に検出した検出結果から得られた姿勢データでもよい。   The teacher data TD is posture data (hereinafter referred to as past posture data) obtained from a detection result of detection performed on the same user U before the detection of the current (current) user U by the detection device 1. including. For example, the teacher data TD is, for example, posture data obtained from a detection result obtained by the detection apparatus 1 detecting the human body HM before this time, or posture data set at an initial stage (including the time of shipment). The teacher data TD may be posture data obtained from a detection result in which a detection device different from the detection device 1 detects the human body HM before this time.

検出装置1は、上記の比較処理の比較結果に基づいて、ユーザUの姿勢データFDを用いて教師データTDを更新して設定する(更新処理を実行する)。ユーザUは、例えばヨガの上達(例、レベル)に応じて、検出装置1に更新処理を実行させてもよい。例えば、ユーザUは、自身の体格、体形、柔軟性などを加味して(例、重み付けなどを係数化)、検出装置1に教師データTDを設定させてもよい。ユーザUは、例えば更新された教師データTDを新たな教師データとして参考にして、ヨガを行ってもよい。ヨガを実施した後に、ユーザUは、例えば、自身に合っていると判断した姿勢データを、教師データとして選択してもよい。   The detection device 1 updates and sets the teacher data TD using the posture data FD of the user U based on the comparison result of the comparison process (executes the update process). For example, the user U may cause the detection device 1 to perform an update process according to progress (eg, level) of yoga. For example, the user U may take into account his / her physique, physique, flexibility, etc. (eg, weighting and the like are factorized), and cause the detection apparatus 1 to set the teacher data TD. For example, the user U may perform yoga with reference to the updated teacher data TD as new teacher data. After performing yoga, the user U may select, for example, posture data determined to be suitable for himself as teacher data.

検出装置1(又は検出システムSYS)は、検出部2、処理装置3、表示部4、及び入力部5を備える。検出部2は、ユーザUの人体HMを光学的に検出する。処理装置3は、検出部2の検出結果(例、撮像画像などの受光結果)から得られる情報を処理する。処理装置3は、ユーザUの姿勢データFDとユーザUの教師データTDとを比較する。処理装置3は、姿勢データFDと教師データTDとの比較結果に基づいて、姿勢データFDを用いて教師データTDを設定して更新する。検出装置1は、表示部4と入力部5の一方または双方を備えなくてもよい。例えば、表示部4(例、表示装置)と入力部5(入力装置)との一方または双方は、検出装置1の外部装置であって、検出システムSYSは、上記の外部装置を備えてもよい。以下、検出装置1の各部について説明する。   The detection device 1 (or the detection system SYS) includes a detection unit 2, a processing device 3, a display unit 4, and an input unit 5. The detection unit 2 optically detects the human body HM of the user U. The processing device 3 processes information obtained from the detection result of the detection unit 2 (eg, a light reception result such as a captured image). The processing device 3 compares the posture data FD of the user U and the teacher data TD of the user U. The processing device 3 sets and updates the teacher data TD using the posture data FD based on the comparison result between the posture data FD and the teacher data TD. The detection device 1 may not include one or both of the display unit 4 and the input unit 5. For example, one or both of the display unit 4 (eg, display device) and the input unit 5 (input device) are external devices of the detection device 1, and the detection system SYS may include the external device described above. . Hereinafter, each part of the detection apparatus 1 will be described.

検出部2は、例えば、センサ11および記憶部12を備える。センサ11は、ユーザUの人体HMからの光を検出する。例えば、検出部2は、ユーザUの人体HMへ照明光を照射し、センサ11は、照明光の照射によって人体HMから放射される光を検出する。上記の照明光は、可視光を含んでもよいし、非可視光(例、赤外光、紫外光)を含んでもよい。また、センサ11が検出する光は、可視光を含んでもよいし、非可視光(例、赤外光、紫外光)を含んでもよい。   The detection unit 2 includes, for example, a sensor 11 and a storage unit 12. The sensor 11 detects light from the human body HM of the user U. For example, the detection unit 2 irradiates the human body HM of the user U with illumination light, and the sensor 11 detects light emitted from the human body HM due to irradiation of the illumination light. The illumination light may include visible light or may include invisible light (eg, infrared light, ultraviolet light). Further, the light detected by the sensor 11 may include visible light, or may include non-visible light (eg, infrared light, ultraviolet light).

センサ11は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を実行する。センサ11は、例えば、撮像素子のような受光素子を含む。撮像素子は、例えば、CCDイメージセンサあるいはCMOSイメージセンサなどである。センサ11は、例えば、撮像処理によって人体HMを光学的に検出する。センサ11は、その検出結果として、例えば撮像した画像(以下、撮像画像という)のデータ(例、RGBデータやグレースケールなどの画素値)を出力する。   For example, the sensor 11 performs a detection process at a predetermined frequency (eg, sampling rate, frame rate). The sensor 11 includes a light receiving element such as an imaging element, for example. The image sensor is, for example, a CCD image sensor or a CMOS image sensor. For example, the sensor 11 optically detects the human body HM by an imaging process. As the detection result, the sensor 11 outputs, for example, data of a captured image (hereinafter referred to as a captured image) (eg, pixel values such as RGB data and gray scale).

センサ11は、人体HMに対して予め定められた位置(配置位置)と方向(検出方向)とから、人体HMを検出する。例えば、人体HMは、所定の領域(例、ヨガマット、エクササイズマットなどの運動領域)においてヨガを行い、センサ11は、上記の所定の領域に対して予め位置決めされる。   The sensor 11 detects the human body HM from a predetermined position (arrangement position) and direction (detection direction) with respect to the human body HM. For example, the human body HM performs yoga in a predetermined region (for example, an exercise region such as a yoga mat or an exercise mat), and the sensor 11 is previously positioned with respect to the predetermined region.

検出部2は、例えばユーザUがヨガを行う前に、センサ11によって上記の所定の領域を撮像してもよい。検出装置1は、センサ11が撮像した画像を表示部4に表示させてもよい。ユーザUは、ヨガを行う前に、表示部4に表示される画像において上記の所定の領域(例、ヨガマット)が所定位置になるように、センサ11と所定の領域との相対位置を調整してもよい。検出装置1は、上記の所定位置を示すマーク(例、ガイド、枠線、グリッド)を、センサ11が撮像した画像とともに表示部4に表示させてもよい。ユーザUは、センサ11と所定の領域との相対位置が調整された状態で、所定の領域においてヨガを行う。   For example, before the user U performs yoga, the detection unit 2 may image the predetermined area using the sensor 11. The detection apparatus 1 may display an image captured by the sensor 11 on the display unit 4. Before performing yoga, the user U adjusts the relative position between the sensor 11 and the predetermined region so that the predetermined region (eg, yoga mat) is in the predetermined position in the image displayed on the display unit 4. May be. The detection apparatus 1 may display the mark (eg, guide, frame line, grid) indicating the predetermined position on the display unit 4 together with the image captured by the sensor 11. The user U performs yoga in the predetermined region in a state where the relative position between the sensor 11 and the predetermined region is adjusted.

記憶部12は、例えば、揮発性メモリまたは不揮発性メモリを含む。記憶部12は、センサ11の検出結果を記憶する。記憶部12は、例えば、センサ11の検出結果を、センサ11が検出を実行したタイミングの情報と関係づけて記憶する。上記のタイミングの情報は、例えば、検出を実行した順に割り付けられる番号(例、フレーム番号)でもよい。また、上記のタイミングの情報は、例えば、人体HMに対する検出を実行したタイミングに基づいた時刻(以下、検出時刻という)でもよい。検出時刻は、例えば、検出部2に内蔵される計時デバイス(例、内部時計)が測定する時刻でもよいし、外部から受信する情報(例、標準時を示す標準電波)によって取得される時刻でもよい。   The storage unit 12 includes, for example, a volatile memory or a nonvolatile memory. The storage unit 12 stores the detection result of the sensor 11. For example, the storage unit 12 stores the detection result of the sensor 11 in association with the information of the timing at which the sensor 11 performs the detection. The timing information may be, for example, a number (for example, a frame number) assigned in the order of detection. Further, the timing information may be, for example, a time based on the timing at which the detection of the human body HM is executed (hereinafter referred to as a detection time). The detection time may be, for example, a time measured by a timing device (eg, an internal clock) built in the detection unit 2, or may be a time acquired from information received from the outside (eg, a standard radio wave indicating standard time). .

検出部2は、例えば、センサ11によって人体HMを撮像し、その撮像画像のデータ(例、RGBデータやグレースケールなどの画素値)を記憶部12に記憶させる。検出部2は、センサ11の検出結果を外部に出力可能である。例えば、センサ11は、記憶部12に記憶された撮像画像のデータを読み出して、外部に出力する。検出部2は、記憶部12を介することなく(例、リアルタイムで)、検出結果を外部に出力してもよい。この場合、検出部2は、記憶部12を備えなくてもよい。   For example, the detection unit 2 images the human body HM with the sensor 11 and causes the storage unit 12 to store data of the captured image (for example, pixel values such as RGB data and gray scale). The detection unit 2 can output the detection result of the sensor 11 to the outside. For example, the sensor 11 reads out the captured image data stored in the storage unit 12 and outputs the data to the outside. The detection unit 2 may output the detection result to the outside without going through the storage unit 12 (for example, in real time). In this case, the detection unit 2 may not include the storage unit 12.

処理装置3は、検出部2が出力する情報(例、検出結果)を処理する情報処理部である。処理装置3は、検出部2と有線または無線によって通信可能に接続される。処理装置3は、検出部2の検出結果として撮像画像のデータを、検出部2から取得(例、受信)する。   The processing device 3 is an information processing unit that processes information (for example, a detection result) output from the detection unit 2. The processing device 3 is communicably connected to the detection unit 2 by wire or wireless. The processing device 3 acquires (eg, receives) captured image data from the detection unit 2 as a detection result of the detection unit 2.

なお、処理装置3は、検出部2との通信を介することなく、検出部2の検出結果あるいは処理結果を取得してもよい。例えば、処理装置3は、不揮発性メモリなどの記憶媒体を介して、検出部2から検出結果を取得してもよい。例えば、検出部2の記憶部12は、検出部2から取り外し可能なメモリーカードなどの記憶媒体でもよい。処理装置3は、例えば、処理装置3から取り外された記憶部12と接続されることで、検出部2の検出結果を取得してもよい。   Note that the processing device 3 may acquire the detection result or the processing result of the detection unit 2 without using communication with the detection unit 2. For example, the processing device 3 may acquire the detection result from the detection unit 2 via a storage medium such as a nonvolatile memory. For example, the storage unit 12 of the detection unit 2 may be a storage medium such as a memory card that is removable from the detection unit 2. For example, the processing device 3 may acquire the detection result of the detection unit 2 by being connected to the storage unit 12 removed from the processing device 3.

処理装置3は、処理部13、比較部14、更新部15、及び記憶部16を備える。処理部13は、検出部2から出力される情報(例、検出結果、処理結果)を処理する。処理部13は、例えば、検出部2から出力される撮像画像のデータを処理する画像処理部である。処理部13は、検出部2の検出結果に基づいて、人体HMの姿勢を表す姿勢データFDを生成する。処理部13は、例えば、検出部2の撮像画像に対してエッジ検出処理を施し、撮像画像における人体HM(例、形状、輪郭)を特定して、姿勢データFDを生成する。   The processing device 3 includes a processing unit 13, a comparison unit 14, an update unit 15, and a storage unit 16. The processing unit 13 processes information (eg, detection result, processing result) output from the detection unit 2. The processing unit 13 is, for example, an image processing unit that processes captured image data output from the detection unit 2. The processing unit 13 generates posture data FD representing the posture of the human body HM based on the detection result of the detection unit 2. For example, the processing unit 13 performs edge detection processing on the captured image of the detection unit 2, specifies the human body HM (eg, shape, contour) in the captured image, and generates posture data FD.

本実施形態において、センサ11は、予め設定された期間(以下、検出設定期間という)において、人体HMを繰り返し検出する。処理部13は、複数の撮像画像間における人体HMの変化量(例、移動量)を算出する。処理部13は、例えば、前回の撮像画像と今回の撮像画像とで人体HMの変化量が閾値未満である場合に、人体HMが静止したと判定(認識)する。処理部13は、例えば、人体HMが静止したと判定した場合に、その判定の元になるセンサ11の検出結果を用いて姿勢データFDを生成する。   In the present embodiment, the sensor 11 repeatedly detects the human body HM during a preset period (hereinafter referred to as a detection setting period). The processing unit 13 calculates the amount of change (eg, movement amount) of the human body HM between a plurality of captured images. For example, the processing unit 13 determines (recognizes) that the human body HM is stationary when the change amount of the human body HM is less than the threshold value between the previous captured image and the current captured image. For example, when the processing unit 13 determines that the human body HM is stationary, the processing unit 13 generates the posture data FD using the detection result of the sensor 11 that is the source of the determination.

なお、センサ11は、1枚の画像を撮像し、処理部13は、この画像を用いて姿勢データFDを生成してもよい。また、処理部13は、人体HMの静止を判定しなくてもよい。また、処理部13は、2以上の画像を平均化して、姿勢データFDを生成してもよい。例えば、処理部13は、第1の画像から得られる姿勢データと、第2の画像から得られる姿勢データとの平均(例、加算平均、加重平均)によって、姿勢データFDを生成してもよい。   Note that the sensor 11 may capture one image, and the processing unit 13 may generate the posture data FD using this image. Further, the processing unit 13 may not determine whether the human body HM is stationary. In addition, the processing unit 13 may generate attitude data FD by averaging two or more images. For example, the processing unit 13 may generate the posture data FD based on the average (eg, addition average, weighted average) of the posture data obtained from the first image and the posture data obtained from the second image. .

また、処理部13は、パターン認識によって、撮像画像における人体HMの部位(例、頭部、腕部、胴体部、脚部)を特定して、姿勢データFDを生成してもよい。また、処理部13は、撮像画像における人体HMの位置を検出してもよい。例えば、処理部13は、人体HMの各部位の位置を二次元の座標で表してもよい。この二次元の座標は、例えば、撮像画像における水平走査方向の画素の位置と、垂直走査方向の画素の位置とを一組にしたデータでもよい。処理部13は、人体HMの各部位の名称と位置とを関連付けた部位データを生成してもよい。姿勢データFDは、例えば、人体HMの複数の部位の部位データを集積したテーブルデータを含んでもよい。また、姿勢データFDは、撮像画像における人体HMの少なくとも一部の輪郭の位置の情報を含んでもよい。また、姿勢データFDは、例えば、人体HMに付けられた部材(例、装着物、靴、ウェア、マーカー)の位置の情報を含んでもよい。処理部13は、生成した姿勢データFDを記憶部16に記憶させる。   Further, the processing unit 13 may specify the part of the human body HM (eg, head, arm, torso, leg) in the captured image by pattern recognition and generate the posture data FD. Further, the processing unit 13 may detect the position of the human body HM in the captured image. For example, the processing unit 13 may represent the position of each part of the human body HM with two-dimensional coordinates. The two-dimensional coordinates may be, for example, data obtained by combining a pixel position in the horizontal scanning direction and a pixel position in the vertical scanning direction in the captured image. The processing unit 13 may generate part data in which the name and position of each part of the human body HM are associated with each other. The posture data FD may include, for example, table data obtained by collecting part data of a plurality of parts of the human body HM. The posture data FD may include information on the position of at least a part of the contour of the human body HM in the captured image. In addition, the posture data FD may include, for example, information on the position of a member (eg, an attachment, shoes, wear, a marker) attached to the human body HM. The processing unit 13 stores the generated posture data FD in the storage unit 16.

記憶部16は、例えば、不揮発性メモリまたはハードディスクを含む。記憶部16は、初期データSD、教師データTD、及び姿勢データFDを記憶する。記憶部16に記憶された姿勢データFDは、ユーザUの人体HMをセンサ11が今回検出した検出結果を処理部13が処理して得られた情報である。本実施形態において、姿勢データFDは、人体HMの二次元形状(例、輪郭線)を表す情報である。記憶部16に記憶された教師データTDは、例えば、過去の姿勢データから選択されたデータである。教師データTDは、姿勢データFDと同じデータ構造である。教師データTDは、姿勢データFDを処理(例、加工)したデータでもよい。例えば、教師データTDは、姿勢データFDの一部を抽出したデータでもよい。   The storage unit 16 includes, for example, a nonvolatile memory or a hard disk. The storage unit 16 stores initial data SD, teacher data TD, and posture data FD. The posture data FD stored in the storage unit 16 is information obtained by the processing unit 13 processing the detection result of the sensor 11 detecting the human body HM of the user U this time. In the present embodiment, the posture data FD is information representing a two-dimensional shape (eg, contour line) of the human body HM. The teacher data TD stored in the storage unit 16 is, for example, data selected from past posture data. The teacher data TD has the same data structure as the posture data FD. The teacher data TD may be data obtained by processing (eg, processing) the posture data FD. For example, the teacher data TD may be data obtained by extracting a part of the posture data FD.

初期データSDは、例えば、ユーザUとは別の物体(例、インストラクター、ロボット)がとった所定の姿勢(例、三日月のポーズ)又はユーザUの最初に設定した姿勢(例、初期姿勢)を表す情報である。初期データSDは、例えば、教師データTDと同じデータ構造(例、物体の輪郭の少なくとも一部を表す情報、物体の部位の位置情報)を含む。   The initial data SD is, for example, a predetermined posture (e.g., crescent moon pose) taken by an object (e.g., instructor, robot) different from the user U or a user U's first set posture (e.g., initial posture). It is information to represent. The initial data SD includes, for example, the same data structure as the teacher data TD (eg, information representing at least a part of the contour of the object, position information of the part of the object).

上記の過去の姿勢データは、例えば所定の姿勢をとるユーザUが一回も検出されていない場合に、存在しない。教師データTDは、ユーザUの過去の姿勢データが存在しない状態(例、検出装置1の出荷時、検出装置1が最初に使用される前)において、記憶部12に記憶されていない。教師データTDが記憶部12に記憶されていない状態において、初期データSDは、例えば教師データTDの代わりに、姿勢データFDとの比較に利用される。初期データSDは、ユーザUが所定の姿勢を確認することに利用されてもよい。例えば、処理装置3は、初期データSDが示す形状を表示部4に表示させてもよい。   The past posture data does not exist when, for example, the user U taking a predetermined posture has not been detected once. The teacher data TD is not stored in the storage unit 12 in a state where the past posture data of the user U does not exist (for example, when the detection device 1 is shipped and before the detection device 1 is first used). In a state where the teacher data TD is not stored in the storage unit 12, the initial data SD is used for comparison with the posture data FD, for example, instead of the teacher data TD. The initial data SD may be used when the user U confirms a predetermined posture. For example, the processing device 3 may display the shape indicated by the initial data SD on the display unit 4.

処理装置3は、ユーザUがヨガを行う間に、教師データTDが表す形状を表示部4に表示させてもよい。例えば、処理装置3は、予め定められたタイミング(例、スケジュール)に基づいて、教師データTDが表す形状を表示部4に表示させてもよい。また、処理装置3は、教師データTDの元になったセンサ11の検出結果(例、撮像画像)を表示部4に表示させてもよい。ユーザUは、例えば、表示部4に表示される画像を見ながら、画像上の姿勢を手本としてヨガを行ってもよい。   The processing device 3 may display the shape represented by the teacher data TD on the display unit 4 while the user U performs yoga. For example, the processing device 3 may cause the display unit 4 to display the shape represented by the teacher data TD based on a predetermined timing (eg, schedule). Further, the processing device 3 may cause the display unit 4 to display a detection result (eg, a captured image) of the sensor 11 that is the source of the teacher data TD. For example, the user U may perform yoga using the posture on the image as a model while viewing the image displayed on the display unit 4.

比較部14は、姿勢データFDと、過去に取得されたユーザの教師データTDとを比較する。比較部14は、記憶部16から姿勢データFDと教師データTDとを読み出し、読み出した姿勢データFDと教師データTDとを比較する。比較部14は、例えば、姿勢データFDが表す形状(現在の人体HMの形状)と、教師データTDが表す形状(過去の人体HMの形状)とを比較する。   The comparison unit 14 compares the posture data FD and the teacher data TD of the user acquired in the past. The comparison unit 14 reads the posture data FD and the teacher data TD from the storage unit 16, and compares the read posture data FD and the teacher data TD. For example, the comparison unit 14 compares the shape represented by the posture data FD (the current shape of the human body HM) with the shape represented by the teacher data TD (the shape of the past human body HM).

比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさを比較する。比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさの差が減少するように、適宜、姿勢データFDを補正する。例えば、比較部14は、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさ(例、人体HMの輪郭に囲まれる面積)が同じになるように、適宜、姿勢データFDが表す形状を拡大または縮小する。比較部14は、姿勢データFDが表す形状と教師データTDが表す形状とで、向きを比較してもよい。比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで向きが同じになるように、適宜、姿勢データFDが表す形状の向きを補正(例、回転)してもよい。   For example, the comparison unit 14 compares the sizes of the shape represented by the posture data FD and the shape represented by the teacher data TD. For example, the comparison unit 14 appropriately corrects the posture data FD so that the difference in size between the shape represented by the posture data FD and the shape represented by the teacher data TD decreases. For example, the comparison unit 14 appropriately sets the posture data FD so that the shape (for example, the area surrounded by the outline of the human body HM) is the same between the shape represented by the posture data FD and the shape represented by the teacher data TD. Enlarge or reduce the shape to represent. The comparison unit 14 may compare the orientation between the shape represented by the posture data FD and the shape represented by the teacher data TD. For example, the comparison unit 14 may appropriately correct (eg, rotate) the direction of the shape represented by the posture data FD so that the shape represented by the posture data FD and the shape represented by the teacher data TD are the same. Good.

また、比較部14は、教師データTDと姿勢データFDとの類似度を算出する。例えば、比較部14は、上記のような補正後の姿勢データFDが表す形状と、教師データTDが表す形状とで類似度(例、相関係数)を算出する。比較部14は、例えば、教師データTDが表す形状の全体と姿勢データFDが表す形状の全体とを比較する。比較部14は、人体HMの一部(例、1つの部位、複数の部位)について、教師データTDが表す形状と姿勢データFDが表す形状とを比較してもよい。比較部14は、人体HMの複数の部位間の相対位置(例、上腕と前腕との伸び、曲がり、角度)について、教師データTDが表す形状と姿勢データFDが表す形状とを比較してもよい。   Further, the comparison unit 14 calculates the similarity between the teacher data TD and the posture data FD. For example, the comparison unit 14 calculates a similarity (for example, a correlation coefficient) between the shape represented by the corrected posture data FD as described above and the shape represented by the teacher data TD. For example, the comparison unit 14 compares the entire shape represented by the teacher data TD with the entire shape represented by the posture data FD. The comparison unit 14 may compare the shape represented by the teacher data TD with the shape represented by the posture data FD for a part of the human body HM (eg, one part, a plurality of parts). The comparison unit 14 compares the shape represented by the teacher data TD and the shape represented by the posture data FD with respect to the relative positions (eg, the extension, bending, and angle between the upper arm and the forearm) of the human body HM. Good.

また、比較部14は、ユーザUの姿勢データFDとユーザUの教師データTDとの比較を示す比較情報を生成する。比較情報は、例えば、姿勢データFDと教師データTDとの比較を示す画像(以下、比較画像という)を含む。処理装置3は、比較部14が生成した比較画像を表示部4に表示させる。ユーザUは、例えば、表示部4に表示された比較画像を参照し、教師データTDを更新するか否かを示す更新指令を入力部5に入力可能である。   The comparison unit 14 also generates comparison information indicating a comparison between the user U posture data FD and the user U teacher data TD. The comparison information includes, for example, an image (hereinafter referred to as a comparative image) indicating comparison between the posture data FD and the teacher data TD. The processing device 3 causes the display unit 4 to display the comparison image generated by the comparison unit 14. For example, the user U can input an update command indicating whether or not to update the teacher data TD to the input unit 5 with reference to the comparison image displayed on the display unit 4.

入力部5は、ユーザUが姿勢データFDに基づいて教師データTDを更新することに用いられる。入力部5は、姿勢データFDを用いて教師データTDを更新するか否かを示す更新指令の入力を受け付ける。入力部5は、例えば、更新指令の入力時に操作される操作デバイスと、更新指令を受信する受信部との一方または双方を含む。上記の操作デバイスは、例えば、キーボード、マウス、トラックボール、タッチパネル、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。上記の受信部は、例えば、無線または有線の通信機器を含む。   The input unit 5 is used when the user U updates the teacher data TD based on the posture data FD. The input unit 5 receives an input of an update command indicating whether to update the teacher data TD using the posture data FD. The input unit 5 includes, for example, one or both of an operation device that is operated when an update command is input and a reception unit that receives the update command. The operation device includes, for example, at least one of a keyboard, a mouse, a trackball, a touch panel, and a voice input device (for example, a microphone). The receiving unit includes, for example, a wireless or wired communication device.

なお、入力部5は、更新指令以外の入力を受け付けてもよい。例えば、入力部5は、検出部2による検出の開始させる指令(例、検出開始指令)の入力を受け付けてもよい。例えば、入力部5は、音声入力デバイスを含み、検出装置1は、入力部5に音声で検出開始指令が入力されることで、検出部2に検出を開始させてもよい。また、入力部5は、タッチパネルなどの接触型の入力デバイスであって、検出装置1は、入力部5に検出開始指令が入力された場合に、タイマーなどによって予め設定された遅延時間の経過後に、検出部2に検出を開始させてもよい。   Note that the input unit 5 may accept an input other than the update command. For example, the input unit 5 may receive an input of a command (for example, a detection start command) for starting detection by the detection unit 2. For example, the input unit 5 may include a voice input device, and the detection apparatus 1 may cause the detection unit 2 to start detection when a detection start command is input to the input unit 5 by voice. The input unit 5 is a contact-type input device such as a touch panel, and the detection apparatus 1 can detect the detection unit 1 after a delay time set in advance by a timer or the like when a detection start command is input to the input unit 5. The detection unit 2 may start detection.

更新部15は、比較部14の比較結果に基づいて入力部5に入力された更新指令と、姿勢データFDとに基づいて、教師データTDを更新する。また、更新部15は、教師データTDが存在しない場合、姿勢データFDを教師データTDとして登録する。例えば、所定の姿勢をとるユーザUが一回も検出されていない場合に、教師データTDは存在しない。このような場合、更新部15は、例えばユーザUからの指令に基づいて、または自動で姿勢データFDを教師データTDとして記憶部16に記憶させる。実施形態において、教師データTDの更新は、教師データTDが登録されていない状態(例、初期状態、出荷状態)から、教師データTDが登録された状態への更新を含む。   The update unit 15 updates the teacher data TD based on the update command input to the input unit 5 based on the comparison result of the comparison unit 14 and the posture data FD. Further, the update unit 15 registers the posture data FD as the teacher data TD when the teacher data TD does not exist. For example, when the user U taking a predetermined posture has never been detected, the teacher data TD does not exist. In such a case, the update unit 15 causes the storage unit 16 to store the posture data FD as teacher data TD based on, for example, a command from the user U or automatically. In the embodiment, the update of the teacher data TD includes an update from a state where the teacher data TD is not registered (eg, an initial state, a shipping state) to a state where the teacher data TD is registered.

図2は、本実施形態に係る検出装置の処理を示す図である。図2において符号Im1は、比較部14が生成する比較画像である。比較画像Im1は、例えば、姿勢の名称を表す情報D1(図中「三日月のポーズ」)を含む。また、比較画像Im1は、教師データTDが表す形状の部分画像Im2、及び姿勢データFDが表す形状の部分画像Im3を含む。   FIG. 2 is a diagram illustrating processing of the detection apparatus according to the present embodiment. In FIG. 2, reference symbol Im <b> 1 is a comparison image generated by the comparison unit 14. The comparison image Im1 includes, for example, information D1 (“Crescent Moon Pose” in the figure) indicating the name of the posture. The comparison image Im1 includes a partial image Im2 having a shape represented by the teacher data TD and a partial image Im3 having a shape represented by the posture data FD.

図2において、表示部4における画面レイアウトは、現在の姿勢データFDに基づく表示画像(例、Im3)と、教師データTDに基づく表示画像(例、Im2)とが並ぶ画面レイアウトである。画面レイアウトは、例えば、ユーザUが入力部5を介して設定を変更することで、変更可能である。例えば、処理装置3は、現在の姿勢データFDに基づく表示画像(例、Im3)を、教師データTDに基づく表示画像(例、Im2)に対して、同じ大きさで表示させてもよいし、大きく表示させてもよく、小さく表示させてもよい。   In FIG. 2, the screen layout in the display unit 4 is a screen layout in which a display image (eg, Im3) based on the current posture data FD and a display image (eg, Im2) based on the teacher data TD are arranged. The screen layout can be changed, for example, when the user U changes the setting via the input unit 5. For example, the processing device 3 may display the display image (eg, Im3) based on the current posture data FD in the same size as the display image (eg, Im2) based on the teacher data TD. It may be displayed larger or smaller.

また、現在の姿勢データFDに基づく表示画像(例、Im3)と、教師データTDに基づく表示画像(例、Im2)との一方または双方は、表示部4において表示させる位置を変更可能である。例えば、処理装置3は、ユーザUが入力部5を介して設定を変更することで、教師データTDに基づく表示画像(例、Im2)を表示部4の画面の隅に表示させてもよい。   In addition, one or both of a display image (eg, Im3) based on the current posture data FD and a display image (eg, Im2) based on the teacher data TD can be changed in the display position on the display unit 4. For example, the processing device 3 may display a display image (eg, Im2) based on the teacher data TD in the corner of the screen of the display unit 4 by the user U changing the setting via the input unit 5.

部分画像Im2は、例えば、教師データTDと対応することを示す識別情報D2が付されている。識別情報D2は、例えば、教師データTDの元になる検出の時期の情報(図中「2017/02/10」)である。識別情報D2は、その他の情報でもよく、例えば「過去の姿勢」などの文字情報でもよい。部分画像Im3は、例えば、姿勢データFDに対応することを示す識別情報D3が付されている。識別情報D3は、例えば、姿勢データFDの元になる検出の時期の情報(図中「2017/02/12」)である。識別情報D3は、その他の情報でもよく、例えば「今回の姿勢」などの文字情報でもよい。   For example, identification information D2 indicating that the partial image Im2 corresponds to the teacher data TD is attached. The identification information D2 is, for example, information on the detection time (“2017/02/10” in the figure) that is the basis of the teacher data TD. The identification information D2 may be other information, for example, character information such as “past posture”. For example, identification information D3 indicating that the partial image Im3 corresponds to the posture data FD is attached. The identification information D3 is, for example, detection time information (“2017/02/12” in the figure) that is the basis of the posture data FD. The identification information D3 may be other information, for example, character information such as “current posture”.

また、更新部15は、表示部4にGUI(グラフィカル ユーザ インターフェース)のボタンD4およびポインタD5を表示させる。ポインタD5は、入力部5(図1参照)が操作されることによって、表示部4が表示する画像上で移動する。更新部15は、入力部5への入力を監視し、ボタンD4の「Yes」上にポインタD5が配置された状態でクリックなどの入力があった場合に、教師データTDを更新する更新指令が入力されたと判定する。また、更新部15は、入力部5への入力を監視し、ボタンD4の「No」上にポインタD5が配置された状態でクリックなどの入力があった場合に、教師データTDを更新しない更新指令が入力されたと判定する。   In addition, the update unit 15 causes the display unit 4 to display a GUI (Graphical User Interface) button D4 and a pointer D5. The pointer D5 moves on the image displayed on the display unit 4 when the input unit 5 (see FIG. 1) is operated. The updating unit 15 monitors the input to the input unit 5, and when there is an input such as a click in a state where the pointer D5 is placed on the “Yes” of the button D4, an update command for updating the teacher data TD is issued. It is determined that it has been input. Further, the update unit 15 monitors the input to the input unit 5 and updates the teacher data TD not to be updated when there is an input such as a click in a state where the pointer D5 is arranged on the “No” of the button D4. It is determined that a command has been input.

更新部15は、教師データTDを更新する更新指令が入力されたと判定した場合、記憶部16に記憶された教師データTDを更新して設定する。例えば、更新部15は、記憶部16に記憶された教師データTDを姿勢データFDで書き換える(上書きする)ことによって、教師データTDを更新する。   If the update unit 15 determines that an update command for updating the teacher data TD has been input, the update unit 15 updates and sets the teacher data TD stored in the storage unit 16. For example, the update unit 15 updates the teacher data TD by rewriting (overwriting) the teacher data TD stored in the storage unit 16 with the posture data FD.

図3は、本実施形態に係る比較部の処理の変形例を示す図である。図3(A)および図3(B)は、それぞれ、比較部14が生成する比較画像の例である。図3(A)において、比較画像Im1は、教師データTDが示す人体の形状FG1と、姿勢データFDが示す人体の形状FG2とを重ねた画像(例、オーバーレイ画像)を含む。比較部14は、形状FG1と形状FG2とを区別可能なように、形状FG1と形状FG2とを異なる色で表してもよい。比較部14は、形状FG1と形状FG2とを区別可能なように、形状FG1と形状FG2とを異なる明るさで表してもよい。また、比較部14は、教師データTDと姿勢データFDとの類似度D6を比較画像Im1上に表してもよい。比較部14は、類似度D6を数値などの文字情報で比較画像Im1上に表してもよい。また、比較部14は、類似度の高低を色彩(例、赤、青)と明るさ(例、明、暗)との一方または双方で表してもよい。処理装置3は、色彩と明るさとの一方または双方を形状FG1と形状FG2とで変えた画像を表示部4に表示させることで、教師データTDと姿勢データFDとの違いを、ユーザUに視覚的に認識可能に報知してもよい。   FIG. 3 is a diagram illustrating a modification of the processing of the comparison unit according to the present embodiment. 3A and 3B are examples of comparative images generated by the comparison unit 14, respectively. In FIG. 3A, the comparison image Im1 includes an image (eg, overlay image) in which the human body shape FG1 indicated by the teacher data TD and the human body shape FG2 indicated by the posture data FD are overlapped. The comparison unit 14 may represent the shapes FG1 and FG2 in different colors so that the shapes FG1 and FG2 can be distinguished. The comparison unit 14 may represent the shapes FG1 and FG2 with different brightness so that the shapes FG1 and FG2 can be distinguished. Further, the comparison unit 14 may represent the similarity D6 between the teacher data TD and the posture data FD on the comparison image Im1. The comparison unit 14 may represent the similarity D6 on the comparison image Im1 with character information such as a numerical value. Further, the comparison unit 14 may represent the degree of similarity by one or both of color (eg, red, blue) and brightness (eg, light, dark). The processing device 3 causes the user U to visually recognize the difference between the teacher data TD and the posture data FD by causing the display unit 4 to display an image in which one or both of color and brightness are changed in the shape FG1 and the shape FG2. May be notified in a recognizable manner.

また、比較部14は、姿勢データFDが表す形状FG2の全体または一部について、類似度を色彩で表してもよい。例えば、比較部14は、類似度が相対的に高い部位を青で表し、類似度が相対的に低い部位を赤で表してもよい。また、比較部14は、姿勢データFDが表す形状FG2の全体または一部について、類似度を明るさで表してもよい。例えば、比較部14は、類似度が相対的に高い部位を暗い階調で表し、類似度が相対的に低い部位を明るい階調で表してもよい。また、比較部14は、類似度が相対的に高い部位と低い部位とで表示の有無を変えてもよい。例えば、比較部14は、類似度が相対的に高い部位を非表示とし、類似度が相対的に低い部位を選択的に表示としてもよい。   Further, the comparison unit 14 may represent the degree of similarity in color for the whole or a part of the shape FG2 represented by the posture data FD. For example, the comparison unit 14 may represent a portion with a relatively high similarity in blue and a portion with a relatively low similarity in red. Further, the comparison unit 14 may represent the degree of similarity with brightness for the whole or a part of the shape FG2 represented by the posture data FD. For example, the comparison unit 14 may represent a portion with a relatively high degree of similarity with a dark gradation and a portion with a relatively low degree of similarity with a bright gradation. Moreover, the comparison part 14 may change the presence or absence of a display with a site | part with a relatively high similarity, and a low site | part. For example, the comparison unit 14 may hide a portion with a relatively high similarity and selectively display a portion with a relatively low similarity.

図3(B)において、比較画像Im1は、姿勢データFDが示す形状FG2と、形状FG2において教師データTDが示す形状との差異を示す図形FG3とを含む。比較部14は、例えば、姿勢データFDが示す形状FG2から、教師データTDが示す形状FG1(図3(A)参照)と異なる部分を抽出する。例えば、比較部14は、形状FG1と形状FG2との差分を演算(例、画像演算)し、形状FG1と形状FG2とで異なる部分を抽出する。比較部14は、比較画像Im1として、抽出した部分(差異)を表す図形FG3を、姿勢データFDが示す形状FG2と重ねた画像を生成する。処理装置3は、このような画像(例、重ねた画像)を表示部4に表示させることで、教師データTDと姿勢データFDとの違いを、ユーザUに視覚的に認識可能に報知してもよい。   In FIG. 3B, the comparison image Im1 includes a shape FG2 indicated by the posture data FD and a graphic FG3 indicating a difference between the shape indicated by the teacher data TD in the shape FG2. For example, the comparison unit 14 extracts a portion different from the shape FG1 (see FIG. 3A) indicated by the teacher data TD from the shape FG2 indicated by the posture data FD. For example, the comparison unit 14 calculates a difference between the shape FG1 and the shape FG2 (eg, image calculation), and extracts a portion that is different between the shape FG1 and the shape FG2. The comparison unit 14 generates an image in which the figure FG3 representing the extracted portion (difference) is overlapped with the shape FG2 indicated by the posture data FD as the comparison image Im1. The processing device 3 displays such an image (for example, a superimposed image) on the display unit 4 to notify the user U of the difference between the teacher data TD and the posture data FD so as to be visually recognizable. Also good.

次に、上述の検出装置1の動作に基づき、実施形態に係る検出方法について説明する。図4は、実施形態に係る検出方法を示すフローチャートである。検出装置1の各部については、適宜、図1を参照する。ステップS1において、検出部2は、ユーザUの人体HMを検出する。例えば、センサ11は、ユーザUの人体HMを撮像する。例えば、センサ11は、検出設定期間において人体HMを繰り返し検出(例、撮像)した後、検出を終了する。   Next, a detection method according to the embodiment will be described based on the operation of the detection apparatus 1 described above. FIG. 4 is a flowchart illustrating a detection method according to the embodiment. For each part of the detection apparatus 1, FIG. 1 is referred to as appropriate. In step S <b> 1, the detection unit 2 detects the human body HM of the user U. For example, the sensor 11 images the human body HM of the user U. For example, the sensor 11 repeatedly detects (eg, images) the human body HM during the detection setting period, and then ends the detection.

処理部13は、センサ11の検出結果に基づいて、人体HMの少なくとも一部についての姿勢データFDを生成する。処理部13は、検出設定期間と重複する期間に姿勢データを生成してもよい。また、処理部13は、検出設定期間の終了後に、姿勢データを生成してもよい。   The processing unit 13 generates posture data FD for at least a part of the human body HM based on the detection result of the sensor 11. The processing unit 13 may generate posture data during a period that overlaps the detection setting period. Further, the processing unit 13 may generate posture data after the detection setting period ends.

ステップS2において、比較部14は、人体の姿勢データFDと教師データTDとを比較する。比較部14は、姿勢データFDと教師データTDとを比較し、姿勢データFDが表す形状と教師データTDが表す形状との類似度(例、相関係数)を算出してもよい。また、比較部14は、姿勢データFDと教師データTDとを比較し、教師データTDが表す形状と姿勢データFDが表す形状との差分を算出してもよい。比較部14は、姿勢データFDと教師データTDとの比較を示す比較情報(例、図2、図3の比較画像Im1)を生成する。処理装置3は、比較部14が生成した比較画像Im1を表示部4に表示させる。   In step S2, the comparison unit 14 compares the posture data FD of the human body with the teacher data TD. The comparison unit 14 may compare the posture data FD and the teacher data TD, and calculate the similarity (eg, correlation coefficient) between the shape represented by the posture data FD and the shape represented by the teacher data TD. The comparison unit 14 may compare the posture data FD and the teacher data TD, and calculate a difference between the shape represented by the teacher data TD and the shape represented by the posture data FD. The comparison unit 14 generates comparison information (for example, the comparison image Im1 in FIGS. 2 and 3) indicating comparison between the posture data FD and the teacher data TD. The processing device 3 causes the display unit 4 to display the comparison image Im1 generated by the comparison unit 14.

ステップS3において、更新部15は、教師データTDを更新するか否かを判定する。更新部15は、入力部5に更新指令が入力されたと判定した場合に、教師データTDを更新すると判定する(ステップS3;Yes)。更新部15は、教師データTDを更新すると判定した場合(ステップS3;Yes)、ステップS4において、姿勢データFDを用いて教師データTDを更新する。検出装置1は、教師データTDを更新しない更新部15が判定した場合(ステップS3;No)、一連の処理を終了する。   In step S3, the update unit 15 determines whether to update the teacher data TD. When it is determined that the update command is input to the input unit 5, the update unit 15 determines to update the teacher data TD (step S3; Yes). If it is determined that the teacher data TD is to be updated (step S3; Yes), the update unit 15 updates the teacher data TD using the posture data FD in step S4. When the update unit 15 that does not update the teacher data TD determines (step S3; No), the detection apparatus 1 ends the series of processes.

なお、処理部13は、検出装置1において処理装置3の外部(例、検出部2)に設けられてもよいし、検出装置1と別の外部装置に設けられてもよい。例えば、検出装置1は、検出部2の検出結果を外部装置に供給し、外部装置(例、処理部13)が生成した姿勢データを取得してもよい。検出装置1の少なくとも一部は、デスクトップ型のパーソナルコンピュータなどの据え置き型の装置でもよい。検出装置1の少なくとも一部は、スマートフォンなどの携帯型の情報端末でもよい。   The processing unit 13 may be provided outside the processing device 3 (for example, the detection unit 2) in the detection device 1, or may be provided in an external device different from the detection device 1. For example, the detection device 1 may supply the detection result of the detection unit 2 to the external device, and acquire the posture data generated by the external device (eg, the processing unit 13). At least a part of the detection apparatus 1 may be a stationary apparatus such as a desktop personal computer. At least a part of the detection device 1 may be a portable information terminal such as a smartphone.

なお、実施形態に係る検出装置1は、ユーザUの人体HMを検出する検出部2と、検出部2の検出結果から得られるユーザUの姿勢データTDと、過去に取得されたユーザUの教師データTDとを比較する比較部14と、比較部14の比較結果に基づいて、ユーザの姿勢データFDを用いてユーザの教師データTDを生成する処理部13と、を備え、更新部15を備えなくてもよい。この検出装置1は、姿勢データFD、教師データTD、及び姿勢データFDと教師データTDとの比較データ(例、比較画像のデータ)の少なくとも一部を外部に出力してもよい。また、例えば、本実施形態に係る検出装置1は、ユーザUの姿勢を過去のユーザUの姿勢に対して比較可能にする。   The detection apparatus 1 according to the embodiment includes a detection unit 2 that detects the human body HM of the user U, posture data TD of the user U obtained from the detection result of the detection unit 2, and a teacher of the user U acquired in the past. A comparison unit 14 that compares the data TD, a processing unit 13 that generates user teacher data TD using the user attitude data FD based on the comparison result of the comparison unit 14, and an update unit 15. It does not have to be. The detection apparatus 1 may output at least part of posture data FD, teacher data TD, and comparison data (eg, comparison image data) between the posture data FD and the teacher data TD. Further, for example, the detection device 1 according to the present embodiment makes it possible to compare the posture of the user U with the posture of the user U in the past.

なお、比較部14は、ユーザUの人体HMの一部について、姿勢データFDと教師データTDとの比較を行わなくてもよい。例えば、比較部14は、記憶部16に記憶された設定(比較対象部位の設定情報)に基づいて、予め設定された比較対象の部位についてのみ、姿勢データ(例、姿勢データの部位データ)FDと教師データ(例、教師データの部位データ)TDとを比較してもよい。上記の設定は、ユーザUの指定などによって変更可能でもよい。例えば、上記の設定は、目標の姿勢がほぼ達成される部位を比較対象から外すように、変更可能でもよい。また、上記の設定は、比較対象の部位を追加するように、変更可能でもよい。   The comparison unit 14 may not compare the posture data FD and the teacher data TD for a part of the human body HM of the user U. For example, the comparison unit 14 determines posture data (eg, position data of posture data) FD only for a comparison target portion set in advance based on the setting (comparison target portion setting information) stored in the storage unit 16. And teacher data (eg, part data of teacher data) TD may be compared. The above setting may be changeable by the designation of the user U or the like. For example, the above setting may be changeable so that a part where the target posture is almost achieved is excluded from the comparison target. Further, the above setting may be changeable so as to add a comparison target part.

[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図5は、本実施形態に係る検出装置を示す図である。本実施形態において、検出部2は、人体HMの各部からの距離を光学的に検出する。処理装置3は、例えば、人体HMの各部から検出部2までの距離に基づいて人体HMの各部位を特定し、人体HMの部位ごとの評価基準を予め定めた基準データを用いて、類似度を算出する。検出部2は、例えば、モーションキャプチャ装置でもよく、人体HMの三次元形状を検出してもよい。検出部2は、例えば、センサ11、処理部13、及び記憶部12を備える。
[Second Embodiment]
A second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 5 is a diagram illustrating the detection apparatus according to the present embodiment. In the present embodiment, the detection unit 2 optically detects the distance from each part of the human body HM. For example, the processing device 3 identifies each part of the human body HM based on the distance from each part of the human body HM to the detection unit 2, and uses the reference data in which the evaluation criteria for each part of the human body HM are determined in advance. Is calculated. The detection unit 2 may be, for example, a motion capture device or may detect a three-dimensional shape of the human body HM. The detection unit 2 includes, for example, a sensor 11, a processing unit 13, and a storage unit 12.

センサ11は、例えば、デプスセンサなどの測距器である。センサ11は、例えば、所定の視点(例、センサ11の位置、視点)から人体HMの表面上の各点までの距離を検出する。センサ11は、例えば、TOF(time of flight)法によって距離を検出する。センサ11は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報)を含む。センサ11は、例えば、人体HMの複数の部位の三次元的な位置情報を出力する。   The sensor 11 is a distance measuring device such as a depth sensor, for example. For example, the sensor 11 detects a distance from a predetermined viewpoint (eg, position of the sensor 11, viewpoint) to each point on the surface of the human body HM. The sensor 11 detects the distance by, for example, the TOF (time of flight) method. The sensor 11 outputs, for example, position information indicating a distance distribution as the detection result (eg, position information). The position information includes, for example, depth information (eg, depth image data, depth information). The sensor 11 outputs, for example, three-dimensional position information of a plurality of parts of the human body HM.

なお、センサ11は、TOF法以外他の手法で距離を検出するデバイスでもよい。センサ11は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。センサ11は、例えば、人体HMが通る領域に所定のパターンを投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。センサ11は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。センサ11は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。また、センサ11は、例えばステレオカメラなどによって複数の視点から人体HMを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。センサ11は、上述した複数の検出法のうち2以上を組み合わせて、人体HMを検出するデバイスでもよい。センサ11は、距離を検出するセンサ、及び第1実施形態で説明したイメージセンサを含んでもよい。   The sensor 11 may be a device that detects a distance by a method other than the TOF method. The sensor 11 may be, for example, a device that includes a laser scanner (eg, laser range finder) and detects a distance by laser scanning. For example, the sensor 11 may be a device that projects a predetermined pattern onto an area through which the human body HM passes and measures the distance based on the detection result of the pattern. The sensor 11 may be, for example, a device that includes a phase difference sensor and detects a distance by a phase difference method. For example, the sensor 11 may be a device that detects a distance by a DFD (depth from defocus) method. The sensor 11 may be a device that detects a distance by triangulation using captured images obtained by capturing the human body HM from a plurality of viewpoints using, for example, a stereo camera. The sensor 11 may be a device that detects the human body HM by combining two or more of the plurality of detection methods described above. The sensor 11 may include a sensor that detects a distance and the image sensor described in the first embodiment.

図6は、実施形態に係る処理部の処理を示す図である。センサ11(図5参照)は、例えば、デプス画像Im5のデータを出力する。デプス画像Im5において、各画素の画素値は、例えば、デプス画像Im5上の画素の位置に相当する実空間上の点とセンサ11との距離を表す。例えば、図6のデプス画像Im5はグレースケールで表されており、暗い部分は、明るい部分よりもセンサ11からの距離が離れている。   FIG. 6 is a diagram illustrating processing of the processing unit according to the embodiment. For example, the sensor 11 (see FIG. 5) outputs data of the depth image Im5. In the depth image Im5, the pixel value of each pixel represents, for example, the distance between the sensor 11 and a point in the real space corresponding to the position of the pixel on the depth image Im5. For example, the depth image Im5 in FIG. 6 is represented in gray scale, and the dark portion is more distant from the sensor 11 than the bright portion.

処理部13(図5参照)は、センサ11の検出結果に基づいて、人体HMの位置を検出(算出)する。処理部13は、例えば、デプス画像Im5のデータを処理(例、透視変換処理、射影変換処理)することによって、人体HMの形状を表す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えば人体HMの表面の複数の点データを含む。例えば、複数の点データは、それぞれ3次元座標で表される。   The processing unit 13 (see FIG. 5) detects (calculates) the position of the human body HM based on the detection result of the sensor 11. For example, the processing unit 13 generates (calculates) shape information representing the shape of the human body HM by processing the data of the depth image Im5 (eg, perspective conversion processing, projective conversion processing). The shape information includes, for example, point cloud data. The point cloud data includes, for example, a plurality of point data on the surface of the human body HM. For example, the plurality of point data are each represented by three-dimensional coordinates.

処理部13は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体HM)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。   The processing unit 13 may calculate surface information as shape information. The surface information is, for example, polygon data, vector data, draw data, or the like. The surface information includes, for example, coordinates of a plurality of points and connection information between the plurality of points. The connection information includes, for example, information that associates points at both ends of a line corresponding to a ridge line (eg, edge) of an object (eg, human body HM). The connection information includes, for example, information that associates a plurality of lines corresponding to the contour of the surface on the object.

処理部13は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。処理部13は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。   For example, the processing unit 13 estimates a surface between a point selected from a plurality of points included in the point cloud data and its neighboring points, and converts the point cloud data into polygon data having plane information between the points. May be. For example, the processing unit 13 converts the point cloud data into polygon data by an algorithm using a least square method. This algorithm may be, for example, an algorithm published in the point cloud processing library.

処理部13は、センサ11の検出結果に基づいて、人体HMの特徴部位(例、特徴点)の位置情報PDを生成する。人体HMの特徴部位は、例えば、人体HMの他の部位と区別可能な部位である。人体HMの特徴部位は、例えば、人体HMの末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。   Based on the detection result of the sensor 11, the processing unit 13 generates position information PD of a characteristic part (eg, characteristic point) of the human body HM. The characteristic part of the human body HM is, for example, a part that can be distinguished from other parts of the human body HM. The characteristic part of the human body HM includes, for example, at least one of an end portion of the human body HM, a joint, or an intermediate portion between the end portion and the joint or between the two joints.

処理部13は、例えば、点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報PDを生成する。特徴部位の位置情報PDは、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。処理部13は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。処理部13は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置とを関連付けたデータを生成する。処理部13は、例えば、予め設定された1または2以上の特徴部位のそれぞれの位置情報を含む位置情報PD(例、テーブルデータ)を生成する。位置情報PDは、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。   For example, the processing unit 13 generates the position information PD of the characteristic part by a recognition process (eg, pattern recognition, shape recognition, skeleton recognition) using point cloud data. The position information PD of the characteristic part includes, for example, coordinates of a point representing the characteristic part (eg, three-dimensional coordinates). For example, the processing unit 13 calculates the coordinates of the point representing the characteristic part by the above recognition processing. For example, the processing unit 13 generates data that associates the name of the characteristic part and the position of the characteristic part for each of the characteristic parts. For example, the processing unit 13 generates position information PD (for example, table data) including position information of each of one or more preset characteristic parts. The position information PD includes, for example, position information of a plurality of characteristic parts obtained from detection results at the same detection timing.

図5の説明に戻り、検出部2は、処理部13が生成した位置情報を外部に出力する。例えば、処理部13は、生成した位置情報を記憶部12に記憶させる。検出部2は、例えば、記憶部12に記憶された位置情報を処理装置3に出力する。処理装置3は、検出部2から出力された位置情報を記憶部16に記憶させる。本実施形態において、記憶部16は、基準データRD、教師データTD、及び姿勢データFDを記憶する。記憶部16は、図1に示した初期データSDを記憶してもよい、初期データSDを記憶しなくてもよい。   Returning to the description of FIG. 5, the detection unit 2 outputs the position information generated by the processing unit 13 to the outside. For example, the processing unit 13 stores the generated position information in the storage unit 12. For example, the detection unit 2 outputs the position information stored in the storage unit 12 to the processing device 3. The processing device 3 stores the position information output from the detection unit 2 in the storage unit 16. In the present embodiment, the storage unit 16 stores reference data RD, teacher data TD, and posture data FD. The storage unit 16 may store the initial data SD shown in FIG. 1 or may not store the initial data SD.

基準データRDは、目標の姿勢(例、ヨガの三日月のポーズ)を定義した情報(定義データ、参照データ)である。基準データRDは、人体HMの部位ごとの評価基準を予め定めた情報である。処理装置3は、例えば、ユーザUの指令によって、目標の姿勢を登録可能である。例えば、ユーザUは、入力部5を操作することによって、目標の姿勢に関する情報を処理装置3に取得させる。処理装置3は、例えば、インターネット回線などを介して目標の姿勢に関するデータ(基準データRD、図1の初期データSD)を取得する(例、ダウンロード)する。   The reference data RD is information (definition data, reference data) that defines a target posture (eg, yoga crescent pose). The reference data RD is information that predetermines evaluation criteria for each part of the human body HM. The processing device 3 can register the target posture, for example, according to a command from the user U. For example, the user U operates the input unit 5 to cause the processing device 3 to acquire information related to the target posture. The processing device 3 acquires (eg, downloads) data relating to the target posture (reference data RD, initial data SD in FIG. 1) via, for example, the Internet line.

なお、処理装置3は、目標の姿勢に関する情報を、光学ディスク(例、DVD−ROM)あるいはUSBメモリなどの記憶媒体から取得してもよい。また、処理装置3は、自動更新などの設定に基づいて、ユーザUの指令を受けなくても目標の姿勢に関する情報を自動で取得してもよい。また、処理装置3は、予め記憶部16に記憶された目標の姿勢に関して処理を実行し、新たな目標の姿勢に関する情報を取得しなくてもよい。   Note that the processing device 3 may acquire information on the target posture from a storage medium such as an optical disk (eg, DVD-ROM) or a USB memory. Further, the processing device 3 may automatically acquire information on the target posture without receiving a command from the user U based on a setting such as automatic update. Further, the processing device 3 does not have to acquire information about a new target posture by executing processing regarding the target posture stored in the storage unit 16 in advance.

比較部14は、基準データRDを用いてユーザUの姿勢データFDが表す姿勢を評価する。比較部14は、基準データRDを用いて、教師データTDと姿勢データFDとの類似度を算出する。図7は、本実施形態に係る比較部の処理を示す図である。図7(A)には、基準データRDを概念的に示した。基準データRDは、人体HMの部位名と、評価項目と、重み係数(重み付けの係数)とを関連付けた情報である。例えば、部位名が頭について、評価項目は頭と首との相対位置であり、重み係数はC1である。また、部位名が肘について、評価項目は肩−肘(上腕)と、肘−手首(前腕)との相対位置であり、重み係数はCiである。比較部14は、予め設定された部位ごとに姿勢を評価する。   The comparison unit 14 evaluates the posture represented by the posture data FD of the user U using the reference data RD. The comparison unit 14 calculates the similarity between the teacher data TD and the posture data FD using the reference data RD. FIG. 7 is a diagram illustrating processing of the comparison unit according to the present embodiment. FIG. 7A conceptually shows the reference data RD. The reference data RD is information in which a part name of the human body HM, an evaluation item, and a weighting coefficient (weighting coefficient) are associated with each other. For example, for the head part name, the evaluation item is the relative position of the head and neck, and the weighting factor is C1. For the part name of the elbow, the evaluation item is the relative position between the shoulder-elbow (upper arm) and the elbow-wrist (forearm), and the weighting factor is Ci. The comparison unit 14 evaluates the posture for each preset part.

図7(B)には、部位ごとに姿勢を評価する評価処理を概念的に示した。比較部14は、肘の姿勢を評価する際に、姿勢データFDaを用いて、肩Qa1から肘Qb1までの上腕Qc1と肘Qb1から手首Qd1までの前腕Qe1との相対位置(例、角度θ1)を算出する。また、比較部14は、教師データTDを用いて、肩Qa2から肘Qb2までの上腕Qc2と肘Qb2から手首Qd2までの前腕Qe2との相対位置(例、角度θ2)を算出する。比較部14は、角度θ1と角度θ2とを比較して、肘の評価値を算出する。例えば、比較部14は、角度θ1と角度θ2との差に重み係数Ciを乗算した値を評価値として算出する。   FIG. 7B conceptually shows an evaluation process for evaluating the posture for each part. When the posture of the elbow is evaluated, the comparison unit 14 uses the posture data FDa, and the relative position (eg, angle θ1) between the upper arm Qc1 from the shoulder Qa1 to the elbow Qb1 and the forearm Qe1 from the elbow Qb1 to the wrist Qd1. Is calculated. Further, the comparison unit 14 calculates the relative position (eg, angle θ2) between the upper arm Qc2 from the shoulder Qa2 to the elbow Qb2 and the forearm Qe2 from the elbow Qb2 to the wrist Qd2 using the teacher data TD. The comparison unit 14 compares the angle θ1 and the angle θ2 and calculates an elbow evaluation value. For example, the comparison unit 14 calculates a value obtained by multiplying the difference between the angle θ1 and the angle θ2 by the weight coefficient Ci as the evaluation value.

比較部14は、教師データTDに対して姿勢データFDがずれる向きを区別して、姿勢を評価する。例えば、肘が伸びていることが望まれる姿勢である場合、比較部14は、角度θ1が角度θ2よりも180°に近い場合に、評価値を相対的に高くする。例えば、比較部14は、角度θ1から角度θ2を引いた値に重み係数をCiを乗算して、評価値を算出する。図7(B)において、角度θ1は、角度θ2よりも180°に近く、(θ1−θ2)が正となり、評価値は正の値になる。また、姿勢データFDbのように、教師データTDよりも肘Qb3が曲がっている場合、肩Qa3から肘Qb3までの上腕Qc3と肘Qb3から手首Qd3までの前腕Qe3との角度θ3は、角度θ2よりも小さくなる。この場合、(θ3−θ2)が負となり、評価値は負の値になる。   The comparison unit 14 evaluates the posture by distinguishing the direction in which the posture data FD deviates from the teacher data TD. For example, when the posture is desired to extend the elbow, the comparison unit 14 relatively increases the evaluation value when the angle θ1 is closer to 180 ° than the angle θ2. For example, the comparison unit 14 calculates an evaluation value by multiplying a value obtained by subtracting the angle θ2 from the angle θ1 by a weighting factor Ci. In FIG. 7B, the angle θ1 is closer to 180 ° than the angle θ2, (θ1−θ2) is positive, and the evaluation value is a positive value. When the elbow Qb3 is bent more than the teacher data TD as in the posture data FDb, the angle θ3 between the upper arm Qc3 from the shoulder Qa3 to the elbow Qb3 and the forearm Qe3 from the elbow Qb3 to the wrist Qd3 is greater than the angle θ2. Becomes smaller. In this case, (θ3−θ2) is negative and the evaluation value is negative.

基準データRDには、各部位について、教師データTDから算出される値と姿勢データFDから算出される値との演算式が予め定められている。比較部14は、基準データRDに定められた演算式に基づいて演算することによって、教師データTDに対して姿勢データFDがずれる向きを区別して評価値を算出する。比較部14は、予め設定された各部位について評価値を算出し、予め設定された部位で評価値を積算することによって、類似度を算出する。   In the reference data RD, an arithmetic expression of a value calculated from the teacher data TD and a value calculated from the posture data FD is predetermined for each part. The comparison unit 14 calculates an evaluation value by distinguishing the direction in which the posture data FD deviates from the teacher data TD by performing a calculation based on an arithmetic expression defined in the reference data RD. The comparison unit 14 calculates an evaluation value for each preset part, and calculates the similarity by integrating the evaluation values at the preset part.

姿勢データFDにおける第1の部位(例、肩Qa1)の位置は、教師データTDにおける第1の部位(例、肩Qa2)の位置とずれている場合がある。この場合、第1の部位の位置ずれによって、第1の部位よりも人体HMの末端側の第2の部位(例、肘、手首)の位置が教師データTDと姿勢データFDとでずれる。上述のように人体の部位の相対位置を用いて教師データTDと姿勢データFDとが比較される場合、上記の位置ずれによる影響を低減することができる。   The position of the first part (eg, shoulder Qa1) in the posture data FD may be shifted from the position of the first part (eg, shoulder Qa2) in the teacher data TD. In this case, the position of the second part (eg, elbow, wrist) on the terminal side of the human body HM with respect to the first part is shifted between the teacher data TD and the posture data FD due to the displacement of the first part. As described above, when the teacher data TD and the posture data FD are compared using the relative positions of the parts of the human body, it is possible to reduce the influence of the positional deviation.

なお、評価項目および重み係数は、目標となる姿勢に基づいて、人体の一部の部位ついて設定されなくてもよい。例えば、ヨガのポーズにおいて、伸びていても曲がっていても構わない部位については、評価項目および重み係数が設定されなくてもよい。また、基準データRDは、重み係数を含まなくてもよい。例えば、比較部14は、評価項目ごとに算出される値の積算、あるいは平均などによって類似度を算出してもよい。   Note that the evaluation item and the weighting coefficient may not be set for a part of the human body based on the target posture. For example, in a yoga pose, an evaluation item and a weighting coefficient may not be set for a portion that may be stretched or bent. Further, the reference data RD may not include a weighting coefficient. For example, the comparison unit 14 may calculate the similarity by integrating or averaging the values calculated for each evaluation item.

なお、比較部14は、基準データRDを用いないで、姿勢データFDと教師データTDとを比較してもよい。比較部14は、姿勢データFDと教師データTDとの類似度を算出しなくてもよい。比較部14は、第1実施形態で説明したように、姿勢データFDと教師データTDとの比較を示す比較画像を生成してもよい。また、処理部13は、検出装置1において検出部2の外部(例、処理装置3)に設けられてもよいし、検出装置1と別の外部装置に設けられてもよい。   Note that the comparison unit 14 may compare the posture data FD and the teacher data TD without using the reference data RD. The comparison unit 14 does not have to calculate the similarity between the posture data FD and the teacher data TD. As described in the first embodiment, the comparison unit 14 may generate a comparison image indicating a comparison between the posture data FD and the teacher data TD. The processing unit 13 may be provided outside the detection unit 2 (for example, the processing device 3) in the detection device 1 or may be provided in an external device different from the detection device 1.

[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図8は、実施形態に係る検出装置を示す図である。本実施形態において、検出部2は、人体HMを繰り返し検出する。比較部14は、検出部2が人体HM(図1参照)を繰り返し検出した検出結果から得られる複数の姿勢データ(FD1からFDj)のそれぞれと、教師データTDとを比較する。更新部15は、教師データTDを、比較部14の比較結果に基づいて複数の姿勢データ(FD1からFDj)から選択される姿勢データへ更新する。例えば、比較部14は、所定の期間(例、一連のヨガを行う期間、1日、1時間)におけるユーザU(図1参照)のベストの姿勢データと教師データとの比較画像を生成する。ユーザUは、例えば、ベストの姿勢データと教師データとの比較に基づいて、この姿勢データで教師データを更新するか否かを指定することができる。
[Third Embodiment]
A third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 8 is a diagram illustrating the detection device according to the embodiment. In the present embodiment, the detection unit 2 repeatedly detects the human body HM. The comparison unit 14 compares each of the plurality of posture data (FD1 to FDj) obtained from the detection result of the detection unit 2 repeatedly detecting the human body HM (see FIG. 1) with the teacher data TD. The update unit 15 updates the teacher data TD to posture data selected from a plurality of posture data (FD1 to FDj) based on the comparison result of the comparison unit 14. For example, the comparison unit 14 generates a comparison image of the best posture data and teacher data of the user U (see FIG. 1) in a predetermined period (eg, a period of performing a series of yoga, one day, one hour). For example, the user U can specify whether or not to update the teacher data with the posture data based on the comparison between the best posture data and the teacher data.

検出部2は、各検出で得られる検出結果に識別情報(例、ID)を付して、処理部13に供給する。この識別情報は、例えば、検出結果が得られた順に割り付けられる番号(例、フレーム番号)である。例えば、図8において、検出部2が出力した検出結果は、IDがj(jは1以上の整数)である。   The detection unit 2 attaches identification information (for example, ID) to the detection result obtained by each detection, and supplies it to the processing unit 13. This identification information is, for example, a number (eg, frame number) assigned in the order in which detection results are obtained. For example, in FIG. 8, the detection result output by the detection unit 2 has an ID of j (j is an integer of 1 or more).

処理部13は、検出部2(例、センサ11)における検出結果を処理して姿勢データを生成する。処理部13は、生成した姿勢データに識別情報(例、ID)を付して出力する。この識別情報は、例えば、姿勢データが得られた順に割り付けられる識別番号である。例えば、図8において、処理部13が出力した姿勢データは、識別情報がj(jは1以上の整数)である。   The processing unit 13 processes the detection result in the detection unit 2 (for example, the sensor 11) to generate posture data. The processing unit 13 attaches identification information (for example, ID) to the generated posture data and outputs it. This identification information is, for example, an identification number assigned in the order in which posture data is obtained. For example, in FIG. 8, the posture data output from the processing unit 13 has identification information j (j is an integer of 1 or more).

記憶部16は、処理部13が出力した出力した姿勢データを、その識別情報と関連付けて記憶する。例えば、図8において、姿勢データFDは、識別情報が1からjまでの複数の姿勢データを含む。以下の説明において、複数の姿勢データを区別する場合に、識別情報に対応する添え字(1からj)を付して表す。例えば、姿勢データFDjは、識別情報がjの姿勢データである。   The storage unit 16 stores the posture data output by the processing unit 13 in association with the identification information. For example, in FIG. 8, the posture data FD includes a plurality of posture data whose identification information is 1 to j. In the following description, when a plurality of posture data are distinguished, a suffix (1 to j) corresponding to the identification information is given. For example, the posture data FDj is posture data whose identification information is j.

比較部14は、記憶部12から、複数の姿勢データFD1〜FDjをそれぞれ読み出し、基準データRDを用いて教師データTDと比較する。比較部14は、基準データRDを用いて、複数の姿勢データFD1〜FDjのそれぞれについて類似度を算出する。例えば、比較部14は、記憶部12から、姿勢データFDj、教師データTD、及び基準データRDを読み出し、これらデータを用いて姿勢データFDjと教師データTDとの類似度を算出する。比較部14は、算出した類似度を、姿勢データFDjの識別情報と関連付けて記憶部16に記憶させる。例えば、記憶部16は、識別情報と関連付けられた類似度を含む類似度データCDを記憶する。類似度データCDは、例えば、識別情報と類似度とを一組にしたデータを集積したテーブルデータである。   The comparison unit 14 reads each of the plurality of posture data FD1 to FDj from the storage unit 12, and compares it with the teacher data TD using the reference data RD. The comparison unit 14 calculates the similarity for each of the plurality of posture data FD1 to FDj using the reference data RD. For example, the comparison unit 14 reads the posture data FDj, the teacher data TD, and the reference data RD from the storage unit 12, and calculates the similarity between the posture data FDj and the teacher data TD using these data. The comparison unit 14 stores the calculated similarity in the storage unit 16 in association with the identification information of the posture data FDj. For example, the storage unit 16 stores similarity data CD including the similarity associated with the identification information. The similarity data CD is, for example, table data in which data obtained by combining identification information and similarity is collected.

本実施形態において、検出装置1は、選択部21を備える。選択部21は、複数の姿勢データFD1〜FDjから、教師データTDとの類似度が相対的に高い姿勢データを選択する。例えば、処理部13は、予定された複数の姿勢データについて類似度を算出する類似度算出処理が終了した後に、類似度算出処理の終了を示す情報(例、信号、フラグ)を選択部21に供給する。選択部21は、類似度算出処理の終了を示す情報を比較部14から受けた場合に、記憶部12から類似度データCDを読み出す。選択部21は、類似度データCDにおいて類似度が相対的に高い姿勢データの識別情報を選択(特定)する。   In the present embodiment, the detection device 1 includes a selection unit 21. The selection unit 21 selects posture data having a relatively high similarity with the teacher data TD from the plurality of posture data FD1 to FDj. For example, the processing unit 13 sends information (eg, signal, flag) indicating the end of the similarity calculation process to the selection unit 21 after the similarity calculation processing for calculating the similarity for a plurality of scheduled posture data is completed. Supply. When the selection unit 21 receives information indicating the end of the similarity calculation process from the comparison unit 14, the selection unit 21 reads the similarity data CD from the storage unit 12. The selection unit 21 selects (specifies) identification information of posture data having a relatively high similarity in the similarity data CD.

ここでは、類似度データCDにおいて姿勢データFDjの類似度が最も高いとする。選択部21は、選択した識別情報(ID=j)を比較部14に供給する。比較部14は、選択部21から供給された識別情報(ID=j)に対応する姿勢データFDjを記憶部16から読み出す。比較部14は、姿勢データFDjと教師データTDとの比較を示す比較画像Im1(図2、図3参照)を生成する。表示部4は、選択部21によって選択された姿勢データFDに基づいて画像を表示する。例えば、表示部4は、選択部21によって選択された姿勢データFDに基づいて比較部14が生成した比較画像Im1(図2、図3参照)を表示する。   Here, it is assumed that the similarity of the posture data FDj is the highest in the similarity data CD. The selection unit 21 supplies the selected identification information (ID = j) to the comparison unit 14. The comparison unit 14 reads the posture data FDj corresponding to the identification information (ID = j) supplied from the selection unit 21 from the storage unit 16. The comparison unit 14 generates a comparison image Im1 (see FIGS. 2 and 3) that shows a comparison between the posture data FDj and the teacher data TD. The display unit 4 displays an image based on the posture data FD selected by the selection unit 21. For example, the display unit 4 displays the comparison image Im1 (see FIGS. 2 and 3) generated by the comparison unit 14 based on the posture data FD selected by the selection unit 21.

なお、選択部21は、複数の姿勢データFD1〜FDjから、教師データTDとの類似度が相対的に高い姿勢データを2つ以上選択してもよい。例えば、選択部21は、予め定められた数の姿勢データの識別情報を、姿勢データの類似度が高い順に類似度データCDから選択してもよい。また、選択部21は、類似度と閾値とを比較して、所定の条件(例、類似度が閾値以上である条件)を満たす姿勢データの識別情報を抽出してもよい。   Note that the selection unit 21 may select two or more posture data having a relatively high similarity to the teacher data TD from the plurality of posture data FD1 to FDj. For example, the selection unit 21 may select identification information of a predetermined number of posture data from the similarity data CD in descending order of similarity of the posture data. The selection unit 21 may extract the identification information of the posture data that satisfies a predetermined condition (for example, a condition that the similarity is equal to or greater than the threshold) by comparing the similarity and the threshold.

なお、比較部14は、2以上の姿勢データ(例、姿勢データFD1、FD2)の比較を示す比較画像を生成してもよい。例えば、比較部14は、2以上の姿勢データがそれぞれ表す形状を並べた比較画像を生成してもよい。また、比較部14は、2以上の姿勢データ(例、姿勢データFD1、FD2)、及び教師データTDとの比較を示す比較画像を生成してもよい。例えば、比較部14は、2以上の姿勢データがそれぞれ表す形状と、教師データTDが示す形状とを並べた比較画像を生成してもよい。   Note that the comparison unit 14 may generate a comparison image indicating comparison between two or more posture data (eg, posture data FD1 and FD2). For example, the comparison unit 14 may generate a comparison image in which shapes represented by two or more posture data are arranged. Further, the comparison unit 14 may generate a comparison image indicating comparison with two or more posture data (eg, posture data FD1, FD2) and the teacher data TD. For example, the comparison unit 14 may generate a comparative image in which the shape represented by two or more posture data and the shape indicated by the teacher data TD are arranged.

また、比較部14は、選択部21が選択した2以上の姿勢データのそれぞれについて、教師データTDとの比較を示す比較画像を生成してもよい。処理装置3は、比較部14が生成した複数の比較画像を、表示部4に並べて表示させてもよい。また、処理装置3は、比較部14が生成した複数の比較画像を順に表示部4に表示させてもよい。   Further, the comparison unit 14 may generate a comparison image indicating a comparison with the teacher data TD for each of the two or more posture data selected by the selection unit 21. The processing device 3 may display a plurality of comparison images generated by the comparison unit 14 side by side on the display unit 4. Further, the processing device 3 may cause the display unit 4 to sequentially display a plurality of comparison images generated by the comparison unit 14.

[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図9は、本実施形態に係る検出装置を示す図である。図10は、本実施形態に係る比較部の処理を示す図である。本実施形態において、検出装置1は、姿勢データFDを複数の教師データ(TD1からTDk)と比較する。例えば、検出装置1は、ユーザUの姿勢を、猫の姿勢に対する教師データと比較し、また牛の姿勢に対する教師データと比較する。
[Fourth Embodiment]
A fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 9 is a diagram illustrating a detection device according to the present embodiment. FIG. 10 is a diagram illustrating processing of the comparison unit according to the present embodiment. In the present embodiment, the detection apparatus 1 compares the posture data FD with a plurality of teacher data (TD1 to TDk). For example, the detection apparatus 1 compares the posture of the user U with the teacher data for the posture of the cat and the teacher data for the posture of the cow.

本実施形態において、教師データTDは、複数の教師データを含む。複数の教師データは、それぞれ、識別情報と関連付けられて、記憶部16に記憶される。以下の説明において、複数の教師データを区別する場合に、識別情報に対応する添え字(1からk)を付して表す。例えば、教師データTDkは、識別情報がkのユーザUの姿勢データである。   In the present embodiment, the teacher data TD includes a plurality of teacher data. Each of the plurality of teacher data is stored in the storage unit 16 in association with the identification information. In the following description, when a plurality of teacher data is distinguished, a suffix (1 to k) corresponding to the identification information is added. For example, the teacher data TDk is posture data of the user U whose identification information is k.

複数の教師データTD1〜TDkは、第1の姿勢F1(図10(A)参照)に対する教師データTD1と、第2の姿勢F2(図10(B)参照)に対する教師データTD2とを含む。第1の姿勢F1(例、第1の目標姿勢、猫のポーズ)は、第2の姿勢F2(例、第2の目標姿勢、牛のポーズ)と異なる。ユーザが第1の姿勢F1をとる順番と、ユーザが第2の姿勢F2をとる順番とは、例えば、ユーザの指定によって予め定められている。例えば、第1の姿勢と第2の姿勢とは、連続的にとることが予め定められている。記憶部16には、ユーザが各姿勢をとる順番および時間を定めたタイミングデータ(スケジュール情報)が予め記憶されている。   The plurality of teacher data TD1 to TDk includes teacher data TD1 for the first posture F1 (see FIG. 10A) and teacher data TD2 for the second posture F2 (see FIG. 10B). The first posture F1 (eg, first target posture, cat pose) is different from the second posture F2 (eg, second target posture, cow pose). The order in which the user takes the first posture F1 and the order in which the user takes the second posture F2 are determined in advance by the user's designation, for example. For example, it is predetermined that the first posture and the second posture are taken continuously. The storage unit 16 stores in advance timing data (schedule information) that defines the order and time in which the user takes each posture.

検出部2は、ユーザが第1の姿勢F1をとる期間と、ユーザが第2の姿勢F2をとる期間とにわたって、ユーザの人体を繰り返し検出する。例えば、検出部2は、記憶部16に記憶されているタイミングデータに基づいて決定される期間に、ユーザの人体を繰り返し検出する。検出部2は、各検出で得られる検出結果に識別情報(例、ID)を付して、処理部13に供給する。処理部13は、検出部2からの検出結果を処理して姿勢データを生成する。処理部13は、生成した姿勢データに識別情報(例、ID)を付して出力する。   The detection unit 2 repeatedly detects the user's human body over a period in which the user takes the first posture F1 and a period in which the user takes the second posture F2. For example, the detection unit 2 repeatedly detects the user's human body during a period determined based on the timing data stored in the storage unit 16. The detection unit 2 attaches identification information (for example, ID) to the detection result obtained by each detection, and supplies it to the processing unit 13. The processing unit 13 processes the detection result from the detection unit 2 and generates posture data. The processing unit 13 attaches identification information (for example, ID) to the generated posture data and outputs it.

記憶部16は、処理部13が出力した出力した姿勢データを、その識別情報と関連付けて記憶する。姿勢データFD1は、例えば、図10(A)の第1の姿勢F1(例、猫のポーズ)に対応する。姿勢データFDjは、例えば、図10(A)の第2の姿勢F2(例、牛のポーズ)に対応する。姿勢データFD2は、例えば、第1の姿勢F1から第2の姿勢F2へ移る過程の姿勢に対応する姿勢データである。   The storage unit 16 stores the posture data output by the processing unit 13 in association with the identification information. The posture data FD1 corresponds to, for example, the first posture F1 (eg, cat pose) in FIG. The posture data FDj corresponds to, for example, the second posture F2 (eg, cow pose) in FIG. The posture data FD2 is posture data corresponding to the posture in the process of moving from the first posture F1 to the second posture F2, for example.

比較部14は、記憶部12から複数の姿勢データFD1〜FDjをそれぞれ読み出す。比較部14は、ユーザの姿勢データごとに異なる教師データを用いて比較する。比較部14は、複数の姿勢データFD1〜FDjをそれぞれについて、第1の姿勢F1に対する教師データTD1および第2の姿勢F2に対する教師データTD2のそれぞれと比較する。例えば、図10(B)に示すように、比較部14は、姿勢データFD1と教師データTD1とを比較する。また、比較部14は、姿勢データFD1と教師データTD2とを比較する。例えば、図10(C)に示すように、比較部14は、姿勢データFDjと教師データTD1とを比較する。また、比較部14は、姿勢データFDjと教師データTD2とを比較する。   The comparison unit 14 reads the plurality of posture data FD1 to FDj from the storage unit 12, respectively. The comparison unit 14 performs comparison using different teacher data for each user posture data. The comparison unit 14 compares each of the plurality of posture data FD1 to FDj with the teacher data TD1 for the first posture F1 and the teacher data TD2 for the second posture F2. For example, as illustrated in FIG. 10B, the comparison unit 14 compares the posture data FD1 and the teacher data TD1. Further, the comparison unit 14 compares the posture data FD1 and the teacher data TD2. For example, as illustrated in FIG. 10C, the comparison unit 14 compares the posture data FDj and the teacher data TD1. Further, the comparison unit 14 compares the posture data FDj and the teacher data TD2.

比較部14は、例えば、複数の姿勢データFD1〜FDjのそれぞれと、教師データTD1との類似度を算出する。比較部14は、複数の姿勢データFD1〜FDjのうち教師データTD1との類似度が相対的に高い姿勢データを用いて、比較画像を生成する。例えば、姿勢データFD1は、姿勢データFDjよりも教師データTD1との類似度が高い。この場合、比較部14は、姿勢データFD1と教師データTD1との比較を示す比較画像を生成する。   For example, the comparison unit 14 calculates the similarity between each of the plurality of posture data FD1 to FDj and the teacher data TD1. The comparison unit 14 generates a comparative image using posture data having a relatively high similarity to the teacher data TD1 among the plurality of posture data FD1 to FDj. For example, the posture data FD1 has a higher degree of similarity with the teacher data TD1 than the posture data FDj. In this case, the comparison unit 14 generates a comparison image indicating a comparison between the posture data FD1 and the teacher data TD1.

また、比較部14は、例えば、複数の姿勢データFD1〜FDjのそれぞれと、教師データTD2との類似度を算出する。比較部14は、複数の姿勢データFD1〜FDjのうち教師データTD2との類似度が相対的に高い姿勢データを用いて、比較画像を生成する。例えば、姿勢データFDjは、姿勢データFD1よりも教師データTD2との類似度が高い。この場合、比較部14は、姿勢データFDjと教師データTD2との比較を示す比較画像を生成する。   For example, the comparison unit 14 calculates the similarity between each of the plurality of posture data FD1 to FDj and the teacher data TD2. The comparison unit 14 generates a comparative image using posture data having a relatively high similarity to the teacher data TD2 among the plurality of posture data FD1 to FDj. For example, the posture data FDj has a higher degree of similarity with the teacher data TD2 than the posture data FD1. In this case, the comparison unit 14 generates a comparison image indicating the comparison between the posture data FDj and the teacher data TD2.

[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図11は、本実施形態に係る検出装置を示す図である。本実施形態において、検出装置1は、人体HMの呼吸のタイミングに基づいて、ユーザUに姿勢変化のタイミングを報知する。検出装置1は、タイミング検出部22、スケジュール設定部23、及び報知部24を備える。
[Fifth Embodiment]
A fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 11 is a diagram illustrating a detection device according to the present embodiment. In the present embodiment, the detection device 1 notifies the user U of the timing of posture change based on the timing of breathing of the human body HM. The detection device 1 includes a timing detection unit 22, a schedule setting unit 23, and a notification unit 24.

タイミング検出部22は、検出部2の検出結果に基づいて、人体HMの呼吸のタイミングを検出する。検出部2は、例えば、ヨガを行う前にあるいはヨガの最初の姿勢において、呼吸を行うユーザUを繰り返し検出する。処理部13は、検出部2の検出結果に基づいて、呼吸を行うユーザUの姿勢データを生成する。処理部13は、生成した姿勢データを記憶部16に記憶させる。記憶部16には、図8および図9に示したように、検出部2が人体HMを繰り返し検出して得られる姿勢データFD(例、図8の複数の姿勢データFD1〜FDj)が記憶される。   The timing detection unit 22 detects the breathing timing of the human body HM based on the detection result of the detection unit 2. For example, the detection unit 2 repeatedly detects the user U performing breathing before yoga or in the initial posture of yoga. The processing unit 13 generates posture data of the user U performing breathing based on the detection result of the detection unit 2. The processing unit 13 stores the generated posture data in the storage unit 16. As shown in FIGS. 8 and 9, posture data FD (for example, a plurality of posture data FD1 to FDj in FIG. 8) obtained by the detection unit 2 repeatedly detecting the human body HM is stored in the storage unit 16. The

タイミング検出部22は、記憶部16から、呼吸を行うユーザUの姿勢データFDを読み出す。タイミング検出部22は、例えば、姿勢データFDの時間変化を算出する。例えば、タイミング検出部22は、ユーザUの呼吸に伴う人体HMの部位(例、胸部)の移動を検出する。タイミング検出部22は、例えば、ユーザUの呼吸に伴う人体HMの部位(例、胸部、腹部)の移動周期に基づいて、ユーザUの呼吸の周期を推定する。タイミング検出部22は、推定した呼吸の周期を記憶部16に記憶させる。   The timing detection unit 22 reads out the posture data FD of the user U performing breathing from the storage unit 16. For example, the timing detection unit 22 calculates a time change of the posture data FD. For example, the timing detection unit 22 detects the movement of a part (eg, chest) of the human body HM accompanying the breathing of the user U. The timing detection unit 22 estimates the respiration cycle of the user U based on, for example, the movement cycle of the part (eg, chest, abdomen) of the human body HM accompanying the respiration of the user U. The timing detection unit 22 stores the estimated respiration cycle in the storage unit 16.

スケジュール設定部23は、タイミング検出部22が推定した呼吸の周期に基づいて、人体HMの姿勢変化のタイミングデータLDを生成する。例えば、スケジュール設定部23は、例えば、図10に示した第1の姿勢F1をとる時間を、呼吸の周期に基づいて決定する。上記の第1の姿勢F1を取る時間は、例えば、1つのポーズを維持する時間、第1の姿勢F1をとることが推奨される時間などである。スケジュール設定部23は、例えば、第1の姿勢F1をとる時間を、呼吸の周期の整数倍に決定する。   The schedule setting unit 23 generates timing data LD for posture change of the human body HM based on the breathing cycle estimated by the timing detection unit 22. For example, the schedule setting unit 23 determines, for example, the time for taking the first posture F1 shown in FIG. 10 based on the breathing cycle. The time for taking the first posture F1 is, for example, the time for maintaining one pose, the time for which it is recommended to take the first posture F1, and the like. For example, the schedule setting unit 23 determines the time taken for the first posture F1 to be an integral multiple of the respiratory cycle.

スケジュール設定部23は、例えば、決定した各姿勢の時間、及び予定された姿勢の順番に基づいて、タイミングデータLDを生成する。タイミングデータLDは、例えば、予定されたヨガの複数の姿勢のそれぞれについて、各姿勢をとるタイミングを表す情報である。例えば、タイミングデータLDは、第1の姿勢F1をとる期間の開始タイミングおよび終了タイミングを、ヨガの開始からの時間で表す情報を含む。スケジュール設定部23は、生成したタイミングデータLDを記憶部16に記憶させる。   The schedule setting unit 23 generates the timing data LD based on, for example, the determined time of each posture and the planned posture order. The timing data LD is, for example, information representing the timing of taking each posture for each of a plurality of scheduled yoga postures. For example, the timing data LD includes information representing the start timing and end timing of the period in which the first posture F1 is taken as the time from the start of yoga. The schedule setting unit 23 stores the generated timing data LD in the storage unit 16.

なお、タイミング検出部22は、呼吸の周期を少なくとも1回、記憶部16に記憶させる。以降の処理において、スケジュール設定部23は、タイミング検出部22が呼吸の周期を検出しない場合、記憶部16に記憶された呼吸の周期を読み出して、タイミングデータLDを生成する。   The timing detection unit 22 stores the breathing cycle in the storage unit 16 at least once. In the subsequent processing, when the timing detection unit 22 does not detect the respiration cycle, the schedule setting unit 23 reads the respiration cycle stored in the storage unit 16 and generates the timing data LD.

報知部24は、タイミング検出部22の検出結果に基づいて、人体HMの姿勢変化のタイミングを報知する。例えば、報知部24は、タイミング検出部22の検出結果に基づいてスケジュール設定部23が生成したタイミングデータLDに基づいて、人体HMの姿勢変化のタイミングを報知する。例えば、処理装置3は、タイミングデータLDに基づいて、報知信号を報知部24に供給する。報知部24は、例えば、人体の姿勢変化のタイミングを音声で報知する。報知部24は、例えば、音声再生デバイス、アンプ、スピーカなどを含む。上記の報知信号は、例えば「次の姿勢をとってください」などの音声ガイド、音楽、チャイムなどの音を表す音声データである。報知部24は、処理装置3から供給された報知信号が表す音を再生することで、報知を行う。   The notification unit 24 notifies the timing of the posture change of the human body HM based on the detection result of the timing detection unit 22. For example, the notification unit 24 notifies the timing of the posture change of the human body HM based on the timing data LD generated by the schedule setting unit 23 based on the detection result of the timing detection unit 22. For example, the processing device 3 supplies a notification signal to the notification unit 24 based on the timing data LD. For example, the notification unit 24 notifies the timing of the posture change of the human body by voice. The notification unit 24 includes, for example, an audio reproduction device, an amplifier, a speaker, and the like. The notification signal is voice data representing sounds such as a voice guide such as “Please take the next posture”, music, and chimes. The notification unit 24 performs notification by reproducing the sound represented by the notification signal supplied from the processing device 3.

なお、検出装置1は、タイミング検出部22を備えなくてもよい。例えば、ユーザUは、自身の呼吸のタイミングを入力部5によって処理装置3に入力してもよい。スケジュール設定部23は、ユーザUから入力された呼吸タイミングに基づいて、タイミングデータLDを生成してもよい。また、検出装置1は、スケジュール設定部23を備えなくてもよい。例えば、ユーザUは、入力部5を操作して複数の姿勢を行うタイミングを設定してもよい。   Note that the detection apparatus 1 may not include the timing detection unit 22. For example, the user U may input his / her breathing timing to the processing device 3 through the input unit 5. The schedule setting unit 23 may generate timing data LD based on the breathing timing input from the user U. Further, the detection device 1 may not include the schedule setting unit 23. For example, the user U may set timing for operating the input unit 5 to perform a plurality of postures.

なお、報知部24は、例えば、ユーザUが設定、編集したタイミングデータLDに基づいて、姿勢変化のタイミングを報知してもよい。また、報知部24は、音声以外によって、報知を行ってもよい。例えば、報知部24は、光(ライトの点灯)、振動などで報知を行ってもよい。また、表示部4は、報知部24を兼ねてもよく、画像を表示することで報知を行ってもよい。また、検出装置1は、報知部24を備えなくてもよい。また、検出システムSYSは、検出装置1の外部に報知部24を備えてもよい。   Note that the notification unit 24 may notify the timing of posture change based on the timing data LD set and edited by the user U, for example. Moreover, the alerting | reporting part 24 may alert | report other than an audio | voice. For example, the alerting | reporting part 24 may alert | report by light (light lighting), a vibration, etc. Moreover, the display part 4 may serve as the alerting | reporting part 24, and may alert | report by displaying an image. Further, the detection device 1 may not include the notification unit 24. Further, the detection system SYS may include a notification unit 24 outside the detection device 1.

[第6実施形態]
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、本実施形態に係る検出装置を示す図である。検出装置1は、例えばユーザUの更新指令を受けなくとも、判定部25の判定によって教師データを自動で更新可能である。
[Sixth Embodiment]
A sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 12 is a diagram illustrating a detection device according to the present embodiment. For example, the detection device 1 can automatically update the teacher data according to the determination of the determination unit 25 without receiving the update instruction of the user U.

本実施形態において、検出装置1は、判定部25を備える。判定部25は、比較部14の比較結果に基づいて、教師データTDを更新するか否かを判定する(判定処理を実行する)。比較部14は、例えば、姿勢データFDと教師データTDとの類似度に基づいて、判定処理を実行する。例えば、判定部25は、姿勢データFDと教師データTDとの類似度と閾値とを比較する。判定部25は、類似度が閾値以上である場合に、教師データTDを更新すると判定する。判定部25は、教師データTDを更新すると判定した場合に、更新指令(例、設定信号)を更新部15に供給する。更新部15は、判定部25から更新指令(設定指令)を受けた場合に、姿勢データFDを用いて教師データTDを更新(例、自動更新)する。   In the present embodiment, the detection device 1 includes a determination unit 25. The determination unit 25 determines whether to update the teacher data TD based on the comparison result of the comparison unit 14 (executes determination processing). For example, the comparison unit 14 performs the determination process based on the similarity between the posture data FD and the teacher data TD. For example, the determination unit 25 compares the similarity between the posture data FD and the teacher data TD and a threshold value. The determination unit 25 determines to update the teacher data TD when the similarity is equal to or greater than the threshold. When the determination unit 25 determines to update the teacher data TD, the determination unit 25 supplies an update command (for example, a setting signal) to the update unit 15. When receiving an update command (setting command) from the determination unit 25, the update unit 15 updates the teacher data TD (for example, automatically updates) using the posture data FD.

[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図13は、本実施形態に係る検出装置を示す図である。検出装置1は、例えば教師データTDおよび姿勢データFDを外部装置(例、処理装置30)に出力し、外部装置(例、処理装置30)から供給される更新指令に基づいて教師データTDを更新する。
[Seventh Embodiment]
A seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 13 is a diagram illustrating a detection device according to the present embodiment. The detection device 1 outputs, for example, the teacher data TD and the posture data FD to an external device (eg, the processing device 30), and updates the teacher data TD based on an update command supplied from the external device (eg, the processing device 30). To do.

本実施形態において、検出装置1は、通信部26を備える。通信部26は、記憶部16に記憶された情報(例、教師データTD、姿勢データFD、比較画像のデータ)の少なくとも一部を検出装置1の外部(例、処理装置30)へ送信する。通信部26は、例えばインターネット回線を介して、処理装置30に接続される。   In the present embodiment, the detection device 1 includes a communication unit 26. The communication unit 26 transmits at least a part of the information (eg, teacher data TD, posture data FD, comparison image data) stored in the storage unit 16 to the outside of the detection device 1 (eg, the processing device 30). The communication unit 26 is connected to the processing device 30 via, for example, an Internet line.

処理装置30は、例えばクラウドコンピュータである。処理装置30は、姿勢の良否判定を行ってもよい。処理装置30は、検出装置1(例、通信部26)から受信した姿勢データFDに基づいて、教師データTDを更新するか否かを判定してもよい。処理装置30は、教師データTDを更新するか否かの判定結果に基づいて、検出装置1(例、通信部26)に更新指令を送信してもよい。更新部15は、処理装置30からの更新指令に基づいて、教師データTDを更新してもよい。   The processing device 30 is a cloud computer, for example. The processing device 30 may determine the quality of the posture. The processing device 30 may determine whether to update the teacher data TD based on the posture data FD received from the detection device 1 (for example, the communication unit 26). The processing device 30 may transmit an update command to the detection device 1 (for example, the communication unit 26) based on the determination result of whether or not to update the teacher data TD. The update unit 15 may update the teacher data TD based on the update command from the processing device 30.

また、処理装置30は、インストラクターなどのオペレータが操作可能なコンピュータでもよい。処理装置30は、例えば検出装置1から比較画像のデータを受信し、表示部に比較画像を表示してもよい。インストラクターは、表示部に表示された比較画像に基づいて、教師データTDを更新するか否か、あるいは教師データTDを更新することを推奨するか否かを判定してもよい。処理装置30は、インストラクターの指令によって更新指令を検出装置1に送信してもよい。更新部15は、処理装置30からの更新指令に基づいて、教師データTDを更新してもよい。   The processing device 30 may be a computer that can be operated by an operator such as an instructor. For example, the processing device 30 may receive the data of the comparison image from the detection device 1 and display the comparison image on the display unit. The instructor may determine whether or not to update the teacher data TD or whether or not to update the teacher data TD based on the comparison image displayed on the display unit. The processing device 30 may transmit an update command to the detection device 1 according to an instructor's command. The update unit 15 may update the teacher data TD based on the update command from the processing device 30.

上述のように、更新部15は、更新指令を検出装置1の外部の装置から供給されて、教師データTDを更新してもよい。この場合、検出装置1は、図12に示した判定部25を備えなくてもよい。また、検出装置1は、通信部26を介してソーシャルネットワーク(SNS)等に接続可能でもよい。検出装置1は、ユーザUの指令に基づいて、記憶部16に記憶された情報の少なくとも一部をソーシャルネットワーク上に投稿、公開してもよい。また、検出装置1は、通信部26を介して、図1の初期データSDと図5の基準データとの一方または双方を受信してもよい。検出装置1は、例えば、記憶部16に記憶されていない目標の姿勢に関する情報(例、新たな姿勢に関する初期データSD、基準データRD)を、通信部26を介して取得してもよい。   As described above, the update unit 15 may update the teacher data TD by receiving an update command from a device external to the detection device 1. In this case, the detection apparatus 1 may not include the determination unit 25 illustrated in FIG. Moreover, the detection apparatus 1 may be connectable to a social network (SNS) etc. via the communication part 26. FIG. The detection apparatus 1 may post and publish at least a part of the information stored in the storage unit 16 on the social network based on the instruction of the user U. Further, the detection apparatus 1 may receive one or both of the initial data SD of FIG. 1 and the reference data of FIG. 5 via the communication unit 26. The detection apparatus 1 may acquire, for example, information on a target posture that is not stored in the storage unit 16 (eg, initial data SD and reference data RD on a new posture) via the communication unit 26.

[第8実施形態]
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図14は、本実施形態に係る検出装置を示す図である。本実施形態において、検出装置1は、教師データとして用いる姿勢データを指定する。検出装置1は、教師データを姿勢データで上書きする代わりに、教師データとして用いる姿勢データの指定を変更することによって、教師データを更新する。
[Eighth Embodiment]
An eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 14 is a diagram illustrating a detection device according to the present embodiment. In the present embodiment, the detection apparatus 1 specifies posture data used as teacher data. Instead of overwriting the teacher data with the posture data, the detection apparatus 1 updates the teacher data by changing the designation of the posture data used as the teacher data.

本実施形態において、記憶部16は、ユーザUの姿勢データFD、およびユーザUの教師データとして用いる姿勢データFDを指定する設定データVDを記憶する。姿勢データFDは、複数の姿勢データFD1〜FDnを含む。複数の姿勢データFD1〜FDnは、それぞれ、識別情報(例、ID)が付されている。ここでは、識別情報がnの姿勢データFDnが最新の姿勢データであるものとする。本実施形態において、検出装置1は、姿勢データFDnよりも前に取得された複数の姿勢データFD1〜FDn−1から選択される姿勢データを教師データに用いる。   In the present embodiment, the storage unit 16 stores user U posture data FD and setting data VD for specifying posture data FD used as user U teacher data. Posture data FD includes a plurality of posture data FD1 to FDn. Each of the plurality of posture data FD1 to FDn is provided with identification information (eg, ID). Here, it is assumed that the posture data FDn whose identification information is n is the latest posture data. In the present embodiment, the detection apparatus 1 uses posture data selected from a plurality of posture data FD1 to FDn-1 acquired before the posture data FDn as teacher data.

設定データVDは、複数の姿勢データFD1〜FDnのうち、教師データとして用いる姿勢データを指定する設定値を含む。例えば、図14において、教師データに用いる姿勢データの識別情報(ID)は「m」であると定められている。比較部14は、記憶部16に記憶された設定データを読み出し、教師データを指定する識別情報(ID=m)を取得する。比較部14は、教師データとして用いる姿勢データFDmと、比較対象の姿勢データFDnとを記憶部16から読み出す。比較部14は、姿勢データFDnと姿勢データFDm(教師データ)を比較する。   The setting data VD includes setting values for specifying posture data used as teacher data among the plurality of posture data FD1 to FDn. For example, in FIG. 14, the posture data identification information (ID) used for the teacher data is defined as “m”. The comparison unit 14 reads the setting data stored in the storage unit 16 and acquires identification information (ID = m) that specifies teacher data. The comparison unit 14 reads out the posture data FDm used as teacher data and the posture data FDn to be compared from the storage unit 16. The comparison unit 14 compares the posture data FDn and the posture data FDm (teacher data).

また、比較部14は、比較対象の姿勢データFDの識別情報(ID=n)を更新部15に供給する。更新部15は、入力部5から更新指令を受けた場合に、比較部14から供給された識別情報を用いて、設定データを更新する。更新部15は、例えば、教師データを指定する機器別情報をmからnへ書き換えることで、教師データを姿勢データFDmから姿勢データFDnへ更新する。このように、更新部15は、教師データを更新する際に、記憶部16に記憶された教師データTDを姿勢データFDで書き換える代わりに、教師データを指定する情報(例、設定データVD、識別情報)を更新してもよい。   Further, the comparison unit 14 supplies the identification information (ID = n) of the posture data FD to be compared to the update unit 15. When receiving an update command from the input unit 5, the update unit 15 updates the setting data using the identification information supplied from the comparison unit 14. The update unit 15 updates the teacher data from the posture data FDm to the posture data FDn, for example, by rewriting the device-specific information specifying the teacher data from m to n. As described above, when updating the teacher data, the update unit 15 replaces the teacher data TD stored in the storage unit 16 with the posture data FD, and specifies information (e.g., setting data VD, identification data). Information) may be updated.

[第9実施形態]
第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15は、実施形態に係る検出システムを示す図である。検出システムSYSは、検出装置1、及び制御装置32を備える。本実施形態において、検出装置1は、処理装置3、及び複数の検出部2を備える。複数の検出部2は、ユーザUを互いに異なる方向(例、ユーザUを基準にして互いに異なる方向)から検出可能なように、ユーザUを囲うように配置される。処理装置3は、複数の検出部2のそれぞれから出力される検出結果を処理する。
[Ninth Embodiment]
A ninth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted or simplified. FIG. 15 is a diagram illustrating a detection system according to the embodiment. The detection system SYS includes a detection device 1 and a control device 32. In the present embodiment, the detection device 1 includes a processing device 3 and a plurality of detection units 2. The plurality of detection units 2 are arranged so as to surround the user U so that the user U can be detected from different directions (for example, different directions with respect to the user U). The processing device 3 processes the detection results output from each of the plurality of detection units 2.

制御装置32は、検出システムSYSの各部(例、検出部2、処理装置3)を制御する。制御装置32は、複数の検出部2のそれぞれに対して制御信号を供給する。制御装置32は、制御信号によって検出部2に検出を実行させる。制御装置32は、例えば、複数の検出部2のそれぞれが検出を実行するタイミングを制御する。また、制御装置32は、処理装置3に制御信号を供給する。制御装置32は、制御信号によって、処理装置3に処理を実行させる。制御装置32は、例えば、検出部2が検出するタイミングに対して、処理装置3が処理を実行するタイミングを制御する。例えば、制御装置32は、検出部2が予定された検出を終了した後に、処理装置3に検出部2の検出結果を処理させる。制御装置32は、処理装置3に処理結果(例、図1の比較画像のデータ、姿勢データFD、教師データTD)の少なくとも一部の出力を実行させる。   The control device 32 controls each part (for example, the detection unit 2 and the processing device 3) of the detection system SYS. The control device 32 supplies a control signal to each of the plurality of detection units 2. The control device 32 causes the detection unit 2 to perform detection based on the control signal. For example, the control device 32 controls the timing at which each of the plurality of detection units 2 executes detection. Further, the control device 32 supplies a control signal to the processing device 3. The control device 32 causes the processing device 3 to execute processing according to the control signal. For example, the control device 32 controls the timing at which the processing device 3 executes processing with respect to the timing detected by the detection unit 2. For example, the control device 32 causes the processing device 3 to process the detection result of the detection unit 2 after the detection unit 2 finishes the scheduled detection. The control device 32 causes the processing device 3 to output at least a part of the processing results (eg, comparison image data, posture data FD, teacher data TD in FIG. 1).

なお、検出装置1が備える検出部2の数は、1つでもよいし、2以上でもよい。また、検出システムSYSが備える検出装置1の数は、1つでもよいし、2以上でもよい。また、制御装置32は、処理装置3と同じ装置(例、コンピュータ)に設けられてもよい。また、検出システムSYSは、制御装置32を含まなくてもよい。検出システムSYSは、検出装置1のみで構成されてもよいし、検出装置1および制御装置32と別の装置を備えてもよい   In addition, the number of the detection parts 2 with which the detection apparatus 1 is provided may be one, and may be two or more. Moreover, the number of the detection apparatuses 1 with which the detection system SYS is provided may be one, or two or more. The control device 32 may be provided in the same device (for example, a computer) as the processing device 3. Further, the detection system SYS may not include the control device 32. The detection system SYS may be configured by only the detection device 1 or may include a device separate from the detection device 1 and the control device 32.

上述の実施形態において、処理装置3は、例えばコンピュータシステムを含む。処理装置3は、記憶部16に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行する。この検出プログラムは、例えば、コンピュータに、ユーザの人体を検出した検出結果から得られる人体の姿勢データと、過去に取得されたユーザの教師データとを比較することと、姿勢データおよび比較に基づいて、姿勢データを用いて教師データを更新することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。上記の検出プログラムは、例えばゲームなどのアプリケーションソフトを含んでもよい。例えば、上記の検出プログラムは、サーバなどに格納されており、コンピュータシステム(例、スマートフォン)にダウロードされることで提供されてもよい。また、処理装置3は、検出装置1の少なくとも一部(例、検出部2)と別に提供されてもよい。   In the above-described embodiment, the processing device 3 includes a computer system, for example. The processing device 3 reads the detection program stored in the storage unit 16 and executes various processes according to the detection program. This detection program is based on, for example, comparing the posture data of the human body obtained from the detection result of detecting the human body of the user with the teacher data of the user acquired in the past, and the posture data and the comparison. And updating the teacher data using the posture data. This detection program may be provided by being recorded on a computer-readable storage medium. The detection program may include application software such as a game. For example, the above detection program may be stored in a server or the like and provided by being downloaded to a computer system (eg, a smartphone). The processing device 3 may be provided separately from at least a part of the detection device 1 (for example, the detection unit 2).

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。   The technical scope of the present invention is not limited to the aspects described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, as long as it is permitted by law, the disclosure of all documents cited in the above-described embodiments and the like is incorporated as a part of the description of the text.

1・・・検出装置、2・・・検出部、3・・・処理装置、4・・・表示部、5・・・入力部、13・・・処理部、14・・・比較部、15・・・更新部、16・・・記憶部、21・・・選択部、22・・・タイミング検出部、24・・・報知部、25・・・判定部、
31・・・検出システム、FD・・・姿勢データ、HM・・・人体、TD・・・教師データ
DESCRIPTION OF SYMBOLS 1 ... Detection apparatus, 2 ... Detection part, 3 ... Processing apparatus, 4 ... Display part, 5 ... Input part, 13 ... Processing part, 14 ... Comparison part, 15 ... update unit, 16 ... storage unit, 21 ... selection unit, 22 ... timing detection unit, 24 ... notification unit, 25 ... determination unit,
31 ... Detection system, FD ... Posture data, HM ... Human body, TD ... Teacher data

Claims (23)

ユーザの人体を検出する検出部と、
前記検出部の検出結果から得られる前記ユーザの姿勢データと過去に取得された前記ユーザの教師データとを比較して得られる比較結果に基づいて、前記ユーザの姿勢データを用いて前記教師データを更新する更新部と、を備える検出装置。
A detection unit for detecting a user's human body;
Based on the comparison result obtained by comparing the user posture data obtained from the detection result of the detection unit and the user teacher data acquired in the past, the teacher data is obtained using the user posture data. An update unit for updating.
前記検出部の検出結果から得られる前記人体の姿勢データと、過去に取得された前記ユーザの教師データとを比較し、前記比較結果を出力する比較部を備える、請求項1に記載の検出装置。   The detection device according to claim 1, further comprising: a comparison unit that compares the posture data of the human body obtained from the detection result of the detection unit with the teacher data of the user acquired in the past and outputs the comparison result. . 前記比較部は、前記教師データと前記姿勢データとの類似度を算出し、
前記更新部は、前記類似度に基づいて前記教師データを更新する、請求項2に記載の検出装置。
The comparison unit calculates a similarity between the teacher data and the posture data;
The detection device according to claim 2, wherein the update unit updates the teacher data based on the similarity.
前記比較部は、前記人体の部位ごとの評価基準を予め定めた基準データを用いて、前記類似度を算出する、請求項2又は請求項3に記載の検出装置。   The detection device according to claim 2, wherein the comparison unit calculates the similarity using reference data in which an evaluation reference for each part of the human body is determined in advance. 前記比較部は、前記姿勢データを、第1の姿勢に対する前記教師データおよび第2の姿勢に対する前記教師データのそれぞれと比較する、請求項2から請求項4のいずれか一項に記載の検出装置。   5. The detection device according to claim 2, wherein the comparison unit compares the posture data with each of the teacher data with respect to the first posture and the teacher data with respect to the second posture. 6. . 前記比較部は、前記ユーザの姿勢データごとに異なる前記教師データを用いて比較する、請求項2から請求項5のいずれか一項に記載の検出装置。   The detection device according to any one of claims 2 to 5, wherein the comparison unit performs comparison using the teacher data that is different for each posture data of the user. 前記比較部は、前記検出部が前記人体を繰り返し検出した検出結果から得られる複数の前記姿勢データのそれぞれと、前記教師データとを比較し、
前記更新部は、前記教師データを、前記比較部の比較結果に基づいて前記複数の姿勢データから選択される姿勢データへ更新する、請求項2から請求項6のいずれか一項に記載の検出装置。
The comparison unit compares each of the plurality of posture data obtained from the detection result of the detection unit repeatedly detecting the human body with the teacher data,
The detection according to any one of claims 2 to 6, wherein the update unit updates the teacher data to posture data selected from the plurality of posture data based on a comparison result of the comparison unit. apparatus.
前記複数の姿勢データから、前記教師データとの類似度が相対的に高い姿勢データを選択する選択部を備える、請求項7に記載の検出装置。   The detection device according to claim 7, further comprising a selection unit that selects posture data having a relatively high similarity to the teacher data from the plurality of posture data. 前記選択部によって選択された前記姿勢データに基づいて画像を表示する表示部を備える、請求項8に記載の検出装置。   The detection device according to claim 8, further comprising a display unit that displays an image based on the posture data selected by the selection unit. 前記比較部の比較結果に基づいて画像を表示する表示部を備える、請求項2から請求項9のいずれか一項に記載の検出装置。   The detection device according to claim 2, further comprising a display unit that displays an image based on a comparison result of the comparison unit. 前記ユーザが前記姿勢データに基づいて前記教師データを更新するための入力部を備える、請求項1から請求項10のいずれか一項に記載の検出装置。   The detection device according to any one of claims 1 to 10, further comprising an input unit for the user to update the teacher data based on the posture data. 前記比較結果に基づいて、前記教師データを更新するか否かを判定する判定部を備える、請求項1から請求項11のいずれか一項に記載の検出装置。   The detection device according to any one of claims 1 to 11, further comprising a determination unit that determines whether or not to update the teacher data based on the comparison result. 前記教師データを記憶する記憶部を備え、
前記更新部は、前記記憶部に記憶された前記教師データを前記姿勢データで書き換える、請求項1から請求項12のいずれか一項に記載の検出装置。
A storage unit for storing the teacher data;
The detection device according to claim 1, wherein the update unit rewrites the teacher data stored in the storage unit with the posture data.
前記検出部の検出結果に基づいて、前記姿勢データを生成する処理部を備える、請求項1から請求項13のいずれか一項に記載の検出装置。   The detection device according to claim 1, further comprising a processing unit that generates the posture data based on a detection result of the detection unit. 前記検出部の検出結果に基づいて、前記人体の呼吸のタイミングを検出するタイミング検出部を備える、請求項1から請求項14のいずれか一項に記載の検出装置。   The detection device according to claim 1, further comprising a timing detection unit that detects a timing of breathing of the human body based on a detection result of the detection unit. 前記タイミング検出部の検出結果に基づいて、前記人体の姿勢変化のタイミングを報知する報知部を備える、請求項15に記載の検出装置。   The detection device according to claim 15, further comprising a notification unit that notifies the timing of the posture change of the human body based on a detection result of the timing detection unit. 前記人体の姿勢変化のタイミングを音声で報知する報知部を備える、請求項1から請求項16のいずれか一項に記載の検出装置。   The detection device according to any one of claims 1 to 16, further comprising a notification unit that notifies the timing of the posture change of the human body by voice. 前記姿勢データは、前記ユーザのヨガに関する姿勢データを含む、請求項1から請求項17のいずれか一項に記載の検出装置。   The detection device according to any one of claims 1 to 17, wherein the posture data includes posture data related to yoga of the user. ユーザの人体を検出する検出部と、
前記検出部の検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較する比較部と、
前記比較部の比較結果に基づいて、前記ユーザの姿勢データを用いて前記ユーザの教師データを生成する処理部と、を備える検出装置。
A detection unit for detecting a user's human body;
A comparison unit that compares the posture data of the user obtained from the detection result of the detection unit and the teacher data of the user acquired in the past;
And a processing unit that generates teacher data of the user using the posture data of the user based on a comparison result of the comparison unit.
請求項1から請求項17のいずれか一項に記載の検出装置を備える検出システム。   A detection system comprising the detection device according to any one of claims 1 to 17. ユーザの人体を検出した検出結果から得られる前記人体の姿勢データと、過去に取得された前記ユーザの教師データとの比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部を備える処理装置。   An update unit that updates the teacher data using the posture data based on a comparison result between the posture data of the human body obtained from the detection result of detecting the human body of the user and the teacher data of the user acquired in the past A processing apparatus comprising: ユーザの人体を検出することと、
前記検出から得られる前記人体の姿勢データと、過去に取得された前記ユーザの教師データとの比較結果に基づいて、前記姿勢データを用いて前記教師データを更新することと、を含む検出方法。
Detecting the user's body,
And updating the teacher data using the posture data based on a comparison result between the posture data of the human body obtained from the detection and the teacher data of the user acquired in the past.
コンピュータに、
ユーザの人体を検出した検出結果から得られる前記人体の姿勢データと、過去に取得された前記ユーザの教師データとの比較結果に基づいて、前記姿勢データを用いて前記教師データを更新することを実行させる検出プログラム。
On the computer,
Updating the teacher data using the posture data based on a comparison result between the posture data of the human body obtained from the detection result of detecting the human body of the user and the teacher data of the user acquired in the past. Detection program to be executed.
JP2017143770A 2017-07-25 2017-07-25 Detection device, detection system, processing device and detection program Active JP7011416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143770A JP7011416B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, processing device and detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143770A JP7011416B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, processing device and detection program

Publications (2)

Publication Number Publication Date
JP2019024550A true JP2019024550A (en) 2019-02-21
JP7011416B2 JP7011416B2 (en) 2022-01-26

Family

ID=65474888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143770A Active JP7011416B2 (en) 2017-07-25 2017-07-25 Detection device, detection system, processing device and detection program

Country Status (1)

Country Link
JP (1) JP7011416B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110917604A (en) * 2019-11-14 2020-03-27 西安优信机电工程有限公司 Indoor yoga posture correction system
JP2020195648A (en) * 2019-06-04 2020-12-10 Kddi株式会社 Operation degree-of-similarity evaluation device, method, and program
JP2020195573A (en) * 2019-06-03 2020-12-10 Kddi株式会社 Training evaluation device, method, and program
JP2021026470A (en) * 2019-08-03 2021-02-22 株式会社プラニス Information processing system, information processing method, and computer program
WO2021251222A1 (en) * 2020-06-08 2021-12-16 ソニーグループ株式会社 Learning device, presentation device, and technique acquisition method
WO2022075116A1 (en) * 2020-10-06 2022-04-14 国立研究開発法人産業技術総合研究所 Information display device and information display method
WO2022196059A1 (en) * 2021-03-19 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023139944A1 (en) * 2022-01-24 2023-07-27 三菱ケミカルグループ株式会社 Information processing device, method, and program
WO2023162159A1 (en) * 2022-02-25 2023-08-31 日本電気株式会社 Motion generation device, motion generation system, motion generation method, and non-transitory computer readable medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002292130A (en) * 2001-03-29 2002-10-08 Konami Co Ltd Battle type game device, and battle game advance controlling method
JP2008302053A (en) * 2007-06-08 2008-12-18 Square Enix Holdings Co Ltd Teaching system, teaching device, program recording medium and teaching program
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2014188146A (en) * 2013-03-27 2014-10-06 Nippon Telegraph & Telephone East Corp Exercise posture evaluation device, exercise posture evaluation method, and computer program
JP2015012434A (en) * 2013-06-28 2015-01-19 カシオ計算機株式会社 Form confirmation support device, method and program and form confirmation support system
JP2015057193A (en) * 2014-12-22 2015-03-26 セイコーエプソン株式会社 Swing analysis device, swing analysis system, program, and swing analysis method
JP2016116613A (en) * 2014-12-19 2016-06-30 セイコーエプソン株式会社 Motion analysis device, motion analysis system, motion analysis method, and program
WO2017209260A1 (en) * 2016-06-01 2017-12-07 ヤマハ株式会社 Audio training device and audio training method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002292130A (en) * 2001-03-29 2002-10-08 Konami Co Ltd Battle type game device, and battle game advance controlling method
JP2008302053A (en) * 2007-06-08 2008-12-18 Square Enix Holdings Co Ltd Teaching system, teaching device, program recording medium and teaching program
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2014188146A (en) * 2013-03-27 2014-10-06 Nippon Telegraph & Telephone East Corp Exercise posture evaluation device, exercise posture evaluation method, and computer program
JP2015012434A (en) * 2013-06-28 2015-01-19 カシオ計算機株式会社 Form confirmation support device, method and program and form confirmation support system
JP2016116613A (en) * 2014-12-19 2016-06-30 セイコーエプソン株式会社 Motion analysis device, motion analysis system, motion analysis method, and program
JP2015057193A (en) * 2014-12-22 2015-03-26 セイコーエプソン株式会社 Swing analysis device, swing analysis system, program, and swing analysis method
WO2017209260A1 (en) * 2016-06-01 2017-12-07 ヤマハ株式会社 Audio training device and audio training method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020195573A (en) * 2019-06-03 2020-12-10 Kddi株式会社 Training evaluation device, method, and program
JP2020195648A (en) * 2019-06-04 2020-12-10 Kddi株式会社 Operation degree-of-similarity evaluation device, method, and program
JP7078577B2 (en) 2019-06-04 2022-05-31 Kddi株式会社 Operational similarity evaluation device, method and program
JP2021026470A (en) * 2019-08-03 2021-02-22 株式会社プラニス Information processing system, information processing method, and computer program
CN110917604A (en) * 2019-11-14 2020-03-27 西安优信机电工程有限公司 Indoor yoga posture correction system
WO2021251222A1 (en) * 2020-06-08 2021-12-16 ソニーグループ株式会社 Learning device, presentation device, and technique acquisition method
WO2022075116A1 (en) * 2020-10-06 2022-04-14 国立研究開発法人産業技術総合研究所 Information display device and information display method
WO2022196059A1 (en) * 2021-03-19 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023139944A1 (en) * 2022-01-24 2023-07-27 三菱ケミカルグループ株式会社 Information processing device, method, and program
JP2023107347A (en) * 2022-01-24 2023-08-03 三菱ケミカルグループ株式会社 Information processor, method, and program
WO2023162159A1 (en) * 2022-02-25 2023-08-31 日本電気株式会社 Motion generation device, motion generation system, motion generation method, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP7011416B2 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
JP7011416B2 (en) Detection device, detection system, processing device and detection program
CN111263953B (en) Action state evaluation system, device, server, method and storage medium thereof
US9737239B2 (en) Systems and methods for tracking body surfaces of individuals
EP3459061B1 (en) Multi -joint tracking combining embedded sensors and an external
KR102065687B1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
JP6973388B2 (en) Information processing equipment, information processing methods and programs
JP5845830B2 (en) Information processing apparatus, display control method, and program
US10007332B2 (en) Electronic gaming machine in communicative control with avatar display from motion-capture system
US20200193866A1 (en) Non-transitory computer readable recording medium, practice assist method, and practice assist system
US10360444B2 (en) Image processing apparatus, method and storage medium
JP5320332B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
CN105228709A (en) For the signal analysis of duplicate detection and analysis
CN105209136A (en) Center of mass state vector for analyzing user motion in 3D images
CN109815776A (en) Action prompt method and apparatus, storage medium and electronic device
KR20210128943A (en) Apparatus and method for comparing and correcting sports posture using neural network
CN113139506A (en) Step counting method, step counting equipment and storage medium
An Shen Marker-less motion capture for biomechanical analysis using the Kinect sensor
CN211180839U (en) Motion teaching equipment and motion teaching system
JP2018055619A (en) Image display device
KR20160125098A (en) Animation production method and apparatus for rockwall climbing training, recording medium for performing the method
JP2021056922A (en) Human movement support system and method thereof
JP2021099666A (en) Method for generating learning model
WO2024159402A1 (en) An activity tracking apparatus and system
WO2022196059A1 (en) Information processing device, information processing method, and program
US20240331170A1 (en) Systems And Methods For Generating A Motion Performance Metric

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114

R150 Certificate of patent or registration of utility model

Ref document number: 7011416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150