JP2012083955A - 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム - Google Patents
動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム Download PDFInfo
- Publication number
- JP2012083955A JP2012083955A JP2010229783A JP2010229783A JP2012083955A JP 2012083955 A JP2012083955 A JP 2012083955A JP 2010229783 A JP2010229783 A JP 2010229783A JP 2010229783 A JP2010229783 A JP 2010229783A JP 2012083955 A JP2012083955 A JP 2012083955A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- joint
- space
- motion
- latent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】学習時に、全身の関節に関する情報から一つの潜在変数モデルMを構築することに加えて、全身から一部分の関節を選択点として、選択点に関する情報から潜在変数モデルM1を学習し、この潜在変数モデルMと潜在変数モデルM1とを対応付ける動作モデルを学習により得る。これにより、3次元動作情報処理装置100は、推定時に、この動作モデルを参照して、2次元の画像において画像認識しやすく、追跡しやすい一部の関節の動きに基づき、潜在変数モデルMの潜在空間における全部の関節の位置を得ることができる。
【選択図】図1
Description
これらの研究は、映像監視やヒューマンインタラクション、ロボットの運動制御、CGアニメーションへの動作あてはめ、医療分野等、幅広い分野への応用が期待されている。
しかし、画像データに基づき人体の3次元的な仮想空間における姿勢を推定する場合、任意の時間において、人体の関節の3次元回転角を推定することが困難である。特に、単眼カメラにより撮影された画像データからの3次元の姿勢を推定する場合、画像データにおいては2次元で人体が表現されているため、3次元で表現するための情報の欠如している。これにより、姿勢の多義性に対応できないことや、手足や障害物による遮蔽に対応できないことなどが問題となる。これらの問題に対処するため、推定する際に、人体の動きに関する事前知識を用いる手法が注目されている。この事前知識とは、2次元の画像データに基づき、3次元で表現するために欠如している情報を補充するための情報である。
例えば、人体は、剛体とみなすことができる「部位」と、部位同士を連結する「関節」からなる多関節物体として扱うことができる。人体は、少なくとも10個の関節を持つと考えられる。これによると、全身の姿勢を3次元回転角により表現するためには、30以上のパラメータを必要とする。
そこで、近年では、単眼カメラ映像から、人体の3次元動作を推定するために、GP−LVM(例えば、非特許文献2参照)やGPDM(例えば、非特許文献3参照)のような非線形かつ確率的な次元圧縮手法を用いるものがある。この手法を用いて、高次元な姿勢空間で表現される3次元の動作を低次元な潜在空間でモデル化したものを事前知識として得ておく。この事前知識(動作モデル)を用いて、2次元で表現される映像において追跡した人物の関節点から3次元の仮想空間で表現するための情報を推定する手法が広く利用されている。
Gaussian Process Dynamical Models(GPDM)は、GP−LVMの拡張手法であり、潜在空間上のダイナミクスを考慮したモデルである。
図9に示す通り、人体を多関節物体として規定する3次元動作データを入力し(ステップS201)、この3次元動作データに基づき人体の全ての関節点についての3次元的な回転角を獲得する(ステップS202)。ついで、3次元回転角から全ての関節点により人体の動作が表わされる3次元姿勢行列を構築する(ステップS203)。そして、この人体の動作を低次元な潜在変数モデルとして学習し、学習により得られたモデルを記憶部に記憶しておく(ステップS204)。
一方、推定対象である2次元の画像データの初期フレームにおいて、人体の関節点の位置を手動で設定する(ステップS205)。そして、設定された関節点の2次元追跡を行い(ステップS206)、追跡した関節点から観測ベクトルを構築する(ステップS207)。次いで、記憶部のモデルを参照して、潜在空間における設定された関節点の位置を推定し、(ステップS208)、3次元姿勢を推定する(ステップS209)。
このため、1)推定の際に2次元画像上に手動で関節位置を指定する必要があった。また、2)推定精度が2次元追跡の精度に依存してしまい、画像データ内における一部の関節を追跡できない場合、推定精度が悪くなる問題が生じていた。
以下、本発明の一実施形態にかかる3次元動作情報処理装置100について図1を参照して説明する。図1は、本実施形態による3次元動作情報処理装置100の構成を示す概略ブロック図である。
図1に示す通り、3次元動作情報処理装置100は、動作モデル学習装置1と3次元姿勢推定装置2と動作情報記憶部104を備える。
動作モデル学習装置1は、3次元動作データ出力部101と、3次元姿勢行列構成部102と、動作モデル学習部103とを備える。3次元姿勢推定装置2は、画像入力部105と、観測情報算出部106と、3次元姿勢推定部107とを備える。
動作モデル学習装置1および3次元姿勢推定装置2は、それぞれ動作情報記憶部104と接続されている。
図2に示す通り、人体は、例えば、16個の関節で部位が連結されたモデルで表わすことができる。各関節には、関節番号j{j=1,2,・・・,16}が割り当てられている。例えば、関節番号J=1の関節は左足の付け根の関節、関節番号J=2の関節は左足の膝の関節、関節番号J=3の関節は左足の足首の関節、関節番号J=4の関節は右足の付け根の関節、関節番号J=5の関節は右足の膝の関節、関節番号J=6の関節は右足の足首の関節に、それぞれ相当する。また、関節番号J=9は頭部分、関節番号J=10の関節は左肩の関節、関節番号J=11の関節は左腕の肘の関節、関節番号J=12は左手部分、関節番号J=13の関節は右肩の関節、関節番号J=14の関節は右腕の肘の関節、関節番号J=15は右手部分に、それぞれ相当する。なお、関節番号J=7の関節は、両足と胴体の連結部分、関節番号J=8は背中中央部分、関節番号J=9の関節は頭と両肩の連結部分に、それぞれ相当する。
3次元姿勢推定装置2は、動作モデルに基づき、2次元の画像における人物の姿勢を推定する。この推定装置2は、人物を構成する全ての関節のうち、画像データの画像解析によって検出しやすい一部の関節に基づき、潜在空間(X1)上の一部の関節の位置を算出する。この3次元姿勢推定装置2は、潜在空間(X1)上において推定される一部の関節の位置に基づき、動作モデルを参照して、潜在空間(X1)から潜在空間(X)への写像を回帰することで、人体の全ての関節点により動作を表現する潜在変位モデルにおける全ての関節の位置を算出する。3次元姿勢推定装置2は、潜在空間における全ての関節の位置に基づき、3次元の仮想空間における前記多関節物体の姿勢を示す3次元姿勢予測値を算出する。
3次元動作データ出力部101は、人体の動作をデジタルデータにより表現するために、人体を多関節物体として規定して、その構造をモデル化するための3次元動作データを出力する機能を有する。この3次元動作データ出力部101は、例えば、3次元の仮想空間における人体の動きを関節毎に表わすための情報である3次元動作データを取得して、3次元姿勢行列構成部102に出力する。
この3次元動作データ出力部101は、例えば、一般的なモーションキャプチャシステムや多視点カメラで構成することができる。3次元動作データ出力部101は、人体の動きを各関節の3次元回転角θによって示す3次元動作データを生成する。この3次元動作データは、例えば、各関節を示す関節番号(j)に対応する、3次元回転角θ(動作パラメータ)および階層構造情報を含む。
具体的には、左肘の関節(関節番号j=11)の動作パラメータは、左肩の関節(関節番号j=10)に対する3次元回転角θ(θx,θy,θz)で表わす。
また、3次元動作データ出力部101は、取得した3次元動作データを動作情報記憶部104に格納する。
この姿勢空間とは、3次元の仮想空間よりも高次元な状態空間である。また、姿勢空間は、潜在空間よりも高次元な状態空間である。
3次元姿勢行列構成部102は、内蔵する記憶部に予め決められた一部の関節の関節番号を示す情報を記憶しており、3次元姿勢行列Y1を構築する際、この記憶部を参照して予め決められている一部の関節を選択し、この一部の関節の3次元回転角θを得る。
3次元姿勢行列構成部102は、この3次元姿勢行列Yと3次元姿勢行列Y2を、動作モデル学習部103に出力する。
つまり、動作モデル学習部103は、3次元姿勢行列Yに基づき3次元動作データを低次元な潜在空間における潜在変数モデルMとして学習する機能と、3次元姿勢行列Y1に基づき3次元動作データの一部の情報を低次元な潜在空間における潜在変数モデルM1として学習する機能と、潜在変数モデルM1の潜在空間から潜在変数モデルMの潜在空間への写像をガウシアンプロセス回帰として対応づけた動作モデルを作成する機能と、この動作モデルを動作情報記憶部104に格納する機能とを備える。
言い換えると、動作モデル学習部103は、3次元姿勢行列Yに基づき潜在空間における多関節物体の動作を表現する潜在変数モデルMと、3次元姿勢行列Y1に基づき潜在空間における多関節物体の動作を表現する潜在変数モデルM1とを作成し、潜在空間において潜在変数モデルMと潜在変数モデルM1とを対応付ける動作モデルを作成する。
モデルパラメータは、例えば、潜在空間から姿勢空間へのマッピングのパラメータ等を含む。動作の低次元特徴は、例えば、3次元動作データからGPDMのような次元圧縮手法により求められる低次元特徴ベクトルとして表現される。
この観測情報算出部106は、追跡処理により追跡した各関節の位置を複数フレームにわたって示す観測ベクトル(関節位置座標)を出力する。
つまり、観測情報算出部106は、関節点の2次元追跡を行う機能と、追跡した関節点から観測ベクトルを構築する機能とを有する。言い換えると、観測情報算出部106は、動作モデル学習装置1において予め決められている一部の関節を画像データから検出し、複数の画像データの画像内における一部の関節の位置変化を示す観測ベクトルを算出する。
言い換えると、3次元姿勢推定部107は、動作モデルを参照して観測ベクトルに基づき潜在変数モデルM1の潜在空間における一部の関節の位置を算出し、潜在変数モデルM1の潜在空間から潜在変数モデルMの潜在空間への写像を行い、潜在変数モデルMの潜在空間における全ての関節の位置を算出して、3次元の仮想空間における多関節物体の姿勢を示す3次元姿勢予測値を算出する。
この3次元姿勢推定部107において推定された3次元の姿勢は、例えば、2次元の映像から3次元の動作を取得することができる。これにより、仮想的な空間にリアルタイムに人物の動作を反映するために用いたり、人物の動作解析等に利用することが可能である。
図5に示すステップS301〜S304の処理は、動作モデル作成方法の処理フローを示す。なお、ステップS303は、ステップS3031、3032を含み、その順番はどちらが先であってもよい。ステップS304は、ステップS3041、3042、3043を含み、その順番はいずれが先であってもよい。
一方、図5に示すステップS305〜S309の処理は、3次元姿勢推定方法の処理フローを示す。ステップS308は、ステップS3081、3082を含む。
3次元動作データ出力部101は、人体の構造を多関節物体としてモデル化するための3次元動作データを取得する。例えば、3次元動作データ出力部101は、モーションキャプチャ等により構成され、モデル化の対象である人体の動きを撮影して、撮影された複数のフレームの画像データに基づき、3次元の仮想空間内における人体の全ての関節点の位置関係と互いの階層構造を取得する。なお、モーションキャプチャの技術については、上記画像式に限定されず、光学式や赤外線式等の他の方式であってもよい。
この3次元動作データ出力部101は、関節番号jに動作パラメータである3次元回転角θと階層構造情報に対応づけた3次元動作データを3次元姿勢行列構成部102に出力する。
3次元姿勢行列構成部102は、3次元動作データから、各関節に対応する動作パラメータである3次元回転角θを取り出す。例えば、3次元姿勢行列構成部102は、モーションキャプチャシステムやカメラ映像のボクセルからの推定等の手段を用いて、3次元回転角θを得る。
なお、ステップS301において3次元動作データ出力部101が企業や大学が公開しているライブラリに保管されている3次元動作データをダウンロードしている場合、3次元姿勢行列構成部102は、ステップS302において、この3次元動作データから動作パラメータを取り出すものであってもよい。
なお、3次元姿勢行列構成部102が取得した動作パラメータである3次元回転角θは、関節番号jと階層構造情報に対応づけられていり。
3次元姿勢行列構成部102は、取り出した全身の各関節の3次元回転角θから3次元姿勢行列Yを構築する。言い換えると、3次元姿勢行列構成部102は、各フレームに対応する全関節点の3次元回転角θ(j){j=1,2,・・・,16}であって、動作の時系列に並べられたN枚のフレームに対応する3次元回転角θ(j)に基づき、3次元姿勢行列Yを構築する。この3次元姿勢行列Yは、学習に使用する全関節のパラメータの数をD、フレーム数をNとしたとき、N×Dの行列を構成する。
この3次元姿勢行列構成部102は、取り出した全身の各関節の3次元回転角θのうち、特定の一部関節の3次元回転角θから3次元姿勢行列Y1を構築する。言い換えると、3次元姿勢行列構成部102は、各フレームに対応する一部の関節の3次元回転角θ(j){例えば、j=3,6,9,12,15}であって、動作の時系列に並べられたN枚のフレームに対応する3次元回転角θ(j)に基づき、3次元姿勢行列Y1を構築する。この3次元姿勢行列Y1は、学習に使用する一部の関節のパラメータの数をd(<D)、フレーム数をNとしたとき、N×dの行列を構成する。
この3次元姿勢行列Y1を構築するための一部の関節は、3次元姿勢行列構成部102により、予め決められた一部の関節が選択される。3次元姿勢行列構成部102は、この選択した一部の関節の3次元回転角θに基づき3次元姿勢行列Y1を構築する。なお、この一部の関節は、人体のうち、画像認識しやすい関節であって、人体の動きを追従できる関節である。本実施形態では、この一部の関節点として、関節番号j=3(左足)、関節番号j=6(右足)、関節番号j=9(頭)、関節番号j=12(左手)、関節番号j=15(右手)が、予め決定されており、これらの関節番号が、3次元姿勢行列構成部102が内蔵する記憶部に記憶されている。
ここで、姿勢空間(Y)とは、姿勢を特徴付けるベクトルの状態空間である。潜在空間(X)とは、姿勢空間(Y)よりも低次元の状態空間である。
次いで、動作モデル学習部103は、3次元姿勢行列構成部102から入力する3次元姿勢行列Yに基づき、潜在変数モデルM=(X,Y,α,β)の学習を行う。この動作モデル学習部103による潜在変数モデルMの学習とは、3次元姿勢行列Yに対するX,α,βの最適値を求めることである。
Yは、姿勢空間(Y)における3次元姿勢行列Y=[y_(1),・・・y_(N)]Tを示す。ここで、y_(i)は、はフレームiにおいて、人体の各関節の角度または3次元位置によって人体の完全姿勢を規定するD次元のベクトルである。なお、本明細書中において、ベクトルを示す場合、_を後に記載する。つまり、ベクトルyは、y_と示す。
Xは、姿勢空間(Y)よりも低次元の潜在空間(X)における位置X=[x_(1),・・・x_(N)]Tを示す。ここで、x_(i)は、フレームiにおいて、学習によって最適化されるy_(1)に対する低次元空間中のq(<D)次元の潜在空間(X)における位置ベクトルである。q次元とは、例えば、2次元または3次元である。
αは、x_(i−1)からx_(i)のダイナミクスを示す。例えば、α={α1,α2,α3,α4}である。
βは、XからYへの写像を制御するハイパーパラメータである。例えばβ={β1,β2,β3,W_}である。
この動作モデル学習部103は、3次元姿勢行列構成部102から入力する3次元姿勢行列Y1に基づき、動作モデルM1=(X1,Y1,α1,β1)のの学習を行う。この動作モデル学習部103によるモデルM1の学習とは、3次元姿勢行列Y1に対するX1,α1,β1の最適値を求めることである。
例えば、3次元姿勢行列Y1=[y1_(1),・・・y1_(N)]Tとする。ここで、y1(i)は、はフレームiにおいて、人体の一部の関節(ステップS3032において動作モデル学習部103が指定した関節)の角度または潜在空間における3次元位置によって人体の完全姿勢を規定するd次元のベクトルである。
また、3次元姿勢行列Y1の姿勢空間(Y1)よりも低次元の潜在空間(X1)における位置をX1=[x1_(1),・・・x1_(N)]Tとする。ここで、x1(i)は、フレームiにおいて、学習によって最適化されるy1_(1)に対する低次元空間中のq(<D)次元の潜在空間における位置ベクトルである。q次元とは、例えば、2次元または3次元である。なお、ベクトルx1は、x1_と示す。
α1は、x1_(i−1)からx1_(i)のダイナミクスを示す。例えば、α1={α11,α12,α13,α14}である。
β1は、X1からY1への写像を制御するハイパーパラメータである。例えばβ1={β11,β12,β13,W1_}である。
また、動作モデル学習部103は、ステップS3042において、高次元な姿勢空間(Y1)をそれより低次元な潜在空間(X1)からのガウシアンプロセス回帰として表現する潜在変数モデルM=(X1,Y1,α1,β1)の学習を行い、3次元姿勢行列Y1に対するX1,α1,β1の最適値を求める。
動作モデル学習部103は、ステップS3041において学習した潜在変数モデルMの潜在空間(X)と、ステップS3042において学習した潜在変数モデルM1の潜在空間(X1)の間にガウス過程を仮定し、X1→Xへの写像を回帰により学習する。この学習の目的は、一方の潜在空間(X1)上での位置x1_が入力として与えられた場合に、推定部2が、他方の潜在空間(X)上での位置x_を推定するためのデータを作成するためのである。
この問題を、X1→Xへのガウス過程による回帰問題と考える。
例えば、学習データとして、以下の値を与える。
画像入力部105は、姿勢推定を行う2次元画像の初期フレームにおいて、手足の先や頭等を肌色検出や画像認識技術を用いて自動検出する。この時の画像上の位置を、観測ベクトルの初期値I_1(1)とする。
この画像入力部105は、例えば、カメラにより撮影された2次元の画像データを、姿勢推定の対象として入力する。そして、画像入力部105は、この2次元の画像データに対してパターンマッチング等の画像認識を行うことにより、推定対象の多関節物体である人体の一部の関節を検出する。この画像入力部105は、例えば、人体の頭、左右の手(手首から指先まで)、左右の足(足首からつま先まで)を、一部の関節として検出する。なお、この一部の関節は、ステップS3032において動作モデル学習部103が選択する一部の関節と同じ関節の関節番号により規定されている。なお、この一部の関節の関節番号は、画像入力部105に内蔵されている記憶部に記憶されている。
そして、画像入力部105は、検出した一部の関節を、画像データ内における追跡関節点として設定する。
なお、画像入力部105は、画像データを入力するインターフェースであってもよく、被写体を撮像して画像データを生成するカメラであってもよい。
観測情報算出部106は、画像入力部105がステップS305において追跡関節点として設定した人体の一部の関節について2次元追跡を行う。この観測情報算出部106は、一般的な画像処理手法を用いることができ、例えば、WSLトラッカーを用いて2次元追跡を行うことができる。
そして、観測情報算出部106は、ステップS306において追跡する追跡関節点の位置を示す位置ベクトルをフレーム毎に算出し、フレームnに対応する観測ベクトルI_1(n)として得る。この観測情報算出部106は、初期値I_1(1)からフレーム毎nまで連続して得られる観測ベクトルI_1(1:n)を、観測情報として3次元姿勢推定部107に出力する。
3次元姿勢推定部107は、入力する観測情報、つまり、観測ベクトルI_1(1:n)に基づき、ステップS3042において学習した潜在変数モデルM1を事前知識として潜在変数x1_(n)を推定する。つまり、3次元姿勢推定部107は、動作モデルを参照して観測ベクトルに基づき潜在変数モデルM1の潜在空間における一部の関節(関節番号j=3,6,9,12,15の位置を算出する。
例えば、単眼カメラにより撮影された画像データから、3次元姿勢推定部107が3次元動作を推定する問題は、3次元姿勢推定部107が、2次元画像からの観測される画像上の関節の位置を観測系列I_(1:n)=(I_(1),・・・,I(n))とし、学習した潜在変数モデルM≡(X,Y,α,β)を事前知識として、観測系列から状態Φ(n)=[G(n),y_(n),x_(n)]を推定することである。
ここで、G(n)は、グローバル位置である。
状態が1つ前の状態のみに依存する1次元のマルコフ過程を想定した場合、このような問題は、図7に示す状態空間モデルとして記述できる。このとき2次元画像からの3次元姿勢推定は、下記の条件付き確率を最大化する状態を推定する問題として定式化される。
τは、予測に用いる将来のフレーム数である。なお、非特許文献3では、τ=2を用いている。
状態推定は、式(4)に対するMAP推定やサンプリング手法による近似によって最適値x_*(n)を求めることで実現される。
つまり、3次元姿勢推定部107は、式(4)に対して、MAP推定やサンプリング手法による近似により、学習した潜在変数モデルM1≡(X1,Y1,α1,β1)を事前知識として、最適値x1_*(n)を求めることができる。この最適値x1_*(n)が、潜在変数モデルM1の潜在空間における一部の関節の位置を示す値である。
3次元姿勢推定部107は、ステップS3043を事前知識とし、最適値x1_*(n)から潜在空間(X)上の位置を示す潜在変数x_*(n)を推定する。
学習プロセスにおけるステップS3043で求めたXに対する予測分布p(x_*(n)|X_)は、ガウス過程の定義により、平均m(x1_*(n))と共分散σ2(x1_*(n))の正規分布となる。
なお、予測分布p(x_*(n)|X_)と、平均m(x1_*(n))と、共分散σ2(x1_*(n))は、以下に示す通りである。
3次元姿勢推定部107は、ステップS3041において学習した潜在変数モデルMに基づいて、ステップS3082で推定された潜在変数x_*(n)から、式(5)により、姿勢y_*(n)を推定する。
つまり、本実施形態に係る3次元動作情報処理装置100は、学習時に、全身の関節に関する情報から一つの潜在変数モデルMを構築することに加えて、全身から一部分の関節を選択点として、選択点に関する情報から潜在変数モデルM1を学習し、この潜在変数モデルMと潜在変数モデルM1とを対応付ける動作モデルを学習により得る。これにより、3次元動作情報処理装置100は、推定時に、この動作モデルを参照して、2次元の画像において画像認識しやすく、追跡しやすい一部の関節の動きに基づき、潜在変数モデルMの潜在空間における全部の関節の位置を得ることができる。よって、関節位置を手動で指定することなく、2次元画像に基づき、全ての関節の位置を得ることできる。つまり、推定開始時に手動での関節位置指定が不要となる。
また、全ての関節の位置に基づき、3次元の仮想空間における多関節物体の姿勢を示す3次元姿勢予測値を算出することにより、姿勢推定の精度を向上させることができる。また、より安定した推定が可能となる。
次に、本発明の他の実施形態について説明する。図8は、第2本実施形態に係る3次元動作情報処理装置100による3次元動作情報処理方法の処理フローの一例を示すフローチャートである。なお、図5に示す処理内容と同一の処理については、同一の符号を付して詳細な説明は省略する。
(ステップS401)
3次元姿勢推定部107は、ステップS3043を事前知識とし、最適値x1_*(n)から潜在空間(X)上の位置を示す潜在変数x_*(n)を推定する際、誤差を考慮して、潜在空間間の写像を行う機能を持つ。
例えば、ステップS307における2次元画像からの観測ベクトルI_1(n)のj番目の関節点に対応する成分を以下の値とする。
より具体的には、以下の式(12)である。
また、より精度を向上させるためには、フレームnの推定に対して、将来のフレームを用いることも可能である。具体的には、3次元姿勢推定部107は、式(11)以降において、τを窓数として、n:n+τに関して計算を行う。この手法によれば、第1実施形態と比較して推定の精度向上が図れる。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Claims (7)
- 複数の関節により構成される多関節物体の動作を3次元の仮想空間における前記関節の回転角により表現する3次元動作データを出力する3次元動作データ出力部と、
入力する前記3次元動作データから前記関節の回転角を示す情報を取り出し、前記多関節物体を構成する全ての関節の回転角に基づき前記3次元の仮想空間よりも高次元な状態空間の姿勢空間における前記多関節物体の動作を表現する全体姿勢行列を算出するとともに、前記多関節物体を構成する全ての関節のうち予め決められている一部の関節の回転角に基づき前記姿勢空間における前記多関節物体の動作を表現する一部姿勢行列を算出する姿勢行列構成部と、
前記全体姿勢行列に基づき前記姿勢空間よりも低次元な状態空間の潜在空間における前記多関節物体の動作を表現する全体潜在変数モデルと、前記一部姿勢行列に基づき前記潜在空間における前記多関節物体の動作を表現する一部潜在変数モデルとを作成し、前記潜在空間において前記全体潜在変数モデルと前記一部潜在変数モデルとを対応付ける動作モデルを作成する動作モデル学習部とを備えることを特徴とする動作モデル学習装置。 - 請求項1に記載の学習装置により作成された前記動作モデルを記憶する記憶部と、
動作する多関節物体を撮影して得られる複数の画像データを入力する画像入力部と、
前記学習装置において予め決められている一部の関節を前記画像データから検出し、前記複数の画像データの画像内における前記一部の関節の位置変化を示す観測ベクトルを算出する観測情報算出部と、
前記記憶部の動作モデルを参照して前記観測ベクトルに基づき前記一部潜在変数モデルの潜在空間における前記一部の関節の位置を算出し、前記一部潜在変数モデルの潜在空間から前記全体潜在変数モデルの潜在空間への写像を行い、前記全体潜在変数モデルの潜在空間における前記全部の関節の位置を算出して、3次元の仮想空間における前記多関節物体の3次元姿勢を示す3次元姿勢予測値を算出する3次元姿勢推定部と、
を備えることを特徴とする3次元姿勢推定装置。 - 前記3次元姿勢推定部は、予測分布に、前記観測ベクトルに対する3次元姿勢の条件付き分布を乗算した予測分布の負の対数尤度を目的関数とし、当該目的関数を最小化する値を前記一部潜在変数モデルの潜在空間における前記一部の関節の位置として算出することを特徴とする請求項2に記載の3次元姿勢推定装置。
- 3次元動作データ出力部が、複数の関節により構成される多関節物体の動作を3次元の仮想空間における前記関節の回転角により表現する3次元動作データを出力し、
姿勢行列構成部が、入力する前記3次元動作データから前記関節の回転角を示す情報を取り出し、前記多関節物体を構成する全ての関節の回転角に基づき前記3次元の仮想空間よりも高次元な状態空間の姿勢空間における前記多関節物体の動作を表現する全体姿勢行列を算出するとともに、前記多関節物体を構成する全ての関節のうち予め決められている一部の関節の回転角に基づき前記姿勢空間における前記多関節物体の動作を表現する一部姿勢行列を算出し、
動作モデル学習部が、前記全体姿勢行列に基づき前記姿勢空間よりも低次元な状態空間の潜在空間における前記多関節物体の動作を表現する全体潜在変数モデルと、前記一部姿勢行列に基づき前記潜在空間における前記多関節物体の動作を表現する一部潜在変数モデルとを作成し、前記潜在空間において前記全体潜在変数モデルと前記一部潜在変数モデルとを対応付ける動作モデルを作成する
ことを特徴とする動作モデル学習方法。 - 画像入力部が、動作する多関節物体を撮影して得られる複数の画像データを入力し、
観測情報算出部が、学習装置において予め決められている一部の関節を前記画像データから検出し、前記複数の画像データの画像内における前記一部の関節の位置変化を示す観測ベクトルを算出し、
3次元姿勢推定部が、請求項4に記載の動作モデル学習方法により作成された前記動作モデルを参照して前記観測ベクトルに基づき前記一部潜在変数モデルの潜在空間における前記一部の関節の位置を算出し、前記一部潜在変数モデルの潜在空間から前記全体潜在変数モデルの潜在空間への写像を行い、前記全体潜在変数モデルの潜在空間における前記全部の関節の位置を算出して、3次元の仮想空間における前記多関節物体の3次元姿勢を示す3次元姿勢予測値を算出する、
ことを特徴とする3次元姿勢推定方法。 - 前記3次元姿勢推定部は、予測分布に、前記観測ベクトルに対する3次元姿勢の条件付き分布を乗算した予測分布の負の対数尤度を目的関数とし、当該目的関数を最小化する値を前記一部潜在変数モデルの潜在空間における前記一部の関節の位置として算出することを特徴とする請求項5に記載の3次元姿勢推定方法。
- コンピュータに、請求項4〜6のいずれか一項に記載の手順を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010229783A JP5525407B2 (ja) | 2010-10-12 | 2010-10-12 | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010229783A JP5525407B2 (ja) | 2010-10-12 | 2010-10-12 | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012083955A true JP2012083955A (ja) | 2012-04-26 |
JP5525407B2 JP5525407B2 (ja) | 2014-06-18 |
Family
ID=46242753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010229783A Active JP5525407B2 (ja) | 2010-10-12 | 2010-10-12 | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5525407B2 (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020578A (ja) * | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
KR101515847B1 (ko) * | 2014-08-06 | 2015-05-04 | 스타십벤딩머신 주식회사 | Nui 장치에 의해 수집된 동작정보의 보정 방법 및 장치 |
JP2015167008A (ja) * | 2013-07-30 | 2015-09-24 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
JP2018129007A (ja) * | 2017-02-10 | 2018-08-16 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム |
JP6424309B1 (ja) * | 2018-08-15 | 2018-11-14 | 裕樹 有光 | 採寸値に基づく3次元モデルを生成するプログラム及び装置 |
JP2020030613A (ja) * | 2018-08-22 | 2020-02-27 | 富士通株式会社 | 情報処理装置、データ算出プログラム、及びデータ算出方法 |
CN111784848A (zh) * | 2020-08-07 | 2020-10-16 | 任丽润 | 一种基于vr与ar的三维情景模拟装置 |
JP6786015B1 (ja) * | 2019-12-26 | 2020-11-18 | 三菱電機株式会社 | 動作分析システムおよび動作分析プログラム |
WO2021039642A1 (ja) * | 2019-08-30 | 2021-03-04 | 国立大学法人大阪大学 | 3次元再構成装置、方法及びプログラム |
JP6869417B1 (ja) * | 2020-11-18 | 2021-05-12 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
JP2021089615A (ja) * | 2019-12-05 | 2021-06-10 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理方法、プログラム |
JPWO2020049847A1 (ja) * | 2018-09-06 | 2021-08-12 | 株式会社ソニー・インタラクティブエンタテインメント | 推定装置、学習装置、推定方法、学習方法及びプログラム |
US11210557B2 (en) | 2017-04-10 | 2021-12-28 | Fujitsu Limited | Recognition apparatus, recognition method, and recording medium |
CN113869217A (zh) * | 2021-09-29 | 2021-12-31 | 北京复数健康科技有限公司 | 一种用于获取图像识别数据的方法和系统 |
CN114627490A (zh) * | 2021-12-15 | 2022-06-14 | 浙江工商大学 | 一种基于惯性传感器与多功能相机的多人姿态估计方法 |
JP2022534666A (ja) * | 2020-04-29 | 2022-08-03 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | 画像処理方法、装置、電子機器及び記憶媒体 |
WO2022191140A1 (ja) * | 2021-03-08 | 2022-09-15 | 国立大学法人 東京大学 | 3d位置取得方法及び装置 |
WO2024057423A1 (ja) * | 2022-09-13 | 2024-03-21 | 富士通株式会社 | 変換方法、変換プログラムおよび変換装置 |
US12142002B2 (en) | 2019-09-20 | 2024-11-12 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12030192B2 (en) | 2019-02-08 | 2024-07-09 | Nec Corporation | Motion model calculation device, control device, joint mechanism, and motion model calculation method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003109015A (ja) * | 2001-10-01 | 2003-04-11 | Masanobu Yamamoto | 身体動作測定方式 |
JP2007004732A (ja) * | 2005-06-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 画像生成装置及び画像生成方法 |
-
2010
- 2010-10-12 JP JP2010229783A patent/JP5525407B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003109015A (ja) * | 2001-10-01 | 2003-04-11 | Masanobu Yamamoto | 身体動作測定方式 |
JP2007004732A (ja) * | 2005-06-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 画像生成装置及び画像生成方法 |
Non-Patent Citations (2)
Title |
---|
CSNG200400435007; 上田修功: 'ベイズ学習[I]-統計的学習の基礎-' 電子情報通信学会誌 第85巻 第4号, 20020401, 第265〜271頁, 社団法人電子情報通信学会 * |
JPN6013056615; 上田修功: 'ベイズ学習[I]-統計的学習の基礎-' 電子情報通信学会誌 第85巻 第4号, 20020401, 第265〜271頁, 社団法人電子情報通信学会 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020578A (ja) * | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
JP2015167008A (ja) * | 2013-07-30 | 2015-09-24 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
US10380759B2 (en) | 2013-07-30 | 2019-08-13 | Canon Kabushiki Kaisha | Posture estimating apparatus, posture estimating method and storing medium |
CN104167016A (zh) * | 2014-06-16 | 2014-11-26 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
KR101515847B1 (ko) * | 2014-08-06 | 2015-05-04 | 스타십벤딩머신 주식회사 | Nui 장치에 의해 수집된 동작정보의 보정 방법 및 장치 |
WO2016021830A1 (ko) * | 2014-08-06 | 2016-02-11 | 스타십벤딩머신 주식회사 | Nui 장치에 의해 수집된 동작정보의 보정 방법 및 장치 |
US10310622B2 (en) | 2014-08-06 | 2019-06-04 | Starship Vending-Machine Corp. | Method and device for correcting motion information collected by NUI device |
JP2018129007A (ja) * | 2017-02-10 | 2018-08-16 | 日本電信電話株式会社 | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム |
US11210557B2 (en) | 2017-04-10 | 2021-12-28 | Fujitsu Limited | Recognition apparatus, recognition method, and recording medium |
JP6424309B1 (ja) * | 2018-08-15 | 2018-11-14 | 裕樹 有光 | 採寸値に基づく3次元モデルを生成するプログラム及び装置 |
JP2020027526A (ja) * | 2018-08-15 | 2020-02-20 | 裕樹 有光 | 採寸値に基づく3次元モデルを生成するプログラム及び装置 |
JP2020030613A (ja) * | 2018-08-22 | 2020-02-27 | 富士通株式会社 | 情報処理装置、データ算出プログラム、及びデータ算出方法 |
JPWO2020049847A1 (ja) * | 2018-09-06 | 2021-08-12 | 株式会社ソニー・インタラクティブエンタテインメント | 推定装置、学習装置、推定方法、学習方法及びプログラム |
US11763464B2 (en) | 2018-09-06 | 2023-09-19 | Sony Interactive Entertainment Inc. | Estimation apparatus, learning apparatus, estimation method, learning method, and program |
JP7171745B2 (ja) | 2018-09-06 | 2022-11-15 | 株式会社ソニー・インタラクティブエンタテインメント | 推定装置、学習装置、推定方法、学習方法及びプログラム |
WO2021039642A1 (ja) * | 2019-08-30 | 2021-03-04 | 国立大学法人大阪大学 | 3次元再構成装置、方法及びプログラム |
US12142002B2 (en) | 2019-09-20 | 2024-11-12 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and program |
JP2021089615A (ja) * | 2019-12-05 | 2021-06-10 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6786015B1 (ja) * | 2019-12-26 | 2020-11-18 | 三菱電機株式会社 | 動作分析システムおよび動作分析プログラム |
WO2021130978A1 (ja) * | 2019-12-26 | 2021-07-01 | 三菱電機株式会社 | 動作分析システムおよび動作分析プログラム |
JP2022534666A (ja) * | 2020-04-29 | 2022-08-03 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | 画像処理方法、装置、電子機器及び記憶媒体 |
CN111784848A (zh) * | 2020-08-07 | 2020-10-16 | 任丽润 | 一种基于vr与ar的三维情景模拟装置 |
JP6869417B1 (ja) * | 2020-11-18 | 2021-05-12 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
JP2022080362A (ja) * | 2020-11-18 | 2022-05-30 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
WO2022107355A1 (ja) * | 2020-11-18 | 2022-05-27 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
WO2022191140A1 (ja) * | 2021-03-08 | 2022-09-15 | 国立大学法人 東京大学 | 3d位置取得方法及び装置 |
CN113869217A (zh) * | 2021-09-29 | 2021-12-31 | 北京复数健康科技有限公司 | 一种用于获取图像识别数据的方法和系统 |
CN114627490A (zh) * | 2021-12-15 | 2022-06-14 | 浙江工商大学 | 一种基于惯性传感器与多功能相机的多人姿态估计方法 |
WO2024057423A1 (ja) * | 2022-09-13 | 2024-03-21 | 富士通株式会社 | 変換方法、変換プログラムおよび変換装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5525407B2 (ja) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5525407B2 (ja) | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム | |
Taheri et al. | GRAB: A dataset of whole-body human grasping of objects | |
Jiang et al. | Avatarposer: Articulated full-body pose tracking from sparse motion sensing | |
Von Marcard et al. | Sparse inertial poser: Automatic 3d human pose estimation from sparse imus | |
JP5555207B2 (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
Sridhar et al. | Real-time joint tracking of a hand manipulating an object from rgb-d input | |
US20210019215A1 (en) | System and Method for Error Detection and Correction in Virtual Reality and Augmented Reality Environments | |
Aristidou et al. | Real-time marker prediction and CoR estimation in optical motion capture | |
JP6116784B1 (ja) | 3次元モデル生成システム、3次元モデル生成方法、及びプログラム | |
Zhang et al. | GPU-accelerated real-time tracking of full-body motion with multi-layer search | |
CN104508709A (zh) | 使用人体对对象进行动画化 | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
Aristidou | Hand tracking with physiological constraints | |
US10970849B2 (en) | Pose estimation and body tracking using an artificial neural network | |
Ponton et al. | SparsePoser: Real-time full-body motion reconstruction from sparse data | |
KR20230004837A (ko) | 생성형 비선형 인간 형상 모형 | |
Schröder et al. | Design and evaluation of reduced marker layouts for hand motion capture | |
JP7499346B2 (ja) | 逆運動学に基づいた関節の回転の推測 | |
Pavllo et al. | Real-time neural network prediction for handling two-hands mutual occlusions | |
JP5767078B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム | |
Acevedo et al. | Optimizing retroreflective marker set for motion capturing props | |
Van Houtte et al. | An articulating statistical shape model of the human hand | |
Probst et al. | Combining human body shape and pose estimation for robust upper body tracking using a depth sensor | |
Payandeh et al. | Experimental Study of a Deep‐Learning RGB‐D Tracker for Virtual Remote Human Model Reconstruction | |
Kanis et al. | Combination of Positions and Angles for Hand Pose Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130123 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130605 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140408 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5525407 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |