JP4812063B2 - 人物動画作成システム - Google Patents
人物動画作成システム Download PDFInfo
- Publication number
- JP4812063B2 JP4812063B2 JP2001250583A JP2001250583A JP4812063B2 JP 4812063 B2 JP4812063 B2 JP 4812063B2 JP 2001250583 A JP2001250583 A JP 2001250583A JP 2001250583 A JP2001250583 A JP 2001250583A JP 4812063 B2 JP4812063 B2 JP 4812063B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- posture
- moving image
- storyboard
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
本発明は、2次元的な線画から人物動画を生成することができる動画像生成システムであり、特に時間軸上の前後関係を記述することができる動画像生成システムに関する。
【0002】
【背景技術】
近年のエンターティンメントや教育などのマルチメディア・コンテンツの制作現場では、CG(コンピュータ・グラフィクス)による複数の仮想人物の相互作用や、仮想人物と人間の対話が含まれるコンテンツが増加している。
ところが、従来のCGソフトウェアで利用されているキーフレーム・アニメーションのような動作生成法や、CGプログラミング言語による動作の記述で、多様な相互作用を記述して生成することは極めて困難である。
CGアニメーションを作成するときには、キーフレームにより間欠的な動作を指定して、フレーム間の動作をスプライン曲線などの単純な手法で補間する方法が一般的である。このような手法で自然な動作を生成するためには、多数のキーフレームを設定することが必要となり、熟練も必要となる。また、フレーム単位での動きを直接扱う必要があるため、ストーリーに沿って長い動作を組み立てるための手法はまた別途考える必要がある。
【0003】
CGアニメーションの制作現場では、作品に対する漠然としたイメージを定着させて、様々なアイデアを統合化するための道具として、紙によるストーリーボードが利用されている。ストーリーボードには、台詞に加えて、ト書きによる状況説明や、アニメーション作成時の様々な指定事項(色や動き方の指定など)を記述する。また、複数のアニメーターがイメージを共有化するための場としても活用されている。
ところが、紙によるストーリーボードでは、アニメーションを作成するプロセスと分離されているという問題がある。そのため、アニメーションを作成するときには、最初から作り直すことが必要となる。また、作業の途中で書き換えたり編集するなどのインタラクティブな操作ができない。
仮想人物の対話を記述する方法としては、TVML(テレビ番組制作言語:TV program Making Language)のような特殊なスクリプト言語により動作の記述を行うことが一般的である。しかし、言語による抽象化された記述のみで、多様な動作を表現することは困難である。抽象化された言語で、細かい動作を記述すると、結局はプログラミング言語のように数値レベルでの記述が必要となる。
【0004】
【発明が解決しようとする課題】
本発明は、ストーリーボードに描いた2次元的な線画から仮想人物の3次元姿勢を推定し、3次元アニメーションを生成することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明は、2次元的な人物の線画から動画を生成することができる動画像生成システムであって、該システムは、人物の一連の動作に対する3次元の姿勢パラメータである動作セグメントを複数蓄積するデータ蓄積部を有しており、動画を作成するために、2次元的な人物の線画により記述するストーリーボード記述部と、前記ストーリーボード記述部に入力した2次元的な線画から、3次元の姿勢パラメータを推定する姿勢推定部と、前記姿勢推定部からの複数の姿勢パラメータに基づいて、姿勢間の補間を行うために、前記データ蓄積部から、複数の姿勢パラメータに当てはまる動作セグメントを用いて補間することで、動作を生成する動作生成部と、前記生成した動作を表示する画像表示部とを備える。
上述の構成により、ストーリーボードに記述した2次元的な人物の線画から動画を生成することが可能となる。
【0006】
前記動作生成部は、前記姿勢推定部で得られた複数の姿勢パラメータを固有空間に投影して、投影した固有空間内の各点との距離がもっとも小さい動作セグメントを選択する。
また、前記ストーリーボード記述部は、時間軸上の関係を記述することができ、さらに、ストーリーボード記述部を複数備え、各ストーリーボード記述部で記述されたストーリーボードを共通の蓄積部に蓄積することができる。また、前記蓄積するストーリーボードに対して、進行状態を示すように、表示状態を変化させることもできる。
【0007】
人物が動作している3次元の姿勢パラメータを入力し、該姿勢パラメータを分割して動作セグメントとして、前記データ蓄積部に蓄積する動作入力部をさらに備えることができる。
前記動作入力部における3次元の姿勢パラメータの分割は、前記姿勢パラメータを固有空間に投影して動作曲線を生成し、該動作曲線を最小記述規範により分割して、動作セグメントを得ることにより行う。
【0008】
なお、動画像生成システムをコンピュータ・システムに構成させるコンピュータ・プログラムおよびコンピュータ・プログラムを記録した記録媒体も本発明である。
【0009】
【発明の実施の形態】
<概要>
本発明のシステムは、2次元的な絵コンテから3次元CGアニメーションを生成するシステムであり、ストーリーボードに記述した2次元的な線画から3次元的な姿勢を自動的に推定する。そして、あらかじめサンプリングして蓄積してあるサンプル動作のデータより、ストーリーボードで記述した間欠的な動作から推定して連続的な3次元動作を生成することができる。
また、ストーリーボードに時間軸上の前後関係を記述する機能を付加することで、複数の仮想人物間の対話のタイミング等を表現できる。更に、複数のCGアニメーターの間でストーリーボードを共有することで、CG作成時の共同作業を支援することも可能となる。
以下、上述のシステムの実施形態を図面を用いて詳細に説明する。
【0010】
<構成>
図1は本発明の人物動画像生成システムの機能構成を示す図である。動作信号入力部12と動作分離部14を備えた動作入力部10、ストーリーボード22,24,26を備えたストーリーボード記述部20、3次元姿勢推定部32と3次元動作補間部34を備えた動作生成部30、データ蓄積部40、画像表示部50で構成されている。
動作入力部10は、動作信号入力部12を用いてサンプル動作の3次元姿勢を入力し、動作分離部14を用いて、入力されたサンプル動作の自動分割を行う。入力データ蓄積部40は、仮想人物の各関節のパラメータを蓄積する。ストーリーボード記述部20は、利用者がCGを作成したいシーンの2次元的なスケッチをストーリーボード22,24,26に記述するのに用いられる。これは、例えば、マウス等のポインティング・ディバイスや、タブレットから、ストーリーボード欄に入力することで行われる。動作生成部30では、3次元姿勢推定部32を用いて2次元姿勢からの3次元姿勢の推定を行い、サンプル動作に基づく補間を3次元動作補間部34にて行う。そして、生成したCGアニメーションを画像表示部50に表示する。
次に、本発明のシステムの動作処理を、処理ごとに説明する。
【0011】
<2次元姿勢から3次元姿勢の算出>
ストーリーボードからアニメーションを生成するための最初のステップは、2次元の絵コントから、3次元モデルの姿勢を推定することである。ストーリーボード上に記述した2次元的な姿勢の絵コンテから、3次元姿勢を推定する手法については、本発明の発明者による特許出願である「動画像生成システム(特願2001−63854)」の明細書中の段落[0010]以降に記述した<モデルに基づく人物動作の推定>に用いた手法を利用する。以下に詳細に説明する。
【0012】
動作生成部30においては、人体の3次元モデルを当てはめて、姿勢を推定している。図2に、動作生成部30で用いている仮想人物モデル100を示す。図2のように、仮想人物モデル100は、各パーツをオブジェクトで表し、それらを接続することで全体を表している。この仮想人物モデル100は、頭部101、胴体102、右上腕103、左上腕104、右前腕105、左前腕106、右腿107、左腿108、右膝下109、左膝下110の各パーツ(各オブジェクト)で構成している。動作生成部30では、このような仮想人物モデル100を利用して姿勢を推定する。仮想人物モデル100の各パーツ(各オブジェクト)の接続関係は、胴体102を頂点として、腕や頭部といった末端のパーツに向かって親子関係の接続として定めることができる。親パーツが動くと、その子に当たるパーツは親パーツの座標系で規定される接続関係で一緒に動くことになる。この仮想人物モデル100を用いて、以下説明を行う。
図3は、カメラ座標系およびワールド座標系におけるストーリーボード上の線画と3次元人物モデルの関係を示す図である。この図において、動画像はカメラ座標系で記述される画像面150に表示される。仮想人物モデル100上の任意の点を、ワールド座標系を用いて、
【数1】
p=(x,y,z)T
とする(上式で括弧の肩に付けられているTは転置行列を表す)と、カメラ座標系に投影した画像面150上の点(X,Y)は、
【数2】
X=fx/z
Y=fy/z (fは画像面150を生成するカメラの焦点距離)
となる。
【0013】
(姿勢の推定)
以下では、拡張カルマン・フィルタにより、シルエット画像から抽出した中心線と、人物モデルの体軸を一致させる手法を述べる。
ワールド座標系での仮想人物モデル100の各パーツの姿勢aを表した式を以下に示す。
【数3】
a=[r,d]T
dはワールド座標の原点からの移動成分を表すベクトルである。また、rはワールド座標の各座標軸である回転軸に沿ったベクトルであり、ベクトルの大きさは回転角に等しい。
【0014】
図4は、画面上の線分の関係と、それに対応する仮想人物モデル100中のパーツとの関係を示す図である。3次元(3D)線分Pの投影された画像面150上の2次元(2D)予測線分がQである。図4における2次元(2D)観測線分Q’と2D予測線分Qを、2次元の画像面上150での始点および終点を表わすワールド座標系のベクトルq1’,q2’,q1およびq2で表わした式を以下に示す。
【数4】
Q’=(q1’,q2’)
Q=(q1,q2)
また、3D線分Pをワールド座標系での線分の始点および終点を表わすベクトルp1およびp2で表わした式を以下に示す。
【数5】
P=(p1,p2)
そして、初期位置で観測された2D観測線分Q’と3D線分Pの組をlとして、以下の式に示す。
【数6】
l=(P,Q’)
この3D線分Pと、それに対応する画像面150上での2D観測線分Q’の組lを求める手法を図5を参照しながら以下に説明する。図5はストーリーボードに記述した絵コンテの線画より人物モデルの初期位置を推定するまでの処理の過程を示す図である。
【0015】
(中心線の推定)
ストーリーボードより入力した2次元的な線画から中心線を推定する際には、手や足などの部位が胴体に隠れた場合、姿勢を推定できないため、絵コンテに記述した仮想人物のシルエット画像を用いて行う。以下の手順で中心線を推定する。
【0016】
▲1▼中心線が抽出しやすい姿勢のシルエット画像をあらかじめ選択してデータ蓄積部40に記憶しておく。このときに、シルエット画像に対応した人物モデルの姿勢パラメータも与えておく。姿勢パラメータは後述する手法により姿勢を微調整することができるので、大まかな値で構わない。
▲2▼図5(a)(i)および(ii)のような、ストーリーボード記述部20からの入力画像系列で、あらかじめデータ蓄積部40に記憶してあるシルエット画像とのマッチングを行い、姿勢が類似しているフレームを選択する。
▲3▼選択したシルエット画像では、人物モデルの大まかな姿勢が分かっているため、画像面150上に各パーツの領域を投影することができる。それぞれの領域内のシルエットを切り出して、主軸を求めて中心線とする。図5(b)(i)および(ii)は入力画像に人物モデルを当てはめ、各パーツの中心線を抽出し、表示した画像を示す。
【0017】
上記の手法より、抽出した中心線を利用して、3D線分Pと、それに対応する画像面150上での2D観測線分Q’の組lを求めることができ、後述する手法により人物モデルの正確な姿勢の推定を行うことができる。
【0018】
(姿勢の調整)
各パーツの姿勢aが正確な場合は、観測画像から得られた画像面150上の2D観測線分Q’とカメラの原点Oとが作る平面Mの上に3D線分Pが含まれる。ところが各パーツの姿勢aに誤差がある場合は、図4(a)のように、画像面150上に表示される線分Q’とカメラの原点Oとが作る平面Mと3D線分Pの間に距離が生じる。この距離の最短距離を、予測誤差h(a,l)とし、以下の式のように表す。
【数7】
h(a,l)は2×1のベクトルである。Rはrから導出される3×3の回転行列である。また、nは面Mの単位法線ベクトル
【数8】
である。aに誤差がない場合は、h(a,l)=0となり、図4(b)のように画像面150上の2D予測線分Qが2D観測線分Q’と重なる。そして2D観測線分Q’とカメラの原点が作る平面の上に3D線分Pが含まれるようになる。このときの3D線分Pの姿勢aが画像面150上に表示されている2D観測線分Q’に対応しているということになる。h(a,l)は非線形なので、観測値l=^liと推定値a=^ai−1のまわりに1次テーラー展開をして線形近似する。
【数9】
ただし∂h/∂a,∂h/∂lは偏微分を表す。これらの偏微分係数は、以下のカルマン・フィルタを適用して人物モデルの各パーツの姿勢a=[r,d]Tの最適値を求める際に利用する。
【0019】
対応付けがついた2D観測線分Q’と3D線分Pの誤差h(a,l)が最小になるように、人体姿勢aを補正し、位置の誤差分布σxiを減少させる。直前に示したh(a,li)の線形近似式をゼロとおいて書き直すと、次のような観測方程式が得られる。
【数10】
zi=Hia+νi
ただし、
【数11】
である。ここでνiの分散Biは次のように求める。
【数12】
【0020】
以上の観測方程式より、人体パーツの姿勢xiの2乗誤差を最小にする推定値は、カルマン・フィルタで与えられる。
【数13】
人体姿勢aiと誤差分布σiは、新しい線分の対応付けが行われるたびに更新される。以上の姿勢推定を人体の各部位に適用することで、ストーリーボード上の2次元の線画の3次元モデルにおける姿勢を推定する。本発明のシステムでは、胴体の姿勢を最初に求めて、上腕、上脚、下腕、下脚と胴体に近い順番に中心線とのマッチングを行い、姿勢の推定を行う。
このようにして、図5(a)(i)および(ii)の入力画像に初期姿勢を推定し、図5(c)(i)および(ii)のように人物モデルを重ね合わせた画像を得ることができる。
【0021】
(2D、3D線分の対応付け)
上述の手法では、シルエット画像のマッチングにより、抽出した中心線を利用して、3D線分Pと対応する2D観測線分Q’の組lが求まったとして説明した。しかし、撮影環境内に中心線として抽出可能な複数の線分がある場合、1つの3D線分に対して複数の2D線分の候補があることとなる。そこで以下に示す2つの手法を併用して対応付けを行う。
まず、2D画像面150上で見たときに、2D観測線分Q’に射影したときに射影像が2D観測線分Q’と重なる線分を候補として選択する。次に、推定値の誤差分布と、2D、3D線分の誤差分布を考慮に入れて、統計的に一致すると判定できる線分を選択する。
【0022】
▲1▼2次元画面上での対応付け
図4を用いて2次元画像面150上で対応付けを行う手法を示す。まず、図5(a)のように、3D線分Pを画面上に投影して、2D予測線分Q=(q1,q2)を求める。また、観測画像から2D観測線分Q’=(q1’,q2’)を得る。2D観測線分Q’に対して射影した2D予測線分Qの射影像が重複領域をもつ場合は、対応の候補として選択する。重複領域の判定方法としては、2D予測線分Qを2D観測線分Q’に射影したときに、q1あるいはq2のどちらかの点がQ’の内部にあれば、2D予測線分Qの射影像が2D観測線分Q’に重なっていると考えることができる。まず、q1をQ’に射影した場合の座標cは、Q’に沿う単位方向ベクトルを
【数14】
m=N[q2’−q1’](N[ ]はベクトルの正規化を表わす)
とすると、
【数15】
c=q1’+m・(q1−q1’)m
である。そして、cがQ’の内部に含まれる条件は、
【数16】
(c−q1’)・(c−q2’)<0
となる。この操作をq1,q2,q1’,q2’に関して行い、上記の条件を満たさない線分は棄却する。
【0023】
▲2▼誤差分布を考慮に入れた対応付け
人体姿勢の誤差分布σxiと、2D,3D線分の誤差分布σliを使ってχ2検定を行い、統計的に一致しないと考えられる線分を棄却する。ここでは、2D−3D線分が一致していると仮定して、仮説検定を行う。人体姿勢a=[r,d]Tと観測値l=(P,Q’)の誤差分布を、正規分布σai〜N(0,P0),σli〜N(0,L0)と仮定する。h(^ai−l,^li)の1次、2次統計量は、
【数17】
【数18】
となる。これよりマハラノビス距離kを次のように求めることができる。
【数19】
h(^ai−1,^li)の誤差分布はh(^ai−1,^li)〜N(0,Zi)であるため、k(^ai−1,^li)〜χ2(ζ)となる(ただしζ=Rank(Zi))。χ2(ζ)分布から、確率に基づくしきい値を設置することができる。例えばk(^ai−1,^li)<9.21は、Ziがランク2(ζ=2)のときに99%の線分が受け付けられることを意味している。しきい値以上の線分は、統計的に一致すると考えられないため、棄却することができる。複数の線分が候補として残った場合は、k(^ai−1,^li)の距離値が最小のものを選択する。
以上の2つの手法を併用して、2D予測線分Qが2D観測線分Q’に一番近い3D線分Pと画像面150上で対応する2D観測線分Q’の組l=(P,Q’)を求めることができる。
なお、上述の人物モデルの姿勢は、利用者が人物モデルの姿勢を推定して画像面に投影し、入力画像に重ね合わせて当てはめることにより求めてもよい。
【0024】
<サンプル動作に基づく補間>
ストーリーボードから連続的な人物動作を生成する際には、フレーム間の動作の間隔が広いため、単純に動作を補間するだけでは自然な動作とならないという問題がある。そのため、データ蓄積部40に蓄積したサンプル動作を当てはめることで、欠落している動作情報を補う。
サンプル動作を取得する手法としては、ビデオ映像で人物動作を記録して、動画像処理によって、手動もしくは自動にて3次元姿勢を求めることができる。また、磁気センサや光学式センサによるモーション・キャプチャ装置を利用することもできる。
ここで、マッチングの際の計算量を低減するとともに、サンプル動作の変形により多様な動作を生成するために、固有空間へ投影することでパラメータ数を減少させる。これについて、以下説明する。
まず、時刻tにおける人体の姿勢パラメータを、
【数20】
と表す。mは姿勢パラメータの総数である。本明細書では、等間隔に撮影した動画像から姿勢パラメータを推定するため、tはフレーム番号に対応する。Nを教示動作の総サンプル数とするとき、人体の姿勢の平均cは、
【数21】
である。教示動作の各姿勢から、姿勢の平均cを差し引いた行列をXとすると、姿勢データ列の共分散行列Qは、
【数22】
Q = X XT
である。次の固有方程式を解いて固有値と固有ベクトルを求める。
【数23】
λi ei = Q ei
k次元の固有空間は、固有値の中から大きい順にk個選んだ固有ベクトルを、基底ベクトルとすることにより得られる。固有値m個の中の大きい方からn個の固有値が占める割合を累積寄与率
【数24】
と呼ぶ。なお、本明細書では多項式近似を容易にするために、上位2つの固有ベクトルを利用した。
固有空間内の動作曲線は、姿勢パラメータを固有空間に射影することで得られる。
【数25】
gt = [e1 ,e2]T (xt−c)
図6は以上の手法により求めた固有空間における人体の動作曲線と、各座標値に対応する3次元姿勢の例を示す図である。
【0025】
<動作曲線の自動分割>
図7は固有空間の動作曲線の分割手法を示す図であり、図7(a)は分割前の動作曲線、図7(b)は分割後の動作曲線を示す。入力画像から人物の姿勢パラメータを推定した後に、以下の2つの手順で連続動作の分割と記述を行う。
▲1▼上記のサンプル動作に基づく補間を求める手法を利用して、姿勢パラメータを固有空間に投影して次元数を低減し、動作曲線(action trajectory)を生成する。
▲2▼最小記述規範により動作曲線を分割する。曲線を記述するモデルとしては、多項式モデルを利用する。
最小記述規範では、あるモデルを仮定したときに、モデルによる記述長が最短になる記述を選択し、モデルの当てはめによる測定データの記述と、近似誤差のトレードオフを扱う。つまり、長時間の動作を簡単なモデルで記述した場合、モデルの記述長は減少するが、モデルから外れる値が増加する。一方で、動作を細かな時間間隔で区切り、モデルで近似をした場合、入力動作からの誤差は減少するが、モデルの記述に必要なビット数が増加する。そのため、モデルの記述長と、外れ値の記述長の両方が最小となるように最適化を行う。
【0026】
動作曲線を近似するモデルとして、2次多項式(2nd order polynominal)を利用し、動作曲線の座標値をそれぞれG1(t),G2(t)とすると、
【数26】
G1(t)=a1t2+a2t+a3
G2(t)=b1t2+b2t+b3
である。これを最小2乗推定により上記の式の2次多項式の係数を推定する。
【数27】
A=[a1,a2,a3]T
B=[b1,b2,b3]T
φ=[1,t,t2]T
と置くと、次のように書くことができる。
【数28】
G1(t)=φTA,G2(t)=φTB
また、ロバスト推定法によりAx,Ayを求めると、
【数29】
A=[ΣφWφT]〜 1Σ[φWG1(t)]
B=[ΣφWφT]〜 1Σ[φWG2(t)]
となる。WはCanchyの重み関数を利用した。Σは動作セグメントの始点と終点の間で和を計算する操作を表す。
【0027】
人物の動作曲線は複雑な軌跡を描くことが多いため、全体を1つの多項式で近似することは困難である。そのため、多項式曲線から大きく外れる部分については、再帰的に分割を行い、個々の動作セグメントの近似精度を高める。動作曲線の記述長Lskは次の3つの項目から構成される。
【数30】
Lsk=Lparameters+Loutliers+Loffset
実数値のパラメータの記述長は、αをパラメータの個数、nをパラメータのしきい値とするとき、α(log2n)/2で求めることができる。よって、各パラメータの記述長は次の通りである。
▲1▼モデルの記述長(Lparameters)
多項式を表すためには、2つの終点と6つのパラメータを記述することが必要となる。|ζ|を固有空間内の点のパラメータ幅、|η|を多項式係数のパラメータ幅、εを解像度とするとき、モデルの記述長は次式で表すことができる。
【数31】
▲2▼外れ値の記述長(Loutliers)
外れ値がある場合は、固有空間内のランダムな点として記述することができる。λ個の外れ値があった場合の記述長は、次式で表すことができる。
【数32】
▲3▼モデルからの誤算の記述長(Lmodel points)
モデルからの誤算の記述長は、ガウシアン分布ζ〜N(0,σ2)を解像度εでサンプリングした場合の記述長に相当する。
【数33】
分割候補点のところで分割するかどうかを決定するためには、分割前の動作セグメントと、分割後の動作セグメントの記述長を比較する。記述長が減少する場合は、分割点で動作セグメントを分割する。
【数34】
Lsk>Lsk 1+Lsk 2
図8は一連の動作を固有空間に投影したところを示す図である。また、図9は上記の手法により、図8に示す動作を自動的に0〜249のフレームに分割したところを示す図である。図9のグラフに○印を示し、数字を添えた部分は、その番号に対応したフレームに関するところである。
図10は0〜249フレームに分割した動作セグメントに対応した3次元動作を示す図である。図10(a)は歩行動作に対応したフレーム(フレーム0〜59)、図10(b)は座る動作に対応したフレーム(フレーム60〜129)、図10(c)は立ち上がる動作に対応したフレーム(フレーム198〜249)である。各フレームの右下に記している番号が対応しているフレームを表す。
【0028】
<人物動作の個性の分析と再構成>
固有空間内の動作セグメントを変形することで、人物動作の個性の推定と再構成を行う。複数人で同じ動作を行った場合のサンプルを利用して、平均動作と、平均動作からの分散を求める。平均動作からの変動をランダム発生させて、動作セグメントを変形させることで、入力したサンプル動作とは異なる個性を持った動きを生成する。
図11は3名のモデルに同じ動作をさせた場合を平均化し、計算により新たな動作を生成したことを示す図である。図11(a)は3名が同じ動作をしているところを固有空間に投影したものを示す図である。そして、図11(b)は3名のモデルの平均動作を求めた後に、3名の動作の分散を利用して新しい個性を持った動作を生成したところである。
【0029】
<固有空間内の動作セグメントによる動作の補間>
あらかじめデータ蓄積部40に蓄積してある動作セグメントを利用して、ストーリーボードによって記述された間欠的な姿勢を補間する手法を次に説明する。
▲1▼上記のサンプル動作に基づく補間を求める手法を利用して、ストーリーボード上の2次元線分から3次元姿勢を推定する。
▲2▼求めた3次元姿勢を固有空間に投影する。各姿勢に対応する固有空間内での点をp1,p2,…,pnとする。
▲3▼固有空間内の点p1,p2,…,pnからの距離が最も小さい動作セグメントを選択する。
図12はストーリーボードに入力した絵コンテと、上記の処理によって生成したCGアニメーションの例を示す図である。図12(a)はストーリーボードに記述された絵コンテであり、(i)〜(iii)の順番でストーリーになっている。これを上記の間欠的な姿勢を補間する処理を施し、図12(b)(i)〜(vi)に示すような連続したCGアニメーションを生成する。
【0030】
<ストーリーボード・システムにおける対話の記述>
図13はストーリーボードに、各キャラクタの動作の速さを制御する機能を追加した例を示す図である。上述した手法では、ストーリーボード間の動作の連結を表すことはできても、例えば同じストーリーボード内で複数のキャラクタが対話をしている場合の動作の前後関係や速さを表現することはできない。そのため、ストーリーボードに各キャラクタに対応したタイムラインの記述欄を追加することで、同一フレーム内の動作の因果関係を記述することができる。
図13に示すように、ストーリーボード記述部の下部に各キャラクタに対応したタイムラインを制御するための欄220を設けることができる。この欄220には、例えばビデオ映像から推定した動作のタイムライン(動作時間の表示)の各線分と、動作セグメントの開始点、終了点とを対応させる。そして、このタイムラインを動かす(スライダ機能)ことで、対応させた動作セグメントの動作を変更させる。即ち、このタイムラインを長くすると、これに対応したキャラクタの動作は遅くなる。また、このタイムラインの開始点や終了点を移動することで、動作の開始時点や終了時点を制御することができる。このように、この欄に表示されるタイムライン(線分)を変更させることを利用して、微妙な発話のタイミングを調整することができる。
【0031】
<ストーリーボードの共有による共同作業支援>
ストーリーボード・システムの応用として、複数のCGアニメーターの間でストーリーボードを共有することで、共同作業の支援を行う。また、複数のアニメーターがイメージを共有化するための場としても活用する。
図14は共同作業支援作業を行うためのシステムの構成例を示す図である。サーバ内のデータ蓄積部40に各種のデータを蓄積し、サーバにはストーリーボード記述部302,304,306を有するクライアントを接続する。各作業者はこれらクライアントからストーリーボードを参照することができる。
【0032】
図15は複数制作者による共同作業を支援するための、ストーリーボードを利用した作業工程管理とメッセージの伝達手法を示す図である。
▲1▼作業工程管理
複数人でCGアニメーションを作成するときには、どの部分がどの程度作業が進んでいるのかなどの作業工程の進捗を把握することが重要である。本システムでは、ストーリーボードを利用して作業工程の管理に必要な情報の記述を行う。例えば、モーションデータやモデルデータが得られていることを色などで示すことで、どこまでアニメーション作成が進んでいるかを表示している。
▲2▼メッセージボード
複数の作業者間で情報交換を支援する方法として、ストーリーボード記述部上にメッセージボード240を付加することで、メッセージを添付する機能を追加することも可能である。例えば、各キャラクタの台詞、ト書きによる状況説明や、アニメーション作成時の様々な指定事項を記述する。これらのメッセージは、メール送信機能と連動することで、管理者等から特定の作業者に送ることもできる。
【0033】
上述の動作入力部、ストーリーボード記述部、動作生成部、データ蓄積部、画像表示部のそれぞれの処理は、計算機上で実行することもできる。また、その処理を行うためにプログラムを格納した記録媒体から読み出したり、通信回線を介して受信等をしたプログラムを実行する等により、本発明の構成を実現することもできる。この記録媒体には、フロッピー・ディスク、CD−ROM、磁気テープ、ROMカセット等がある。また、通信回線としては、インターネット等がある。
【0034】
【発明の効果】
2次元スケッチから3次元CGアニメーションを生成することができるため、アニメーション作成の生産性を大幅に向上することが可能となる。
そして、3次元のサンプル動作を自動的に分割して蓄積するとともに、蓄積したサンプル動作を利用して、ストーリーボードによる間欠的な動作から連続的な動作を生成することにも利用することができる。また、ストーリーボードに時間軸上の前後関係を記述する機能を付加することで、複数の仮想人物間の対話のタイミングを記述することが容易になる。
そのうえ、複数のCGアニメーターの間でストーリーボードを共有することができるため、共同作業の効率を大幅に向上させることが可能となる。
【図面の簡単な説明】
【図1】 本発明のシステムの機能構成を示す図である。
【図2】 仮想人物モデルを示す図である。
【図3】 ストーリーボード上の線画(画面)と3次元人物モデルの関係を示す図である。
【図4】 画面上の線分の関係と、それに対応する仮想人物モデルのパーツとの関係を示す図である。
【図5】 ストーリーボードに記述した絵コンテの線画より人物モデルの初期位置を推定するまでの処理の過程を示す図である。
【図6】 固有空間の動作曲線と、各座標値に対応する3次元姿勢の例を示す図である。
【図7】 固有空間の動作曲線の分割手法を示す図である。
【図8】 一連の動作を固有空間に投影したところを示す図である。
【図9】 図8に示す動作を分割したところを示す図である。
【図10】 分割した動作セグメントに対応した3次元動作を示す図である。
【図11】 3名のモデルに同じ動作をさせた場合を平均化し、計算により新たな動作を生成したものを示す図である。
【図12】 ストーリーボードに入力した絵コンテから生成したCGアニメーションの例を示す図である。
【図13】 ストーリーボードに時間フレーム(タイムライン)を追加した例を示す図である。
【図14】 共同作業支援作業を行うためのシステムの構成例を示す図である。
【図15】 ストーリーボードを利用した作業工程管理とメッセージの伝達手法を示す図である。
【符号の説明】
10 動作入力部
12 動作信号入力部
14 動作分離部
20 ストーリーボード記述部
22,24,26 ストーリーボード
30 動作生成部
32 3次元姿勢推定部
34 3次元動作補間部
40 データ蓄積部
50 画像表示部
100 仮想人物モデル
150 画像面
212,214,216 ストーリーボード
220 タイムライン記述欄
222,224,226 ストーリーボード
240 メッセージ欄
302,304,306 ストーリーボード記述部
Claims (9)
- 2次元的な人物の線画から動画を生成することができる動画像生成システムであって、
該システムは、人物の一連の動作に対する3次元の姿勢パラメータである動作セグメントを複数蓄積するデータ蓄積部を有しており、
動画を作成するために、2次元的な人物の線画により記述するストーリーボード記述部と、
前記ストーリーボード記述部に入力した2次元的な線画から、3次元の姿勢パラメータを推定する姿勢推定部と、
前記姿勢推定部からの複数の姿勢パラメータに基づいて、姿勢間の補間を行うために、前記データ蓄積部から、複数の姿勢パラメータに当てはまる動作セグメントを用いて補間することで、動作を生成する動作生成部と、
前記生成した動作を表示する画像表示部と
を備えることを特徴とする動画像生成システム。 - 請求項1に記載の動画像生成システムにおいて、
前記動作生成部は、前記姿勢推定部で得られた複数の姿勢パラメータを固有空間に投影して、投影した固有空間内の各点との距離がもっとも小さい動作セグメントを選択することを特徴とする動画像生成システム。 - 請求項1又は2に記載の動画像生成システムにおいて、
前記ストーリーボード記述部は、時間軸上の関係を記述することができることを特徴とする動画像生成システム。 - 請求項1〜3のいずれかに記載の動画像生成システムにおいて、
ストーリーボード記述部を複数備え、各ストーリーボード記述部で記述されたストーリーボードを共通の蓄積部に蓄積することができることを特徴とする動画像生成システム。 - 請求項4に記載の動画像生成システムにおいて、
前記蓄積するストーリーボードに対して、進行状態を示すように、表示状態を変化させることができることを特徴とする動画像生成システム。 - 請求項1〜5のいずれかに記載の動画像生成システムにおいて、
人物が動作している3次元の姿勢パラメータを入力し、該姿勢パラメータを分割して動作セグメントとして、前記データ蓄積部に蓄積する動作入力部をさらに備えることを特徴とする動画像生成システム。 - 請求項1〜6のいずれかに記載の動画像生成システムにおいて、
前記動作入力部における3次元の姿勢パラメータの分割は、前記姿勢パラメータを固有空間に投影して動作曲線を生成し、該動作曲線を最小記述規範により分割して、動作セグメントを得ることにより行うことを特徴とする動画像生成システム。 - 請求項1〜7のいずれかに記載の動画像生成システムをコンピュータ・システムに構成させるためのプログラム。
- 請求項8に記載の動画像生成システムをコンピュータ・システムに構成させるためのプログラムを格納した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001250583A JP4812063B2 (ja) | 2001-08-21 | 2001-08-21 | 人物動画作成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001250583A JP4812063B2 (ja) | 2001-08-21 | 2001-08-21 | 人物動画作成システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003058906A JP2003058906A (ja) | 2003-02-28 |
JP4812063B2 true JP4812063B2 (ja) | 2011-11-09 |
Family
ID=19079373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001250583A Expired - Fee Related JP4812063B2 (ja) | 2001-08-21 | 2001-08-21 | 人物動画作成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4812063B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4772455B2 (ja) * | 2005-10-26 | 2011-09-14 | 和久 下平 | アニメーション編集システム |
JP4659606B2 (ja) * | 2005-12-16 | 2011-03-30 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
JP2008119224A (ja) * | 2006-11-10 | 2008-05-29 | Namco Bandai Games Inc | プログラム、情報記憶媒体及びゲーム装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3483113B2 (ja) * | 1998-05-29 | 2004-01-06 | 日本電信電話株式会社 | 時系列画像検索方法、装置、および時系列画像検索プログラムを記録した記録媒体 |
JP2000251078A (ja) * | 1998-12-22 | 2000-09-14 | Atr Media Integration & Communications Res Lab | 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置 |
JP2001155170A (ja) * | 1999-11-25 | 2001-06-08 | Nippon Telegr & Teleph Corp <Ntt> | 手書き線図形構造化方法、および当該構造体の部位識別方法、およびそれらの方法についてのプログラムを記録した記録媒体 |
-
2001
- 2001-08-21 JP JP2001250583A patent/JP4812063B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003058906A (ja) | 2003-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Holden et al. | A deep learning framework for character motion synthesis and editing | |
Achenbach et al. | Fast generation of realistic virtual humans | |
US8941665B1 (en) | Model production for animation libraries | |
US8928674B1 (en) | Combining multiple session content for animation libraries | |
US8542236B2 (en) | Generating animation libraries | |
JP4202479B2 (ja) | 三次元動作復元システム | |
Jörg et al. | Data-driven finger motion synthesis for gesturing characters | |
US20170132827A1 (en) | Data Driven Design and Animation of Animatronics | |
US6522332B1 (en) | Generating action data for the animation of characters | |
US8854376B1 (en) | Generating animation from actor performance | |
Gonzalez-Franco et al. | Movebox: Democratizing mocap for the microsoft rocketbox avatar library | |
JP7335370B2 (ja) | 3次元姿勢推定データを生成するためのコンピュータ実装方法、データ処理装置およびコンピュータプログラム | |
JP4695275B2 (ja) | 動画像生成システム | |
JP2008102972A (ja) | 自動3dモデリングシステム及び方法 | |
JP2009075880A (ja) | 仮想顔モデル変形装置及び仮想顔モデル変形プログラム | |
KR100727034B1 (ko) | 3차원 공간상에서 2차원 인간형 캐릭터의 표현 및애니메이션 방법 | |
Pejsa et al. | Authoring directed gaze for full-body motion capture | |
JPH10240908A (ja) | 映像合成方法 | |
JP4812063B2 (ja) | 人物動画作成システム | |
JP2008015713A (ja) | 動作変形システム及びその方法 | |
Choi et al. | Processing motion capture data to achieve positional accuracy | |
Huang et al. | Planning motions and placements for virtual demonstrators | |
Woodward et al. | A low cost framework for real-time marker based 3-D human expression modeling | |
Cordea et al. | 3-D head pose recovery for interactive virtual reality avatars | |
Akinjala et al. | Animating human movement & gestures on an agent using Microsoft kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110328 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4812063 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |