JP2008015713A - Motion deformation system and method for it - Google Patents
Motion deformation system and method for it Download PDFInfo
- Publication number
- JP2008015713A JP2008015713A JP2006185007A JP2006185007A JP2008015713A JP 2008015713 A JP2008015713 A JP 2008015713A JP 2006185007 A JP2006185007 A JP 2006185007A JP 2006185007 A JP2006185007 A JP 2006185007A JP 2008015713 A JP2008015713 A JP 2008015713A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- deformation data
- action
- posture
- deformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、入力動作に適用することでスタイルを変形した出力動作にするための変形データを生成する変形データ生成方法及びその方法に関する。 The present invention relates to a deformed data generation method for generating deformed data for applying an input operation to an output operation in which a style is deformed, and the method.
人間の動作データの変形には大きな需要がある。状況と合致するように動作データを修正することができれば、既存の動作データを効果的に再利用することができる。 There is a great demand for transformation of human motion data. If the operation data can be modified to match the situation, the existing operation data can be effectively reused.
現在一般的に用いられているアニメーションシステムは、直接的な方法で動作データを変更するための動作編集インターフェースを備えている。このようなインターフェースを用いることで、アニメーターは、例えば、キーフレームにおける関節角度を変更したり、手先や足先の位置を変更したり、動作の速度を調節したりといった、直接的な変形を行うことができる。
しかしながら、アニメーターが動作データを変形しようとするときは、一般に、動作のスタイルを変更したい、という場合が多い。例えば、ある歩行動作があったときに、その動作を楽しそうな歩行動作、疲れたような歩行動作、興奮したような歩行動作に見せたい、といった場合がある。このような動作スタイルの変形を、背景技術で述べたような既存のシステムで実現することは困難である。というのは、既存のシステムを用いて動作スタイルの変形を実現するためには、アニメーターは、関節角度・手足の位置・動作速度の修正などの細かい直接的な修正を繰り返し行う必要がある。さらに、このような変形を実現するためには、動作が楽しそうに、疲れたように、興奮したように見せるためには動作をどのように変形させるべきかという、人間の動作に関する知識が必要となる。故に、このような動作スタイルの変形は極めて困難であり、且つ、時間を要する作業である。 However, when the animator tries to transform the motion data, in general, it is often desired to change the motion style. For example, when there is a certain walking motion, there is a case where it is desired to make the motion look like an enjoyable walking motion, a tired walking motion, or an excited walking motion. It is difficult to realize such a modification of the operation style with an existing system as described in the background art. This is because an animator needs to repeatedly perform detailed direct corrections such as correction of joint angles, positions of limbs, and movement speeds in order to realize deformation of movement styles using an existing system. Furthermore, in order to realize such deformation, it is necessary to have knowledge about human movements, such as how to change the movements so that the movements are fun, tired, and excited. It becomes. Therefore, such deformation of the operation style is extremely difficult and requires time.
そこで、動作データのスタイルを変更するためには動作データをどのように変形するべきかという動作変形に関する知識を既存の動作データから抽出することができれば、動作変形を容易に実現することが可能になると考えられる。しかし、既存の技術では、このような動作変形は困難である。 Therefore, if it is possible to extract from the existing motion data knowledge about how to change the motion data to change the motion data style, it is possible to easily realize the motion deformation. It is considered to be. However, with the existing technology, such deformation of operation is difficult.
既存の動作データをもとに新しい動作を生成するための代表的な手法として、動作ブレンディング[Rose C, Cohen M F, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18(5), 32-40, 1998.]がある。しかし、この動作ブレンディングは、単純に動作データの関節角度を混合することで新しい動作を生成するため、動作データ間で運動の方向や姿勢の向きが異なる場合を取り扱うことができないため、前記課題を解決することはできない。例えば、殴る動作、強く殴る動作及びアッパーカット動作を混合して、強くアッパーカットを行う動作を生成することはできない。なぜならば、殴る動作とアッパーカットでは手の動作の方向が異なるからである。この場合、殴る動作と強く殴る動作の主な相違は、強く殴る動作では手の水平方向の動きが大きくなっている点にある。しかし、動作ブレンディング手法を用いて、このような変化をアッパーカット動作に適用することはできない。アーパーカット動作では手は垂直方向に移動するため、強くアッパーカットを行う動作に見せるためには、手の垂直方向の動きを大きくする必要がある。仮に、強く殴る動作とアッパーカット動作をブレンドした場合、手の水平方向の動きが大きくなってしまい、不自然な出力動作となる。また、別の例としては、歩行動作、幸せな歩行動作、走る動作をブレンドすることによって、楽しそうに走る動作を生成することはできない。楽しそうな歩行動作を走る動作にブレンディングすることによって、出力動作は走る動作ではなく歩行動作に近いものになってしまう。これは、姿勢に関する変形だけではなく、大域的な移動も同時にブレンディングされるからである。 As a representative method for generating new motion based on existing motion data, motion blending [Rose C, Cohen MF, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18 (5 ), 32-40, 1998.]. However, this motion blending simply creates a new motion by simply mixing the joint angles of the motion data, so it cannot handle cases where the motion direction or posture direction differs between motion data. It cannot be solved. For example, it is not possible to generate a strong upper-cut operation by mixing a whirling operation, a strong whirling operation, and an upper-cut operation. This is because the direction of the hand movement differs between the scolding movement and the upper cut. In this case, the main difference between the scolding motion and the scolding motion is that the horizontal motion of the hand is large in the strong scolding motion. However, such a change cannot be applied to the upper cut operation using the operation blending method. Since the hand moves in the vertical direction in the arper cut operation, it is necessary to increase the vertical movement of the hand in order to make it appear that the upper cut is strongly performed. If blending a strong scooping action and an upper cut action, the horizontal movement of the hand becomes large, resulting in an unnatural output action. As another example, it is not possible to generate a joyful running motion by blending a walking motion, a happy walking motion, and a running motion. By blending a walking motion that seems to be fun, the output motion is close to a walking motion, not a running motion. This is because not only the deformation related to the posture but also the global movement is blended at the same time.
本発明は前記課題を解決するためになされたものであり、複数の動作データから広い範囲の入力動作のスタイルを変形させることが可能な変形データを抽出する変形データ抽出方法を提供することを目的とする。また、抽出した変形データを入力動作に適用する変形データ適用方法を提供することを目的とする。 The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a modified data extraction method for extracting modified data capable of transforming a wide range of input motion styles from a plurality of motion data. And It is another object of the present invention to provide a deformation data application method for applying extracted deformation data to an input operation.
(本発明の概要)
本発明は、これらの課題を、2つの動作データ間の変化を表す情報を、抽象的な変形データとして表現することで解決する。変形データを抽象的な形式で表現することにより、もとの動作データと動作の方向や大域的な移動が異なる幅広い入力動作に対して、変形データを適用することができる。変形データは、動作データ間の姿勢に関する姿勢変形データと時間に関する時間変形データからなる。姿勢変形データを表現するために、一般的な関節角度による表現ではなく、基準となる身体部位の相対位置による表現を使用する。また、腰の動きを相対的、絶対的位置及び方向に分割して表現する。また、手先や足先の位置や向きの変化は、動作の方向から計算されるローカル座標で表現される。
(Outline of the present invention)
The present invention solves these problems by expressing information representing changes between two pieces of motion data as abstract deformation data. By expressing the deformed data in an abstract format, the deformed data can be applied to a wide range of input operations that differ from the original motion data in the direction of operation and global movement. The deformation data includes posture deformation data related to the posture between motion data and time deformation data related to time. In order to express posture deformation data, an expression based on a relative position of a body part serving as a reference is used instead of an expression based on a general joint angle. Also, the movement of the waist is expressed by dividing it into relative and absolute positions and directions. Also, changes in the position and orientation of the hand and foot are expressed by local coordinates calculated from the direction of movement.
本発明により、例えば、歩行動作と疲れた歩行動作の2つの動作データから、「疲れ」に関する変形データを抽出することができる(図1)。ここで、抽出した変形データを別の動作に適用することで新しい動作を生成することができる。一例として、「疲れ」に関する変形データを、走る動作に適用することで、疲れた走る動作を生成することができる。このとき、変形データの適用度を調整することで、どの程度「疲れ」動作に見せるかを変化させることができる。つまり、本発明の動作変形手法では、3つの動作データから、一つの新しい動作を生成する。また、あらかじめ抽出した多数の変形データをデータベースに蓄積しておき、入力動作や利用者の指定したスタイルに応じてデータベースから適切な変形データを選択し、入力動作に適用することで、任意の入力動作の動作スタイルを変形することができる。 According to the present invention, for example, deformation data relating to “fatigue” can be extracted from two motion data of a walking motion and a tired walking motion (FIG. 1). Here, a new operation can be generated by applying the extracted deformation data to another operation. As an example, by applying deformation data relating to “fatigue” to a running motion, a tired running motion can be generated. At this time, by adjusting the degree of application of the deformation data, it is possible to change how much the “fatigue” operation is shown. That is, in the motion deformation method of the present invention, one new motion is generated from the three motion data. In addition, by storing a large number of pre-extracted deformation data in the database, selecting appropriate deformation data from the database according to the input operation and the style specified by the user, and applying it to the input operation, any input The action style of action can be transformed.
以下、より詳細に項毎に解決するための手段を示す。
(1)
本発明に係る動作変形システムは、基準動作と教師動作から差分となる変形データを抽出する抽出手段と、ユーザーから教師動作の動作スタイルの入力を受け付ける手段と、抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段と、ユーザーから入力動作に対して適用する動作スタイルの入力を受け付ける手段と、記録している教師動作の動作スタイル及び変形データからユーザーから入力された動作スタイルに基づき変形データを検索する検索手段と、検索手段で検索した変形データを入力動作に適用する適用手段と、適用して生成された出力データを出力する出力手段とを含むものである。
In the following, means for solving each item in more detail will be shown.
(1)
The motion deformation system according to the present invention includes an extraction unit that extracts deformation data that is a difference from a reference motion and a teacher motion, a unit that receives an input of a motion style of a teacher motion from a user, the deformation data extracted by the extraction unit, and a user Means for recording the action style of the teacher movement input from the user, means for receiving the action style input to be applied to the input action from the user, and from the action style and deformation data of the recorded teacher action from the user A search unit that searches for deformation data based on an input operation style; an application unit that applies the deformation data searched by the search unit to an input operation; and an output unit that outputs output data generated by the application. .
前記「抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段」により、データベースを構築することが望ましい。このとき、ユーザーから基準動作又は教師動作の動作種類の入力又は選択を受け付け、この受け付けた基準動作又は教師動作の動作種類を、変形データ及び教師動作の動作スタイルとともに関連付けて記録することが望ましい。そして、検索時にも動作スタイルだけでなく入力動作の動作種類も受け付けることで、動作スタイル及び入力動作の動作種類に合致する変形データを検索することができ、合致する変形データを入力動作に適用することができ、所望の自然な動作を生成することができる。 It is desirable to construct a database by the above-mentioned “means for recording the deformed data extracted by the extracting means in association with the action style of the teacher action input by the user”. At this time, it is desirable to receive an input or selection of the motion type of the reference motion or the teacher motion from the user, and record the received motion type of the reference motion or the teacher motion in association with the deformation data and the motion style of the teacher motion. By accepting not only the operation style but also the operation type of the input operation at the time of the search, it is possible to search for deformation data matching the operation style and the operation type of the input operation, and apply the matching deformation data to the input operation. And can produce the desired natural motion.
検索手段は、入力される検索キーに完全一致した動作スタイル及び/又は動作種類に係る変形データを検索するのではなく、類似する動作スタイル及び/又は動作種類に係る変形データも検索することができる。シソーラスを用いて意味的に検索キーに近いものの変形データも検索する構成にすることもできる。 The search means does not search for deformation data related to an operation style and / or operation type that completely matches the input search key, but can also search for deformation data related to a similar operation style and / or operation type. . It is also possible to use a thesaurus to search for deformation data that is semantically close to the search key.
検索手段は、入力動作に類似する基準動作又は教師動作の変形データを検索することもできる。動作の類似については既に公知技術があるためここでは詳細に言及しない(例えば、動作動作(周期的であるか、周期的でない)のタイプ、動作に主に用いられる身体部位、および動作の方向などをパラメータにして類似性を求めることができる)。入力動作に類似する基準動作・教師動作から抽出した変形データであれば、変形データを適用した場合に自然な動作を生成することができる。この場合においては、変形データを記録するときに基準動作又は教師動作も記録する必要がある。ここで、基準動作又は教師動作ではなく少なくとも入力動作との類似処理に必要なデータを記録していてもよい。このデータは基準動作又は教師動作の一部又は変換したものであってもよい。 The search means can also search for deformation data of a reference action or teacher action similar to the input action. Since there is already a well-known technique regarding the similarity of motion, it is not described in detail here (for example, the type of motion motion (periodic or non-periodic), the body part mainly used for motion, the direction of motion, etc.) Can be used as a parameter to determine similarity). If the deformation data is extracted from the reference motion / teacher motion similar to the input motion, a natural motion can be generated when the deformation data is applied. In this case, it is necessary to record the reference action or the teacher action when recording the deformation data. Here, data necessary for at least a similar process to the input action may be recorded instead of the reference action or the teacher action. This data may be part of the reference action or teacher action or converted.
(2)
本発明に係る動作変形システムは必要に応じて、前記変形データは時間変形データと姿勢変形データとからなり、時間変形データは基準動作と教師動作の時間的対応関係を示し、姿勢変形データは基準動作と教師動作の対応する各時刻における姿勢及び/又は動作の差分を示すものである。
(2)
In the motion deformation system according to the present invention, as necessary, the deformation data includes time deformation data and posture deformation data, the time deformation data indicates a temporal correspondence between the reference motion and the teacher motion, and the posture deformation data is the reference It shows the posture and / or motion difference at each time corresponding to the motion and the teacher motion.
(3)
本発明に係る動作変形システムは必要に応じて、ユーザーから基準動作に対する動作の節目を表すキー時刻の組を受け付ける手段と、ユーザーから教師動作に対する動作の節目を表すキー時刻の組を受け付ける手段を新たに含み、基準動作及び教師動作に対して設定したキー時刻の組が対応しており、ユーザーから受け付けた相互に対応するキー時刻の組に基づいて抽出部が変形データを抽出するものである。
(3)
The motion modification system according to the present invention includes means for accepting a key time set representing an operation milestone for the reference motion from the user and means for accepting a key time set representing the motion milestone for the teacher motion from the user, as necessary. A set of key times that are newly included and set for the reference action and the teacher action are supported, and the extraction unit extracts the deformation data based on the mutually corresponding key time sets received from the user. .
このように本発明によれば、変形データの元になる基準動作及び教師動作それぞれに対応するようにキー時刻の組を設定し、この設定したキー時刻の組に基づいて変形データが生成されるので、基準動作と教師動作を適時に対応付け、教師動作の動作スタイルを良く示す精度の高い変形データを生成することができるという効果を有する。 As described above, according to the present invention, a set of key times is set so as to correspond to each of the reference action and the teacher action from which the deformed data is based, and the deformed data is generated based on the set key time set. Therefore, there is an effect that it is possible to generate highly accurate deformation data that appropriately associates the reference action and the teacher action and shows the action style of the teacher action well.
(4)
本発明に係る動作変形システムは必要に応じて、動作データから動作の節目を表すキー時刻を探索する手段を新たに含み、基準動作及び教師動作から検索された キー時刻の組が対応しており、設定された相互に対応するキー時刻の組に基づいて抽出手段が変形データを抽出するものである。
(4)
The motion modification system according to the present invention newly includes means for searching for a key time that represents a milestone in the motion from the motion data as needed, and a set of key times retrieved from the reference motion and the teacher motion is supported. The extraction means extracts the deformation data based on the set key times corresponding to each other.
動作データから動作の節目を表すキー時刻を自動で探索する手段により、ユーザーが手動でキー時刻の組を設定する必要がなくなる。例えば、既知技術を用い、例えば、各関節の位置、角度、速度、角速度の軌道を含む高次元の軌道を次元の低いユークリッド距離空間に当てはめることで、キー時刻を探索することができる。この場合において、キー時刻が必要数以上に検索されるときがあり、この場合にはユーザーに選択を促すか、キー時刻間の時間的距離も考慮しながら(キーフレームとキーフレームの間には最低限必要な時間がある)特徴の程度の高いキーフレームを上からとる。 The means for automatically searching for the key time representing the knot of the action from the action data eliminates the need for the user to manually set the key time set. For example, the key time can be searched by using a known technique, for example, by applying a high-dimensional trajectory including the positions, angles, velocities, and angular velocity trajectories of each joint to a low-dimensional Euclidean distance space. In this case, there are times when the key time is searched more than necessary. In this case, the user is prompted to select or the time distance between the key times is taken into consideration (between the key frames). Take keyframes with a high degree of feature from the top (minimum required time).
基準動作又は教師動作のどちらかのみに対して自動又は手動でキー時刻が設定された場合には、既に周知技術となっている類似動作検索又は類似姿勢検索を用いて既に設定されているキー時刻に対応するキー時刻をキー時刻が設定されていない動作を対象として自動的に検出して設定していく。なお、検出されたキー時刻をユーザーに提示して複数あるキー時刻から選択する構成をとることもできる。 When the key time is set automatically or manually for only the reference action or the teacher action, the key time that has already been set using the similar action search or the similar attitude search that is already known in the art. The key time corresponding to is automatically detected and set for an operation in which the key time is not set. The detected key time can be presented to the user and selected from a plurality of key times.
(5)
本発明に係る動作変形システムは必要に応じて、前記適用手段は入力動作に適用度に応じた変形データを適用するものである。
(5)
In the motion deformation system according to the present invention, the application means applies deformation data corresponding to the degree of applicability to the input operation as required.
このように本発明によれば、入力動作に可変に変形データを適用するので、適用度を小さくした場合には入力動作に与える変形データの動作スタイルの影響度を制御することができ、不自然な動作の生成を防止し、適度な動作を生成することができ、逆に、適用度を大きくした場合にはよりその動作スタイルを強調した動作を生成することができるという効果を有する。 As described above, according to the present invention, deformation data is variably applied to an input operation. Therefore, when the applicability is reduced, the influence of the operation style of the deformation data on the input operation can be controlled. Generation of an appropriate operation can be prevented, an appropriate operation can be generated, and conversely, when the degree of application is increased, an operation that emphasizes the operation style can be generated.
(6)
本発明に係る動作変形システムは必要に応じて、前記変形データはキャラクタの身体の各主要部位の、それぞれ特定の身体部位を基準とした相対的な位置及び/又は向きを含むものである。
(6)
In the motion deformation system according to the present invention, the deformation data includes a relative position and / or orientation of each main part of the character's body with respect to a specific body part, as necessary.
このように本発明によれば、変形データは相対的な姿勢表現で示されるので、絶対的な位置、向きが基準動作と異なる入力動作に対しても相対的な姿勢表現である変形データを適用することができ、幅広い入力動作に対応することができるという効果を有する。 As described above, according to the present invention, since the deformation data is represented by relative posture expression, the deformation data that is the relative posture expression is applied even to an input motion whose absolute position and orientation are different from the reference motion. Therefore, it is possible to cope with a wide range of input operations.
後説する実施形態では手先、足先、腰を身体の各主要部位として説示している。また、手先、足先の相対的な位置及び/又は向きを表すための基準部位として、それぞれ、肩、股関節、を説示している。また、腰の相対的な位置及び/又は向きを表すための基準座標系として、両足先の位置から求める標準的な腰の位置及び/向きを説示している。これら以外の主要部位の位置及び/又は向きを変形データに含むこともできるし、これら以外の基準部位の座標系、あるいは別の方法により求めた座標系を基準として主要部位の相対的な位置及び/又は向きを表すこともできる。 In the embodiment to be described later, the hand, the tip of the foot, and the waist are described as the main parts of the body. In addition, shoulders and hip joints are illustrated as reference parts for representing the relative positions and / or orientations of the hands and toes, respectively. In addition, as a reference coordinate system for representing the relative position and / or orientation of the waist, a standard waist position and / or orientation obtained from the positions of both feet is shown. The position and / or orientation of the main part other than these may be included in the deformation data, and the relative position and / or orientation of the main part with reference to the coordinate system of other reference parts or the coordinate system obtained by another method It can also represent the orientation.
また、複数の基準座標系をもとに計算した主要部位の位置及び/又は向きを変形データに含めておくことで、入力動作に応じて最も適切な変形を適用することもできる。 Further, by including the position and / or orientation of the main part calculated based on a plurality of reference coordinate systems in the deformation data, the most appropriate deformation can be applied according to the input operation.
具体的には、仮想空間の絶対座標系を使用するのではなく、基準部位毎に相対座標系を設けてこの相対座標系を使用して、主要部位の位置及び/又は向きの差分を表す。基準動作の基準部位のあるキー時刻の姿勢での位置と前のキー時刻の姿勢での位置の差分ベクトルを基準として相対座標系を設け、基準動作及び教師データの姿勢の間の主要部位の位置及び/又は向きの差分をこの相対座標系上で表す。変形データの適用時においては、入力動作の基準部位の当該キー時刻の姿勢での位置と前のキー時刻の姿勢での位置の差分ベクトルを基準として相対座標系を設け、前記基準動作の相対座標系上の変形データを入力動作の相対座標系上の変形データとした後に、入力動作にこの入力動作の相対座標系上の変形データを加えることで出力動作を生成する。そうすることで、仮想空間の絶対座標系では方向が相反する教師動作、入力動作であっても、変形データを適用して自然な動作を生成することができる。また、必要に応じて変形データを左右反転するなどの処理を加える、同じ身体部位の変形データだけでなく他の身体部位の変形データであっても適用し、自然な動作を生成することができる。 Specifically, instead of using the absolute coordinate system of the virtual space, a relative coordinate system is provided for each reference part, and this relative coordinate system is used to represent the difference in position and / or orientation of the main part. The position of the main part between the reference motion and the posture of the teacher data is provided with a relative coordinate system based on the difference vector between the position at the key time posture with the reference motion reference position and the position at the previous key time posture. And / or the difference in orientation is represented on this relative coordinate system. At the time of applying the deformation data, a relative coordinate system is provided based on a difference vector between the position of the reference part of the input operation at the key time posture and the position at the previous key time posture, and the relative coordinates of the reference operation are provided. After the deformation data on the system is converted into the deformation data on the relative coordinate system of the input operation, the output operation is generated by adding the deformation data on the relative coordinate system of the input operation to the input operation. By doing so, it is possible to generate a natural motion by applying the deformation data, even if the teaching motion and the input motion have opposite directions in the absolute coordinate system of the virtual space. Moreover, it is possible to apply not only the deformation data of the same body part but also the deformation data of other body parts by applying processing such as left-right reversal of the deformation data as necessary, and generate a natural motion. .
(7)
本発明に係る動作変形システムは、基準動作と教師動作から差分となる変形データを抽出する抽出手段と、抽出した変形データを入力動作に適用する適用手段とを備え、抽出手段が基準動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、手先及び足先の位置及び/又は向きの差分が表された変形データを抽出し、適用手段が抽出手段により抽出された変形データを入力動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系よって、入力動作の手先及び足先の位置及び/又は向きに適用するものである。
(7)
The motion deformation system according to the present invention includes an extraction unit that extracts deformation data that is a difference from a reference motion and a teacher motion, and an application unit that applies the extracted deformation data to an input motion. Extract and apply deformation data that represents the difference between the position and / or orientation of the hand and foot using the relative coordinate system based on the difference between the position of the hand and foot of the posture and the position of the hand and foot of the previous posture. The deformation data extracted by the extraction means by means of the relative coordinate system based on the difference between the position of the hand and foot of the target posture of the input operation and the position of the hand and foot of the previous posture is used. Applies to position and / or orientation.
(8)
本発明に係る変形データ生成方法は、キー時刻の組が設定されている基準動作とキー時刻の組が設定されている教師動作から、基準動作と教師動作の各キー時刻間の区間における速度変化を示す時間変形データを各区間毎に求めるステップと、基準動作の各キー時刻の姿勢と教師動作の各キー時刻の姿勢から姿勢の差分を求めて各キー時刻での姿勢変形データを取得するステップと、基準動作の各時刻の姿勢と前記抽出した時間変形データから求まる当該基準動作の時刻に対応する教師動作の時刻の姿勢とから姿勢の差分を求めて各時刻での姿勢の変形データを取得するステップと、求めた時間変形データ、キー時刻での姿勢変形データ及び各時刻での姿勢変形データを変形データとして記録するステップとを含むものである。
(8)
According to the modified data generation method of the present invention, the speed change in the interval between each key time of the reference action and the teacher action from the reference action to which the key time set is set and the teacher action to which the key time set is set. Obtaining time deformation data for each section, and obtaining posture deformation data at each key time by obtaining a difference in posture from the posture at each key time of the reference motion and the posture at each key time of the teacher motion And obtaining posture deformation data at each time by obtaining a difference in posture from the posture at each time of the reference motion and the posture at the time of the teacher motion corresponding to the time of the reference motion obtained from the extracted time deformation data And the step of recording the obtained time deformation data, the posture deformation data at the key time, and the posture deformation data at each time as deformation data.
このように本発明においては、まず、基準動作と教師動作の時間変形データを求め、求めた時間変形データを用いて相互に対応する姿勢から各時刻での姿勢変形データを求めているので、各キー時刻での姿勢変形データとも合わせて基準動作のある時刻の姿勢と教師動作の対応する時刻の姿勢を適切に合致させて差分データを求めており、教師動作の動作スタイルを精度高く示す変形データを取得することができるという効果を有する。 As described above, in the present invention, first, the time deformation data of the reference motion and the teacher motion is obtained, and the posture deformation data at each time is obtained from the mutually corresponding postures using the obtained time deformation data. Along with the posture deformation data at the key time, the difference data is obtained by appropriately matching the posture at the time with the reference motion and the posture at the corresponding time of the teacher motion, and the deformation data showing the motion style of the teacher motion with high accuracy It has the effect that can be acquired.
各ステップは、当業者で明らかであるように、プロセッサ及びメモリを備えるコンピュータが実行する。 Each step is performed by a computer comprising a processor and memory, as will be apparent to those skilled in the art.
(9)
本発明に係る変形データ生成方法は必要に応じて、ユーザーから教師動作の動作スタイルを受け付けるステップとを新たに含み、ユーザーから受け付けた動作スタイルを取得した変形データと関連付けて記録するものである。
(9)
The modified data generation method according to the present invention newly includes a step of accepting an action style of a teacher action from a user as necessary, and records the action style received from the user in association with the obtained modification data.
このように本発明によれば、変形データ及び動作スタイルを関連付けて蓄積するので、一つの変形データを生成直後に一回のみ使用するのではなく、ユーザーの所望する動作スタイルの変形データを必要に応じて読み出して適用し、有効に活用することができるという効果を有する。 As described above, according to the present invention, the deformation data and the operation style are stored in association with each other, so that one deformation data is not used once immediately after generation, but the deformation data of the operation style desired by the user is required. Accordingly, there is an effect that it can be read out and applied accordingly and can be used effectively.
(10)
本発明に係る変形データ適用方法は、前記変形データの時間変形データからキー時刻の組が設定されている入力動作を時間変形するステップと、変形データのキー時刻での姿勢変形データを入力動作のキー時刻の姿勢に適用するステップと、変形データの各時刻での姿勢変形データを時間変形した入力動作の各時刻の姿勢に適用するステップとを含むものである。
(10)
The deformation data application method according to the present invention includes a step of temporally deforming an input operation in which a set of key times is set from time deformation data of the deformation data, and posture deformation data at the key time of the deformation data. The method includes applying to the posture at the key time, and applying to the posture at each time of the input operation obtained by temporally deforming the posture deformation data at each time of the deformation data.
(11)
本発明に係る方法は必要に応じて、前記変形データはキャラクタの身体の各主要部位の特定の身体部位を基準とした相対的な位置及び/又は向きを含むものである。
(11)
In the method according to the present invention, if necessary, the deformation data includes a relative position and / or orientation relative to a specific body part of each main part of the character body.
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。 These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.
(本発明の第1の実施形態)
[1.変形データ]
図1に示すように、基準動作と教師動作から変形データを抽出する。ここで、基準動作は特別なスタイルを持たないものであり、一方、教師動作は基準動作と同じ動作で何らかのスタイルを持つものである。適用度を用いて変形データをある動作に適用することで、スタイル化された動作を生成することができる。ここで、入力動作は単純な動作であり、基準動作と同じ種類の動作であることが望ましい。長く複雑な動作を変形する場合には、複数の単純な動作に分割して対応することができる。
(First embodiment of the present invention)
[1. Deformation data]
As shown in FIG. 1, deformation data is extracted from the reference motion and the teacher motion. Here, the reference motion has no special style, while the teacher motion has the same motion as the reference motion and some style. By applying the deformation data to a certain motion using the degree of applicability, a styled motion can be generated. Here, the input operation is a simple operation and is desirably the same type of operation as the reference operation. When deforming a long and complicated motion, it can be divided into a plurality of simple motions.
本発明では、予め全ての動作データに、動作のタイミングを表すキー時間を設定する必要がある。一般に、動作は3つの区間に分けられる。図2に示す初期区間、メイン区間、終期区間である。前後の区間の遷移点に、キー時刻を設定する。また、メイン区間中の動作の有効点にも、キー時間を追加的に設定することができる。有効点とは、例えば、跳躍動作で一番高い位置にきたとき、殴る動作でちょうど相手と接触したときなどが該当する。変形に使用する動作データと対応する限り、任意の追加的なキー時間を設定することができる。原則として、キー時間の設定は、ユーザーが手動で行う必要がある。しかし、通常、キー時間を設定すべき時刻は、動作データを見れば明らかであるため、この設定作業はそれほど困難ではなく、数分で設定することができる。もし、動作の中に該当するキー時間が存在しなければ、そのキー時間は設定する必要はない。キー時間が設定された区間のみが、動作変形処理で使用される。 In the present invention, it is necessary to set a key time representing an operation timing in advance in all operation data. In general, the operation is divided into three sections. These are the initial section, main section, and end section shown in FIG. Key time is set at the transition point of the preceding and following sections. In addition, the key time can be additionally set to the effective point of the operation in the main section. The effective point corresponds to, for example, when the highest position is reached by a jumping action, or when the person just touches the opponent by a scolding action. Any additional key time can be set as long as it corresponds to the operation data used for the deformation. In principle, the key time must be set manually by the user. However, since the time at which the key time should be set is usually apparent from the operation data, this setting operation is not so difficult and can be set in a few minutes. If the corresponding key time does not exist in the operation, it is not necessary to set the key time. Only the section in which the key time is set is used in the motion transformation process.
図3に示す通り、変形データSFは、次式のような、時間に関する時間変形データ、姿勢に関する姿勢変形データからなる。 As shown in FIG. 3, the deformation data SF includes time-deformation data related to time and posture deformation data related to posture as in the following equation.
[1.1 時間変形データ]
時間変形データは基準動作、教師動作の各区間の時間ワープ関数である。
The time deformation data is a time warp function for each interval of the reference motion and the teacher motion.
タイムワープ関数を求めるために、2つの動作の同じ区間における対応する姿勢同士を検索し、対応するフレームの組を特定する必要がある。従前から、類似する姿勢を検索するための手法は使用されている(Lee J, Chai J, Reistma P, Hodgins J, Pollard N. Interactive Control of Avatars Animated with Human Motion Data. ACM Transactions of Graphics (Proc. of SIGGRAPH 2002), 22(3), 491-500, 2002.)(Kovar L, Gleicher M. Automated Extraction and Parameterization of Motions in Large Data Sets. ACM Transactions on Graphics (Proc. of SIGGRAPH 2004), 23(3), 559-568, 2004.)。しかしながら、この従前の方法では、2つの動作のスタイルが非常に近い場合にだけ機能する。そこで、本発明では、現在の姿勢が区間の開始姿勢と終了姿勢の間のどの程度の地点にあるかを示す正規化姿勢変化量を使用する。本発明では、前提条件としてあらかじめ各区間を表すキー時間が与えられていることから、このようなアプローチを用いる。あらかじめ各区間が明らかであるため、対応する区間における対応する姿勢を求めるだけで良い。なお、既存の動作ブレンディング手法でも同様のアプローチを用いているが、本発明のように対応する姿勢の検索は行わず、単純に区間同士の時間を線形補間(Rose C, Cohen M F, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18(5), 32-40, 1998.)(Park S L, Shin H J, Kim T H, Shin S Y. On-Line Motion Blending for Real-time Locomotion Generation. Computer Animation and Virtual Worlds, 15(4), 125-128, 2004.)(Ashraf G, Wong KC. Dynamic Time Warp Based Framespace Interpolation for Motion Editing, Proc. of Graphics Interface 2000. 45-52, 2000.)、パラメータ曲線による補間(Menardais S, Kulpa R, Multon F, Arnaldi B. Synchronization for Dynamic Blending of Motions. In Proceedings of the 2004 ACM Siggraph/Eurographics Symposium on Computer Animation 2004, 2004.)を単純に使用している。そのため、従来の手法では、2つの動作間の細かい速度変化を抽出することはできない。 In order to obtain a time warp function, it is necessary to search corresponding postures in the same section of two motions and specify a set of corresponding frames. Traditionally, methods for retrieving similar poses have been used (Lee J, Chai J, Reistma P, Hodgins J, Pollard N. Interactive Control of Avatars Animated with Human Motion Data. ACM Transactions of Graphics (Proc. of SIGGRAPH 2002), 22 (3), 491-500, 2002.) (Kovar L, Gleicher M. Automated Extraction and Parameterization of Motions in Large Data Sets. ACM Transactions on Graphics (Proc. of SIGGRAPH 2004), 23 (3 ), 559-568, 2004.). However, this previous method only works if the two styles of action are very close. Accordingly, in the present invention, a normalized posture change amount indicating how much the current posture is located between the start posture and the end posture of the section is used. In the present invention, since a key time representing each section is given in advance as a precondition, such an approach is used. Since each section is clear in advance, it is only necessary to obtain the corresponding posture in the corresponding section. Although the same approach is used in the existing motion blending method, the corresponding posture is not searched as in the present invention, and the time between sections is simply linearly interpolated (Rose C, Cohen MF, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18 (5), 32-40, 1998. (Park SL, Shin HJ, Kim TH, Shin S Y. On-Line Motion Blending for Real-time Locomotion Generation. Computer Animation and Virtual Worlds, 15 (4), 125-128, 2004.) (Ashraf G, Wong KC. Dynamic Time Warp Based Framespace Interpolation for Motion Editing, Proc. Of Graphics Interface 2000. 45-52, 2000. ), Parameter curve interpolation (Menardais S, Kulpa R, Multon F, Arnaldi B. Synchronization for Dynamic Blending of Motions. In Proceedings of the 2004 ACM Siggraph / Eurographics Symposium on Computer Animation 2004, 2004.) Yes. Therefore, the conventional method cannot extract a fine speed change between two operations.
次式のように、それぞれの動作区間の姿勢に関する正規化姿勢変化量を算出する。
[1.2 姿勢変形データ]
以降、抽象的な形式で姿勢変形データを獲得するのに用いる姿勢表現をまず説明する。また、エンドエフェクター(例えば、手先、足先)及び腰の位置及び方向の表現方法についても詳細に説明する。
[1.2 Posture deformation data]
Hereinafter, the posture expression used to acquire posture deformation data in an abstract format will be described first. In addition, a method for expressing the position and direction of the end effector (for example, hands and feet) and the waist will be described in detail.
[1.2.1 姿勢表現]
姿勢に関する情報を39次元ベクトルPにより表現する(図4参照)。姿勢変形データΔPi、ΔQi(t)(前記式(1))は2つの動作の対応する姿勢間の相違を算出してこの形式で表現される。本表現では、一般的に用いられる関節角度による姿勢表現ではなく、主要な身体部位の位置及び方向を使用する。
[1.2.1 Posture expression]
Information on the posture is expressed by a 39-dimensional vector P (see FIG. 4). Posture deformation data ΔP i , ΔQ i (t) (formula (1)) is expressed in this format by calculating the difference between the corresponding postures of the two motions. In this expression, the position and direction of the main body part are used instead of the posture expression by the joint angle generally used.
各手足の姿勢を表現するために、手先及び足先の位置及び方向ei、riを使用する。ここで、ei、riは、足先の場合は股関節、手先の場合は肩といった、各手先足先の基準となる身体部位のローカル座標系で表現される。eglobal,i、rglobal,iがi番目の手先及び足先のグローバルな位置及び方向であり、Riがi番目の手先足先の基準身体部位のローカル座標系を示すとすると、グローバルな位置、方向であるeglobal,i、rglobal,iを、次式のように基準身体部位のローカル座標系に変換することで、ローカルな位置、方向ei、riを求める。
腰の絶対的な動き、相対的な動きを分離するために、絶対的位置、相対的位置及び相対的方向、それぞれ、pabs、prel、qrelを独立に表現する(後説1.2.4を参照)。 In order to separate the absolute movement and relative movement of the waist, the absolute position, the relative position and the relative direction, respectively, p abs , p rel and q rel are expressed independently ( explained in 1.2 below). .4).
背中、首の回転Jback、Jneckも四元数によって表され、それぞれ、背中、首における複数の関節での平均的な回転を示す。 Back and neck rotations J back and J neck are also represented by quaternions, and indicate average rotations at a plurality of joints in the back and neck, respectively.
[1.2.2 姿勢変形データの抽出]
姿勢変形データとして、各キーフレームでの姿勢変化ΔPi、並びに、各動作区間の姿勢変化関数ΔQi(t)を用いる。
[1.2.2 Extracting posture deformation data]
As posture deformation data, a posture change ΔPi at each key frame and a posture change function ΔQi (t) of each motion section are used.
入力動作の各区間において、姿勢変形データは次式のように動作に適用される。
基準動作及び教師動作の全てのフレームの姿勢は前記した姿勢表現Pbase、Preferenceに変換される。キー時間での相違は次式の通り算出される。
各区間の全てのフレームの姿勢に関する相違ΔQi(t)は、キー時間の姿勢変形データΔP1、…、ΔPn、並びに、教師動作と基準動作との相違から次式のように求まる。
[1.2.3 手先及び足先の変化量の表現]
図5に示すように、手先及び足先の動きから算出されるローカル座標系を用いて、手先及び足先の方向及び位置の変化量を表す。例えば、基準動作「ストレートパンチ」と教師動作「強くストレートパンチ」の間で、手の動きが前方方向に大きくなる場合、その変化量は、運動方向から計算されたローカル座標系のZ軸方向の変化量として表現される(図5上)。この変化量を入力動作「アッパーカット」に適用すると、アッパーカットにおける手の運動方向から計算されたZ軸方向の動きが大きくなるため、結果的に、アッパーカットの垂直方向の動きが大きくなる(図5下)。
[1.2.3 Expression of changes in hand and toe]
As shown in FIG. 5, the amount of change in the direction and position of the hand and foot is expressed using a local coordinate system calculated from the movement of the hand and foot. For example, when the movement of the hand increases in the forward direction between the reference action “straight punch” and the teacher action “strongly straight punch”, the amount of change in the Z-axis direction of the local coordinate system calculated from the movement direction It is expressed as a change amount (upper part of FIG. 5). When this amount of change is applied to the input operation “upper cut”, the movement in the Z-axis direction calculated from the direction of movement of the hand in the upper cut increases, and as a result, the vertical movement of the upper cut increases ( FIG. 5 bottom).
始めに、キー時刻の手先又は足先の位置ebase,iと次のキー時刻の手先又は足先の位置ebase,i+1から、次式の通り、各区間の手先及び足先毎の動作方向を算出する。
手先又は足先の運動方向に基づいて計算される3×3行列のローカル座標系をMbaseとしたとき、方向dbase,iはMbaseのZ軸成分として用いられる。次に、Z軸成分と真上方向のベクトルの外積からX軸成分を計算する。最後に、X軸成分とZ軸成分の外積からY軸成分が算出される。ローカル座標を設定した後、基準動作と教師動作の間の手先又は足先の位置、方向の変化量をローカル座標系に変換する。
これらの変形データは入力動作に適用するときには、同様に入力動作の手先及び足先のローカル座標Minputが算出され、変形データはそのローカル座標系で適用される。
[1.2.4 腰の絶対位置・相対位置・絶対向き・相対向き]
変形を適用するために、各フレームにおける腰の絶対位置・相対位置・絶対向き・相対向きを分離して扱う。
[1.2.4 Absolute position, relative position, absolute orientation, and relative orientation of the waist]
In order to apply deformation, the absolute position, relative position, absolute orientation, and relative orientation of the waist in each frame are handled separately.
絶対位置pabs、絶対向きqabsは、人体モデルが腰の姿勢を変えることなく直立していると仮定したときの、ニュートラルな位置、向きであるとする(図6参照)。相対位置prel、相対向きqrelはそれぞれ実際の腰の位置p、方向qと絶対位置pabs、絶対向きqabsとの差分である。 The absolute position p abs and the absolute direction q abs are assumed to be neutral positions and orientations when it is assumed that the human body model stands upright without changing the posture of the waist (see FIG. 6). The relative position p rel and the relative direction q rel are the difference between the actual waist position p and direction q and the absolute position p abs and absolute direction q abs , respectively.
始めに、腰の相対的な移動や回転がない状態で人体モデルが直立していると仮定して、両足の位置から各キー時刻における絶対位置pabsを算出する。両足が地面に接触しているキー時刻においては、両足の真中の位置を絶対位置の水平方向の座標(pabs.X、pabs.Z)とする。また、直立した姿勢での腰の高さを垂直方向の座標pabs.Vとする。両足が地面に接触していないキー時刻においては、両脚が地面に接触している前のキー時刻及び後のキー時刻における腰の絶対位置を線形補間することで、そのキー時刻における腰の絶対位置を求める。 First, the absolute position pabs at each key time is calculated from the positions of both feet, assuming that the human body model is upright without relative movement or rotation of the waist. At the key time when both feet are in contact with the ground, the center position of both feet is the horizontal coordinate ( pabs.X , pabs.Z ) of the absolute position. Further, the height of the waist in an upright posture is defined as a vertical coordinate pabs.V. At the key time when both feet are not in contact with the ground, the absolute position of the waist at the key time is obtained by linear interpolation of the absolute position of the waist before and after the time when both legs are in contact with the ground. Ask for.
次に、各キーフ時刻の絶対向きqabsはキー時刻の絶対位置pabs、j+1と前のキー時刻の絶対位置pabs、jから求める。ここでは、qabsは水平方向の回転のみを取り扱うので、qabsは(pabs、j+1、pabs、j)の水平要素から求めることができる。動作区間の絶対向きを計算するために、前のキー時刻の向きと次のキー時刻の向きを大円補間(spherical liner interpolation (SLERP))(Pletinckx D. Quaternion calculus as a basic tool in computer graphics. The Visual Computer, 5(2), 1989.)を用いる。 Next, the absolute direction q abs of each key time is obtained from the absolute position p abs , j + 1 of the key time and the absolute position p abs , j of the previous key time. Here, since q abs handles only the rotation in the horizontal direction, q abs can be obtained from the horizontal elements of ( pabs , j + 1 , pabs , j ). In order to calculate the absolute direction of the motion interval, the spherical liner interpolation (SLERP) (Pletinckx D. Quaternion calculus as a basic tool in computer graphics. The Visual Computer, 5 (2), 1989.) is used.
絶対位置pabs、絶対向きqabsが求まれば、手先及び足先のローカル座標系の計算と同様の方法で、腰の絶対向きqabsから腰のローカル座標系Mbaseを求める。
相対位置及び向きprel、qrelはそれぞれ次式で求まる。
The relative positions and orientations p rel and q rel are obtained by the following equations, respectively.
[2.変形データの抽出及び適用]
変形データを抽出時には、本システムでは、まず時間変形データTi(t)を求め、次にキー時間での姿勢変形データΔPjを求め、最後に区間の姿勢変形データΔQi(t)を求める。このような手順で行う理由は、基準動作と教師動作の間の対応するフレームから姿勢変形データを計算するために、教師動作に対して時間変形データを適用する必要があるからである。また、キー時刻における姿勢変形データを先に基準動作に適用し、その後式(8)を用いて動作区間中の姿勢変形データを求める。
[2. Extraction and application of deformation data]
When extracting deformation data, the system first obtains time deformation data T i (t), then obtains posture deformation data ΔP j at the key time, and finally obtains posture deformation data ΔQ i (t) of the section. . The reason for performing this procedure is that it is necessary to apply time deformation data to the teacher motion in order to calculate the posture deformation data from the corresponding frame between the reference motion and the teacher motion. In addition, the posture deformation data at the key time is first applied to the reference motion, and then the posture deformation data in the motion section is obtained using equation (8).
変形データの適用も同じ順序でなされる。ユーザーにより適用度が指定されている場合には、全ての姿勢変形データにその適用度を乗算してから適用する。変形時には、入力動作の各フレームの姿勢は抽象的な姿勢表現P(t)に変換される。そして、姿勢変形データΔPj、ΔQi(t)は式(6)を使用して適用される。変形された姿勢表現P´(t)に基づき、出力動作の姿勢が計算される。 The deformation data is applied in the same order. When the applicability is designated by the user, the applicability is multiplied after all the posture deformation data are applied. At the time of deformation, the posture of each frame of the input motion is converted into an abstract posture representation P (t). Then, the posture deformation data ΔP j and ΔQ i (t) are applied using the equation (6). Based on the deformed posture expression P ′ (t), the posture of the output operation is calculated.
しかし、単純に変形データを入力動作に適用した場合、不自然な姿勢が生成される可能性がある。例えば、もともと腰の位置が低い入力動作に対して、腰の位置を下げるような変形が適用された場合、腰の位置が低くなり過ぎてしまうかもしれない。このような不自然な姿勢を避けるために、腰の相対位置や相対向き、手先及び足先の位置や向きを、人間の姿勢として実現可能な範囲内に制限する。入力動作のにおける手足の各関節の回転は、手先及び足先の位置と向きから、分析的な逆運動手法(an analytical inverse kinematics method)(Lee J, Shin S Y. A Hierarchical Approach to Interactive Motion Editing for Human-like Characters. Proc. of SIGGRAPH 99, 39-48, 1999.)を用いることで計算される。 However, when deformation data is simply applied to an input operation, an unnatural posture may be generated. For example, if a deformation that lowers the waist position is applied to an input operation in which the waist position is originally low, the waist position may become too low. In order to avoid such an unnatural posture, the relative position and relative orientation of the waist and the positions and orientations of the hands and toes are limited within a range that can be realized as a human posture. The rotation of each joint of the limb during the input motion is determined from the position and orientation of the hand and toes, an analytical inverse kinematics method (Lee J, Shin S Y. A Hierarchical Approach to Interactive Motion Editing). for Human-like Characters. Proc. of SIGGRAPH 99, 39-48, 1999.).
[3.システム構成]
システム構成図を図7に示す。本システムは、変化の特徴量を表す変形データの抽出処理、適用処理の2つの処理に分けられる。抽出処理では、ある基準動作と教師動作の、2つの動作データを入力して受け取り、それらの動作の差分より、特徴の変化を変形データとして抽出する。適用処理では、入力動作に、変形データに適用度をかけて適用することで、出力動作を生成する。
[3. System configuration]
A system configuration diagram is shown in FIG. This system is divided into two processes, that is, an extraction process of deformation data representing a feature amount of change and an application process. In the extraction process, two motion data of a certain standard motion and a teacher motion are input and received, and a change in feature is extracted as deformation data from the difference between the motions. In the application process, an output operation is generated by applying the input data to the deformed data with a degree of applicability.
本システムでは、抽出した変形データを、基準動作の種類と合わせて、「楽しそうに」「疲れ」といった動作スタイルとしてデータベースに格納することで、変形データを再利用する。利用者が入力動作となる動作データを入力し、「楽しい」「疲れ」といった動作スタイルを入力又は選択すると、データベースから最適な変形データを検索して、入力動作に適用する。本システムを利用することで、動作データの動作スタイルをさまざまに変化させることが可能となる。 In this system, the deformed data is reused by storing the extracted deformed data in the database as an operation style such as “pleasant” or “fatigue” together with the type of the reference action. When the user inputs operation data as an input operation and inputs or selects an operation style such as “fun” or “tired”, optimum deformation data is retrieved from the database and applied to the input operation. By using this system, it is possible to change the operation style of operation data in various ways.
[4.ハードウェア構成]
本実施形態に係る動作変形システムは、次の構成の一のコンピュータに構築する。ただし、複数のコンピュータを用いてシステム構築することもできる。たとえば、変形データを生成してデータベースに格納するまでの処理を1台目のコンピュータで処理するように構築し、それ以降の検索処理と適用処理を2台目のコンピュータで処理するように構築し、データベース自体を3台目のコンピュータで構築することもできる。
[4. Hardware configuration]
The motion deformation system according to the present embodiment is constructed in a computer having the following configuration. However, a system can be constructed using a plurality of computers. For example, it is constructed so that the process from generation of deformation data to storage in the database is processed by the first computer, and subsequent search processing and application processing are processed by the second computer. The database itself can be constructed with a third computer.
図8は本実施形態に係る動作変形システムを構築するコンピュータのハードウェア構成図である。 FIG. 8 is a hardware configuration diagram of a computer that constructs an operation modification system according to the present embodiment.
コンピュータは、CPU(Central Processing Unit)11、DRAM(Dynamic Random Access Memory)12等のメインメモリ、外部記憶装置であるHD(hard disk)13、入力装置であるキーボード14及びマウス15、ディスプレイ16aの表示動作を制御するビデオカード16、スピーカー17aの音動作を制御するサウンドカード17、ネットワークに接続するための拡張カードであるLANカード18、CD−ROMドライブ19等からなる。なお、本実施形態ではLANカード18を使用しないが、当業者であれば明らかな通り、システム構成によってはLANを構築して本発明を実現することができる。たとえば、動作作成システムが構築されている他のコンピュータとLANで接続し、そのコンピュータへデザイナーが作成した動作データを、基準動作、教師動作、入力動作としてLANを介して入力し、逆に出力動作を動作作成システムが構築されている他のコンピュータからデザイナーの使用するコンピュータに返すこともできる。
The computer includes a CPU (Central Processing Unit) 11, a DRAM (Dynamic Random Access Memory) 12 and other main memory, an external storage device HD (hard disk) 13, an
例えば、CD−ROMに格納されている動作変形プログラムがHD13上に複製(インストール)され、必要に応じて動作変形プログラムがメインメモリ12に読み出され、CPU11がかかるプログラムを実行することで動作変形システムを構成する。
For example, the operation modification program stored in the CD-ROM is duplicated (installed) on the
[5.システムブロック構成]
図9は本実施形態に係る動作変形システムのシステム構成ブロック図である。
[5. System block configuration]
FIG. 9 is a system configuration block diagram of the motion modification system according to the present embodiment.
本実施形態に係る動作変形システムは、通常の動作スタイルである基準動作と、何らかの動作スタイルを持った教師動作との間から、2つの動作の間のスタイルの違いを表する変形データを生成する抽出部21と、この抽出部21が生成した変形データをデータベース23に格納する格納部22と、入力動作に適用する変形データをデータベース23から検索する検索部31と、この検索部31で検索され読み出された変形データを入力動作に適用して出力動作を作成する適用部32とからなる。
The motion deformation system according to the present embodiment generates deformation data representing a style difference between two motions from between a standard motion that is a normal motion style and a teacher motion having some motion style. An
抽出部21は、基準動作及び教師動作から[1.変形データ]で前説した変形データを[2 変形データの抽出及び適用]で説示した方法で抽出する。
The
格納部22は、抽出部21から生成された変形データを順次データベース23に格納するのではなく、教師動作の動作スタイル(「疲れ」「楽しい」等)と関連付けてデータベース23に生成された変形データを格納する。
The
教師動作の動作スタイルは、ユーザーからの入力をテキストボックスで受けてもよいし、複数の動作スタイルを一覧表示してユーザーからの選択を受けてもよい。勿論、この組合せでもよく、始めはテキスト入力し、既に入力された動作スタイルを一覧表示することもできる。さらに、一覧表示はシソーラスのように動作スタイルを意味によって分類、配列して一覧表示することが望ましい。 As the action style of the teacher action, input from the user may be received in a text box, or a plurality of action styles may be displayed in a list and received from the user. Of course, this combination is also possible. Initially, text input can be performed and a list of already input operation styles can be displayed. Further, it is desirable that the list display is performed by classifying and arranging the operation styles according to meaning as in a thesaurus.
なお、変形データ及び教師動作の動作スタイルとさらに基準動作の動作種類(「歩く」「走る」等)も関連付けてデータベース23に格納することもできる。このとき、基準動作の動作種類は、教師動作の動作スタイルと同様にユーザーからの指定を受ける。変形データはすべてどのような入力動作に対しても適用しても出力動作を生成することはできるものの、教師動作の動作スタイルを指定しただけでは、動作を作成するデザイナーが意図しない出力動作、または、不自然な出力動作が生成されることがある。この主な理由の一つとして、基準動作の動作種類と入力動作の動作種類が大きく異なる場合があるからである。そこで、教師動作の動作スタイルに加え、変形データ作成時の基準動作の動作種類も関連付けてデータベース23に格納し、変形データの検索時に参照、指定できるようにする。これにより、想定外の出力動作の生成を防止し、所望の出力動作を生成することができる。なお、動作種類は、動作スタイルと同様にユーザーがテキスト入力又は選択した情報を使用することもできるし、基準動作を解析して動作種類を表す特徴量を計算することもできる。
Note that the deformation data and the motion style of the teacher motion and the motion type of the reference motion (“walk”, “run”, etc.) can also be stored in the
検索部31は、ユーザーから受けた動作スタイルを検索キー(キーワード)を用いてデータベース23から入力動作に適用する変形データを検索する。ユーザーからの入力は変形データ格納時の教師動作の動作スタイルと同様である。
The
適用部32は、検索部31で検索された変形データを[2 変形データの抽出及び適用]で説示した方法で入力動作に適用して出力動作を生成する。適用部32は、ユーザーから受けた適用度に応じて入力動作に与える変形データの程度を変えることができる。また、この適用度は部位毎に適用することもでき、例えば、変形データを適用する場合に足はあまり適用しないが、腕はそのまま適用するといった設定を行うことができ、より柔軟にユーザーが想定する出力動作を生成することができる。このように部位毎の適用度を変更できることも、直接的に関節角度を変更する従来の方法と比べ、本動作システムの利点のひとつである。
The
[6.動作]
[6.1 変形データ生成格納]
図10は第1の実施形態に係る動作変形システムの変形データ抽出動作及び格納動作のフローチャートである。
[6. Operation]
[6.1 Modified data generation and storage]
FIG. 10 is a flowchart of the deformation data extraction operation and the storage operation of the operation deformation system according to the first embodiment.
動作変形システムはまず基準動作の入力を行う(ステップ101)。動作はモーションキャプチャ装置、動作設計装置を用いて作成することができ、作成した動作を基準動作として動作変形システムに取り込ませる。 First, the motion deformation system inputs a reference motion (step 101). The motion can be created using a motion capture device or motion design device, and the created motion is taken into the motion deformation system as a reference motion.
動作変形システムは教師動作の入力を行う(ステップ111)。
抽出部21は入力された基準動作及び教師動作から変形データを生成する(ステップ200)。
ユーザーから動作スタイルの入力又は選択を受け付ける。
格納部22は受け付けた動作スタイルと生成した変形データを関連付けて格納する(ステップ301)。データベースに格納する場合には、データベースには動作スタイル、変形データの属性を有するテーブルが設定されている。このデータベースには必要に応じて、基準動作、教師動作の属性を加えたテーブルを設定することもできる。
The motion transformation system inputs a teacher motion (step 111).
The
Accepts input or selection of action style from the user.
The
図11は第1の実施形態に係る動作変形システムの変形データの抽出詳細動作のフローチャートである。
抽出部21は各区間での基準動作、教師動作のそれぞれの正規化姿勢変化量に基づいて対応付けを行う(ステップ210)。
抽出部21は基準動作のキー時刻での姿勢と教師動作のキー時刻での姿勢からキー時刻での姿勢変形データを算出する(ステップ220)。
抽出部21はステップ210で求めた時間変形データとステップ220で求めた変形データを用いて、各区間内の対応するフレーム同士の姿勢の差分から、動作変形データを算出する(ステップ230)。
FIG. 11 is a flowchart of the detailed operation of extracting deformation data of the operation deformation system according to the first embodiment.
The
The
Using the temporal deformation data obtained in step 210 and the deformation data obtained in step 220, the
[6.2 変形データ生成格納]
図12は第1の実施形態に係る動作変形システムの変形データ適用動作のフローチャートである。
動作変形システムはまず動作に所望の変更を加える入力動作の入力を行う(ステップ401)。
ユーザーから入力動作に適用したい動作スタイルの入力又は選択を受け付ける。
ユーザーから入力動作に適用する変形の程度を示す適用度の入力又は選択を受け付ける。
検索部31は動作スタイルを検索キーとして変形データを検索する(ステップ500)。
適用部32は検索した変形データを、入力した入力動作にユーザーが指定した適用度で適用して、出力動作を生成する(ステップ600)。
[6.2 Modified data generation and storage]
FIG. 12 is a flowchart of the modification data application operation of the operation modification system according to the first embodiment.
First, the motion deformation system inputs an input motion for making a desired change to the motion (step 401).
Accepts an input or selection of an action style to be applied to the input action from the user.
An input or selection of the applicability indicating the degree of deformation applied to the input operation is received from the user.
The
The
図13は第1の実施形態に係る動作変形システムの変形データ適用詳細動作のフローチャートである。
適用部32は変形データの時間変形データを用いて入力動作の速度を変形する(ステップ610)。
適用部32はキー時刻での姿勢変形データに適用度を乗算して、入力動作の対応するキー時刻の姿勢に加えることで、キー時刻の姿勢を変形する(ステップ620)。
適用部32は各区間の姿勢変形データに適用度を乗算して、入力動作の対応するフレーム姿勢に加えることで、各フレームの姿勢を変形する(ステップ630)。
FIG. 13 is a flowchart of the detailed modification data application operation of the behavior modification system according to the first embodiment.
The
The applying
The applying
(その他の実施形態)
[動作スタイルの類似検索]
変形データの検索時に、ユーザーが入力、選択した動作スタイルだけでなく、入力、選択した動作スタイルに類似する動作スタイルをユーザーに対して提示することもできる。特に、提示する類似する動作スタイルは、既にデータベース23に格納されている変形データの動作スタイルであることが望ましい。また、類似する動作スタイルが複数ある場合に類似性の順序に動作スタイルをユーザーに提示することが好ましい。提示した類似する動作スタイルもユーザーが選択することができ、さらに、選択した類似する動作スタイルに対して類似する動作スタイルをユーザーに提示することもでき、以降同様に再帰処理してもよい。具体的に、類似する動作スタイルはシソーラスを用いてユーザーが入力、選択した動作スタイルに類似する動作スタイルを検出することができる。類似する動作スタイルとは、同義語、関連語、広義語、狭義語等が該当する。
(Other embodiments)
[Similar search of operation style]
When searching for deformation data, not only an operation style input and selected by the user, but also an operation style similar to the input and selected operation style can be presented to the user. In particular, it is desirable that the similar operation style to be presented is the operation style of the deformation data already stored in the
この場合において、既にデータベース23に格納している動作スタイルをユーザーに提示する場合には、動作スタイルだけでなく関連付けて格納されている基準動作の動作種類も提示することが望ましい。
In this case, when the action style already stored in the
[動作スタイルの選択]
変形データの検索時のユーザーによる動作スタイルの選択においては、例えば、既に登録している動作スタイルを選択可能に表示できるとしたが、この表示と共に各動作スタイルと関連付いている変形データを生成するために使用した基準動作及び/又は教師動作を表示することもできる。そうすることで、動作スタイルだけではユーザーが理解し難いが、実際の動作を参照することでその動作スタイルを把握することができる。
[Select action style]
In the selection of an action style by the user when searching for deformation data, for example, it is assumed that an already registered action style can be selected and displayed, but with this display, deformation data associated with each action style is generated. It is also possible to display the reference action and / or the teacher action used for the purpose. By doing so, it is difficult for the user to understand only the operation style, but the operation style can be grasped by referring to the actual operation.
[入力動作に基づく適用可能な動作スタイルの表示]
入力動作に適用できる動作スタイルはデータベース23に格納されている全ての変形データの動作スタイルであるとは限らない。基準動作と入力動作の動作種類が全く異なる場合、変形データが適用できないこともある。そこで、入力動作に適用できない動作スタイルを外して一覧表示することが望ましい。入力動作に適用できない変形データは、基準動作と入力動作の差異により判定することができる。具体的には、動作類似性評価を用いて一定の類似性がない場合には適用が困難であると判断することができる。また、予め適用できない動作種類の組み合せを記録し、基準動作の動作種類と入力動作の動作種類から適用できない動作スタイルを求めてもよい。さらに、ユーザーが適用できないとした情報(基準動作の動作種類、入力動作の動作種類)を履歴情報として記録し、履歴情報の組み合せに該当する場合には、出力動作を生成する前に自然な出力動作が生成することができない可能性が高い旨等の注意メッセージを出力し、または、ユーザーが提示されている動作スタイルの中でその履歴情報の組み合せに該当するものを表示しないか、選択できないようにすることができる。
[Display applicable action styles based on input actions]
The operation style that can be applied to the input operation is not necessarily the operation style of all deformation data stored in the
[出力動作の複数表示]
ユーザーにより動作スタイルが複数選択された場合に、入力動作にそれぞれの動作スタイルに対応する変形データを適用して各出力動作を出力し、複数の出力動作を同時にディスプレイに表示することもできる。比較表示の結果、ユーザーは所望の出力動作を用いることができる。このとき、時間変形データは適用せずに、姿勢変形データのみを適用することで、入力動作と出力動作の姿勢の差異をより詳細に比較することができる。また、適用する変形データにおいて変形量が大きい部位については、出力動作におけるその部位の色を変えて表示することで、入力動作と出力動作の姿勢の差異をユーザーがより良く認識できるようにすることができる。
[Display multiple output operations]
When a plurality of operation styles are selected by the user, each output operation can be output by applying deformation data corresponding to each operation style to the input operation, and the plurality of output operations can be simultaneously displayed on the display. As a result of the comparison display, the user can use a desired output operation. At this time, by applying only the posture deformation data without applying the time deformation data, the difference between the postures of the input operation and the output operation can be compared in more detail. In addition, for parts with a large amount of deformation in the deformation data to be applied, the user can better recognize the difference in posture between the input action and the output action by changing the color of the part in the output action and displaying it. Can do.
また、複数の動作スタイルの適用結果の出力動作を同時に表示するだけではなく、さまざまな適用度での適用結果の出力動作を同時に表示することで、ユーザーが適切な適用度を決定できるようにすることもできる。 In addition to displaying the output behavior of the application results of multiple behavior styles at the same time, the user can determine the appropriate applicability by displaying the output behavior of the application results at various applicability at the same time. You can also.
[複数の動作からなる複合動作]
3段跳び、ダンスといった複数の動作が複合された複合動作についても、キー時刻を適切にユーザーが設定することができる場合には、変形データを作成することは可能である。しかしながら、作成した変形データを適用する際に、自然な動作となる入力動作が限られてくる。そこで、複合動作の場合には構成する動作の切れ目を自動又は手動で設定する。歩く動作などの繰り返し動作であれば、動作の周期性(一つの動作は初期姿勢から終期姿勢からなり、それ以降の動作の初期姿勢又は終期姿勢を検出することで切れ目を検出することができる)に注目して解析を行うことで自動的に設定することができる。そして、動作の切れ目が指定されれば、それぞれの切れ目の間の動作を単一の動作として認識して、変形データを作成することができる。複合動作となる基準動作を構成する動作数と、同じく複合動作となる入力動作を構成する動作数が同じ場合には、対応する変形データを適用することで出力動作を得ることができる。構成する動作数が異なる場合で入力動作の動作数が少ない場合には、入力動作の動作数よりも多い基準動作の動作数の変形データを使用しないことで対応でき、逆に、入力動作の動作数が多い場合には、足りない動作数分基準動作の変形データを繰り返し使用することで対応することができる。
[Composite action consisting of multiple actions]
Even for a combined action in which a plurality of actions such as three-step jump and dance are combined, it is possible to create deformation data if the user can appropriately set the key time. However, when the created deformation data is applied, input operations that are natural operations are limited. Therefore, in the case of a composite operation, the operation breaks to be configured are set automatically or manually. If it is a repetitive motion such as a walking motion, the periodicity of the motion (one motion consists of the initial posture to the final posture, and the break can be detected by detecting the initial posture or the final posture of the subsequent motion) It is possible to set automatically by paying attention to the analysis. If a break between motions is designated, the motion between the breaks can be recognized as a single motion, and deformation data can be created. When the number of operations constituting the reference operation that is a composite operation is the same as the number of operations constituting the input operation that is also a composite operation, an output operation can be obtained by applying the corresponding modified data. If the number of operations is different and the number of input operations is small, it can be handled by not using the deformation data of the number of operations of the reference operation that is larger than the number of operations of the input operation. When the number is large, it can be dealt with by repeatedly using the deformation data of the reference motion for the number of motions that are insufficient.
[各部位の変化量による不自然な動作の出力抑制]
入力動作中で変化量が所定閾値以下であった身体部位に対しては、その部位に関して変形データを適用しない構成とすることもでき、入力動作中で大きく変化しない部位の動きを変形データにより変化させることで不自然な動作が出力されることを防止することができる。
[Suppression of unnatural motion output due to changes in each part]
For a body part whose amount of change is less than or equal to a predetermined threshold during input operation, it is possible to adopt a configuration in which deformation data is not applied to that part, and the movement of the part that does not change greatly during input operation is changed by the deformation data By doing so, it is possible to prevent an unnatural operation from being output.
[変形データの変換処理]
例えば、右手で殴る動作から変形データを生成した場合に、左手で殴る動作に変形データを適用したい場合が生じる。変形データを単純に適用すると、右手で殴る動作の右手の変形データが左手で殴る動作の右手に適用されるため、不自然な動作となる。この場合には変形データの右手の変形量を左手の変形量に変換する必要があり、変形データ内の左右の身体部位のデータを取り替える必要がある。ただし、単純に各部位の変形量を入れ替えるだけでは、右手の位置が外側に変化していたときに、左手の位置が内側に変化してしまうため、変形データの変化量を左右に反転するような変換が必要となる。
[Transformation of transformation data]
For example, when the deformation data is generated from the movement with the right hand, the deformation data may be applied to the movement with the left hand. If the deformation data is simply applied, the deformation data of the right hand that moves with the right hand is applied to the right hand of the movement that moves with the left hand, resulting in an unnatural movement. In this case, it is necessary to convert the deformation amount of the right hand in the deformation data into the deformation amount of the left hand, and it is necessary to replace the data of the left and right body parts in the deformation data. However, simply changing the deformation amount of each part will cause the left hand position to change inward when the position of the right hand changes to the outside. Needs to be converted.
[異なるキャラクタでの使用]
前記実施形態においては、同じキャラクタから生成された変形データは異なる体格のキャラクタに適用することもできる。このとき、手足の長さなどに応じて、変形データにおける変形量を適切にスケーリングすることが望ましい。
[Use with different characters]
In the embodiment, deformation data generated from the same character can be applied to characters having different physiques. At this time, it is desirable that the deformation amount in the deformation data is appropriately scaled according to the length of the limb.
以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。 Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.
11 CPU
12 RAM
13 ハードディスク
14 キーボード
15 マウス
16 ビデオカード
16a ディスプレイ
17 サウンドカード
17a スピーカー
18 LANカード
19 CD−ROMドライブ
21 抽出部
22 格納部
23 データベース
31 検索部
32 適用部
11 CPU
12 RAM
13
Claims (11)
ユーザーから教師動作の動作スタイルの入力を受け付ける手段と、
抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段と、
ユーザーから入力動作に対して適用する動作スタイルの入力を受け付ける手段と、
記録している教師動作の動作スタイル及び変形データからユーザーから入力された動作スタイルに基づき変形データを検索する検索手段と、
検索手段で検索した変形データを入力動作に適用する適用手段と、
適用して生成された出力データを出力する出力手段とを含む動作変形システム。 Extraction means for extracting deformation data that is a difference from the reference motion and the teacher motion;
Means for accepting an input of a teacher action style from a user;
Means for associating and recording the deformation data extracted by the extracting means and the action style of the teacher action input by the user;
Means for accepting an input of an action style to be applied to an input action from a user;
Search means for searching for deformation data based on the action style input from the user from the action style and deformation data of the recorded teacher action;
Application means for applying the deformation data searched by the search means to the input operation;
An operation deformation system including output means for outputting output data generated by application.
時間変形データは基準動作と教師動作の時間的対応関係を示し、
姿勢変形データは基準動作と教師動作の対応する時間での姿勢及び/又は動作の差分を示す
前記請求項1に記載の動作変形システム。 The deformation data is composed of time deformation data and posture deformation data,
Temporal deformation data shows the temporal correspondence between the standard action and the teacher action,
The motion deformation system according to claim 1, wherein the posture deformation data indicates a difference in posture and / or motion at a time corresponding to a reference motion and a teacher motion.
ユーザーから教師動作に対する動作の節目を表すキー時刻の組を受け付ける手段を新たに含み、
基準動作及び教師動作に対して設定したキー時刻の組が対応しており、
ユーザーから受け付けた相互に対応するキー時刻の組に基づいて抽出部が変形データを抽出する
前記請求項1または2に記載の動作変形システム。 Means for accepting a set of key times representing a milestone in the action relative to the reference action from the user;
Newly includes means for accepting a set of key times from the user that represents the milestones of motion for teacher motion,
A set of key times corresponding to the standard action and teacher action is supported,
The motion deformation system according to claim 1 or 2, wherein the extraction unit extracts deformation data based on a set of key times corresponding to each other received from a user.
基準動作及び教師動作から検索されたキー時刻の組が対応しており、
設定された相互に対応するキー時刻の組に基づいて抽出手段が変形データを抽出する
前記請求項1ないし3のいずれかに記載の動作変形システム。 Newly includes means for searching for key times representing movement milestones from movement data,
A set of key times retrieved from the reference action and the teacher action is supported,
4. The motion deformation system according to claim 1, wherein the extraction unit extracts deformation data based on a set of key times corresponding to each other.
前記請求項1ないし4のいずれかに記載の動作変形システム。 The motion deformation system according to claim 1, wherein the applying unit applies deformation data corresponding to a degree of application to an input operation.
前記請求項1ないし5のいずれかに記載の動作変形システム。 The motion deformation system according to any one of claims 1 to 5, wherein the deformation data includes a relative position and / or orientation of each main part of the body of the character with reference to a specific body part.
抽出手段が基準動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、手先及び足先の位置及び/又は向きが表された変形データを抽出し、
適用手段が抽出手段により抽出された変形データを入力動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、変形データを入力動作に適用する動作変形システム。 An extraction means for extracting deformation data that is a difference from the reference action and the teacher action; and an application means for applying the extracted deformation data to the input action,
Deformation data in which the position and / or orientation of the hand and foot are expressed by a relative coordinate system based on the difference between the hand and foot position of the target posture of the reference motion and the hand and foot position of the previous posture by the extraction means Extract
The deformation data extracted by the extraction means by the applying means is applied to the input action by a relative coordinate system based on the difference between the hand and foot position of the target posture of the input action and the hand and foot position of the previous posture. Motion deformation system.
基準動作の各キー時刻の姿勢と教師動作の各キー時刻の姿勢から姿勢の差分を求めて各キー時刻での姿勢変形データを取得するステップと、
基準動作の各時刻の姿勢と前記抽出した時間変形データから求まる当該基準動作の時刻に対応する教師動作の時刻の姿勢とから姿勢の差分を求めて各時刻での姿勢変形データを取得するステップと、
求めた時間変形データ、キー時刻での姿勢変形データ及び各時刻での姿勢変形データを変形データとして記録するステップとを含む変形データ生成方法。 Temporal deformation data indicating the speed change in the interval between each key time of the reference action and the teacher action from the reference action to which the key time set is set and the teacher action to which the key time set is set for each interval Seeking steps,
Obtaining posture difference data at each key time by obtaining a difference in posture from the posture at each key time of the reference motion and the posture at each key time of the teacher motion; and
Obtaining posture deformation data at each time by obtaining a difference in posture from the posture at each time of the reference motion and the posture at the time of the teacher motion corresponding to the time of the reference motion obtained from the extracted time deformation data; ,
And a step of recording the obtained time deformation data, the posture deformation data at the key time, and the posture deformation data at each time as deformation data.
ユーザーから受け付けた動作スタイルを取得した変形データと関連付けて記録する
前記請求項8に記載の変形データ生成方法。 A step of accepting a teacher action style from the user,
The deformation data generation method according to claim 8, wherein the operation style received from the user is recorded in association with the acquired deformation data.
変形データのキー時刻での姿勢変形データを入力動作のキー時刻の姿勢に適用するステップと、
変形データの各時刻での姿勢変形データを時間変形した入力動作の各時刻の姿勢に適用するステップとを含む変形データ適用方法。 Time-deforming an input operation in which a set of key times is set from the time-deformed data of the deformed data of claim 8 or 9,
Applying the posture deformation data at the key time of the deformation data to the posture at the key time of the input operation;
Applying the deformation data at each time of the deformation data to the posture at each time of the input operation obtained by temporally deforming the deformation data.
前記請求項8ないし10のいずれかに記載の方法。
The method according to any one of claims 8 to 10, wherein the deformation data includes a relative position and / or orientation of each main part of the body of the character with respect to a specific body part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185007A JP2008015713A (en) | 2006-07-04 | 2006-07-04 | Motion deformation system and method for it |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185007A JP2008015713A (en) | 2006-07-04 | 2006-07-04 | Motion deformation system and method for it |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008015713A true JP2008015713A (en) | 2008-01-24 |
Family
ID=39072674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006185007A Pending JP2008015713A (en) | 2006-07-04 | 2006-07-04 | Motion deformation system and method for it |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008015713A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150578A (en) * | 2011-01-17 | 2012-08-09 | Square Enix Co Ltd | Method for generating motion by example-based efficient motion database |
JP2012208548A (en) * | 2011-03-29 | 2012-10-25 | Copcom Co Ltd | Program and image processing apparatus with program recording unit with the program recorded therein |
CN103279971A (en) * | 2013-06-06 | 2013-09-04 | 中国科学院计算技术研究所 | Method and system for redirection of sports style |
JP2015011480A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Image generation device, image generation method and program |
JP2018026149A (en) * | 2017-09-27 | 2018-02-15 | カシオ計算機株式会社 | Image generation device, image generation method, and program |
JP2020021474A (en) * | 2018-07-30 | 2020-02-06 | エヌシーソフト・コーポレイションNcsoft Corporation | Motion synthesis apparatus and motion synthesis method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0471078A (en) * | 1990-07-12 | 1992-03-05 | Hitachi Ltd | Method for expressing operation of multi-joint object and computer graphic device |
JPH09147135A (en) * | 1995-11-22 | 1997-06-06 | Matsushita Electric Ind Co Ltd | Animation generating device |
JP2000149056A (en) * | 1998-11-16 | 2000-05-30 | Nec Corp | Method and device for displaying multijoint object |
JP2002508867A (en) * | 1997-06-25 | 2002-03-19 | ハプテック,インコーポレイティド | Method and apparatus for controlling conversion of two-dimensional and three-dimensional images |
-
2006
- 2006-07-04 JP JP2006185007A patent/JP2008015713A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0471078A (en) * | 1990-07-12 | 1992-03-05 | Hitachi Ltd | Method for expressing operation of multi-joint object and computer graphic device |
JPH09147135A (en) * | 1995-11-22 | 1997-06-06 | Matsushita Electric Ind Co Ltd | Animation generating device |
JP2002508867A (en) * | 1997-06-25 | 2002-03-19 | ハプテック,インコーポレイティド | Method and apparatus for controlling conversion of two-dimensional and three-dimensional images |
JP2000149056A (en) * | 1998-11-16 | 2000-05-30 | Nec Corp | Method and device for displaying multijoint object |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150578A (en) * | 2011-01-17 | 2012-08-09 | Square Enix Co Ltd | Method for generating motion by example-based efficient motion database |
JP2012208548A (en) * | 2011-03-29 | 2012-10-25 | Copcom Co Ltd | Program and image processing apparatus with program recording unit with the program recorded therein |
CN103279971A (en) * | 2013-06-06 | 2013-09-04 | 中国科学院计算技术研究所 | Method and system for redirection of sports style |
CN103279971B (en) * | 2013-06-06 | 2016-06-01 | 中国科学院计算技术研究所 | A kind of motion style reorientation method and system |
JP2015011480A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Image generation device, image generation method and program |
JP2018026149A (en) * | 2017-09-27 | 2018-02-15 | カシオ計算機株式会社 | Image generation device, image generation method, and program |
JP2020021474A (en) * | 2018-07-30 | 2020-02-06 | エヌシーソフト・コーポレイションNcsoft Corporation | Motion synthesis apparatus and motion synthesis method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rose et al. | Verbs and adverbs: Multidimensional motion interpolation | |
Kennaway | Synthetic animation of deaf signing gestures | |
US11836843B2 (en) | Enhanced pose generation based on conditional modeling of inverse kinematics | |
Agrawal et al. | Task-based locomotion | |
Jenkins et al. | Automated derivation of behavior vocabularies for autonomous humanoid motion | |
Liu et al. | Realtime human motion control with a small number of inertial sensors | |
US6462742B1 (en) | System and method for multi-dimensional motion interpolation using verbs and adverbs | |
US8928672B2 (en) | Real-time automatic concatenation of 3D animation sequences | |
Ikemoto et al. | Enriching a motion collection by transplanting limbs | |
JP2008015713A (en) | Motion deformation system and method for it | |
Häfliger et al. | Dynamic motion matching: design and implementation of a context-aware animation system for games | |
Pantuwong | A tangible interface for 3D character animation using augmented reality technology | |
Ismail et al. | An overview on dynamic 3d character motion techniques in virtual environments | |
Etemad et al. | Modeling and transformation of 3D human motion | |
Tilmanne et al. | Continuous control of style through linear interpolation in hidden markov model based stylistic walk synthesis | |
Shen et al. | Mocap data editing via movement notations | |
Terasaki et al. | Motion style transformation by extracting and applying motion features | |
JP4812063B2 (en) | Human video creation system | |
Lin | 3d character animation synthesis from 2d sketches | |
Mousas | Towards developing an easy-to-use scripting environment for animating virtual characters | |
Iwamoto et al. | Automatic sign dance synthesis from gesture-based sign language | |
Kiss | Computer animation for articulated 3d characters | |
Li et al. | Procedural rhythmic character animation: an interactive Chinese lion dance | |
Liang | Interactive cartoon-style motion generation of avatar | |
Liang et al. | Responsive action generation by physically-based motion retrieval and adaptation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110801 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110823 |