[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008015713A - Motion deformation system and method for it - Google Patents

Motion deformation system and method for it Download PDF

Info

Publication number
JP2008015713A
JP2008015713A JP2006185007A JP2006185007A JP2008015713A JP 2008015713 A JP2008015713 A JP 2008015713A JP 2006185007 A JP2006185007 A JP 2006185007A JP 2006185007 A JP2006185007 A JP 2006185007A JP 2008015713 A JP2008015713 A JP 2008015713A
Authority
JP
Japan
Prior art keywords
motion
deformation data
action
posture
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006185007A
Other languages
Japanese (ja)
Inventor
Maki Oshita
真樹 尾下
Takuya Terasaki
卓也 寺崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2006185007A priority Critical patent/JP2008015713A/en
Publication of JP2008015713A publication Critical patent/JP2008015713A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a deformation data extraction method for extracting deformation data allowing deformation of an input motion style for general use from a plurality of teacher motions. <P>SOLUTION: The motion deformation system comprises an extraction means 21 extracting deformation data serving as a differential from a reference motion and a teacher motion, a means receiving input of a motion style of the teacher motion from a user, a means 22 storing the deformation data extracted by the extraction means and the motion style of the teacher motion inputted by the user in association with each other, a means receiving input of a motion style, which is applied to the input motion, from the user, a retrieval means 31 retrieving the deformation data based on the motion style inputted by the user according to the stored motion style of the teacher motion and the deformation data, an application means 32 applying the deformation data retrieved by the retrieval means to the input motion, and an output means outputting the output data generated by application. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力動作に適用することでスタイルを変形した出力動作にするための変形データを生成する変形データ生成方法及びその方法に関する。   The present invention relates to a deformed data generation method for generating deformed data for applying an input operation to an output operation in which a style is deformed, and the method.

人間の動作データの変形には大きな需要がある。状況と合致するように動作データを修正することができれば、既存の動作データを効果的に再利用することができる。   There is a great demand for transformation of human motion data. If the operation data can be modified to match the situation, the existing operation data can be effectively reused.

現在一般的に用いられているアニメーションシステムは、直接的な方法で動作データを変更するための動作編集インターフェースを備えている。このようなインターフェースを用いることで、アニメーターは、例えば、キーフレームにおける関節角度を変更したり、手先や足先の位置を変更したり、動作の速度を調節したりといった、直接的な変形を行うことができる。
Rose C, Cohen M F, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18(5), 32-40, 1998.
An animation system generally used at present is provided with a motion editing interface for changing motion data in a direct manner. By using such an interface, the animator performs direct deformation such as changing the joint angle in the key frame, changing the position of the hand or toe, or adjusting the speed of movement. be able to.
Rose C, Cohen MF, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation.IEEE Computer Graphics and Applications. 18 (5), 32-40, 1998.

しかしながら、アニメーターが動作データを変形しようとするときは、一般に、動作のスタイルを変更したい、という場合が多い。例えば、ある歩行動作があったときに、その動作を楽しそうな歩行動作、疲れたような歩行動作、興奮したような歩行動作に見せたい、といった場合がある。このような動作スタイルの変形を、背景技術で述べたような既存のシステムで実現することは困難である。というのは、既存のシステムを用いて動作スタイルの変形を実現するためには、アニメーターは、関節角度・手足の位置・動作速度の修正などの細かい直接的な修正を繰り返し行う必要がある。さらに、このような変形を実現するためには、動作が楽しそうに、疲れたように、興奮したように見せるためには動作をどのように変形させるべきかという、人間の動作に関する知識が必要となる。故に、このような動作スタイルの変形は極めて困難であり、且つ、時間を要する作業である。   However, when the animator tries to transform the motion data, in general, it is often desired to change the motion style. For example, when there is a certain walking motion, there is a case where it is desired to make the motion look like an enjoyable walking motion, a tired walking motion, or an excited walking motion. It is difficult to realize such a modification of the operation style with an existing system as described in the background art. This is because an animator needs to repeatedly perform detailed direct corrections such as correction of joint angles, positions of limbs, and movement speeds in order to realize deformation of movement styles using an existing system. Furthermore, in order to realize such deformation, it is necessary to have knowledge about human movements, such as how to change the movements so that the movements are fun, tired, and excited. It becomes. Therefore, such deformation of the operation style is extremely difficult and requires time.

そこで、動作データのスタイルを変更するためには動作データをどのように変形するべきかという動作変形に関する知識を既存の動作データから抽出することができれば、動作変形を容易に実現することが可能になると考えられる。しかし、既存の技術では、このような動作変形は困難である。   Therefore, if it is possible to extract from the existing motion data knowledge about how to change the motion data to change the motion data style, it is possible to easily realize the motion deformation. It is considered to be. However, with the existing technology, such deformation of operation is difficult.

既存の動作データをもとに新しい動作を生成するための代表的な手法として、動作ブレンディング[Rose C, Cohen M F, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18(5), 32-40, 1998.]がある。しかし、この動作ブレンディングは、単純に動作データの関節角度を混合することで新しい動作を生成するため、動作データ間で運動の方向や姿勢の向きが異なる場合を取り扱うことができないため、前記課題を解決することはできない。例えば、殴る動作、強く殴る動作及びアッパーカット動作を混合して、強くアッパーカットを行う動作を生成することはできない。なぜならば、殴る動作とアッパーカットでは手の動作の方向が異なるからである。この場合、殴る動作と強く殴る動作の主な相違は、強く殴る動作では手の水平方向の動きが大きくなっている点にある。しかし、動作ブレンディング手法を用いて、このような変化をアッパーカット動作に適用することはできない。アーパーカット動作では手は垂直方向に移動するため、強くアッパーカットを行う動作に見せるためには、手の垂直方向の動きを大きくする必要がある。仮に、強く殴る動作とアッパーカット動作をブレンドした場合、手の水平方向の動きが大きくなってしまい、不自然な出力動作となる。また、別の例としては、歩行動作、幸せな歩行動作、走る動作をブレンドすることによって、楽しそうに走る動作を生成することはできない。楽しそうな歩行動作を走る動作にブレンディングすることによって、出力動作は走る動作ではなく歩行動作に近いものになってしまう。これは、姿勢に関する変形だけではなく、大域的な移動も同時にブレンディングされるからである。   As a representative method for generating new motion based on existing motion data, motion blending [Rose C, Cohen MF, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18 (5 ), 32-40, 1998.]. However, this motion blending simply creates a new motion by simply mixing the joint angles of the motion data, so it cannot handle cases where the motion direction or posture direction differs between motion data. It cannot be solved. For example, it is not possible to generate a strong upper-cut operation by mixing a whirling operation, a strong whirling operation, and an upper-cut operation. This is because the direction of the hand movement differs between the scolding movement and the upper cut. In this case, the main difference between the scolding motion and the scolding motion is that the horizontal motion of the hand is large in the strong scolding motion. However, such a change cannot be applied to the upper cut operation using the operation blending method. Since the hand moves in the vertical direction in the arper cut operation, it is necessary to increase the vertical movement of the hand in order to make it appear that the upper cut is strongly performed. If blending a strong scooping action and an upper cut action, the horizontal movement of the hand becomes large, resulting in an unnatural output action. As another example, it is not possible to generate a joyful running motion by blending a walking motion, a happy walking motion, and a running motion. By blending a walking motion that seems to be fun, the output motion is close to a walking motion, not a running motion. This is because not only the deformation related to the posture but also the global movement is blended at the same time.

本発明は前記課題を解決するためになされたものであり、複数の動作データから広い範囲の入力動作のスタイルを変形させることが可能な変形データを抽出する変形データ抽出方法を提供することを目的とする。また、抽出した変形データを入力動作に適用する変形データ適用方法を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a modified data extraction method for extracting modified data capable of transforming a wide range of input motion styles from a plurality of motion data. And It is another object of the present invention to provide a deformation data application method for applying extracted deformation data to an input operation.

(本発明の概要)
本発明は、これらの課題を、2つの動作データ間の変化を表す情報を、抽象的な変形データとして表現することで解決する。変形データを抽象的な形式で表現することにより、もとの動作データと動作の方向や大域的な移動が異なる幅広い入力動作に対して、変形データを適用することができる。変形データは、動作データ間の姿勢に関する姿勢変形データと時間に関する時間変形データからなる。姿勢変形データを表現するために、一般的な関節角度による表現ではなく、基準となる身体部位の相対位置による表現を使用する。また、腰の動きを相対的、絶対的位置及び方向に分割して表現する。また、手先や足先の位置や向きの変化は、動作の方向から計算されるローカル座標で表現される。
(Outline of the present invention)
The present invention solves these problems by expressing information representing changes between two pieces of motion data as abstract deformation data. By expressing the deformed data in an abstract format, the deformed data can be applied to a wide range of input operations that differ from the original motion data in the direction of operation and global movement. The deformation data includes posture deformation data related to the posture between motion data and time deformation data related to time. In order to express posture deformation data, an expression based on a relative position of a body part serving as a reference is used instead of an expression based on a general joint angle. Also, the movement of the waist is expressed by dividing it into relative and absolute positions and directions. Also, changes in the position and orientation of the hand and foot are expressed by local coordinates calculated from the direction of movement.

本発明により、例えば、歩行動作と疲れた歩行動作の2つの動作データから、「疲れ」に関する変形データを抽出することができる(図1)。ここで、抽出した変形データを別の動作に適用することで新しい動作を生成することができる。一例として、「疲れ」に関する変形データを、走る動作に適用することで、疲れた走る動作を生成することができる。このとき、変形データの適用度を調整することで、どの程度「疲れ」動作に見せるかを変化させることができる。つまり、本発明の動作変形手法では、3つの動作データから、一つの新しい動作を生成する。また、あらかじめ抽出した多数の変形データをデータベースに蓄積しておき、入力動作や利用者の指定したスタイルに応じてデータベースから適切な変形データを選択し、入力動作に適用することで、任意の入力動作の動作スタイルを変形することができる。   According to the present invention, for example, deformation data relating to “fatigue” can be extracted from two motion data of a walking motion and a tired walking motion (FIG. 1). Here, a new operation can be generated by applying the extracted deformation data to another operation. As an example, by applying deformation data relating to “fatigue” to a running motion, a tired running motion can be generated. At this time, by adjusting the degree of application of the deformation data, it is possible to change how much the “fatigue” operation is shown. That is, in the motion deformation method of the present invention, one new motion is generated from the three motion data. In addition, by storing a large number of pre-extracted deformation data in the database, selecting appropriate deformation data from the database according to the input operation and the style specified by the user, and applying it to the input operation, any input The action style of action can be transformed.

以下、より詳細に項毎に解決するための手段を示す。
(1)
本発明に係る動作変形システムは、基準動作と教師動作から差分となる変形データを抽出する抽出手段と、ユーザーから教師動作の動作スタイルの入力を受け付ける手段と、抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段と、ユーザーから入力動作に対して適用する動作スタイルの入力を受け付ける手段と、記録している教師動作の動作スタイル及び変形データからユーザーから入力された動作スタイルに基づき変形データを検索する検索手段と、検索手段で検索した変形データを入力動作に適用する適用手段と、適用して生成された出力データを出力する出力手段とを含むものである。
In the following, means for solving each item in more detail will be shown.
(1)
The motion deformation system according to the present invention includes an extraction unit that extracts deformation data that is a difference from a reference motion and a teacher motion, a unit that receives an input of a motion style of a teacher motion from a user, the deformation data extracted by the extraction unit, and a user Means for recording the action style of the teacher movement input from the user, means for receiving the action style input to be applied to the input action from the user, and from the action style and deformation data of the recorded teacher action from the user A search unit that searches for deformation data based on an input operation style; an application unit that applies the deformation data searched by the search unit to an input operation; and an output unit that outputs output data generated by the application. .

前記「抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段」により、データベースを構築することが望ましい。このとき、ユーザーから基準動作又は教師動作の動作種類の入力又は選択を受け付け、この受け付けた基準動作又は教師動作の動作種類を、変形データ及び教師動作の動作スタイルとともに関連付けて記録することが望ましい。そして、検索時にも動作スタイルだけでなく入力動作の動作種類も受け付けることで、動作スタイル及び入力動作の動作種類に合致する変形データを検索することができ、合致する変形データを入力動作に適用することができ、所望の自然な動作を生成することができる。   It is desirable to construct a database by the above-mentioned “means for recording the deformed data extracted by the extracting means in association with the action style of the teacher action input by the user”. At this time, it is desirable to receive an input or selection of the motion type of the reference motion or the teacher motion from the user, and record the received motion type of the reference motion or the teacher motion in association with the deformation data and the motion style of the teacher motion. By accepting not only the operation style but also the operation type of the input operation at the time of the search, it is possible to search for deformation data matching the operation style and the operation type of the input operation, and apply the matching deformation data to the input operation. And can produce the desired natural motion.

検索手段は、入力される検索キーに完全一致した動作スタイル及び/又は動作種類に係る変形データを検索するのではなく、類似する動作スタイル及び/又は動作種類に係る変形データも検索することができる。シソーラスを用いて意味的に検索キーに近いものの変形データも検索する構成にすることもできる。   The search means does not search for deformation data related to an operation style and / or operation type that completely matches the input search key, but can also search for deformation data related to a similar operation style and / or operation type. . It is also possible to use a thesaurus to search for deformation data that is semantically close to the search key.

検索手段は、入力動作に類似する基準動作又は教師動作の変形データを検索することもできる。動作の類似については既に公知技術があるためここでは詳細に言及しない(例えば、動作動作(周期的であるか、周期的でない)のタイプ、動作に主に用いられる身体部位、および動作の方向などをパラメータにして類似性を求めることができる)。入力動作に類似する基準動作・教師動作から抽出した変形データであれば、変形データを適用した場合に自然な動作を生成することができる。この場合においては、変形データを記録するときに基準動作又は教師動作も記録する必要がある。ここで、基準動作又は教師動作ではなく少なくとも入力動作との類似処理に必要なデータを記録していてもよい。このデータは基準動作又は教師動作の一部又は変換したものであってもよい。   The search means can also search for deformation data of a reference action or teacher action similar to the input action. Since there is already a well-known technique regarding the similarity of motion, it is not described in detail here (for example, the type of motion motion (periodic or non-periodic), the body part mainly used for motion, the direction of motion, etc.) Can be used as a parameter to determine similarity). If the deformation data is extracted from the reference motion / teacher motion similar to the input motion, a natural motion can be generated when the deformation data is applied. In this case, it is necessary to record the reference action or the teacher action when recording the deformation data. Here, data necessary for at least a similar process to the input action may be recorded instead of the reference action or the teacher action. This data may be part of the reference action or teacher action or converted.

(2)
本発明に係る動作変形システムは必要に応じて、前記変形データは時間変形データと姿勢変形データとからなり、時間変形データは基準動作と教師動作の時間的対応関係を示し、姿勢変形データは基準動作と教師動作の対応する各時刻における姿勢及び/又は動作の差分を示すものである。
(2)
In the motion deformation system according to the present invention, as necessary, the deformation data includes time deformation data and posture deformation data, the time deformation data indicates a temporal correspondence between the reference motion and the teacher motion, and the posture deformation data is the reference It shows the posture and / or motion difference at each time corresponding to the motion and the teacher motion.

(3)
本発明に係る動作変形システムは必要に応じて、ユーザーから基準動作に対する動作の節目を表すキー時刻の組を受け付ける手段と、ユーザーから教師動作に対する動作の節目を表すキー時刻の組を受け付ける手段を新たに含み、基準動作及び教師動作に対して設定したキー時刻の組が対応しており、ユーザーから受け付けた相互に対応するキー時刻の組に基づいて抽出部が変形データを抽出するものである。
(3)
The motion modification system according to the present invention includes means for accepting a key time set representing an operation milestone for the reference motion from the user and means for accepting a key time set representing the motion milestone for the teacher motion from the user, as necessary. A set of key times that are newly included and set for the reference action and the teacher action are supported, and the extraction unit extracts the deformation data based on the mutually corresponding key time sets received from the user. .

このように本発明によれば、変形データの元になる基準動作及び教師動作それぞれに対応するようにキー時刻の組を設定し、この設定したキー時刻の組に基づいて変形データが生成されるので、基準動作と教師動作を適時に対応付け、教師動作の動作スタイルを良く示す精度の高い変形データを生成することができるという効果を有する。   As described above, according to the present invention, a set of key times is set so as to correspond to each of the reference action and the teacher action from which the deformed data is based, and the deformed data is generated based on the set key time set. Therefore, there is an effect that it is possible to generate highly accurate deformation data that appropriately associates the reference action and the teacher action and shows the action style of the teacher action well.

(4)
本発明に係る動作変形システムは必要に応じて、動作データから動作の節目を表すキー時刻を探索する手段を新たに含み、基準動作及び教師動作から検索された キー時刻の組が対応しており、設定された相互に対応するキー時刻の組に基づいて抽出手段が変形データを抽出するものである。
(4)
The motion modification system according to the present invention newly includes means for searching for a key time that represents a milestone in the motion from the motion data as needed, and a set of key times retrieved from the reference motion and the teacher motion is supported. The extraction means extracts the deformation data based on the set key times corresponding to each other.

動作データから動作の節目を表すキー時刻を自動で探索する手段により、ユーザーが手動でキー時刻の組を設定する必要がなくなる。例えば、既知技術を用い、例えば、各関節の位置、角度、速度、角速度の軌道を含む高次元の軌道を次元の低いユークリッド距離空間に当てはめることで、キー時刻を探索することができる。この場合において、キー時刻が必要数以上に検索されるときがあり、この場合にはユーザーに選択を促すか、キー時刻間の時間的距離も考慮しながら(キーフレームとキーフレームの間には最低限必要な時間がある)特徴の程度の高いキーフレームを上からとる。   The means for automatically searching for the key time representing the knot of the action from the action data eliminates the need for the user to manually set the key time set. For example, the key time can be searched by using a known technique, for example, by applying a high-dimensional trajectory including the positions, angles, velocities, and angular velocity trajectories of each joint to a low-dimensional Euclidean distance space. In this case, there are times when the key time is searched more than necessary. In this case, the user is prompted to select or the time distance between the key times is taken into consideration (between the key frames). Take keyframes with a high degree of feature from the top (minimum required time).

基準動作又は教師動作のどちらかのみに対して自動又は手動でキー時刻が設定された場合には、既に周知技術となっている類似動作検索又は類似姿勢検索を用いて既に設定されているキー時刻に対応するキー時刻をキー時刻が設定されていない動作を対象として自動的に検出して設定していく。なお、検出されたキー時刻をユーザーに提示して複数あるキー時刻から選択する構成をとることもできる。   When the key time is set automatically or manually for only the reference action or the teacher action, the key time that has already been set using the similar action search or the similar attitude search that is already known in the art. The key time corresponding to is automatically detected and set for an operation in which the key time is not set. The detected key time can be presented to the user and selected from a plurality of key times.

(5)
本発明に係る動作変形システムは必要に応じて、前記適用手段は入力動作に適用度に応じた変形データを適用するものである。
(5)
In the motion deformation system according to the present invention, the application means applies deformation data corresponding to the degree of applicability to the input operation as required.

このように本発明によれば、入力動作に可変に変形データを適用するので、適用度を小さくした場合には入力動作に与える変形データの動作スタイルの影響度を制御することができ、不自然な動作の生成を防止し、適度な動作を生成することができ、逆に、適用度を大きくした場合にはよりその動作スタイルを強調した動作を生成することができるという効果を有する。   As described above, according to the present invention, deformation data is variably applied to an input operation. Therefore, when the applicability is reduced, the influence of the operation style of the deformation data on the input operation can be controlled. Generation of an appropriate operation can be prevented, an appropriate operation can be generated, and conversely, when the degree of application is increased, an operation that emphasizes the operation style can be generated.

(6)
本発明に係る動作変形システムは必要に応じて、前記変形データはキャラクタの身体の各主要部位の、それぞれ特定の身体部位を基準とした相対的な位置及び/又は向きを含むものである。
(6)
In the motion deformation system according to the present invention, the deformation data includes a relative position and / or orientation of each main part of the character's body with respect to a specific body part, as necessary.

このように本発明によれば、変形データは相対的な姿勢表現で示されるので、絶対的な位置、向きが基準動作と異なる入力動作に対しても相対的な姿勢表現である変形データを適用することができ、幅広い入力動作に対応することができるという効果を有する。   As described above, according to the present invention, since the deformation data is represented by relative posture expression, the deformation data that is the relative posture expression is applied even to an input motion whose absolute position and orientation are different from the reference motion. Therefore, it is possible to cope with a wide range of input operations.

後説する実施形態では手先、足先、腰を身体の各主要部位として説示している。また、手先、足先の相対的な位置及び/又は向きを表すための基準部位として、それぞれ、肩、股関節、を説示している。また、腰の相対的な位置及び/又は向きを表すための基準座標系として、両足先の位置から求める標準的な腰の位置及び/向きを説示している。これら以外の主要部位の位置及び/又は向きを変形データに含むこともできるし、これら以外の基準部位の座標系、あるいは別の方法により求めた座標系を基準として主要部位の相対的な位置及び/又は向きを表すこともできる。   In the embodiment to be described later, the hand, the tip of the foot, and the waist are described as the main parts of the body. In addition, shoulders and hip joints are illustrated as reference parts for representing the relative positions and / or orientations of the hands and toes, respectively. In addition, as a reference coordinate system for representing the relative position and / or orientation of the waist, a standard waist position and / or orientation obtained from the positions of both feet is shown. The position and / or orientation of the main part other than these may be included in the deformation data, and the relative position and / or orientation of the main part with reference to the coordinate system of other reference parts or the coordinate system obtained by another method It can also represent the orientation.

また、複数の基準座標系をもとに計算した主要部位の位置及び/又は向きを変形データに含めておくことで、入力動作に応じて最も適切な変形を適用することもできる。   Further, by including the position and / or orientation of the main part calculated based on a plurality of reference coordinate systems in the deformation data, the most appropriate deformation can be applied according to the input operation.

具体的には、仮想空間の絶対座標系を使用するのではなく、基準部位毎に相対座標系を設けてこの相対座標系を使用して、主要部位の位置及び/又は向きの差分を表す。基準動作の基準部位のあるキー時刻の姿勢での位置と前のキー時刻の姿勢での位置の差分ベクトルを基準として相対座標系を設け、基準動作及び教師データの姿勢の間の主要部位の位置及び/又は向きの差分をこの相対座標系上で表す。変形データの適用時においては、入力動作の基準部位の当該キー時刻の姿勢での位置と前のキー時刻の姿勢での位置の差分ベクトルを基準として相対座標系を設け、前記基準動作の相対座標系上の変形データを入力動作の相対座標系上の変形データとした後に、入力動作にこの入力動作の相対座標系上の変形データを加えることで出力動作を生成する。そうすることで、仮想空間の絶対座標系では方向が相反する教師動作、入力動作であっても、変形データを適用して自然な動作を生成することができる。また、必要に応じて変形データを左右反転するなどの処理を加える、同じ身体部位の変形データだけでなく他の身体部位の変形データであっても適用し、自然な動作を生成することができる。   Specifically, instead of using the absolute coordinate system of the virtual space, a relative coordinate system is provided for each reference part, and this relative coordinate system is used to represent the difference in position and / or orientation of the main part. The position of the main part between the reference motion and the posture of the teacher data is provided with a relative coordinate system based on the difference vector between the position at the key time posture with the reference motion reference position and the position at the previous key time posture. And / or the difference in orientation is represented on this relative coordinate system. At the time of applying the deformation data, a relative coordinate system is provided based on a difference vector between the position of the reference part of the input operation at the key time posture and the position at the previous key time posture, and the relative coordinates of the reference operation are provided. After the deformation data on the system is converted into the deformation data on the relative coordinate system of the input operation, the output operation is generated by adding the deformation data on the relative coordinate system of the input operation to the input operation. By doing so, it is possible to generate a natural motion by applying the deformation data, even if the teaching motion and the input motion have opposite directions in the absolute coordinate system of the virtual space. Moreover, it is possible to apply not only the deformation data of the same body part but also the deformation data of other body parts by applying processing such as left-right reversal of the deformation data as necessary, and generate a natural motion. .

(7)
本発明に係る動作変形システムは、基準動作と教師動作から差分となる変形データを抽出する抽出手段と、抽出した変形データを入力動作に適用する適用手段とを備え、抽出手段が基準動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、手先及び足先の位置及び/又は向きの差分が表された変形データを抽出し、適用手段が抽出手段により抽出された変形データを入力動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系よって、入力動作の手先及び足先の位置及び/又は向きに適用するものである。
(7)
The motion deformation system according to the present invention includes an extraction unit that extracts deformation data that is a difference from a reference motion and a teacher motion, and an application unit that applies the extracted deformation data to an input motion. Extract and apply deformation data that represents the difference between the position and / or orientation of the hand and foot using the relative coordinate system based on the difference between the position of the hand and foot of the posture and the position of the hand and foot of the previous posture. The deformation data extracted by the extraction means by means of the relative coordinate system based on the difference between the position of the hand and foot of the target posture of the input operation and the position of the hand and foot of the previous posture is used. Applies to position and / or orientation.

(8)
本発明に係る変形データ生成方法は、キー時刻の組が設定されている基準動作とキー時刻の組が設定されている教師動作から、基準動作と教師動作の各キー時刻間の区間における速度変化を示す時間変形データを各区間毎に求めるステップと、基準動作の各キー時刻の姿勢と教師動作の各キー時刻の姿勢から姿勢の差分を求めて各キー時刻での姿勢変形データを取得するステップと、基準動作の各時刻の姿勢と前記抽出した時間変形データから求まる当該基準動作の時刻に対応する教師動作の時刻の姿勢とから姿勢の差分を求めて各時刻での姿勢の変形データを取得するステップと、求めた時間変形データ、キー時刻での姿勢変形データ及び各時刻での姿勢変形データを変形データとして記録するステップとを含むものである。
(8)
According to the modified data generation method of the present invention, the speed change in the interval between each key time of the reference action and the teacher action from the reference action to which the key time set is set and the teacher action to which the key time set is set. Obtaining time deformation data for each section, and obtaining posture deformation data at each key time by obtaining a difference in posture from the posture at each key time of the reference motion and the posture at each key time of the teacher motion And obtaining posture deformation data at each time by obtaining a difference in posture from the posture at each time of the reference motion and the posture at the time of the teacher motion corresponding to the time of the reference motion obtained from the extracted time deformation data And the step of recording the obtained time deformation data, the posture deformation data at the key time, and the posture deformation data at each time as deformation data.

このように本発明においては、まず、基準動作と教師動作の時間変形データを求め、求めた時間変形データを用いて相互に対応する姿勢から各時刻での姿勢変形データを求めているので、各キー時刻での姿勢変形データとも合わせて基準動作のある時刻の姿勢と教師動作の対応する時刻の姿勢を適切に合致させて差分データを求めており、教師動作の動作スタイルを精度高く示す変形データを取得することができるという効果を有する。   As described above, in the present invention, first, the time deformation data of the reference motion and the teacher motion is obtained, and the posture deformation data at each time is obtained from the mutually corresponding postures using the obtained time deformation data. Along with the posture deformation data at the key time, the difference data is obtained by appropriately matching the posture at the time with the reference motion and the posture at the corresponding time of the teacher motion, and the deformation data showing the motion style of the teacher motion with high accuracy It has the effect that can be acquired.

各ステップは、当業者で明らかであるように、プロセッサ及びメモリを備えるコンピュータが実行する。   Each step is performed by a computer comprising a processor and memory, as will be apparent to those skilled in the art.

(9)
本発明に係る変形データ生成方法は必要に応じて、ユーザーから教師動作の動作スタイルを受け付けるステップとを新たに含み、ユーザーから受け付けた動作スタイルを取得した変形データと関連付けて記録するものである。
(9)
The modified data generation method according to the present invention newly includes a step of accepting an action style of a teacher action from a user as necessary, and records the action style received from the user in association with the obtained modification data.

このように本発明によれば、変形データ及び動作スタイルを関連付けて蓄積するので、一つの変形データを生成直後に一回のみ使用するのではなく、ユーザーの所望する動作スタイルの変形データを必要に応じて読み出して適用し、有効に活用することができるという効果を有する。   As described above, according to the present invention, the deformation data and the operation style are stored in association with each other, so that one deformation data is not used once immediately after generation, but the deformation data of the operation style desired by the user is required. Accordingly, there is an effect that it can be read out and applied accordingly and can be used effectively.

(10)
本発明に係る変形データ適用方法は、前記変形データの時間変形データからキー時刻の組が設定されている入力動作を時間変形するステップと、変形データのキー時刻での姿勢変形データを入力動作のキー時刻の姿勢に適用するステップと、変形データの各時刻での姿勢変形データを時間変形した入力動作の各時刻の姿勢に適用するステップとを含むものである。
(10)
The deformation data application method according to the present invention includes a step of temporally deforming an input operation in which a set of key times is set from time deformation data of the deformation data, and posture deformation data at the key time of the deformation data. The method includes applying to the posture at the key time, and applying to the posture at each time of the input operation obtained by temporally deforming the posture deformation data at each time of the deformation data.

(11)
本発明に係る方法は必要に応じて、前記変形データはキャラクタの身体の各主要部位の特定の身体部位を基準とした相対的な位置及び/又は向きを含むものである。
(11)
In the method according to the present invention, if necessary, the deformation data includes a relative position and / or orientation relative to a specific body part of each main part of the character body.

これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。   These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.

(本発明の第1の実施形態)
[1.変形データ]
図1に示すように、基準動作と教師動作から変形データを抽出する。ここで、基準動作は特別なスタイルを持たないものであり、一方、教師動作は基準動作と同じ動作で何らかのスタイルを持つものである。適用度を用いて変形データをある動作に適用することで、スタイル化された動作を生成することができる。ここで、入力動作は単純な動作であり、基準動作と同じ種類の動作であることが望ましい。長く複雑な動作を変形する場合には、複数の単純な動作に分割して対応することができる。
(First embodiment of the present invention)
[1. Deformation data]
As shown in FIG. 1, deformation data is extracted from the reference motion and the teacher motion. Here, the reference motion has no special style, while the teacher motion has the same motion as the reference motion and some style. By applying the deformation data to a certain motion using the degree of applicability, a styled motion can be generated. Here, the input operation is a simple operation and is desirably the same type of operation as the reference operation. When deforming a long and complicated motion, it can be divided into a plurality of simple motions.

本発明では、予め全ての動作データに、動作のタイミングを表すキー時間を設定する必要がある。一般に、動作は3つの区間に分けられる。図2に示す初期区間、メイン区間、終期区間である。前後の区間の遷移点に、キー時刻を設定する。また、メイン区間中の動作の有効点にも、キー時間を追加的に設定することができる。有効点とは、例えば、跳躍動作で一番高い位置にきたとき、殴る動作でちょうど相手と接触したときなどが該当する。変形に使用する動作データと対応する限り、任意の追加的なキー時間を設定することができる。原則として、キー時間の設定は、ユーザーが手動で行う必要がある。しかし、通常、キー時間を設定すべき時刻は、動作データを見れば明らかであるため、この設定作業はそれほど困難ではなく、数分で設定することができる。もし、動作の中に該当するキー時間が存在しなければ、そのキー時間は設定する必要はない。キー時間が設定された区間のみが、動作変形処理で使用される。   In the present invention, it is necessary to set a key time representing an operation timing in advance in all operation data. In general, the operation is divided into three sections. These are the initial section, main section, and end section shown in FIG. Key time is set at the transition point of the preceding and following sections. In addition, the key time can be additionally set to the effective point of the operation in the main section. The effective point corresponds to, for example, when the highest position is reached by a jumping action, or when the person just touches the opponent by a scolding action. Any additional key time can be set as long as it corresponds to the operation data used for the deformation. In principle, the key time must be set manually by the user. However, since the time at which the key time should be set is usually apparent from the operation data, this setting operation is not so difficult and can be set in a few minutes. If the corresponding key time does not exist in the operation, it is not necessary to set the key time. Only the section in which the key time is set is used in the motion transformation process.

図3に示す通り、変形データSFは、次式のような、時間に関する時間変形データ、姿勢に関する姿勢変形データからなる。   As shown in FIG. 3, the deformation data SF includes time-deformation data related to time and posture deformation data related to posture as in the following equation.

Figure 2008015713
ここで、Ti(t)はi番目の区間に関する時間変形データ、ΔPjはj番目のキー時間の姿勢に関する姿勢変形データ、ΔQiはi番目の区間の姿勢に関する姿勢変形データである。Ti(t)は各区間における基準動作の時間と教師動作の時間の対応関係を表すタイムワープ関数である。ΔPjは39次元のベクトルで、各キー時刻における基準動作と教師動作の姿勢の差分を抽象的な形式で表現している。ΔQiは39次元ベクトルの時間関数で、各区間における基準動作と教師動作の姿勢の差分の変化を示す。
Figure 2008015713
Here, T i (t) is time deformation data related to the i-th interval, ΔP j is posture deformation data related to the posture of the j-th key time, and ΔQ i is posture deformation data related to the posture of the i-th interval. T i (t) is a time warp function representing the correspondence between the time of the reference action and the time of the teacher action in each section. ΔP j is a 39-dimensional vector that expresses the difference between the posture of the reference motion and the teacher motion at each key time in an abstract format. ΔQ i is a time function of a 39-dimensional vector and indicates a change in the difference between the posture of the reference motion and the teacher motion in each section.

[1.1 時間変形データ]
時間変形データは基準動作、教師動作の各区間の時間ワープ関数である。

Figure 2008015713
ここで、tbは基準動作のi番目の区間における正規化時刻、trは教師動作のi番目の区間における正規化時刻である。なお、正規化時刻とは、区間の開始時に0、終了時に1となるように、動作時刻を線形に変換したものである。タイムワープ関数は、2つの動作の同じ区間における対応する時刻同士の組によって表現することができる。 [1.1 Time deformation data]
The time deformation data is a time warp function for each interval of the reference motion and the teacher motion.
Figure 2008015713
Here, t b is the normalized time in the i th interval of the reference operation, t r is the normalized time in the i th interval teacher operation. The normalization time is obtained by linearly converting the operation time so that it becomes 0 at the start of the section and 1 at the end. A time warp function can be represented by a set of corresponding times in the same interval of two actions.

タイムワープ関数を求めるために、2つの動作の同じ区間における対応する姿勢同士を検索し、対応するフレームの組を特定する必要がある。従前から、類似する姿勢を検索するための手法は使用されている(Lee J, Chai J, Reistma P, Hodgins J, Pollard N. Interactive Control of Avatars Animated with Human Motion Data. ACM Transactions of Graphics (Proc. of SIGGRAPH 2002), 22(3), 491-500, 2002.)(Kovar L, Gleicher M. Automated Extraction and Parameterization of Motions in Large Data Sets. ACM Transactions on Graphics (Proc. of SIGGRAPH 2004), 23(3), 559-568, 2004.)。しかしながら、この従前の方法では、2つの動作のスタイルが非常に近い場合にだけ機能する。そこで、本発明では、現在の姿勢が区間の開始姿勢と終了姿勢の間のどの程度の地点にあるかを示す正規化姿勢変化量を使用する。本発明では、前提条件としてあらかじめ各区間を表すキー時間が与えられていることから、このようなアプローチを用いる。あらかじめ各区間が明らかであるため、対応する区間における対応する姿勢を求めるだけで良い。なお、既存の動作ブレンディング手法でも同様のアプローチを用いているが、本発明のように対応する姿勢の検索は行わず、単純に区間同士の時間を線形補間(Rose C, Cohen M F, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18(5), 32-40, 1998.)(Park S L, Shin H J, Kim T H, Shin S Y. On-Line Motion Blending for Real-time Locomotion Generation. Computer Animation and Virtual Worlds, 15(4), 125-128, 2004.)(Ashraf G, Wong KC. Dynamic Time Warp Based Framespace Interpolation for Motion Editing, Proc. of Graphics Interface 2000. 45-52, 2000.)、パラメータ曲線による補間(Menardais S, Kulpa R, Multon F, Arnaldi B. Synchronization for Dynamic Blending of Motions. In Proceedings of the 2004 ACM Siggraph/Eurographics Symposium on Computer Animation 2004, 2004.)を単純に使用している。そのため、従来の手法では、2つの動作間の細かい速度変化を抽出することはできない。   In order to obtain a time warp function, it is necessary to search corresponding postures in the same section of two motions and specify a set of corresponding frames. Traditionally, methods for retrieving similar poses have been used (Lee J, Chai J, Reistma P, Hodgins J, Pollard N. Interactive Control of Avatars Animated with Human Motion Data. ACM Transactions of Graphics (Proc. of SIGGRAPH 2002), 22 (3), 491-500, 2002.) (Kovar L, Gleicher M. Automated Extraction and Parameterization of Motions in Large Data Sets. ACM Transactions on Graphics (Proc. of SIGGRAPH 2004), 23 (3 ), 559-568, 2004.). However, this previous method only works if the two styles of action are very close. Accordingly, in the present invention, a normalized posture change amount indicating how much the current posture is located between the start posture and the end posture of the section is used. In the present invention, since a key time representing each section is given in advance as a precondition, such an approach is used. Since each section is clear in advance, it is only necessary to obtain the corresponding posture in the corresponding section. Although the same approach is used in the existing motion blending method, the corresponding posture is not searched as in the present invention, and the time between sections is simply linearly interpolated (Rose C, Cohen MF, Bodenheimer B. Verbs and Adverbs: Multidimensional motion interpolation. IEEE Computer Graphics and Applications. 18 (5), 32-40, 1998. (Park SL, Shin HJ, Kim TH, Shin S Y. On-Line Motion Blending for Real-time Locomotion Generation. Computer Animation and Virtual Worlds, 15 (4), 125-128, 2004.) (Ashraf G, Wong KC. Dynamic Time Warp Based Framespace Interpolation for Motion Editing, Proc. Of Graphics Interface 2000. 45-52, 2000. ), Parameter curve interpolation (Menardais S, Kulpa R, Multon F, Arnaldi B. Synchronization for Dynamic Blending of Motions. In Proceedings of the 2004 ACM Siggraph / Eurographics Symposium on Computer Animation 2004, 2004.) Yes. Therefore, the conventional method cannot extract a fine speed change between two operations.

次式のように、それぞれの動作区間の姿勢に関する正規化姿勢変化量を算出する。

Figure 2008015713
ここで、xj(t)はj番目の関節の位置、Mはその区間でのフレーム数を示す。姿勢に関する進度を得るために関節位置の差分の累積を計算する。S(t)は動作区間での正規化時間tにおける正規化姿勢変化量を示す。S(t)はtが0から1に変化するのに従って、0から1まで単調に増加する。2つの動作の対応する区間の各フレームにおけるS(t)を用いることで、その区間のタイム時間ワープ関数を表すことができる。 As shown in the following equation, a normalized posture change amount related to the posture of each motion section is calculated.
Figure 2008015713
Here, x j (t) is the position of the j-th joint, and M is the number of frames in that section. Calculate the cumulative joint position difference to get progress on posture. S (t) indicates the normalized posture change amount at the normalization time t in the motion section. S (t) monotonously increases from 0 to 1 as t changes from 0 to 1. By using S (t) in each frame of the sections corresponding to the two operations, the time-time warp function of the section can be expressed.

[1.2 姿勢変形データ]
以降、抽象的な形式で姿勢変形データを獲得するのに用いる姿勢表現をまず説明する。また、エンドエフェクター(例えば、手先、足先)及び腰の位置及び方向の表現方法についても詳細に説明する。
[1.2 Posture deformation data]
Hereinafter, the posture expression used to acquire posture deformation data in an abstract format will be described first. In addition, a method for expressing the position and direction of the end effector (for example, hands and feet) and the waist will be described in detail.

[1.2.1 姿勢表現]
姿勢に関する情報を39次元ベクトルPにより表現する(図4参照)。姿勢変形データΔPi、ΔQi(t)(前記式(1))は2つの動作の対応する姿勢間の相違を算出してこの形式で表現される。本表現では、一般的に用いられる関節角度による姿勢表現ではなく、主要な身体部位の位置及び方向を使用する。
[1.2.1 Posture expression]
Information on the posture is expressed by a 39-dimensional vector P (see FIG. 4). Posture deformation data ΔP i , ΔQ i (t) (formula (1)) is expressed in this format by calculating the difference between the corresponding postures of the two motions. In this expression, the position and direction of the main body part are used instead of the posture expression by the joint angle generally used.

各手足の姿勢を表現するために、手先及び足先の位置及び方向ei、riを使用する。ここで、ei、riは、足先の場合は股関節、手先の場合は肩といった、各手先足先の基準となる身体部位のローカル座標系で表現される。eglobal,i、rglobal,iがi番目の手先及び足先のグローバルな位置及び方向であり、Riがi番目の手先足先の基準身体部位のローカル座標系を示すとすると、グローバルな位置、方向であるeglobal,i、rglobal,iを、次式のように基準身体部位のローカル座標系に変換することで、ローカルな位置、方向ei、riを求める。

Figure 2008015713
Figure 2008015713
ローカルな方向riを表現するために四元数(quaternions)を用いる。変形データの抽出処理過程及び適用処理過程において動作の方向的相違を取り扱うため、動作データの動作方向から求まるローカル座標を用いて、手先及び足先の空間的及び方向的変形量を表現する(後説1.2.3を参照)。 In order to express the posture of each limb, the positions and directions e i and r i of the hand and foot are used. Here, e i and r i are expressed in the local coordinate system of the body part serving as a reference for each hand and toe, such as a hip joint in the case of a foot and a shoulder in the case of a hand. e global, i, r global, i is a global position and orientation of the i-th hand and feet, when R i is to show the local coordinate system of the i-th hand feet of the reference body part, global The local positions and directions e i and r i are obtained by converting the positions and directions e global, i and r global, i into the local coordinate system of the reference body part as in the following equation.
Figure 2008015713
Figure 2008015713
Use quaternions to represent local directions r i . In order to deal with directional differences in motion in the deformation data extraction process and application process, the spatial and directional deformation amounts of the hand and toes are expressed using local coordinates determined from the motion direction of the motion data (later (See Theory 1.2.3).

腰の絶対的な動き、相対的な動きを分離するために、絶対的位置、相対的位置及び相対的方向、それぞれ、pabs、prel、qrelを独立に表現する(後説1.2.4を参照)。 In order to separate the absolute movement and relative movement of the waist, the absolute position, the relative position and the relative direction, respectively, p abs , p rel and q rel are expressed independently ( explained in 1.2 below). .4).

背中、首の回転Jback、Jneckも四元数によって表され、それぞれ、背中、首における複数の関節での平均的な回転を示す。 Back and neck rotations J back and J neck are also represented by quaternions, and indicate average rotations at a plurality of joints in the back and neck, respectively.

[1.2.2 姿勢変形データの抽出]
姿勢変形データとして、各キーフレームでの姿勢変化ΔPi、並びに、各動作区間の姿勢変化関数ΔQi(t)を用いる。
[1.2.2 Extracting posture deformation data]
As posture deformation data, a posture change ΔPi at each key frame and a posture change function ΔQi (t) of each motion section are used.

入力動作の各区間において、姿勢変形データは次式のように動作に適用される。

Figure 2008015713
tはi番目の区間における正規化された時間、sは適用度、Pi(t)、Pi(t)´はそれぞれ入力動作、出力動作の姿勢を示す。入力動作の各フレームは抽象的な表現Pi(t)で示され、ΔPi、ΔQi(t)はPi(t)と共にスケールパラメータsを用いて出力動作Pi(t)´を求める。 In each section of the input motion, the posture deformation data is applied to the motion as follows.
Figure 2008015713
t is the normalized time in the i-th section, s is the applicability, and P i (t) and P i (t) ′ are the postures of the input operation and the output operation, respectively. Each frame of the input operation is shown in an abstract representation P i (t), determining the ΔP i, ΔQ i (t) is the output operation using the scale parameter s with P i (t) P i ( t) ' .

基準動作及び教師動作の全てのフレームの姿勢は前記した姿勢表現Pbase、Preferenceに変換される。キー時間での相違は次式の通り算出される。

Figure 2008015713
ここで、Preference,j、Pbase,jはj番目のキー時刻の基準動作、教師動作の姿勢である。 The postures of all frames of the reference motion and the teacher motion are converted into the above-described posture expressions P base and P reference . The difference in key time is calculated as follows:
Figure 2008015713
Here, P reference, j and P base, j are the postures of the reference motion and teacher motion at the j-th key time.

各区間の全てのフレームの姿勢に関する相違ΔQi(t)は、キー時間の姿勢変形データΔP1、…、ΔPn、並びに、教師動作と基準動作との相違から次式のように求まる。

Figure 2008015713
以上により、全てのキー時刻におけるΔPiと全ての区間におけるΔQi(t)が算出され、姿勢変形データとして記録される。 The difference ΔQ i (t) related to the postures of all the frames in each section is obtained from the key time posture deformation data ΔP 1,..., ΔPn and the difference between the teacher motion and the reference motion as shown in the following equation.
Figure 2008015713
As described above, ΔP i at all key times and ΔQ i (t) in all sections are calculated and recorded as posture deformation data.

[1.2.3 手先及び足先の変化量の表現]
図5に示すように、手先及び足先の動きから算出されるローカル座標系を用いて、手先及び足先の方向及び位置の変化量を表す。例えば、基準動作「ストレートパンチ」と教師動作「強くストレートパンチ」の間で、手の動きが前方方向に大きくなる場合、その変化量は、運動方向から計算されたローカル座標系のZ軸方向の変化量として表現される(図5上)。この変化量を入力動作「アッパーカット」に適用すると、アッパーカットにおける手の運動方向から計算されたZ軸方向の動きが大きくなるため、結果的に、アッパーカットの垂直方向の動きが大きくなる(図5下)。
[1.2.3 Expression of changes in hand and toe]
As shown in FIG. 5, the amount of change in the direction and position of the hand and foot is expressed using a local coordinate system calculated from the movement of the hand and foot. For example, when the movement of the hand increases in the forward direction between the reference action “straight punch” and the teacher action “strongly straight punch”, the amount of change in the Z-axis direction of the local coordinate system calculated from the movement direction It is expressed as a change amount (upper part of FIG. 5). When this amount of change is applied to the input operation “upper cut”, the movement in the Z-axis direction calculated from the direction of movement of the hand in the upper cut increases, and as a result, the vertical movement of the upper cut increases ( FIG. 5 bottom).

始めに、キー時刻の手先又は足先の位置ebase,iと次のキー時刻の手先又は足先の位置ebase,i+1から、次式の通り、各区間の手先及び足先毎の動作方向を算出する。

Figure 2008015713
First, from the hand or foot position e base, i of the key time and the hand or foot position e base, i + 1 of the next key time, for each hand and foot of each section as follows: Calculate the direction of motion.
Figure 2008015713

手先又は足先の運動方向に基づいて計算される3×3行列のローカル座標系をMbaseとしたとき、方向dbase,iはMbaseのZ軸成分として用いられる。次に、Z軸成分と真上方向のベクトルの外積からX軸成分を計算する。最後に、X軸成分とZ軸成分の外積からY軸成分が算出される。ローカル座標を設定した後、基準動作と教師動作の間の手先又は足先の位置、方向の変化量をローカル座標系に変換する。

Figure 2008015713
Figure 2008015713
eはPの一部であることから、式(10)は式(7)(8)に含まれる。そして、式(11)はΔPj、ΔQiに適用される。 When a 3 × 3 matrix local coordinate system calculated based on the movement direction of the hand or foot is M base , the direction d base, i is used as the Z-axis component of M base . Next, the X-axis component is calculated from the outer product of the Z-axis component and the upward vector. Finally, the Y-axis component is calculated from the outer product of the X-axis component and the Z-axis component. After setting the local coordinates, the amount of change in the position and direction of the hand or foot between the reference motion and the teacher motion is converted into the local coordinate system.
Figure 2008015713
Figure 2008015713
Since e is a part of P, equation (10) is included in equations (7) and (8). Expression (11) is applied to ΔP j and ΔQ i .

これらの変形データは入力動作に適用するときには、同様に入力動作の手先及び足先のローカル座標Minputが算出され、変形データはそのローカル座標系で適用される。

Figure 2008015713
Figure 2008015713
その結果、手先及び足先の運動方向が基準動作と入力動作の間で異なってても、適切な変形を実現できる。 When these deformation data are applied to an input operation, the local coordinates M input of the hand and foot of the input operation are similarly calculated, and the deformation data is applied in the local coordinate system.
Figure 2008015713
Figure 2008015713
As a result, appropriate deformation can be realized even if the movement directions of the hand and toe are different between the reference action and the input action.

[1.2.4 腰の絶対位置・相対位置・絶対向き・相対向き]
変形を適用するために、各フレームにおける腰の絶対位置・相対位置・絶対向き・相対向きを分離して扱う。
[1.2.4 Absolute position, relative position, absolute orientation, and relative orientation of the waist]
In order to apply deformation, the absolute position, relative position, absolute orientation, and relative orientation of the waist in each frame are handled separately.

絶対位置pabs、絶対向きqabsは、人体モデルが腰の姿勢を変えることなく直立していると仮定したときの、ニュートラルな位置、向きであるとする(図6参照)。相対位置prel、相対向きqrelはそれぞれ実際の腰の位置p、方向qと絶対位置pabs、絶対向きqabsとの差分である。 The absolute position p abs and the absolute direction q abs are assumed to be neutral positions and orientations when it is assumed that the human body model stands upright without changing the posture of the waist (see FIG. 6). The relative position p rel and the relative direction q rel are the difference between the actual waist position p and direction q and the absolute position p abs and absolute direction q abs , respectively.

始めに、腰の相対的な移動や回転がない状態で人体モデルが直立していると仮定して、両足の位置から各キー時刻における絶対位置pabsを算出する。両足が地面に接触しているキー時刻においては、両足の真中の位置を絶対位置の水平方向の座標(pabs.X、pabs.Z)とする。また、直立した姿勢での腰の高さを垂直方向の座標pabs.Vとする。両足が地面に接触していないキー時刻においては、両脚が地面に接触している前のキー時刻及び後のキー時刻における腰の絶対位置を線形補間することで、そのキー時刻における腰の絶対位置を求める。 First, the absolute position pabs at each key time is calculated from the positions of both feet, assuming that the human body model is upright without relative movement or rotation of the waist. At the key time when both feet are in contact with the ground, the center position of both feet is the horizontal coordinate ( pabs.X , pabs.Z ) of the absolute position. Further, the height of the waist in an upright posture is defined as a vertical coordinate pabs.V. At the key time when both feet are not in contact with the ground, the absolute position of the waist at the key time is obtained by linear interpolation of the absolute position of the waist before and after the time when both legs are in contact with the ground. Ask for.

次に、各キーフ時刻の絶対向きqabsはキー時刻の絶対位置pabsj+1と前のキー時刻の絶対位置pabsjから求める。ここでは、qabsは水平方向の回転のみを取り扱うので、qabsは(pabsj+1、pabsj)の水平要素から求めることができる。動作区間の絶対向きを計算するために、前のキー時刻の向きと次のキー時刻の向きを大円補間(spherical liner interpolation (SLERP))(Pletinckx D. Quaternion calculus as a basic tool in computer graphics. The Visual Computer, 5(2), 1989.)を用いる。 Next, the absolute direction q abs of each key time is obtained from the absolute position p abs , j + 1 of the key time and the absolute position p abs , j of the previous key time. Here, since q abs handles only the rotation in the horizontal direction, q abs can be obtained from the horizontal elements of ( pabs , j + 1 , pabs , j ). In order to calculate the absolute direction of the motion interval, the spherical liner interpolation (SLERP) (Pletinckx D. Quaternion calculus as a basic tool in computer graphics. The Visual Computer, 5 (2), 1989.) is used.

絶対位置pabs、絶対向きqabsが求まれば、手先及び足先のローカル座標系の計算と同様の方法で、腰の絶対向きqabsから腰のローカル座標系Mbaseを求める。
相対位置及び向きprel、qrelはそれぞれ次式で求まる。

Figure 2008015713
When the absolute position p abs and the absolute orientation q abs are obtained, the waist local coordinate system M base is obtained from the waist absolute orientation q abs in the same manner as the calculation of the hand and foot local coordinate systems.
The relative positions and orientations p rel and q rel are obtained by the following equations, respectively.
Figure 2008015713

Figure 2008015713
以上の結果、各キー時刻において、腰の状態を表す(pabs、prel、qrel)が記録され、姿勢変形データの計算に用いられる。qabsは、ローカル座標系Mbaseを計算するために使用されるだけであるため、記録する必要はない。
Figure 2008015713
As a result, at each key time, (p abs , p rel , q rel ) representing the waist state is recorded and used for calculation of posture deformation data. Since q abs is only used to calculate the local coordinate system M base , it need not be recorded.

[2.変形データの抽出及び適用]
変形データを抽出時には、本システムでは、まず時間変形データTi(t)を求め、次にキー時間での姿勢変形データΔPjを求め、最後に区間の姿勢変形データΔQi(t)を求める。このような手順で行う理由は、基準動作と教師動作の間の対応するフレームから姿勢変形データを計算するために、教師動作に対して時間変形データを適用する必要があるからである。また、キー時刻における姿勢変形データを先に基準動作に適用し、その後式(8)を用いて動作区間中の姿勢変形データを求める。
[2. Extraction and application of deformation data]
When extracting deformation data, the system first obtains time deformation data T i (t), then obtains posture deformation data ΔP j at the key time, and finally obtains posture deformation data ΔQ i (t) of the section. . The reason for performing this procedure is that it is necessary to apply time deformation data to the teacher motion in order to calculate the posture deformation data from the corresponding frame between the reference motion and the teacher motion. In addition, the posture deformation data at the key time is first applied to the reference motion, and then the posture deformation data in the motion section is obtained using equation (8).

変形データの適用も同じ順序でなされる。ユーザーにより適用度が指定されている場合には、全ての姿勢変形データにその適用度を乗算してから適用する。変形時には、入力動作の各フレームの姿勢は抽象的な姿勢表現P(t)に変換される。そして、姿勢変形データΔPj、ΔQi(t)は式(6)を使用して適用される。変形された姿勢表現P´(t)に基づき、出力動作の姿勢が計算される。 The deformation data is applied in the same order. When the applicability is designated by the user, the applicability is multiplied after all the posture deformation data are applied. At the time of deformation, the posture of each frame of the input motion is converted into an abstract posture representation P (t). Then, the posture deformation data ΔP j and ΔQ i (t) are applied using the equation (6). Based on the deformed posture expression P ′ (t), the posture of the output operation is calculated.

しかし、単純に変形データを入力動作に適用した場合、不自然な姿勢が生成される可能性がある。例えば、もともと腰の位置が低い入力動作に対して、腰の位置を下げるような変形が適用された場合、腰の位置が低くなり過ぎてしまうかもしれない。このような不自然な姿勢を避けるために、腰の相対位置や相対向き、手先及び足先の位置や向きを、人間の姿勢として実現可能な範囲内に制限する。入力動作のにおける手足の各関節の回転は、手先及び足先の位置と向きから、分析的な逆運動手法(an analytical inverse kinematics method)(Lee J, Shin S Y. A Hierarchical Approach to Interactive Motion Editing for Human-like Characters. Proc. of SIGGRAPH 99, 39-48, 1999.)を用いることで計算される。   However, when deformation data is simply applied to an input operation, an unnatural posture may be generated. For example, if a deformation that lowers the waist position is applied to an input operation in which the waist position is originally low, the waist position may become too low. In order to avoid such an unnatural posture, the relative position and relative orientation of the waist and the positions and orientations of the hands and toes are limited within a range that can be realized as a human posture. The rotation of each joint of the limb during the input motion is determined from the position and orientation of the hand and toes, an analytical inverse kinematics method (Lee J, Shin S Y. A Hierarchical Approach to Interactive Motion Editing). for Human-like Characters. Proc. of SIGGRAPH 99, 39-48, 1999.).

[3.システム構成]
システム構成図を図7に示す。本システムは、変化の特徴量を表す変形データの抽出処理、適用処理の2つの処理に分けられる。抽出処理では、ある基準動作と教師動作の、2つの動作データを入力して受け取り、それらの動作の差分より、特徴の変化を変形データとして抽出する。適用処理では、入力動作に、変形データに適用度をかけて適用することで、出力動作を生成する。
[3. System configuration]
A system configuration diagram is shown in FIG. This system is divided into two processes, that is, an extraction process of deformation data representing a feature amount of change and an application process. In the extraction process, two motion data of a certain standard motion and a teacher motion are input and received, and a change in feature is extracted as deformation data from the difference between the motions. In the application process, an output operation is generated by applying the input data to the deformed data with a degree of applicability.

本システムでは、抽出した変形データを、基準動作の種類と合わせて、「楽しそうに」「疲れ」といった動作スタイルとしてデータベースに格納することで、変形データを再利用する。利用者が入力動作となる動作データを入力し、「楽しい」「疲れ」といった動作スタイルを入力又は選択すると、データベースから最適な変形データを検索して、入力動作に適用する。本システムを利用することで、動作データの動作スタイルをさまざまに変化させることが可能となる。   In this system, the deformed data is reused by storing the extracted deformed data in the database as an operation style such as “pleasant” or “fatigue” together with the type of the reference action. When the user inputs operation data as an input operation and inputs or selects an operation style such as “fun” or “tired”, optimum deformation data is retrieved from the database and applied to the input operation. By using this system, it is possible to change the operation style of operation data in various ways.

[4.ハードウェア構成]
本実施形態に係る動作変形システムは、次の構成の一のコンピュータに構築する。ただし、複数のコンピュータを用いてシステム構築することもできる。たとえば、変形データを生成してデータベースに格納するまでの処理を1台目のコンピュータで処理するように構築し、それ以降の検索処理と適用処理を2台目のコンピュータで処理するように構築し、データベース自体を3台目のコンピュータで構築することもできる。
[4. Hardware configuration]
The motion deformation system according to the present embodiment is constructed in a computer having the following configuration. However, a system can be constructed using a plurality of computers. For example, it is constructed so that the process from generation of deformation data to storage in the database is processed by the first computer, and subsequent search processing and application processing are processed by the second computer. The database itself can be constructed with a third computer.

図8は本実施形態に係る動作変形システムを構築するコンピュータのハードウェア構成図である。   FIG. 8 is a hardware configuration diagram of a computer that constructs an operation modification system according to the present embodiment.

コンピュータは、CPU(Central Processing Unit)11、DRAM(Dynamic Random Access Memory)12等のメインメモリ、外部記憶装置であるHD(hard disk)13、入力装置であるキーボード14及びマウス15、ディスプレイ16aの表示動作を制御するビデオカード16、スピーカー17aの音動作を制御するサウンドカード17、ネットワークに接続するための拡張カードであるLANカード18、CD−ROMドライブ19等からなる。なお、本実施形態ではLANカード18を使用しないが、当業者であれば明らかな通り、システム構成によってはLANを構築して本発明を実現することができる。たとえば、動作作成システムが構築されている他のコンピュータとLANで接続し、そのコンピュータへデザイナーが作成した動作データを、基準動作、教師動作、入力動作としてLANを介して入力し、逆に出力動作を動作作成システムが構築されている他のコンピュータからデザイナーの使用するコンピュータに返すこともできる。   The computer includes a CPU (Central Processing Unit) 11, a DRAM (Dynamic Random Access Memory) 12 and other main memory, an external storage device HD (hard disk) 13, an input device keyboard 14 and mouse 15, and a display 16a display. It comprises a video card 16 for controlling the operation, a sound card 17 for controlling the sound operation of the speaker 17a, a LAN card 18 as an expansion card for connection to a network, a CD-ROM drive 19, and the like. Although the LAN card 18 is not used in the present embodiment, as is apparent to those skilled in the art, the present invention can be realized by constructing a LAN depending on the system configuration. For example, connect to another computer with an action creation system built in via LAN, and input the action data created by the designer to the computer as a reference action, teacher action, and input action via the LAN, and reversely output action Can be returned to the computer used by the designer from another computer on which the motion creation system is constructed.

例えば、CD−ROMに格納されている動作変形プログラムがHD13上に複製(インストール)され、必要に応じて動作変形プログラムがメインメモリ12に読み出され、CPU11がかかるプログラムを実行することで動作変形システムを構成する。   For example, the operation modification program stored in the CD-ROM is duplicated (installed) on the HD 13, and the operation modification program is read into the main memory 12 as necessary, and the CPU 11 executes the program to modify the operation. Configure the system.

[5.システムブロック構成]
図9は本実施形態に係る動作変形システムのシステム構成ブロック図である。
[5. System block configuration]
FIG. 9 is a system configuration block diagram of the motion modification system according to the present embodiment.

本実施形態に係る動作変形システムは、通常の動作スタイルである基準動作と、何らかの動作スタイルを持った教師動作との間から、2つの動作の間のスタイルの違いを表する変形データを生成する抽出部21と、この抽出部21が生成した変形データをデータベース23に格納する格納部22と、入力動作に適用する変形データをデータベース23から検索する検索部31と、この検索部31で検索され読み出された変形データを入力動作に適用して出力動作を作成する適用部32とからなる。   The motion deformation system according to the present embodiment generates deformation data representing a style difference between two motions from between a standard motion that is a normal motion style and a teacher motion having some motion style. An extraction unit 21, a storage unit 22 that stores the deformation data generated by the extraction unit 21 in the database 23, a search unit 31 that searches the database 23 for deformation data to be applied to the input operation, and the search unit 31 An application unit 32 that generates the output operation by applying the read deformation data to the input operation.

抽出部21は、基準動作及び教師動作から[1.変形データ]で前説した変形データを[2 変形データの抽出及び適用]で説示した方法で抽出する。   The extraction unit 21 calculates the reference motion and the teacher motion from [1. The deformation data described above in [Deformation data] is extracted by the method described in [2 Extraction and application of deformation data].

格納部22は、抽出部21から生成された変形データを順次データベース23に格納するのではなく、教師動作の動作スタイル(「疲れ」「楽しい」等)と関連付けてデータベース23に生成された変形データを格納する。   The storage unit 22 does not sequentially store the deformation data generated from the extraction unit 21 in the database 23, but instead generates the deformation data generated in the database 23 in association with the operation style (“fatigue”, “fun”, etc.) of the teacher operation. Is stored.

教師動作の動作スタイルは、ユーザーからの入力をテキストボックスで受けてもよいし、複数の動作スタイルを一覧表示してユーザーからの選択を受けてもよい。勿論、この組合せでもよく、始めはテキスト入力し、既に入力された動作スタイルを一覧表示することもできる。さらに、一覧表示はシソーラスのように動作スタイルを意味によって分類、配列して一覧表示することが望ましい。   As the action style of the teacher action, input from the user may be received in a text box, or a plurality of action styles may be displayed in a list and received from the user. Of course, this combination is also possible. Initially, text input can be performed and a list of already input operation styles can be displayed. Further, it is desirable that the list display is performed by classifying and arranging the operation styles according to meaning as in a thesaurus.

なお、変形データ及び教師動作の動作スタイルとさらに基準動作の動作種類(「歩く」「走る」等)も関連付けてデータベース23に格納することもできる。このとき、基準動作の動作種類は、教師動作の動作スタイルと同様にユーザーからの指定を受ける。変形データはすべてどのような入力動作に対しても適用しても出力動作を生成することはできるものの、教師動作の動作スタイルを指定しただけでは、動作を作成するデザイナーが意図しない出力動作、または、不自然な出力動作が生成されることがある。この主な理由の一つとして、基準動作の動作種類と入力動作の動作種類が大きく異なる場合があるからである。そこで、教師動作の動作スタイルに加え、変形データ作成時の基準動作の動作種類も関連付けてデータベース23に格納し、変形データの検索時に参照、指定できるようにする。これにより、想定外の出力動作の生成を防止し、所望の出力動作を生成することができる。なお、動作種類は、動作スタイルと同様にユーザーがテキスト入力又は選択した情報を使用することもできるし、基準動作を解析して動作種類を表す特徴量を計算することもできる。   Note that the deformation data and the motion style of the teacher motion and the motion type of the reference motion (“walk”, “run”, etc.) can also be stored in the database 23 in association with each other. At this time, the action type of the reference action is designated by the user in the same manner as the action style of the teacher action. Although all deformation data can be applied to any input motion, an output motion can be generated, but by specifying the motion style of the teacher motion, the output motion unintended by the designer who creates the motion, or Unnatural output behavior may be generated. One of the main reasons is that the operation type of the reference operation and the operation type of the input operation may be greatly different. Therefore, in addition to the motion style of the teacher motion, the motion type of the reference motion at the time of creating the deformation data is also associated and stored in the database 23 so that it can be referred to and specified when searching for the deformation data. As a result, generation of an unexpected output operation can be prevented, and a desired output operation can be generated. Note that the action type can use information input or selected by the user in the same manner as the action style, or can calculate a feature amount representing the action type by analyzing the reference action.

検索部31は、ユーザーから受けた動作スタイルを検索キー(キーワード)を用いてデータベース23から入力動作に適用する変形データを検索する。ユーザーからの入力は変形データ格納時の教師動作の動作スタイルと同様である。   The search unit 31 searches the database 23 for deformation data to be applied to the input operation using the search key (keyword) for the operation style received from the user. The input from the user is the same as the operation style of the teacher operation when storing the deformation data.

適用部32は、検索部31で検索された変形データを[2 変形データの抽出及び適用]で説示した方法で入力動作に適用して出力動作を生成する。適用部32は、ユーザーから受けた適用度に応じて入力動作に与える変形データの程度を変えることができる。また、この適用度は部位毎に適用することもでき、例えば、変形データを適用する場合に足はあまり適用しないが、腕はそのまま適用するといった設定を行うことができ、より柔軟にユーザーが想定する出力動作を生成することができる。このように部位毎の適用度を変更できることも、直接的に関節角度を変更する従来の方法と比べ、本動作システムの利点のひとつである。   The application unit 32 generates the output operation by applying the deformation data searched by the search unit 31 to the input operation by the method described in [2 Extraction and application of deformation data]. The application unit 32 can change the degree of deformation data given to the input operation according to the degree of application received from the user. This degree of applicability can also be applied to each part.For example, when applying deformation data, it can be set so that the foot is not applied much, but the arm is applied as it is, and the user can be flexibly assumed. An output action can be generated. The ability to change the applicability for each part in this way is also one of the advantages of this operation system compared to the conventional method of directly changing the joint angle.

[6.動作]
[6.1 変形データ生成格納]
図10は第1の実施形態に係る動作変形システムの変形データ抽出動作及び格納動作のフローチャートである。
[6. Operation]
[6.1 Modified data generation and storage]
FIG. 10 is a flowchart of the deformation data extraction operation and the storage operation of the operation deformation system according to the first embodiment.

動作変形システムはまず基準動作の入力を行う(ステップ101)。動作はモーションキャプチャ装置、動作設計装置を用いて作成することができ、作成した動作を基準動作として動作変形システムに取り込ませる。   First, the motion deformation system inputs a reference motion (step 101). The motion can be created using a motion capture device or motion design device, and the created motion is taken into the motion deformation system as a reference motion.

動作変形システムは教師動作の入力を行う(ステップ111)。
抽出部21は入力された基準動作及び教師動作から変形データを生成する(ステップ200)。
ユーザーから動作スタイルの入力又は選択を受け付ける。
格納部22は受け付けた動作スタイルと生成した変形データを関連付けて格納する(ステップ301)。データベースに格納する場合には、データベースには動作スタイル、変形データの属性を有するテーブルが設定されている。このデータベースには必要に応じて、基準動作、教師動作の属性を加えたテーブルを設定することもできる。
The motion transformation system inputs a teacher motion (step 111).
The extraction unit 21 generates deformation data from the input reference motion and teacher motion (step 200).
Accepts input or selection of action style from the user.
The storage unit 22 stores the received operation style in association with the generated deformation data (step 301). In the case of storing in the database, a table having an operation style and modified data attributes is set in the database. In this database, a table to which attributes of reference actions and teacher actions are added can be set as necessary.

図11は第1の実施形態に係る動作変形システムの変形データの抽出詳細動作のフローチャートである。
抽出部21は各区間での基準動作、教師動作のそれぞれの正規化姿勢変化量に基づいて対応付けを行う(ステップ210)。
抽出部21は基準動作のキー時刻での姿勢と教師動作のキー時刻での姿勢からキー時刻での姿勢変形データを算出する(ステップ220)。
抽出部21はステップ210で求めた時間変形データとステップ220で求めた変形データを用いて、各区間内の対応するフレーム同士の姿勢の差分から、動作変形データを算出する(ステップ230)。
FIG. 11 is a flowchart of the detailed operation of extracting deformation data of the operation deformation system according to the first embodiment.
The extraction unit 21 performs association based on the normalized posture change amounts of the reference motion and the teacher motion in each section (step 210).
The extraction unit 21 calculates posture deformation data at the key time from the posture at the key time of the standard motion and the posture at the key time of the teacher motion (step 220).
Using the temporal deformation data obtained in step 210 and the deformation data obtained in step 220, the extraction unit 21 calculates motion deformation data from the difference in posture between corresponding frames in each section (step 230).

[6.2 変形データ生成格納]
図12は第1の実施形態に係る動作変形システムの変形データ適用動作のフローチャートである。
動作変形システムはまず動作に所望の変更を加える入力動作の入力を行う(ステップ401)。
ユーザーから入力動作に適用したい動作スタイルの入力又は選択を受け付ける。
ユーザーから入力動作に適用する変形の程度を示す適用度の入力又は選択を受け付ける。
検索部31は動作スタイルを検索キーとして変形データを検索する(ステップ500)。
適用部32は検索した変形データを、入力した入力動作にユーザーが指定した適用度で適用して、出力動作を生成する(ステップ600)。
[6.2 Modified data generation and storage]
FIG. 12 is a flowchart of the modification data application operation of the operation modification system according to the first embodiment.
First, the motion deformation system inputs an input motion for making a desired change to the motion (step 401).
Accepts an input or selection of an action style to be applied to the input action from the user.
An input or selection of the applicability indicating the degree of deformation applied to the input operation is received from the user.
The search unit 31 searches for deformation data using the operation style as a search key (step 500).
The application unit 32 applies the retrieved deformation data to the input operation with the application degree specified by the user to generate an output operation (step 600).

図13は第1の実施形態に係る動作変形システムの変形データ適用詳細動作のフローチャートである。
適用部32は変形データの時間変形データを用いて入力動作の速度を変形する(ステップ610)。
適用部32はキー時刻での姿勢変形データに適用度を乗算して、入力動作の対応するキー時刻の姿勢に加えることで、キー時刻の姿勢を変形する(ステップ620)。
適用部32は各区間の姿勢変形データに適用度を乗算して、入力動作の対応するフレーム姿勢に加えることで、各フレームの姿勢を変形する(ステップ630)。
FIG. 13 is a flowchart of the detailed modification data application operation of the behavior modification system according to the first embodiment.
The application unit 32 modifies the speed of the input operation using the time deformation data of the deformation data (step 610).
The applying unit 32 multiplies the posture deformation data at the key time by the applicability, and adds it to the key time posture corresponding to the input operation, thereby deforming the key time posture (step 620).
The applying unit 32 multiplies the posture deformation data of each section by the applicability, and adds it to the corresponding frame posture of the input operation, thereby deforming the posture of each frame (step 630).

(その他の実施形態)
[動作スタイルの類似検索]
変形データの検索時に、ユーザーが入力、選択した動作スタイルだけでなく、入力、選択した動作スタイルに類似する動作スタイルをユーザーに対して提示することもできる。特に、提示する類似する動作スタイルは、既にデータベース23に格納されている変形データの動作スタイルであることが望ましい。また、類似する動作スタイルが複数ある場合に類似性の順序に動作スタイルをユーザーに提示することが好ましい。提示した類似する動作スタイルもユーザーが選択することができ、さらに、選択した類似する動作スタイルに対して類似する動作スタイルをユーザーに提示することもでき、以降同様に再帰処理してもよい。具体的に、類似する動作スタイルはシソーラスを用いてユーザーが入力、選択した動作スタイルに類似する動作スタイルを検出することができる。類似する動作スタイルとは、同義語、関連語、広義語、狭義語等が該当する。
(Other embodiments)
[Similar search of operation style]
When searching for deformation data, not only an operation style input and selected by the user, but also an operation style similar to the input and selected operation style can be presented to the user. In particular, it is desirable that the similar operation style to be presented is the operation style of the deformation data already stored in the database 23. Further, when there are a plurality of similar operation styles, it is preferable to present the operation styles to the user in the order of similarity. The presented similar action style can also be selected by the user, and a similar action style can be presented to the user with respect to the selected similar action style. More specifically, similar behavior styles can be detected using a thesaurus, which is similar to the behavior style input and selected by the user. Similar behavior styles include synonyms, related terms, broad terms, narrow terms, and the like.

この場合において、既にデータベース23に格納している動作スタイルをユーザーに提示する場合には、動作スタイルだけでなく関連付けて格納されている基準動作の動作種類も提示することが望ましい。   In this case, when the action style already stored in the database 23 is presented to the user, it is desirable to present not only the action style but also the action type of the reference action stored in association therewith.

[動作スタイルの選択]
変形データの検索時のユーザーによる動作スタイルの選択においては、例えば、既に登録している動作スタイルを選択可能に表示できるとしたが、この表示と共に各動作スタイルと関連付いている変形データを生成するために使用した基準動作及び/又は教師動作を表示することもできる。そうすることで、動作スタイルだけではユーザーが理解し難いが、実際の動作を参照することでその動作スタイルを把握することができる。
[Select action style]
In the selection of an action style by the user when searching for deformation data, for example, it is assumed that an already registered action style can be selected and displayed, but with this display, deformation data associated with each action style is generated. It is also possible to display the reference action and / or the teacher action used for the purpose. By doing so, it is difficult for the user to understand only the operation style, but the operation style can be grasped by referring to the actual operation.

[入力動作に基づく適用可能な動作スタイルの表示]
入力動作に適用できる動作スタイルはデータベース23に格納されている全ての変形データの動作スタイルであるとは限らない。基準動作と入力動作の動作種類が全く異なる場合、変形データが適用できないこともある。そこで、入力動作に適用できない動作スタイルを外して一覧表示することが望ましい。入力動作に適用できない変形データは、基準動作と入力動作の差異により判定することができる。具体的には、動作類似性評価を用いて一定の類似性がない場合には適用が困難であると判断することができる。また、予め適用できない動作種類の組み合せを記録し、基準動作の動作種類と入力動作の動作種類から適用できない動作スタイルを求めてもよい。さらに、ユーザーが適用できないとした情報(基準動作の動作種類、入力動作の動作種類)を履歴情報として記録し、履歴情報の組み合せに該当する場合には、出力動作を生成する前に自然な出力動作が生成することができない可能性が高い旨等の注意メッセージを出力し、または、ユーザーが提示されている動作スタイルの中でその履歴情報の組み合せに該当するものを表示しないか、選択できないようにすることができる。
[Display applicable action styles based on input actions]
The operation style that can be applied to the input operation is not necessarily the operation style of all deformation data stored in the database 23. If the operation types of the reference operation and the input operation are completely different, the deformation data may not be applied. Therefore, it is desirable to display a list by removing operation styles that cannot be applied to input operations. The deformation data that cannot be applied to the input operation can be determined based on the difference between the reference operation and the input operation. Specifically, it can be determined that the application is difficult when there is no certain similarity using the motion similarity evaluation. Alternatively, a combination of operation types that cannot be applied in advance may be recorded, and an operation style that cannot be applied may be determined from the operation types of the reference operation and the operation types of the input operation. In addition, information that cannot be applied by the user (operation type of reference action, action type of input action) is recorded as history information, and if it is a combination of history information, natural output before generating the output action A warning message indicating that there is a high possibility that the action cannot be generated is output, or the action style that is presented by the user is not displayed or cannot be selected. Can be.

[出力動作の複数表示]
ユーザーにより動作スタイルが複数選択された場合に、入力動作にそれぞれの動作スタイルに対応する変形データを適用して各出力動作を出力し、複数の出力動作を同時にディスプレイに表示することもできる。比較表示の結果、ユーザーは所望の出力動作を用いることができる。このとき、時間変形データは適用せずに、姿勢変形データのみを適用することで、入力動作と出力動作の姿勢の差異をより詳細に比較することができる。また、適用する変形データにおいて変形量が大きい部位については、出力動作におけるその部位の色を変えて表示することで、入力動作と出力動作の姿勢の差異をユーザーがより良く認識できるようにすることができる。
[Display multiple output operations]
When a plurality of operation styles are selected by the user, each output operation can be output by applying deformation data corresponding to each operation style to the input operation, and the plurality of output operations can be simultaneously displayed on the display. As a result of the comparison display, the user can use a desired output operation. At this time, by applying only the posture deformation data without applying the time deformation data, the difference between the postures of the input operation and the output operation can be compared in more detail. In addition, for parts with a large amount of deformation in the deformation data to be applied, the user can better recognize the difference in posture between the input action and the output action by changing the color of the part in the output action and displaying it. Can do.

また、複数の動作スタイルの適用結果の出力動作を同時に表示するだけではなく、さまざまな適用度での適用結果の出力動作を同時に表示することで、ユーザーが適切な適用度を決定できるようにすることもできる。   In addition to displaying the output behavior of the application results of multiple behavior styles at the same time, the user can determine the appropriate applicability by displaying the output behavior of the application results at various applicability at the same time. You can also.

[複数の動作からなる複合動作]
3段跳び、ダンスといった複数の動作が複合された複合動作についても、キー時刻を適切にユーザーが設定することができる場合には、変形データを作成することは可能である。しかしながら、作成した変形データを適用する際に、自然な動作となる入力動作が限られてくる。そこで、複合動作の場合には構成する動作の切れ目を自動又は手動で設定する。歩く動作などの繰り返し動作であれば、動作の周期性(一つの動作は初期姿勢から終期姿勢からなり、それ以降の動作の初期姿勢又は終期姿勢を検出することで切れ目を検出することができる)に注目して解析を行うことで自動的に設定することができる。そして、動作の切れ目が指定されれば、それぞれの切れ目の間の動作を単一の動作として認識して、変形データを作成することができる。複合動作となる基準動作を構成する動作数と、同じく複合動作となる入力動作を構成する動作数が同じ場合には、対応する変形データを適用することで出力動作を得ることができる。構成する動作数が異なる場合で入力動作の動作数が少ない場合には、入力動作の動作数よりも多い基準動作の動作数の変形データを使用しないことで対応でき、逆に、入力動作の動作数が多い場合には、足りない動作数分基準動作の変形データを繰り返し使用することで対応することができる。
[Composite action consisting of multiple actions]
Even for a combined action in which a plurality of actions such as three-step jump and dance are combined, it is possible to create deformation data if the user can appropriately set the key time. However, when the created deformation data is applied, input operations that are natural operations are limited. Therefore, in the case of a composite operation, the operation breaks to be configured are set automatically or manually. If it is a repetitive motion such as a walking motion, the periodicity of the motion (one motion consists of the initial posture to the final posture, and the break can be detected by detecting the initial posture or the final posture of the subsequent motion) It is possible to set automatically by paying attention to the analysis. If a break between motions is designated, the motion between the breaks can be recognized as a single motion, and deformation data can be created. When the number of operations constituting the reference operation that is a composite operation is the same as the number of operations constituting the input operation that is also a composite operation, an output operation can be obtained by applying the corresponding modified data. If the number of operations is different and the number of input operations is small, it can be handled by not using the deformation data of the number of operations of the reference operation that is larger than the number of operations of the input operation. When the number is large, it can be dealt with by repeatedly using the deformation data of the reference motion for the number of motions that are insufficient.

[各部位の変化量による不自然な動作の出力抑制]
入力動作中で変化量が所定閾値以下であった身体部位に対しては、その部位に関して変形データを適用しない構成とすることもでき、入力動作中で大きく変化しない部位の動きを変形データにより変化させることで不自然な動作が出力されることを防止することができる。
[Suppression of unnatural motion output due to changes in each part]
For a body part whose amount of change is less than or equal to a predetermined threshold during input operation, it is possible to adopt a configuration in which deformation data is not applied to that part, and the movement of the part that does not change greatly during input operation is changed by the deformation data By doing so, it is possible to prevent an unnatural operation from being output.

[変形データの変換処理]
例えば、右手で殴る動作から変形データを生成した場合に、左手で殴る動作に変形データを適用したい場合が生じる。変形データを単純に適用すると、右手で殴る動作の右手の変形データが左手で殴る動作の右手に適用されるため、不自然な動作となる。この場合には変形データの右手の変形量を左手の変形量に変換する必要があり、変形データ内の左右の身体部位のデータを取り替える必要がある。ただし、単純に各部位の変形量を入れ替えるだけでは、右手の位置が外側に変化していたときに、左手の位置が内側に変化してしまうため、変形データの変化量を左右に反転するような変換が必要となる。
[Transformation of transformation data]
For example, when the deformation data is generated from the movement with the right hand, the deformation data may be applied to the movement with the left hand. If the deformation data is simply applied, the deformation data of the right hand that moves with the right hand is applied to the right hand of the movement that moves with the left hand, resulting in an unnatural movement. In this case, it is necessary to convert the deformation amount of the right hand in the deformation data into the deformation amount of the left hand, and it is necessary to replace the data of the left and right body parts in the deformation data. However, simply changing the deformation amount of each part will cause the left hand position to change inward when the position of the right hand changes to the outside. Needs to be converted.

[異なるキャラクタでの使用]
前記実施形態においては、同じキャラクタから生成された変形データは異なる体格のキャラクタに適用することもできる。このとき、手足の長さなどに応じて、変形データにおける変形量を適切にスケーリングすることが望ましい。
[Use with different characters]
In the embodiment, deformation data generated from the same character can be applied to characters having different physiques. At this time, it is desirable that the deformation amount in the deformation data is appropriately scaled according to the length of the limb.

以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。   Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.

本発明の概念説明図である。It is a conceptual explanatory view of the present invention. 本発明の第1の実施形態に係る動作の区間とキー時刻の設定の説明図である。It is explanatory drawing of the setting of the area of operation which concerns on the 1st Embodiment of this invention, and key time. 本発明の第1の実施形態に係る変形データの説明図である。It is explanatory drawing of the deformation | transformation data which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る姿勢表現の説明図である。It is explanatory drawing of the attitude | position expression which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る動作方向に基づくローカル座標系での手先及び足先の変形量の表現の説明図である。It is explanatory drawing of the expression of the deformation | transformation amount of the hand and foot tip in the local coordinate system based on the operation | movement direction which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る腰の絶対位置・相対位置・絶対向き・相対向きの説明図である。It is explanatory drawing of the absolute position / relative position / absolute direction / relative direction of the waist according to the first embodiment of the present invention. 本発明の第1の実施形態に係るシステム構成図である。It is a system configuration figure concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る動作変形システムを構築するコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer which builds the operation | movement deformation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る動作変形システムのシステム構成ブロック図である。It is a system configuration block diagram of an operation modification system concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る動作変形システムの変形データ抽出格納動作のフローチャートである。It is a flowchart of the deformation | transformation data extraction storage operation | movement of the operation | movement deformation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る動作変形システムの変形データ抽出詳細動作のフローチャートである。It is a flowchart of the deformation | transformation data extraction detailed operation | movement of the operation | movement deformation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る動作変形システムの変形データ適用動作のフローチャートである。It is a flowchart of the deformation | transformation data application operation | movement of the operation | movement deformation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る動作変形システムの変形データ適用詳細動作のフローチャートである。It is a flowchart of the deformation | transformation data application detailed operation | movement of the motion deformation | transformation system which concerns on the 1st Embodiment of this invention.

符号の説明Explanation of symbols

11 CPU
12 RAM
13 ハードディスク
14 キーボード
15 マウス
16 ビデオカード
16a ディスプレイ
17 サウンドカード
17a スピーカー
18 LANカード
19 CD−ROMドライブ
21 抽出部
22 格納部
23 データベース
31 検索部
32 適用部

11 CPU
12 RAM
13 Hard Disk 14 Keyboard 15 Mouse 16 Video Card 16a Display 17 Sound Card 17a Speaker 18 LAN Card 19 CD-ROM Drive 21 Extraction Unit 22 Storage Unit 23 Database 31 Search Unit 32 Application Unit

Claims (11)

基準動作と教師動作から差分となる変形データを抽出する抽出手段と、
ユーザーから教師動作の動作スタイルの入力を受け付ける手段と、
抽出手段で抽出した変形データとユーザーから入力された教師動作の動作スタイルを関連付けて記録する手段と、
ユーザーから入力動作に対して適用する動作スタイルの入力を受け付ける手段と、
記録している教師動作の動作スタイル及び変形データからユーザーから入力された動作スタイルに基づき変形データを検索する検索手段と、
検索手段で検索した変形データを入力動作に適用する適用手段と、
適用して生成された出力データを出力する出力手段とを含む動作変形システム。
Extraction means for extracting deformation data that is a difference from the reference motion and the teacher motion;
Means for accepting an input of a teacher action style from a user;
Means for associating and recording the deformation data extracted by the extracting means and the action style of the teacher action input by the user;
Means for accepting an input of an action style to be applied to an input action from a user;
Search means for searching for deformation data based on the action style input from the user from the action style and deformation data of the recorded teacher action;
Application means for applying the deformation data searched by the search means to the input operation;
An operation deformation system including output means for outputting output data generated by application.
前記変形データは時間変形データと姿勢変形データとからなり、
時間変形データは基準動作と教師動作の時間的対応関係を示し、
姿勢変形データは基準動作と教師動作の対応する時間での姿勢及び/又は動作の差分を示す
前記請求項1に記載の動作変形システム。
The deformation data is composed of time deformation data and posture deformation data,
Temporal deformation data shows the temporal correspondence between the standard action and the teacher action,
The motion deformation system according to claim 1, wherein the posture deformation data indicates a difference in posture and / or motion at a time corresponding to a reference motion and a teacher motion.
ユーザーから基準動作に対する動作の節目を表すキー時刻の組を受け付ける手段と、
ユーザーから教師動作に対する動作の節目を表すキー時刻の組を受け付ける手段を新たに含み、
基準動作及び教師動作に対して設定したキー時刻の組が対応しており、
ユーザーから受け付けた相互に対応するキー時刻の組に基づいて抽出部が変形データを抽出する
前記請求項1または2に記載の動作変形システム。
Means for accepting a set of key times representing a milestone in the action relative to the reference action from the user;
Newly includes means for accepting a set of key times from the user that represents the milestones of motion for teacher motion,
A set of key times corresponding to the standard action and teacher action is supported,
The motion deformation system according to claim 1 or 2, wherein the extraction unit extracts deformation data based on a set of key times corresponding to each other received from a user.
動作データから動作の節目を表すキー時刻を探索する手段を新たに含み、
基準動作及び教師動作から検索されたキー時刻の組が対応しており、
設定された相互に対応するキー時刻の組に基づいて抽出手段が変形データを抽出する
前記請求項1ないし3のいずれかに記載の動作変形システム。
Newly includes means for searching for key times representing movement milestones from movement data,
A set of key times retrieved from the reference action and the teacher action is supported,
4. The motion deformation system according to claim 1, wherein the extraction unit extracts deformation data based on a set of key times corresponding to each other.
前記適用手段は入力動作に適用度に応じた変形データを適用する
前記請求項1ないし4のいずれかに記載の動作変形システム。
The motion deformation system according to claim 1, wherein the applying unit applies deformation data corresponding to a degree of application to an input operation.
前記変形データはキャラクタの身体の各主要部位の、それぞれ特定の身体部位を基準とした相対的な位置及び/又は向きを含む
前記請求項1ないし5のいずれかに記載の動作変形システム。
The motion deformation system according to any one of claims 1 to 5, wherein the deformation data includes a relative position and / or orientation of each main part of the body of the character with reference to a specific body part.
基準動作と教師動作から差分となる変形データを抽出する抽出手段と、抽出した変形データを入力動作に適用する適用手段とを備え、
抽出手段が基準動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、手先及び足先の位置及び/又は向きが表された変形データを抽出し、
適用手段が抽出手段により抽出された変形データを入力動作の対象姿勢の手先及び足先の位置と前回姿勢の手先及び足先の位置の差分に基づく相対座標系によって、変形データを入力動作に適用する動作変形システム。
An extraction means for extracting deformation data that is a difference from the reference action and the teacher action; and an application means for applying the extracted deformation data to the input action,
Deformation data in which the position and / or orientation of the hand and foot are expressed by a relative coordinate system based on the difference between the hand and foot position of the target posture of the reference motion and the hand and foot position of the previous posture by the extraction means Extract
The deformation data extracted by the extraction means by the applying means is applied to the input action by a relative coordinate system based on the difference between the hand and foot position of the target posture of the input action and the hand and foot position of the previous posture. Motion deformation system.
キー時刻の組が設定されている基準動作とキー時刻の組が設定されている教師動作から、基準動作と教師動作の各キー時刻間の区間における速度変化を示す時間変形データを各区間毎に求めるステップと、
基準動作の各キー時刻の姿勢と教師動作の各キー時刻の姿勢から姿勢の差分を求めて各キー時刻での姿勢変形データを取得するステップと、
基準動作の各時刻の姿勢と前記抽出した時間変形データから求まる当該基準動作の時刻に対応する教師動作の時刻の姿勢とから姿勢の差分を求めて各時刻での姿勢変形データを取得するステップと、
求めた時間変形データ、キー時刻での姿勢変形データ及び各時刻での姿勢変形データを変形データとして記録するステップとを含む変形データ生成方法。
Temporal deformation data indicating the speed change in the interval between each key time of the reference action and the teacher action from the reference action to which the key time set is set and the teacher action to which the key time set is set for each interval Seeking steps,
Obtaining posture difference data at each key time by obtaining a difference in posture from the posture at each key time of the reference motion and the posture at each key time of the teacher motion; and
Obtaining posture deformation data at each time by obtaining a difference in posture from the posture at each time of the reference motion and the posture at the time of the teacher motion corresponding to the time of the reference motion obtained from the extracted time deformation data; ,
And a step of recording the obtained time deformation data, the posture deformation data at the key time, and the posture deformation data at each time as deformation data.
ユーザーから教師動作の動作スタイルを受け付けるステップとを新たに含み、
ユーザーから受け付けた動作スタイルを取得した変形データと関連付けて記録する
前記請求項8に記載の変形データ生成方法。
A step of accepting a teacher action style from the user,
The deformation data generation method according to claim 8, wherein the operation style received from the user is recorded in association with the acquired deformation data.
前記請求項8または9の変形データの時間変形データからキー時刻の組が設定されている入力動作を時間変形するステップと、
変形データのキー時刻での姿勢変形データを入力動作のキー時刻の姿勢に適用するステップと、
変形データの各時刻での姿勢変形データを時間変形した入力動作の各時刻の姿勢に適用するステップとを含む変形データ適用方法。
Time-deforming an input operation in which a set of key times is set from the time-deformed data of the deformed data of claim 8 or 9,
Applying the posture deformation data at the key time of the deformation data to the posture at the key time of the input operation;
Applying the deformation data at each time of the deformation data to the posture at each time of the input operation obtained by temporally deforming the deformation data.
前記変形データはキャラクタの身体の各主要部位の、それぞれ特定の身体部位を基準とした相対的な位置及び/又は向きを含む
前記請求項8ないし10のいずれかに記載の方法。

The method according to any one of claims 8 to 10, wherein the deformation data includes a relative position and / or orientation of each main part of the body of the character with respect to a specific body part.

JP2006185007A 2006-07-04 2006-07-04 Motion deformation system and method for it Pending JP2008015713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006185007A JP2008015713A (en) 2006-07-04 2006-07-04 Motion deformation system and method for it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006185007A JP2008015713A (en) 2006-07-04 2006-07-04 Motion deformation system and method for it

Publications (1)

Publication Number Publication Date
JP2008015713A true JP2008015713A (en) 2008-01-24

Family

ID=39072674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006185007A Pending JP2008015713A (en) 2006-07-04 2006-07-04 Motion deformation system and method for it

Country Status (1)

Country Link
JP (1) JP2008015713A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150578A (en) * 2011-01-17 2012-08-09 Square Enix Co Ltd Method for generating motion by example-based efficient motion database
JP2012208548A (en) * 2011-03-29 2012-10-25 Copcom Co Ltd Program and image processing apparatus with program recording unit with the program recorded therein
CN103279971A (en) * 2013-06-06 2013-09-04 中国科学院计算技术研究所 Method and system for redirection of sports style
JP2015011480A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Image generation device, image generation method and program
JP2018026149A (en) * 2017-09-27 2018-02-15 カシオ計算機株式会社 Image generation device, image generation method, and program
JP2020021474A (en) * 2018-07-30 2020-02-06 エヌシーソフト・コーポレイションNcsoft Corporation Motion synthesis apparatus and motion synthesis method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471078A (en) * 1990-07-12 1992-03-05 Hitachi Ltd Method for expressing operation of multi-joint object and computer graphic device
JPH09147135A (en) * 1995-11-22 1997-06-06 Matsushita Electric Ind Co Ltd Animation generating device
JP2000149056A (en) * 1998-11-16 2000-05-30 Nec Corp Method and device for displaying multijoint object
JP2002508867A (en) * 1997-06-25 2002-03-19 ハプテック,インコーポレイティド Method and apparatus for controlling conversion of two-dimensional and three-dimensional images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471078A (en) * 1990-07-12 1992-03-05 Hitachi Ltd Method for expressing operation of multi-joint object and computer graphic device
JPH09147135A (en) * 1995-11-22 1997-06-06 Matsushita Electric Ind Co Ltd Animation generating device
JP2002508867A (en) * 1997-06-25 2002-03-19 ハプテック,インコーポレイティド Method and apparatus for controlling conversion of two-dimensional and three-dimensional images
JP2000149056A (en) * 1998-11-16 2000-05-30 Nec Corp Method and device for displaying multijoint object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150578A (en) * 2011-01-17 2012-08-09 Square Enix Co Ltd Method for generating motion by example-based efficient motion database
JP2012208548A (en) * 2011-03-29 2012-10-25 Copcom Co Ltd Program and image processing apparatus with program recording unit with the program recorded therein
CN103279971A (en) * 2013-06-06 2013-09-04 中国科学院计算技术研究所 Method and system for redirection of sports style
CN103279971B (en) * 2013-06-06 2016-06-01 中国科学院计算技术研究所 A kind of motion style reorientation method and system
JP2015011480A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Image generation device, image generation method and program
JP2018026149A (en) * 2017-09-27 2018-02-15 カシオ計算機株式会社 Image generation device, image generation method, and program
JP2020021474A (en) * 2018-07-30 2020-02-06 エヌシーソフト・コーポレイションNcsoft Corporation Motion synthesis apparatus and motion synthesis method

Similar Documents

Publication Publication Date Title
Rose et al. Verbs and adverbs: Multidimensional motion interpolation
Kennaway Synthetic animation of deaf signing gestures
US11836843B2 (en) Enhanced pose generation based on conditional modeling of inverse kinematics
Agrawal et al. Task-based locomotion
Jenkins et al. Automated derivation of behavior vocabularies for autonomous humanoid motion
Liu et al. Realtime human motion control with a small number of inertial sensors
US6462742B1 (en) System and method for multi-dimensional motion interpolation using verbs and adverbs
US8928672B2 (en) Real-time automatic concatenation of 3D animation sequences
Ikemoto et al. Enriching a motion collection by transplanting limbs
JP2008015713A (en) Motion deformation system and method for it
Häfliger et al. Dynamic motion matching: design and implementation of a context-aware animation system for games
Pantuwong A tangible interface for 3D character animation using augmented reality technology
Ismail et al. An overview on dynamic 3d character motion techniques in virtual environments
Etemad et al. Modeling and transformation of 3D human motion
Tilmanne et al. Continuous control of style through linear interpolation in hidden markov model based stylistic walk synthesis
Shen et al. Mocap data editing via movement notations
Terasaki et al. Motion style transformation by extracting and applying motion features
JP4812063B2 (en) Human video creation system
Lin 3d character animation synthesis from 2d sketches
Mousas Towards developing an easy-to-use scripting environment for animating virtual characters
Iwamoto et al. Automatic sign dance synthesis from gesture-based sign language
Kiss Computer animation for articulated 3d characters
Li et al. Procedural rhythmic character animation: an interactive Chinese lion dance
Liang Interactive cartoon-style motion generation of avatar
Liang et al. Responsive action generation by physically-based motion retrieval and adaptation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823