JP2003337956A - Apparatus and method for computer graphics animation - Google Patents
Apparatus and method for computer graphics animationInfo
- Publication number
- JP2003337956A JP2003337956A JP2003028981A JP2003028981A JP2003337956A JP 2003337956 A JP2003337956 A JP 2003337956A JP 2003028981 A JP2003028981 A JP 2003028981A JP 2003028981 A JP2003028981 A JP 2003028981A JP 2003337956 A JP2003337956 A JP 2003337956A
- Authority
- JP
- Japan
- Prior art keywords
- data
- character
- motion
- animation
- parts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックス・アニメーションの分野に関するもの
で、特にキャラクタなどの階層構造をもつ複雑物体の3
次元コンピュータグラフィックス・アニメーション装置
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the field of three-dimensional computer graphics animation, and more particularly, to a complex object having a hierarchical structure such as a character.
The present invention relates to a three-dimensional computer graphics animation device.
【0002】[0002]
【従来の技術】従来、動物や人間などのキャラクタを3
次元コンピュータグラフィックス(以下3D CG)に
よって、アニメーション動画像を生成する場合、広義の
キーフレーム法として、順運動学とスケルトン法による
関節角のキーフレーム法が用いられる(例えば、非特許
文献1参照。)。これらの手法について図2から図4を
用いて簡単に説明する。2. Description of the Related Art Conventionally, characters such as animals and humans are
When an animation moving image is generated by three-dimensional computer graphics (hereinafter, 3D CG), a key frame method of joint angles based on forward kinematics and a skeleton method is used as a key frame method in a broad sense (for example, see Non-Patent Document 1). .). These methods will be briefly described with reference to FIGS.
【0003】図2のようなキャラクタ形状に対して、図
3のような骨格構造を定義するが、これは図4のような
階層構造を有したリンクによって表現される。キャラク
タの動作は、図3の骨格構造のルートの向きや移動によ
って身体全体の動きを生成し、身体の局部的な動きは、
骨格構造の関節部における局所座標系での変換によって
生成する。この骨格構造の動きに合わせて、その表面形
状を移動することでキャラクタの動きとなる。A skeleton structure as shown in FIG. 3 is defined for a character shape as shown in FIG. 2, and this is represented by a link having a hierarchical structure as shown in FIG. The motion of the character generates a motion of the whole body by the direction and movement of the root of the skeletal structure of FIG. 3, and the local motion of the body is
It is generated by transformation in the local coordinate system in the joint part of the skeletal structure. By moving the surface shape in accordance with the movement of the skeleton structure, the character moves.
【0004】関節位置での局所座標系の変換としては、
一般に4×4の行列が用いられ、関節での回転や平行移
動を表現できるが、通常、関節は平行移動の自由度を持
たない回転角のみとしている。この回転角のことを関節
角という。これらの変換をルートから骨格構造のリンク
に合わせて順次行うこと身体各部位の状態を決定してル
ートの座標系(一般にはワールド座標系にとる)での動
きとして表し、その身体部位の動きに応じて身体全体の
位置や方向を決定する手法を順運動学という。これら
が、各時刻(表示のフレームレート毎)に繰り返される
ことで、時間的な動きとして表現されたアニメーション
になる。従って、上記非特許文献1においては、フレー
ムレートに合わせて関節角のデータは必要であるが、関
節角のキーフレーム法では、そのサンプル時刻の関節角
のデータ(キーデータ)のみをデータとして持ち、それ
以外の時刻の関節角はキーデータの補間計算で算出する
というものである。As the transformation of the local coordinate system at the joint position,
Generally, a 4 × 4 matrix is used to represent rotation and parallel movement at a joint, but normally, a joint has only a rotation angle that does not have a degree of freedom for parallel movement. This rotation angle is called a joint angle. Perform these conversions in sequence from the root according to the link of the skeletal structure. Determine the state of each part of the body and express it as a movement in the coordinate system of the root (generally in the world coordinate system) The method of determining the position and direction of the whole body according to this is called forward kinematics. By repeating these at each time (for each display frame rate), the animation is expressed as a temporal movement. Therefore, in Non-Patent Document 1 described above, the joint angle data is required in accordance with the frame rate, but the joint angle key frame method has only the joint angle data (key data) at the sample time as data. The joint angles at other times are calculated by key data interpolation calculation.
【0005】次に、このような手法を用いた、従来行わ
れている動作データの生成手法およびアニメーション制
御(例えば、非特許文献2参照。)について述べられて
いることをまとめると以下のようになる。The following is a summary of what has been described about the conventional motion data generation method and animation control (see, for example, Non-Patent Document 2) using such a method. Become.
【0006】(1)CGキャラクタをデザインし、骨格
構造(階層構造)を規定して形状データを作成する。
(2)キー時刻におけるCGキャラクタの身体状態(ポ
ーズ)を生成する(顔の表情も同時につける)。
(3)キーフレーム法で各時刻のCGキャラクタの形状
を決定して、適当なライティングとカメラデータの下で
レンダリングし、それを連続表示して3D CGアニメ
ーションを生成する。(1) Design a CG character, define a skeleton structure (hierarchical structure), and create shape data. (2) The physical state (pose) of the CG character at the key time is generated (the facial expression is also attached). (3) The shape of the CG character at each time is determined by the key frame method, rendered under appropriate lighting and camera data, and continuously displayed to generate a 3D CG animation.
【0007】従って、図5に示したように、顔の表情を
含めた身体全体の動きが、データ生成時の通りの一連の
3D CGアニメーションとして生成される。尚、同文
献には口唇動作を含む顔の表情の生成手法(フェイシャ
ルアニメーションと呼ばれる)としてモーフィングを用
いた方法についても解説されている。また、他の表情や
口唇の動きを表現する手法としては、顔のテクスチャを
いくつも作り、それらを交換してテクスチャマッピング
を行って顔の表情を生成するという手法もある。Therefore, as shown in FIG. 5, the movement of the whole body including the facial expressions is generated as a series of 3D CG animations as at the time of data generation. The same document also describes a method using morphing as a method for generating facial expressions including lip movements (called facial animation). As another method of expressing facial expressions and lip movements, there is a method of creating facial expressions by creating a number of face textures and exchanging them for texture mapping.
【0008】[0008]
【非特許文献1】中嶋正之監修「「3次元CG」、先端
技術の手ほどきシリーズ、テレビジョン学会編」オーム
社出版、1994年、p143−161[Non-patent Document 1] "3D CG", "Introduction to Advanced Technology, Series of Television Society", edited by Masayuki Nakajima, Ohmsha Publishing Co., Ltd., 1994, p143-161.
【0009】[0009]
【非特許文献2】ジョージ・マエストリ著、松田 晃一
他訳「デジタルキャラクターアニメーション」プレンテ
ィスホール出版、1999年[Non-Patent Document 2] George Maestri, Translated by Koichi Matsuda, et al. "Digital Character Animation" Published by Prentice Hall, 1999.
【0010】[0010]
【発明が解決しようとする課題】一般に、3D CGキ
ャラクタアニメーションの場合、特にゲームなどのイン
タラクティブなアプリケーションに対応するために、図
10(a)に示した状態遷移図に基づいて、動作遷移を
繰り返し、CGキャラクタの一連の行動を生成する手法
がよく用いられる。上記の従来の方法に基づく場合、図
10(a)の基本状態や動作A,…,動作Eは、上記の
第2の従来例で述べたような、3D CGアニメーショ
ン生成手法によって作成される。従って、図10(a)
のように基本状態を含めて6種類の動作状態が、状態遷
移に基づいて代わる代わる行われたものになる。もっと
多様な動きを伴う行動を生成しようとすると、その分の
動作データが必要となり、データ量が増大する。Generally, in the case of 3D CG character animation, motion transitions are repeated based on the state transition diagram shown in FIG. 10A in order to handle interactive applications such as games. , A method of generating a series of actions of a CG character is often used. When based on the above-described conventional method, the basic state and the operations A, ..., And E of FIG. 10A are created by the 3D CG animation generation method as described in the second conventional example. Therefore, FIG.
As described above, the six types of operation states including the basic state are changed based on the state transition. In order to generate behaviors involving more various movements, motion data for that amount is required, and the amount of data increases.
【0011】しかも、例えば「手を振って歩く」動作と
「椅子に座る」動作があった場合に、「手を振って椅子
に座る」という動作は、新たにこの動作全体を1つの動
作として作成して状態遷移に組み込まなければ、CGキ
ャラクタの行動の中に現れることはない。これは、表情
を含む場合は更に深刻で、身体動作が同一でも顔の表情
が異なる場合は、全て顔の表情毎に身体動作の同一な動
作を作成しなければならない。もちろん、動作データを
作成する時の手間は、身体動作の再利用ができるので省
けるが、データ量は削減できない。例えば、メモリ環境
が希少な機器の場合、このようなデータ量の増加は致命
的であるため、データ量を減らすためには、動作の種類
を少なくするしかなく、結果としてCGキャラクタの行
動の多様性が感じられず、ユーザはすぐに飽きてしまう
ことになる。In addition, for example, when there is a "waving hand" motion and a "sitting on a chair" motion, the "waving hand and sitting on a chair" motion is newly regarded as one motion. Unless created and incorporated into the state transition, it will not appear in the action of the CG character. This is more serious when the facial expression is included, and if the facial expression is different even if the physical movement is the same, it is necessary to create the same physical movement for each facial expression. Of course, the labor for creating the motion data can be saved because the physical motion can be reused, but the amount of data cannot be reduced. For example, in the case of a device with a rare memory environment, such an increase in the amount of data is fatal. Therefore, in order to reduce the amount of data, there is no choice but to reduce the types of motions, and as a result, the CG character's various actions are varied. There is no sense of sex, and the user will soon get bored.
【0012】次に、実際の人間の行動では、物、特に道
具類などを持つということは、しばしば起こる。しかし
ながら、このような現実の世界では、しばしば起こり得
るたわいのないことを従来手法のCGキャラクタのアニ
メーション手法で行おうとすると、次のような問題が発
生する。Next, in actual human behavior, it often happens that objects are held, especially tools. However, in such a real world, if an attempt is made to use a conventional CG character animation method to avoid the often-caused bluntness, the following problems occur.
【0013】第1の問題としては、物を持った状態は、
持たない状態と骨格構造が異なるため、持たない状態の
形状データと持った状態の形状データが必要で、CGキ
ャラクタデータが物の種類分だけ必要になる。第2の問
題としては、上記骨格構造が異なることから、身体動作
データが同じでも、物を持った状態と持たない状態の2
種類の動作が必要になる。従って、同じような行動で
も、形状データと動作データは、ほぼ2倍のデータ量に
なってしまう。このような状況で、上記のような表情動
作を含む動作の多様性を実現しようとすると、データ量
は爆発的に増加することになる。As a first problem, the state of holding an object is
Since the skeletal structure is different from the state without it, the shape data without the state and the shape data with the state are required, and the CG character data is required for each kind of object. The second problem is that since the skeletal structures are different, there are two cases, one with a physical object and one without, even if the body movement data are the same.
Some kind of action is required. Therefore, even with the same behavior, the shape data and the motion data have almost twice the data amount. In such a situation, if it is attempted to realize the variety of motions including facial motions as described above, the amount of data will explosively increase.
【0014】本発明は以上の課題に鑑みなされたもの
で、上記の問題の原因となるデータの冗長性を極力排
し、従来に比べ少ない適正なデータ量で、多様なCGキ
ャラクタのアニメーションが実現できるコンピュータグ
ラフィックス・アニメーション装置の提供を目的とす
る。The present invention has been made in view of the above problems, and eliminates the redundancy of data that causes the above problems as much as possible, and realizes the animation of various CG characters with an appropriate data amount smaller than the conventional one. The object is to provide a computer graphics / animation device capable of performing the above.
【0015】また、本発明は、付属部品、物を持つとい
うような形状や階層構造等の追加や削除を容易に行える
コンピュータグラフィックス・アニメーション装置を実
現することをも目的とする。Another object of the present invention is to realize a computer graphics / animation device which can easily add or delete a shape such as having an accessory or a thing or a hierarchical structure.
【0016】[0016]
【課題を解決するための手段】上記問題を解決するため
に、本発明のコンピュータグラフィックス・アニメーシ
ョン装置は、キャラクタの画像を表示するコンピュータ
グラフィックス・アニメーション装置であって、前記キ
ャラクタを構成する複数の部位の階層構造を示すデータ
である階層構造データを保存する階層構造保存手段と、
前記複数の部位の集まりを1つのパートとして対応づけ
た複数のパートについて、前記パートと前記部位との対
応関係を示すパートテーブルを保存するパートテーブル
保存手段と、前記パートテーブルに登録された複数のパ
ートそれぞれに対して、動作を対応づけた動作データを
保存する動作データ保存手段と、前記動作データ、前記
パートテーブル及び前記階層構造データに基づいて、前
記キャラクタの形状の時間的変化を示す形状データを算
出するキャラクタ状態計算手段とを備えることを特徴と
する。In order to solve the above problems, a computer graphics / animation apparatus of the present invention is a computer graphics / animation apparatus for displaying an image of a character, wherein A hierarchical structure storing unit that stores hierarchical structure data that is data indicating the hierarchical structure of the part of
For a plurality of parts in which a group of the plurality of parts is associated as one part, a part table storage unit that stores a part table indicating a correspondence relationship between the parts and the parts, and a plurality of part tables registered in the part table. Motion data storage means for storing motion data in which a motion is associated with each part, and shape data indicating a temporal change in the shape of the character based on the motion data, the part table, and the hierarchical structure data. And character state calculation means for calculating.
【0017】また、本発明に係るコンピュータグラフィ
ックス・アニメーション装置は、さらに、前記3次元キ
ャラクタの動きに関するイベント情報が入力されるアニ
メーション制御手段を備え、当該アニメーション制御手
段は、入力される前記イベント情報の種類に従って、前
記動作データ、前記パートテーブル及び前記階層構造デ
ータの指定を行い、前記キャラクタ状態計算手段は、前
記アニメーション制御手段からの入力に従って、前記キ
ャラクタの形状の時間的変化を示す形状データを算出す
ることを特徴とするものである。The computer graphics animation apparatus according to the present invention further comprises animation control means for inputting event information relating to the movement of the three-dimensional character, and the animation control means is adapted to input the event information. The motion data, the part table, and the hierarchical structure data are specified according to the type of the character data, and the character state calculation unit receives shape data indicating a temporal change in the shape of the character according to the input from the animation control unit. It is characterized by being calculated.
【0018】尚、本発明は、上述のようなコンピュータ
グラフィックス・アニメーション装置として実現できる
のみではなく、このアニメーション装置が備える手段を
ステップとするコンピュータグラフィックス・アニメー
ション方法として実現することができる。The present invention can be realized not only as a computer graphics / animation apparatus as described above, but also as a computer graphics / animation method having means included in the animation apparatus as steps.
【0019】また、前記アニメーション方法をコンピュ
ータ等で実現させるプログラムとして実現したり、当該
プログラムをCD−ROM等の記録媒体や通信ネットワ
ーク等の伝送媒体を介して流通させることができるのは
言うまでもない。Further, it goes without saying that the animation method can be realized as a program realized by a computer or the like, or the program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as a communication network.
【0020】[0020]
【発明の実施の形態】以下、本発明の第1の実施の形態
のコンピュータグラフィックス・アニメーション装置に
ついて、図面を参照しながら説明する。BEST MODE FOR CARRYING OUT THE INVENTION A computer graphics animation apparatus according to a first embodiment of the present invention will be described below with reference to the drawings.
【0021】本発明のコンピュータグラフィックス・ア
ニメーション装置は、3次元のCGキャラクタをパート
に分割して、パート毎の動作制御によりCGキャラクタ
全体の動作を制御するものである。The computer graphics animation apparatus of the present invention divides a three-dimensional CG character into parts and controls the operation of the entire CG character by controlling the operation of each part.
【0022】図1は本発明の第1の実施の形態における
コンピュータグラフィックス・アニメーション装置の構
成を示すものであり、イベント情報が入力され、当該イ
ベント情報に従ってアニメーションの制御を行うための
各種データをキャラクタ状態計算部3に通知するアニメ
ーション制御部1と、パートテーブルが管理保存される
パートテーブル保存部2と、形状データ保存手段5等よ
りデータを取得してキャラクタの形状データの変更を行
うキャラクタ状態計算部3と、CGキャラクタの骨格構
造を規定する階層構造データがアドレスとして管理保存
される階層構造保存部4と、CGキャラクタや部品の形
状データがアドレスで管理保存されている形状データ保
存部5と、CGキャラクタや部品のアニメーションを行
うための動作データがアドレスや動作IDで管理保存さ
れている動作データ保存部6と、画像生成処理を行いC
Gアニメーションの描画を行う3次元描画部7と、CG
描画に必要なテクスチャデータをアドレス又はIDで管
理保存しているテクスチャデータ保存部8と、CGアニ
メーションが表示される表示部9とにより構成されてい
る。FIG. 1 shows the configuration of a computer graphics / animation apparatus according to the first embodiment of the present invention, in which event information is input and various data for controlling animation according to the event information is stored. An animation control unit 1 for notifying the character state calculation unit 3, a part table storage unit 2 for managing and storing a part table, and a character state for changing the shape data of a character by acquiring data from the shape data storage unit 5 and the like. A calculation unit 3, a hierarchical structure storage unit 4 in which hierarchical structure data defining the skeletal structure of a CG character is managed and stored as an address, and a shape data storage unit 5 in which shape data of CG characters and parts are managed and stored by an address. And motion data for animation of CG characters and parts. C but performs the operation data storage section 6 that is managed stored at addresses and operation ID, and image generation processing
3D drawing unit 7 for drawing G animation and CG
A texture data storage unit 8 that manages and stores the texture data necessary for drawing by an address or an ID, and a display unit 9 that displays a CG animation.
【0023】以上のように構成された本発明の実施の形
態におけるコンピュータグラフィックス・アニメーショ
ン装置について、以下、詳細に説明を行う。まず始めに
保存データの説明から行う。The computer graphics / animation apparatus according to the embodiment of the present invention configured as described above will be described in detail below. First, the description of the stored data will be given.
【0024】階層構造保存部4には、CGキャラクタア
ニメーションを行いたいCGキャラクタ(以下の説明で
はCGを省略して単にキャラクタと呼ぶ場合もある)の
骨格構造を規定する階層構造データがアドレスで管理保
存されている。例えば、人間のような骨格構造の場合
は、図3に示すような骨格構造を有するが、これは図4
に示すようなリンク構造を有する階層構造データとして
規定できる。この階層構造データをCGの分野ではシー
ングラフと呼ぶこともある。尚、図3のような骨格構造
を有するキャラクタが、図7に示すように手に棒などを
持つ場合には、棒を骨格構造の一部として規定する必要
がある。In the hierarchical structure storage unit 4, hierarchical structure data defining a skeletal structure of a CG character (CG may be omitted in the following description and may be simply referred to as a character) to be subjected to CG character animation is managed by an address. It has been saved. For example, a skeletal structure like a human has a skeletal structure as shown in FIG.
It can be defined as hierarchical structure data having a link structure as shown in. This hierarchical structure data may be called a scene graph in the field of CG. When a character having a skeleton structure as shown in FIG. 3 has a stick in his hand as shown in FIG. 7, it is necessary to define the stick as a part of the skeleton structure.
【0025】図7に対応する階層構造データは図8に示
すが、棒以外の構造は図3に示す骨格構造と全く同じな
ので、棒は図3の骨格構造の部品として規定することが
できる。このように追加される部品がある場合は、部品
(棒)の階層構造データのルートにその親となる階層構
造における接続先(図7の棒の場合においては右手)を
規定した部品の階層構造データとして規定できる。従っ
て、ここで保存される階層構造データは、(1)親の階
層構造データ、(2)部品の階層構造データ、(3)親
子関係を規定したデータと親の階層構造データアドレス
と部品の階層構造データアドレスとからなる階層構造デ
ータの3種類がある。The hierarchical structure data corresponding to FIG. 7 is shown in FIG. 8. Since the structure other than the bar is exactly the same as the skeleton structure shown in FIG. 3, the bar can be defined as a part of the skeleton structure of FIG. When there is a part to be added in this way, the hierarchical structure of the part (bar) has a connection destination (right hand in the case of the bar shown in FIG. 7) in the parent hierarchical structure of the root of the hierarchical structure data. It can be defined as data. Therefore, the hierarchical structure data stored here includes (1) parent hierarchical structure data, (2) component hierarchical structure data, (3) data defining parent-child relationship, parent hierarchical structure data address, and component hierarchy. There are three types of hierarchical structure data consisting of structure data addresses.
【0026】そして、階層構造保存部4は、これら階層
構造データの種別を表す識別子と階層構造データを保存
する。このため、図4と図8の階層構造データを別々に
持つ必要はない。階層構造データにアクセスした場合
は、まず識別子により、種別を判別して、上記(1)又
は(2)のタイプの場合は、直接階層構造データを取得
するが、上記(3)のタイプの場合には、親子関係と実
体の所在を表すアドレスを取得し、その後、実体の階層
構造データを取得して親子関係の記述に基づき、全体の
階層構造データを構築することができる。Then, the hierarchical structure storage unit 4 saves the identifier indicating the type of the hierarchical structure data and the hierarchical structure data. Therefore, it is not necessary to separately have the hierarchical structure data of FIGS. 4 and 8. When the hierarchical structure data is accessed, the type is first discriminated by the identifier, and in the case of the above type (1) or (2), the hierarchical structure data is directly obtained, but in the case of the above type (3) Can obtain an address indicating the parent-child relationship and the whereabouts of the entity, then obtain the hierarchical structure data of the entity, and construct the entire hierarchical structure data based on the description of the parent-child relationship.
【0027】形状データ保存部5には、CGキャラクタ
や部品の形状データがアドレスで管理保存されている。
CGキャラクタの形状データは、上記の骨格構造に対応
し、図2に示すように骨格を覆う人間でいうところの皮
膚や衣服などに相当するデータであり、頭部、上肢、体
幹、下肢などの形状パーツで構成され、それらは上記の
階層構造データに対応して階層化される。The shape data storage unit 5 manages and stores the shape data of CG characters and parts by address.
The shape data of the CG character corresponds to the above-mentioned skeleton structure, and is data corresponding to human skin or clothes covering the skeleton as shown in FIG. 2, such as the head, upper limbs, trunk, and lower limbs. Of the shape parts, and they are hierarchized corresponding to the above hierarchical structure data.
【0028】従って、形状データには対応する階層構造
データの階層構造保存部4でのアドレスと各形状パーツ
が階層構造データのどれに対応するかの識別タグが含ま
れている。部品の形状データの場合も同様である。Therefore, the shape data includes an address of the corresponding hierarchical structure data in the hierarchical structure storage unit 4 and an identification tag of which hierarchical data each shape part corresponds to. The same applies to the shape data of parts.
【0029】尚、各形状パーツは、通常、サーフェース
モデルと呼ばれる、物体表面をポリゴン近似した面の集
合体で表現され、3次元空間での頂点座標、同頂点での
法線ベクトル成分(光源輝度計算の際には必須)、テク
スチャ座標(テクスチャマッピングを行う際には必須)
のインデックス化された点列データと、そのつながり方
を表す位相データ(例えば、頂点インデックスが1、
2、3の順に書かれていたら、点1、2、3を頂点に持
つ三角形を表す)で構成され、更に各面の反射率(拡散
反射率、鏡面反射率)や環境光強度、物体色などの属性
データが含まれる。Each shape part is usually represented by a surface model, which is called a surface model, that approximates the surface of an object by polygons, and the vertex coordinates in the three-dimensional space and the normal vector component (light source) at the same vertex are represented. (Required for brightness calculation), Texture coordinates (Required for texture mapping)
Of the indexed point sequence data and the phase data (for example, the vertex index is 1,
If written in the order of 2 and 3, it represents a triangle having points 1, 2, and 3 as vertices), and the reflectance (diffuse reflectance, specular reflectance) of each surface, ambient light intensity, and object color. Attribute data such as.
【0030】尚、CGキャラクタが身にまとう衣類や顔
などをテクスチャマッピングによって表現する場合に
は、CGキャラクタの形状データの該当する部品に、使
用するテクスチャのテクスチャデータ保存部8でのアド
レスが明示されている。When the clothing or face of the CG character is represented by texture mapping, the address of the texture to be used in the texture data storage unit 8 is explicitly indicated in the corresponding part of the shape data of the CG character. Has been done.
【0031】動作データ保存部6には、CGキャラクタ
や部品のアニメーションを行うための動作データが、ア
ドレスや動作IDで管理保存されている。本実施の形態
においては、階層構造をもつ物体の動作データについ
て、CGキャラクタを例に説明するが、他の階層構造を
持つ場合の物体についても同様に実施可能である。In the motion data storage unit 6, motion data for animation of CG characters and parts is managed and stored by address and motion ID. In the present embodiment, the motion data of an object having a hierarchical structure will be described by using a CG character as an example, but the same can be applied to objects having other hierarchical structures.
【0032】CGキャラクタの場合、動作は、身体動
作、顔の表情動作に分けることができ、従って、本実施
の形態において、動作データは身体動作データと顔の表
情動作データの2種類がある。In the case of a CG character, motions can be divided into physical motions and facial expression motions. Therefore, in this embodiment, there are two types of motion data: physical motion data and facial expression motion data.
【0033】この身体動作データは、通常のCGキャラ
クタアニメーションで行われているように、階層構造デ
ータのルート(身体の代表点で図2に示すP)における
位置データと方向データ(図2に示す姿勢ベクトル)に
よって、3次元空間での身体全体の各時刻での位置や姿
勢を表す。ルート(P)の位置データは直接、位置デー
タとして表すことも可能だが、一般には初期時刻の位置
ベクトルと各時刻における移動量を表す移動量ベクトル
とで表される。方向については、ルート(P)に定義さ
れた局所座標系の回転変換で規定され、これは具体的に
は3次元空間の3つの座標軸回りの回転角度量または回
転の中心軸を表すベクトルの成分とそのベクトルの回り
の回転角度量として表される。このルートの動作データ
は、図4や図5の階層構造データの動作部位識別子m0
によって識別される。The body movement data is position data and direction data (shown in FIG. 2) at the root of hierarchical structure data (P at the representative point of the body shown in FIG. 2), as is done in normal CG character animation. The posture vector) represents the position and posture of the entire body in each three-dimensional space at each time. Although the position data of the route (P) can be directly expressed as position data, it is generally expressed by a position vector at an initial time and a movement amount vector indicating a movement amount at each time. The direction is specified by the rotation transformation of the local coordinate system defined in the route (P), and specifically, this is the rotation angle amount around the three coordinate axes of the three-dimensional space or the component of the vector representing the central axis of rotation. And the angle of rotation around the vector. The motion data of this route is the motion part identifier m0 of the hierarchical structure data of FIGS.
Identified by.
【0034】また、身体の各パーツ(上下肢、体幹な
ど)の動作は、骨格構造における各関節で定義される局
所座標系の座標軸周りの回転角度量の時系列データで表
現される。骨格構造の関節は、階層構造データのリンク
部に相当するので、各リンク部には図4に示した動作部
位識別子(モーションID)m0,m1,m2,…,m
27が付与される。従って、従来のアニメーション技術
においては、これらのm0,m1,…,m27の多変量
時系列データの集合が、身体動作データとなる。以上の
m0,m1,…,m27のこれらルート位置や関節部で
の局所座標系での変換系で、CGキャラクタ形状データ
を変換して、各時刻のCGキャラクタのいる位置や向
き、CGキャラクタの身体のポーズを生成して3次元描
画処理をし、これを経時的に連続に行うことでCGアニ
メーションを実現することができる。The movement of each part of the body (upper and lower limbs, trunk, etc.) is expressed by time series data of the amount of rotation angle around the coordinate axis of the local coordinate system defined by each joint in the skeletal structure. Since the joint of the skeletal structure corresponds to the link part of the hierarchical structure data, the motion part identifier (motion ID) m0, m1, m2, ..., M shown in FIG.
27 is given. Therefore, in the conventional animation technique, a set of these multivariate time series data of m0, m1, ..., M27 becomes the body motion data. .., m27 are converted by the conversion system in the local coordinate system at these root positions and joints, and the CG character shape data is converted to the position and orientation of the CG character at each time and the CG character's position. A CG animation can be realized by generating a pose of the body, performing a three-dimensional drawing process, and continuously performing the process over time.
【0035】そして、図5に示すように、キーフレーム
アニメーションの技術を使う場合は、全フレームの身体
動作データを持たずに、時間的に飛び飛びの時系列デー
タ(f0、f5、f10..,)で、その間の時刻(f1
〜f4、f6〜f9..,)の動作状態は補間計算で行う
ので、身体動作データは、時間的に飛び飛びの上記の平
行移動量や角度量の時系列データが身体動作データとな
る。As shown in FIG. 5, when the key frame animation technique is used, time series data (f0, f5, f10 .. ), The time (f1
.. to f4, f6 to f9 ..,) are performed by interpolation calculation, the body motion data is the time series data of the parallel movement amount and the angle amount which are discontinuous in time.
【0036】顔の表情は、実際の人間を見ても判るよう
に、目や頬、口がなどの動きに分解できる。例えば図4
の階層構造の場合においては、表情動作は、瞬き動作、
頬の動作、口唇の動作、眉の動作に分解できる。これら
は、顔のモデルに依存して決まる動作となる。The facial expression can be decomposed into movements of the eyes, cheeks, mouth, etc., as can be seen by an actual person. For example, in FIG.
In the case of the hierarchical structure of
It can be broken down into cheek movements, lip movements, and eyebrow movements. These are actions that depend on the face model.
【0037】表情の生成の仕方には、通常行われている
フェイシャルアニメーション技術を用いるが、例えば、
顔の形状を変形して行う方法や、顔のテクスチャを貼り
変える方法などがある。A facial animation technique that is usually used is used to generate facial expressions.
There are a method of transforming the shape of the face and a method of pasting the texture of the face.
【0038】この顔の形状を変形する場合においては、
顔の形状データのうち、表情を生成する眉、目や口など
の端点に対応する頂点座標の移動量の時系列データが表
情動作データである。これらの移動量は、顔の筋肉モデ
ルに基づいてシミュレーション計算で算出することもで
きる。変換を行う頂点が複数の変換系にまたがる場合
は、それぞれの変換に対する重み付けを頂点に与えて、
各々の変換系でその頂点を一旦変換した複数の頂点を算
出し、それらを重み付けを考慮して平均した座標に変換
するというエンベロープ手法も用いられる。When transforming the shape of this face,
Of the face shape data, the time series data of the movement amount of the vertex coordinates corresponding to the end points such as the eyebrows, the eyes, and the mouth that generate the facial expression is the facial expression motion data. These movement amounts can also be calculated by simulation calculation based on the facial muscle model. If the vertices to be transformed span multiple transformation systems, give weights to each transformation to the vertices,
An envelope method is also used in which a plurality of vertices whose vertices are once transformed are calculated in each transformation system, and the vertices are transformed into averaged coordinates in consideration of weighting.
【0039】図6は、顔のテクスチャを貼り変えて表情
を生成する場合の説明図である。テクスチャを貼り変え
て表情の生成を行う場合は、複数の、笑った表情や泣い
た表情のテクスチャ、その途中段階のテクスチャをアー
カイビングし、内部でID管理する。この様なテクスチ
ャを利用する場合は、アーカイビングされたテクスチャ
から時刻毎に表情生成に必要なものをIDで選択して、
顔にテクスチャマッピング行って表情を生成する。従っ
て、身体動作データの場合の時系列パラメータ(フレー
ム番号や時間)は、管理用のIDに対応することとな
る。これらのアーカイビングされたテクスチャデータ
が、表情を生成するための表情動作データである。FIG. 6 is an explanatory diagram for the case where the facial textures are replaced to generate facial expressions. When the facial expressions are generated by replacing the textures, a plurality of laughing and crying facial expressions and intermediate textures are archived and IDs are internally managed. When using such a texture, select from the archived textures necessary for facial expression generation at each time by ID,
A facial expression is generated by performing texture mapping on the face. Therefore, the time-series parameters (frame number and time) in the case of physical motion data correspond to the management ID. These archived texture data are facial expression motion data for generating facial expressions.
【0040】尚、上述した顔の形状を変形して行う方法
や、顔のテクスチャを貼り変える方法のいずれの方法に
ついても、階層構造に対応して動作データがあるので、
身体の動作の場合と同様に、動作識別子で識別する。例
えば、図4の場合には、m28,…,m34の識別子が
表情の動作識別子となる。Since there is motion data corresponding to the hierarchical structure in both the above-described method of deforming the shape of the face and the method of re-pasting the texture of the face,
It is identified by a motion identifier as in the case of physical motion. For example, in the case of FIG. 4, the identifiers of m28, ..., M34 are the motion identifiers of facial expressions.
【0041】そして、本実施の形態では、上記のアーカ
イビングされたテクスチャマッピングによって顔の表情
を生成する場合について説明を行うが、形状変形やエン
ベローブ手法によるフェイシャルアニメーションで行う
場合にも、身体動作と同様の方法を適用することで対応
可能である。In the present embodiment, the case where a facial expression is generated by the above-described archived texture mapping will be described. However, even when the facial animation is performed by the shape deformation or the envelope method, the physical movement is not performed. This can be dealt with by applying a similar method.
【0042】また、本実施の形態では、階層構造データ
を上記に述べた形状データや動作データと分離して独立
に持つことにしているが、形状データの記述方法や動作
データの記述方法を工夫することで形状データまたは動
作データに含ませることができる。つまり、形状データ
は部品からなっているので、その部品の識別子とその識
別子を利用した親子関係を示す識別子をデータに挿入し
たり、動作データについても同様に動作識別子とその識
別子を利用した親子関係を示す識別子を挿入すれば良
い。例えば、形状の部品の識別子1、識別子2が親子関
係にある時には、識別子2の部品データのヘッダ部や属
性記述部に親の識別子1を記入すれば良い。Further, in the present embodiment, the hierarchical structure data is provided separately from the shape data and the motion data described above, but the shape data description method and the motion data description method are devised. By doing so, it can be included in the shape data or the motion data. That is, since the shape data consists of parts, an identifier of the part and an identifier indicating the parent-child relationship using the identifier are inserted into the data, and the motion data similarly uses the operation identifier and the parent-child relationship using the identifier. It suffices to insert an identifier indicating For example, when the shape component identifiers 1 and 2 are in a parent-child relationship, the parent identifier 1 may be entered in the header part or attribute description part of the component data of the identifier 2.
【0043】パートテーブル保存部2には、パートテー
ブルがパートテーブル番号またはアドレスで管理保存さ
れている。このパートテーブルは、図9に示したよう
に、パートIDとモーションIDセットをデータとして
保持するテーブルである。本発明におけるパートID
は、上記に示した階層構造のリンク構造とは独立に定義
するもので、一つのパートIDに対して複数のモーショ
ンIDの集合(モーションIDセット)を規定する。In the part table storage unit 2, a part table is managed and stored by a part table number or address. As shown in FIG. 9, this part table is a table that holds a part ID and a motion ID set as data. Part ID in the present invention
Is defined independently of the above-described hierarchical link structure, and defines a set of a plurality of motion IDs (motion ID set) for one part ID.
【0044】例えば、図9のパートテーブル0は、図4
に示すCGキャラクタの階層構造に対してパート0から
パート4を規定したものである。そして、パート0はル
ート(m0)と背骨付け根(m1)、パート1は左股
(m2)、右足首(m7)等、パート2は左襟関節(m
8)、上頚椎(m27)等、パート3は顔の口唇(m2
8)と左右頬(m29、m30)、パート4は左右目
(m31、m32)と左右眉(m33、m34)を含む
ことを示す。For example, the part table 0 shown in FIG.
Part 0 to Part 4 are defined for the hierarchical structure of the CG character shown in FIG. Part 0 is the root (m0) and the base of the spine (m1), Part 1 is the left crotch (m2), right ankle (m7), etc., Part 2 is the left collar joint (m
8), upper cervical vertebrae (m27), etc.
8) and left and right cheeks (m29, m30), and Part 4 includes left and right eyes (m31, m32) and left and right eyebrows (m33, m34).
【0045】また、図9に示すパートテーブル1におい
ては、図8の階層構造に対してパート0からパート5を
規定し、パート0はルート(m0)と背骨付け根(m
1)、パート1は上下頚椎(m26、m27)、パート
2は体の左側部分の左股(m2)、左襟関節(m8)
等、パート3は体の右側部分の右股(m5)、右襟関節
(m17)等、パート4は顔の口唇(m28)と左右頬
(m29、m30)、パート5は左右目(m31、m3
2)と左右眉(m33、m34)を含むことを示す。Further, in the part table 1 shown in FIG. 9, parts 0 to 5 are defined for the hierarchical structure shown in FIG. 8, and part 0 is a root (m0) and a spine root (m).
1), Part 1 is the upper and lower cervical vertebrae (m26, m27), Part 2 is the left crotch (m2) and left collar joint (m8) on the left side of the body.
Etc., Part 3 is the right crotch (m5) and right collar joint (m17) of the right part of the body, Part 4 is the lip of the face (m28) and left and right cheeks (m29, m30), and Part 5 is the left and right eyes (m31, m3
2) and the left and right eyebrows (m33, m34) are included.
【0046】さらに、図9に示すパートテーブル2にお
いては、図8の階層構造に対してパート0からパート5
を規定し、パート0はルート(m0)と背骨付け根(m
1)、パート1は左股(m2)、右足首(m7)等、パ
ート2は左襟関節(m8)、上頚椎(m27)等、パー
ト3は口唇(m28)と左右頬(m29、m30)、パ
ート4は左右目(m31、m32)と左右眉(m33、
m34)、パート5は棒(m35)を含むことを示す。Further, in the part table 2 shown in FIG. 9, parts 0 to 5 are added to the hierarchical structure shown in FIG.
Part 0 defines the root (m0) and the root of the spine (m
1), part 1 is left crotch (m2), right ankle (m7), etc., part 2 is left collar joint (m8), upper cervical vertebra (m27), etc., part 3 is lip (m28) and left and right cheeks (m29, m30) ), Part 4 includes left and right eyes (m31, m32) and left and right eyebrows (m33,
m34), part 5 is shown to include a rod (m35).
【0047】また、図7及び図8には、図9のパートテ
ーブル2におけるCGキャラクタのパート毎の区切りを
点線で示す。パート0にはルート(m0)と背骨付け根
(m1)が含まれ、パート1には左股(m2)、左膝
(m3)、左足首(m4)、右股(m5)、右膝(m
6)及び右足首(m7)が含まれ、パート2には左襟関
節(m8)、左肩(m9)、左肘(m10)、左手首
(m11)、左手第一(m12〜m16)、右襟関節
(m17)、右肩(m18)、右肘(m19)、右手首
(m20)、右手第一(m21〜m25)、下頚椎(m
26)及び上頚椎(m27)が含まれ、パート3には口
唇(m28)及び左右頬(m29、m30)が含まれ、
パート4には左右目(m31、m32)及び左右眉(m
33、m34)が含まれ、パート5には棒(m35)が
含まれることを示している。Further, in FIGS. 7 and 8, the division of each part of the CG character in the part table 2 of FIG. 9 is shown by a dotted line. Part 0 includes the root (m0) and the root of the spine (m1), and Part 1 includes the left crotch (m2), left knee (m3), left ankle (m4), right crotch (m5), right knee (m).
6) and right ankle (m7) are included, and part 2 is left collar joint (m8), left shoulder (m9), left elbow (m10), left wrist (m11), left hand first (m12 to m16), right. Collar joint (m17), right shoulder (m18), right elbow (m19), right wrist (m20), first right hand (m21 to m25), lower cervical spine (m
26) and the upper cervical spine (m27) are included, and part 3 includes the lips (m28) and the left and right cheeks (m29, m30),
Part 4 includes left and right eyes (m31, m32) and left and right eyebrows (m
33, m34) and part 5 contains a bar (m35).
【0048】このように、本発明に係るコンピュータグ
ラフィックス・アニメーション装置は、CGキャラクタ
を構成する複数の部位のうち2以上の集まりをパートと
して分割して、これらパートそれぞれに対して動作デー
タ等を付与することによりCGキャラクタ全体の動作制
御を行う。このため、従来のキーフレームアニメーショ
ン制御のようにCGアニメーションの一つの動作を表現
するのに全ての部位にデータを付与する必要がなくな
り、キャラクタ状態計算部3において、パートそれぞれ
に独立した形で動作データを付与することでCGキャラ
クタの形状の時間的変化を示す形状データを算出するこ
とが可能となる。As described above, the computer graphics / animation apparatus according to the present invention divides two or more groups of a plurality of parts constituting a CG character into parts, and outputs motion data and the like to each of these parts. By giving it, the motion control of the entire CG character is performed. Therefore, unlike the conventional key frame animation control, it is not necessary to add data to all parts in order to express one motion of the CG animation, and the character state calculation unit 3 operates in a form independent of each part. By adding the data, it becomes possible to calculate the shape data indicating the temporal change of the shape of the CG character.
【0049】例えば、「笑いながら歩く」というCGキ
ャラクタを表示する場合には、従来のアニメーション装
置では、CGキャラクタを構成する全ての部位に「笑い
ながら歩く」というデータを一度に付与する必要がある
が、本発明においては、CGキャラクタを複数の部位を
含むパートの集合とすることにより、パートそれぞれに
「泣く」動作データと「歩く」動作データとを付与する
ことができ、パート毎の形状を変更することが可能とな
る。このため、ずべての部位に新たなデータを付与する
必要がなく、データの冗長性を極力排除して、少ない適
正なデータ量で多様なCGキャラクタのアニメーション
が実現できる。For example, in the case of displaying a CG character "Walk while laughing", in the conventional animation device, it is necessary to add data "Walk while laughing" to all the parts constituting the CG character at once. However, in the present invention, by setting the CG character as a set of parts including a plurality of parts, it is possible to add “crying” motion data and “walking” motion data to each part, and the shape of each part can be changed. It is possible to change. Therefore, it is not necessary to add new data to all the parts, the redundancy of the data is eliminated as much as possible, and various CG character animations can be realized with a small and appropriate data amount.
【0050】さらに、CGアニメーションにおいては、
キャラクタを構成する全ての部位にデータを付与するこ
とにより多様な動作を表現することができるが、本発明
に係るアニメーション装置においては、CGキャラクタ
の全ての部位にデータを与えて動作を単に複雑化するの
ではなく、構成部位の集合であるパート毎にデータを付
与することによりCGキャラクタ全体として意味ある動
作を表現できる。Furthermore, in CG animation,
Although various motions can be expressed by assigning data to all parts of the character, in the animation device according to the present invention, the motion is simply complicated by supplying data to all parts of the CG character. Instead, by adding data to each part, which is a set of constituent parts, a meaningful motion can be expressed as the CG character as a whole.
【0051】また、このようにパートテーブルを用いる
と、パートID毎に異なる動作データから動作データを
選択できる。尚、パートIDが一つだけの場合は、従来
のキーフレームアニメーション制御と等価なものとな
る。また、パートID数の最大値はモーションID数と
等しくなる。Further, by using the part table as described above, the motion data can be selected from the motion data different for each part ID. Incidentally, when there is only one part ID, it becomes equivalent to the conventional key frame animation control. The maximum number of part IDs is equal to the number of motion IDs.
【0052】テクスチャデータ保存部8は、CG描画に
必要なテクスチャデータをアドレスまたはIDで管理保
存している。保存されるテクスチャデータとしては、上
記の表情動作の生成用のアーカイビングされたテクスチ
ャデータや、形状データに付随する衣服などに用いるも
の、背景などとして用いるデータがある。通常は、RG
BやYUVなどの形式のカラー画像で圧縮または非圧縮
の状態で保存される。但し、圧縮保存されている場合
は、テクスチャマッピングを行う前に伸長されている必
要がある。The texture data storage unit 8 manages and stores the texture data required for CG drawing by address or ID. The texture data to be stored include the above-mentioned archived texture data for generating the facial expression motion, data used for clothes attached to the shape data, and data used as a background. Usually RG
A color image of a format such as B or YUV is stored in a compressed or uncompressed state. However, if it is compressed and stored, it needs to be decompressed before performing texture mapping.
【0053】次に、本実施の形態におけるアニメーショ
ン画像の生成処理について説明する。アニメーション制
御部1には、予めCGアニメーション画像生成を行うた
めのCGキャラクタの形状データのアドレス、附属部品
の形状データのアドレス、CGキャラクタと附属部品の
階層構造データのアドレス、使用するパートテーブルの
アドレス、後述する身体動作パターンデータ、及び表情
パターンデータが通知または保持されているものとす
る。CGキャラクタが複数の場合は、前記のパターンデ
ータがキャラクタ毎に保持されている。但し、CGキャ
ラクタが複数の場合でも、遷移を共通に起こすのなら
ば、パターンデータは共通のものが身体動作、表情につ
いて1種類ずつあれば良い。Next, the animation image generation process in this embodiment will be described. In the animation control unit 1, the address of the shape data of the CG character, the address of the shape data of the accessory parts, the address of the hierarchical structure data of the CG character and the accessory parts, the address of the part table to be used, for the CG animation image generation in advance. It is assumed that body movement pattern data and facial expression pattern data, which will be described later, are notified or held. When there are a plurality of CG characters, the pattern data is held for each character. However, even in the case of a plurality of CG characters, if the transition is commonly caused, the pattern data may be the same for each of the physical movement and the facial expression.
【0054】尚、パートテーブルは固定でも良いが、本
実施の形態では、例えば、イベント情報(キー入力情報
や音声解析結果、他の形状との接触や衝突などで、内容
はシステムに依存して決まるが、本実施の形態ではその
内容は問わない)によって異なるパートテーブルに遷移
する場合についても説明する。但し、このパートテーブ
ルの遷移は、予めシナリオの形で保持されているものと
する。例えば、イベントPの情報が入力されたら、その
イベントPに対する処理をシナリオを参照して決定し、
決定された内容がパートテーブルの遷移である場合にパ
ートテーブルの遷移が起こる。また、このシナリオに
は、後述する身体動作の遷移(身体動作パターンデー
タ)、表情動作の遷移(表情パターンデータ)、附属部
品の動作の遷移(附属部品のパターンデータ)に関する
決定情報も含まれている。Although the part table may be fixed, in the present embodiment, for example, event information (key input information, voice analysis result, contact or collision with another shape, etc., the content depends on the system). It is determined, but the present embodiment does not matter what it is) and a case of transitioning to a different part table will also be described. However, the transition of the part table is assumed to be held in the form of a scenario in advance. For example, when the information of the event P is input, the process for the event P is determined with reference to the scenario,
The transition of the part table occurs when the determined content is the transition of the part table. In addition, this scenario also includes decision information regarding transitions of physical movements (physical movement pattern data), transitions of facial expression movements (facial expression pattern data), and movements of accessory parts (pattern data of accessory parts), which will be described later. There is.
【0055】身体動作パターンデータは、図10(a)
に示したような有限状態のグラフデータで、ある動作か
ら移行が可能な動作の関係と実体動作情報(動作ID、
データ種別、各実体身体動作のアドレスとフレーム数、
各遷移の移行確率)からなるデータである。例えば、図
10(a)では、標準状態を表す基本動作データから動
作A、動作B、動作C、動作D、動作Eヘの移行が可能
であることが判る。CGキャラクタが標準状態にある
時、予め定められた何らかのイベントが発生したり、1
つの動作が終了した時に、実体動作情報に記された移行
確率(遷移確率ともいう)に基づく選択処理(乱数処
理)によって、動作A、動作B、動作C、動作D、動作
Eから動作が選択され、その動作の実体をアドレスによ
って取得する。尚、この遷移は、パートテーブルのうち
身体動作に関わるパートID毎に行う。The body movement pattern data is shown in FIG.
In the finite state graph data as shown in, the relationship between actions that can be transferred from a certain action and actual action information (action ID,
Data type, address and frame number of each physical action,
The transition probability of each transition). For example, in FIG. 10A, it can be seen that it is possible to shift from the basic motion data representing the standard state to the motion A, the motion B, the motion C, the motion D, and the motion E. When the CG character is in the standard state, some predetermined event occurs or 1
When one action is completed, the action is selected from action A, action B, action C, action D, and action E by the selection process (random number process) based on the transition probability (also called transition probability) described in the actual action information. Then, the substance of the operation is acquired by the address. It should be noted that this transition is performed for each part ID related to the physical movement in the part table.
【0056】表情パターンデータは、これら表情動作の
遷移グラフデータで、身体動作データの遷移グラフデー
タと同様に、ある表情動作データから別の表情動作デー
タへの移行が可能な有限状態グラフと実体表情情報(表
情ID、データ種別、各実体表情動作データのアドレス
とフレーム数、各遷移の移行確率)である。例えば、図
10(b)に示したもので、この例では表情0が基本表
情として、他の表情1、表情2、表情3へ移行可能なこ
とを示しており、移行先の選択は実体表情情報の移行確
率に基づいて行われる。尚、実体表情情報のデータ種別
によって表情動作なのかテクスチャなのかと適用可能な
形状を特定することができるので、上記に示した形状変
形の場合の表情動作でも適用可能である。例えば、デー
タ種別の1桁目を表情かテクスチャかの分類に用い、2
桁目以上の数字を形状用の識別番号とする。これによ
り、データ種別に応じてテクスチャでの表情動作生成や
形状変形での表情生成にどちらにも対応できる。The facial expression pattern data is transition graph data of these facial expressions, and like the transition graph data of body movements data, a finite state graph and an actual facial expression that enable transition from one facial expression movement data to another facial expression movement data. It is information (facial expression ID, data type, address and frame number of each actual facial expression motion data, transition probability of each transition). For example, as shown in FIG. 10B, in this example, it is shown that facial expression 0 can be transferred to another facial expression 1, facial expression 2, and facial expression 3 as the basic facial expression. It is performed based on the information transfer probability. Since it is possible to specify an applicable shape such as a facial expression motion or a texture based on the data type of the real facial expression information, the facial expression motion in the case of the above-described shape deformation can also be applied. For example, the first digit of the data type is used for classification of facial expression or texture, and 2
Numbers above the first digit are used as shape identification numbers. As a result, both facial expression motion generation by texture and facial expression generation by shape deformation can be supported depending on the data type.
【0057】表情動作において、特に口唇動作(口唇、
頬動作などで、本実施の形態ではパートテーブル0に示
すパート3のモーションIDセットm28,m29,m
30に相当)を分離し、音声との同期動作(リップシン
ク)を行う場合は、上記の表情パターンデータではな
く、次のような別の制御手法で実現できる。尚、イベン
ト情報として、音声データに対する音声解析結果が入力
されるものとし、音声解析結果としては、音強度解析結
果と音素解析結果(母音解析が行われたものとして説明
するが、子音解析まで行った場合も同様に実施できる)
が得られた場合について説明する。In the facial expression movement, especially lip movement (lip,
In the present embodiment, the motion ID set m28, m29, m of the part 3 shown in the part table 0 is used for cheek motion or the like.
(Corresponding to 30) and performing a synchronization operation (lip sync) with voice can be realized by the following other control method instead of the above expression pattern data. As the event information, it is assumed that the voice analysis result for the voice data is input, and as the voice analysis result, the sound intensity analysis result and the phoneme analysis result (explained as vowel analysis is performed, but consonant analysis is also performed. The same can be done if
The case where is obtained will be described.
【0058】まず、口唇動作データと頬動作データとし
ては、「あ」「い」「う」「え」「お」「ん」に対応し
たテクスチャデータが予め用意され、かつ、各「あ」…
「お」についてはその開閉量が小さいものから大きなも
のまで用意されているとする。カレントのイベント情報
から、母音と音強度が判るので、その母音に対応するテ
クスチャの中から、音強度に対応する開閉量のテクスチ
ャを特定して、このテクスチャを口唇動作データ、頬動
作データとして選択することでリップシンクが実現でき
ることとなる。First, as lip movement data and cheek movement data, texture data corresponding to "A", "I", "U", "E", "O", "N" are prepared in advance, and each "A" ...
Regarding "o", it is assumed that there are small to large open and close types. Since the vowel and sound intensity can be known from the current event information, the opening and closing amount texture corresponding to the sound intensity is specified from the textures corresponding to that vowel, and this texture is selected as lip movement data and cheek movement data. By doing so, lip sync can be realized.
【0059】また、リップシンクを形状変形で行う場合
は、同様に母音解析結果と音強度解析結果に対応した形
状変形量を選択すれば良い。この場合、イベント情報が
入力された後、少なくとも1フレームの遅延が起こる
が、例えば、描画が30フレーム/秒のフレームレート
では、30ミリ秒程度なので人間の視覚能力ではこの程
度の遅延は問題にはならない。Further, when lip-sync is performed by shape modification, similarly, the shape modification amount corresponding to the vowel analysis result and the sound intensity analysis result may be selected. In this case, a delay of at least one frame occurs after the event information is input. For example, at a frame rate of 30 frames / sec for drawing, about 30 milliseconds, so this delay is a problem for human visual ability. Don't
【0060】本実施の形態では、CGキャラクタの附属
部品である棒を扱うので、棒の動作遷移を表した棒動作
パターンデータも保持しているものとして説明を行う
が、他の附属部品の場合も同様に実施可能であり、また
附属部品が複数の場合も同様に実施可能である。例え
ば、図10(c)は、棒(附属部品)の動作制御を行う
ための遷移グラフで、棒基本状態から棒動作0、1、2
への遷移を身体動作の遷移グラフの場合と同様に規定す
る。In the present embodiment, since a rod, which is an accessory component of a CG character, is handled, the rod motion pattern data representing the motion transition of the rod is also described, but in the case of other accessory components. Can also be implemented in the same manner, and can also be implemented in the case of a plurality of accessory parts. For example, FIG. 10C is a transition graph for controlling the movement of a rod (attached component), and the rod movement is changed from the rod basic state to the rod movement 0, 1, 2.
The transition to is defined as in the case of the transition graph of body movements.
【0061】以下、確率的な変動によって動作遷移を行
う場合の説明を行うが、上記のようなリップシンクや選
択処理を固定的に行うことも可能である。選択処理を固
定的に行う場合は、予め遷移のシナリオを用意してお
き、そのシナリオにしたがって動作選択を行えばよい。Hereinafter, the case where the operation transition is performed by the stochastic fluctuation will be described, but the lip sync and the selection processing as described above can be fixedly performed. When the selection process is to be performed fixedly, a transition scenario may be prepared in advance and the operation may be selected according to the scenario.
【0062】図11(a)及び(b)は、予め定めたシ
ナリオに基づき、動作遷移やパートテーブルの遷移が行
われた遷移結果を示した図で、これらを用いて本実施の
形態におけるアニメーション画像の生成の処理動作につ
いて、具体的な説明を行う。FIGS. 11 (a) and 11 (b) are diagrams showing transition results in which operation transitions and part table transitions are performed based on a predetermined scenario, and these are used for the animation in the present embodiment. The image generation processing operation will be specifically described.
【0063】アニメーション制御部1は下記の制御を行
う。すなわち、(1)アニメーション画像の描画フレー
ム管理、(2)次のフレーム画像生成に必要なパートI
D毎の動作データのアドレスと動作データ中のフレーム
番号の管理、(3)イベント情報の管理とそのイベント
に対応した処理、(4)CGキャラクタのパートID毎
の動作遷移の制御、(5)CGキャラクタ形状と附属部
品形状のアドレス、それらの形状データに対応した階層
構造のアドレスのキャラクタ状態計算部3への通知(こ
れはCGアニメーション画像生成前に一度だけ行う)、
(6)現在使用するパートテーブル番号またはアドレス
のキャラクタ状態計算部3への通知(描画の最初、パー
トテーブルの変更時に通知)、(7)次のフレーム画像
生成に必要なパートID毎の動作データのアドレスと動
作データ中のフレーム番号のキャラクタ状態計算部3へ
の通知である。The animation control unit 1 performs the following control. That is, (1) management of a drawing frame of an animation image, (2) part I required for generation of the next frame image.
Management of address of motion data and frame number in motion data for each D, (3) management of event information and processing corresponding to the event, (4) control of motion transition for each part ID of CG character, (5) The address of the CG character shape and the accessory part shape, and the notification of the address of the hierarchical structure corresponding to the shape data to the character state calculation unit 3 (this is done only once before the CG animation image is generated),
(6) Notification of the part table number or address currently used to the character state calculation unit 3 (notification at the beginning of drawing, when the part table is changed), (7) operation data for each part ID required for the next frame image generation. To the character state calculation unit 3 of the address and the frame number in the motion data.
【0064】まず、CGアニメーション画像生成を行う
CGキャラクタの形状データのアドレス、当該形状デー
タに対応する階層構造データのアドレス、附属部品があ
る場合は附属部品の形状データ、及び当該形状データに
対応する階層構造データのアドレスをキャラクタ状態計
算部3に通知する。複数のCGキャラクタや附属部品が
ある場合は、複数分通知する。次に、図11(a)のシ
ナリオに基づくと、最初に選択されたパートテーブルは
パートテーブル0なので初期のフレームでは、パート番
号0〜2に対しては、身体動作の基本状態が選択され、
パート番号3、4では表情動作の表情0が選択される。
この選択結果は次のような羅列表記による状態情報とし
てキャラクタ状態計算部3に通知される。First, the address of the shape data of the CG character for generating the CG animation image, the address of the hierarchical structure data corresponding to the shape data, the shape data of the accessory part if there is an accessory part, and the shape data. The character state calculation unit 3 is notified of the address of the hierarchical structure data. If there are multiple CG characters or accessory parts, multiple minutes are notified. Next, based on the scenario of FIG. 11A, since the first selected part table is part table 0, in the initial frame, the basic state of physical movement is selected for part numbers 0 to 2,
In part numbers 3 and 4, facial expression 0 of facial expression motion is selected.
The selection result is notified to the character state calculation unit 3 as the state information in the following enumeration.
【0065】すなわち、(状態情報)パート番号0、身
体動作(今は基本状態)のアドレス、フレーム番号0
と、パート番号1、身体動作(今は基本状態)のアドレ
ス、フレーム番号0と、パート番号2、身体動作(今は
基本状態)のアドレス、フレーム番号0と、パート番号
3、表情動作(今は表情動作0)のアドレス、フレーム
番号0と、パート番号4、表情動作(今は表情動作0)
のアドレス、フレーム番号0とである。That is, (state information) part number 0, body motion (currently basic state) address, frame number 0
And part number 1, body motion (now basic state) address, frame number 0, part number 2, body motion (now basic state) address, frame number 0, part number 3, facial expression motion (now Is the address of facial expression motion 0), frame number 0, part number 4, facial expression motion (currently facial expression motion 0)
And the frame number 0.
【0066】キャラクタが複数の場合は、この状態情報
が、キャラクタ毎に通知される。キャラクタ状態計算部
3は、アニメーション制御部1から前記のように予め通
知されているCGキャラクタの階層構造データのアドレ
スにより階層構造データを階層構造保存部4から取得
し、形状データのアドレスにより形状データ保存部5か
ら形状データを取得する。また、同様に通知されたパー
トテーブル番号またはアドレスにより、パートテーブル
保存部2から当該パートテーブル(本説明の場合はパー
トテーブル0)を取得する。上記のように通知された状
態情報と取得したパートテーブルに基づき、動作データ
保存部6から該当動作データを取得する。When there are a plurality of characters, this state information is notified for each character. The character state calculation unit 3 acquires the hierarchical structure data from the hierarchical structure storage unit 4 by the address of the hierarchical structure data of the CG character notified in advance from the animation control unit 1 as described above, and the shape data by the address of the shape data. The shape data is acquired from the storage unit 5. Similarly, the part table storage unit 2 acquires the relevant part table (part table 0 in the present description) by the notified part table number or address. Based on the status information notified as described above and the acquired part table, the corresponding operation data is acquired from the operation data storage unit 6.
【0067】この動作データの取得は次のように行う。
すなわち、図9に示したように、パートテーブル0の情
報から、パート番号0のモーションIDセットは動作識
別子m0,m1であることが判る。次に、状態情報の身
体動作データのアドレスにより、動作データ保存部6に
保存されている該当身体動作データを取得する(今は基
本状態)。取得した身体動作データから、動作識別子
(今はm0,m1)と状態情報のフレーム番号により、
該当動作識別子の該当フレーム番号の身体動作データ
(1フレーム分)を取得する。その際、上記に述べたよ
うにキーフレームデータの場合は、初期フレームは必ず
即値として保持されているが、フレーム番号によっては
キーフレーム間になることもある。The operation data is obtained as follows.
That is, as shown in FIG. 9, it is understood from the information in the part table 0 that the motion ID set of the part number 0 is the motion identifiers m0 and m1. Next, the body movement data stored in the movement data storage unit 6 is obtained from the address of the body movement data of the state information (currently the basic state). From the acquired physical motion data, by the motion identifier (now m0, m1) and the frame number of the state information,
The physical motion data (one frame) of the corresponding frame number of the corresponding motion identifier is acquired. At that time, as described above, in the case of key frame data, the initial frame is always held as an immediate value, but it may be between key frames depending on the frame number.
【0068】キーフレーム間の時は、当該フレーム番号
を含む、当該フレーム番号以下のキーフレームの内で最
大のものと、当該フレーム番号以上のキーフレームの内
で最小のものとを取得し、取得した2つのデータを線形
補間して当該フレーム番号の身体動作データを生成す
る。尚、スプライン補間などの高次多項式(2次以上)
で生成する場合は、次数と同数のキーフレームのデータ
を(上記の線形補間の説明では「以下で最大」と「以上
で最小」の2つであった)「以下で最大と2番目に大き
なもの、3番目に大きなもの、…」や、「以上で最小と
2番目に小さなもの、3番目に小さなもの、…」のよう
に取得すれば、必要個数のキーフレームのデータが取得
できる。When there is an inter-key frame, the maximum key frame including the frame number below the frame number below the frame number and the minimum key frame out of the frame numbers above the frame number are acquired and acquired. The two data thus obtained are linearly interpolated to generate the body motion data of the frame number. Higher-order polynomials such as spline interpolation (second or higher)
In the case of generating with, the same number of keyframe data as the order (in the above description of the linear interpolation, there are two, “maximum below” and “minimum above”) “maximum below and second largest , 3rd largest, ... ”or“ minimum and 2nd smallest, 3rd smallest, ... ”above, the required number of keyframe data can be obtained.
【0069】パート番号1と2についても同様に、動作
データ保存部6から身体動作データを取得し、取得した
身体動作データから、パートテーブル0のパート番号に
対応した動作識別子と状態情報の該当フレーム番号の身
体動作データを得る。取得した身体動作データ(関節角
データ)と階層構造データにより、取得した形状データ
を階層構造の各部品に定義された局所座標系で行列変換
を施した(フォワードキネマネティクス)形状データを
生成し、さらに指定されたパート0のルート(m0)の
身体動作データの移動量と方向に基づき、キャラクタの
形状データ全体に回転変換と平行移動変換して、キャラ
クタ全体を指定の向きと位置に変更した形状データを生
成する。尚、身体の状態の変換処理の際に、エンベロー
ブ手法を用いると形状に切れ目のない滑らかな形状が生
成できる。Similarly for the part numbers 1 and 2, the physical motion data is acquired from the motion data storage unit 6, and from the acquired physical motion data, the motion identifier corresponding to the part number in the part table 0 and the corresponding frame of the status information. Get physical activity data for a number. With the acquired body motion data (joint angle data) and hierarchical structure data, the acquired shape data undergoes matrix transformation in the local coordinate system defined for each part of the hierarchical structure (forward kinematics) to generate shape data, Further, based on the movement amount and the direction of the body movement data of the route (m0) of the specified part 0, the whole character shape data is subjected to the rotation conversion and the parallel movement conversion, and the shape of the entire character is changed to the specified direction and position. Generate data. It should be noted that a smooth shape with no discontinuity can be generated by using the envelope method during the conversion processing of the body condition.
【0070】次に、パート番号3と4が形状の変形やエ
ンベローブ手法によって表情動作を生成する場合には、
上記の身体動作の場合と同様の形状データを変更した形
状データの生成を行う。表情動作がアーカイビングされ
たテクスチャデータの場合は、表情動作のアドレスは、
テクスチャデータ保存部8での表情生成に必要なアーカ
イビングされたテクスチャデータのアドレスで、フレー
ム番号はそのアーカイブの管理ID番号に対応する。こ
のアドレスと管理ID番号を、上記で新たに生成したキ
ャラクタの形状データ(位置や向き、身体状態の変更を
施したデータ)の当該部品(口唇、左右頬、左右目、左
右眉)のテクスチャデータを指定する箇所に書き込む。Next, in the case where the part numbers 3 and 4 generate the facial expression motion by the deformation of the shape or the envelope method,
The same shape data as in the case of the above-mentioned body movement is generated to generate shape data. If the facial expression movement is archived texture data, the address of the facial expression movement is
This is the address of the archived texture data required for expression generation in the texture data storage unit 8, and the frame number corresponds to the management ID number of that archive. This address and the management ID number are used as the texture data of the parts (lips, left and right cheeks, left and right eyes, left and right eyebrows) of the newly generated character shape data (data in which the position, orientation, and physical condition have been changed). Write in the specified location.
【0071】以上のキャラクタ状態計算部3において変
更を施したキャラクタの形状データは、3次元描画部7
に送られる。尚、キャラクタの衝突判定(他のCGキャ
ラクタ、背景形状などとの接触や衝突)を行う場合は、
キャラクタ状態計算部3で行う。方法としては、キャラ
クタ形状のデータに対して上記の変更をした時に、この
形状が他の形状と交錯するか否かを判定計算すれば良
い。但し、キャラクタの形状データは、一般には複雑な
ので、簡易化するためにキャラクタ形状データや背景形
状データに対するバウンダリボックス(キャラクタ形状
を含む最小の直方体)やバウンダリスフェア(キャラク
タ形状を含む最小の球対や楕円球対)を代替形状とし
て、交錯しているか否かの判定計算を行えば良い。The shape data of the character changed in the character state calculation unit 3 is used as the three-dimensional drawing unit 7
Sent to. In addition, when performing the collision determination of the character (contact or collision with another CG character, background shape, etc.),
This is performed by the character state calculation unit 3. As a method, when the above-mentioned change is made to the character shape data, it is sufficient to determine and calculate whether or not this shape intersects with other shapes. However, since the character shape data is generally complicated, in order to simplify the character shape data and the background shape data, the boundary box (the smallest rectangular parallelepiped including the character shape) or the boundary sphere (the smallest sphere pair including the character shape or A pair of ellipsoidal spheres) may be used as an alternative shape to perform a determination calculation as to whether or not they intersect.
【0072】3次元描画部7では、送られてきたキャラ
クタの形状データと形状データに指定されたテクスチャ
データ、外部から入力される光源データとカメラデータ
により、通常の3次元CG処理で行われている画像生成
処理を行い、生成した画像は表示部9に送られて表示さ
れる。例えば、3次元描画部7において、3次元CG処
理をグーロシェーディングとZバッファ処理で画像生成
を行い、表示する場合は、光源データから形状データの
各頂点の輝度値を算出し、形状データに視界変換、透視
変換を施し(計算量の削減にはクリッピング処理を行え
ば良い)、指定されたテクスチャデータをテクスチャデ
ータ保存部8から読み出してテクスチャマッピングを行
う。In the three-dimensional drawing unit 7, a normal three-dimensional CG process is performed using the shape data of the character and the texture data specified in the shape data, the light source data and the camera data input from the outside. Then, the generated image is sent to the display unit 9 and displayed. For example, in the three-dimensional drawing unit 7, when the image is generated by the Guro-shading and the Z-buffer process for the three-dimensional CG processing and displayed, the brightness value of each vertex of the shape data is calculated from the light source data and converted into the shape data. The visual field conversion and the perspective conversion are performed (clipping processing may be performed to reduce the calculation amount), and the specified texture data is read from the texture data storage unit 8 and texture mapping is performed.
【0073】その際、形状の色は、形状データで指定さ
れた色に算出した輝度値を乗じた頂点色を算出し、頂点
間の色については線形補間で決定する。また、テクスチ
ャをマッピングする場合は、形状データに予め指定され
たマッピング座標により、テクスチャデータの位置を算
出し、それに輝度値を乗じた値で決定する。これらの処
理により、画像構成する各ピクセルの色(RGBやYC
bCrなどのフォーマットが通常使われる)が決定され
て画像が生成され、生成された画像が表示部9に送られ
て表示される。以上の処理により、1枚のフレーム画像
が生成される。このような処理が、各パートの動作デー
タが終了するまで繰り返される。At this time, the shape color is determined by multiplying the color specified by the shape data by the calculated brightness value to calculate the vertex color, and the color between the vertices is determined by linear interpolation. In the case of mapping a texture, the position of the texture data is calculated according to the mapping coordinates designated in advance in the shape data, and the position is determined by multiplying it by the brightness value. By these processes, the color (RGB or YC
A format such as bCr is normally used) is determined, an image is generated, and the generated image is sent to the display unit 9 and displayed. Through the above processing, one frame image is generated. Such processing is repeated until the operation data of each part is completed.
【0074】次に、あるパートの動作データが終了した
時の処理について説明する。例えば、図11(a)で
は、パート0、1、2の身体動作データが、パート3、
4より先に終了する。この終了は、アニメーション制御
部1の(1)アニメーション画像の描画フレーム管理に
おいて、動作データの終了フレーム番号より、次のフレ
ーム画像を生成するのに必要なフレーム番号が大きくな
った時に検知する。終了が検知されると、アニメーショ
ン制御部1は、そのパートに対する動作遷移を行う。例
えば、パート0、1、2の場合は、図10(a)の身体
動作パターンデータに基づき行うが、この処理はパート
毎に次のように行われる。Next, the processing when the operation data of a part is completed will be described. For example, in FIG. 11A, the body motion data of parts 0, 1, and 2 are
It ends before 4. This end is detected when the frame number required to generate the next frame image is larger than the end frame number of the motion data in (1) animation frame drawing frame management of the animation control unit 1. When the end is detected, the animation control unit 1 makes a motion transition for the part. For example, in the case of parts 0, 1, and 2, it is performed based on the body movement pattern data of FIG. 10A, but this process is performed as follows for each part.
【0075】例えば、完全にランダムな場合の動作遷移
であって等確率の場合(つまり各状態への移行確率が1
/6の場合)、基本状態から移行できる状態は、基本状
態を含めて6通りあるので、6の剰余系を利用して、剰
余が0なら基本状態、1なら状態A、2なら状態B、3
なら状態C、4なら状態D、5なら状態Eと予め決めて
おく。この条件下において、(1)乱数を発生(2)乱
数値を6で割る(3)剰余を調べる(4)剰余に合致す
る状態へ移行するの手順で遷移計算を行えばよい。等確
率でない場合も同様に行えて、遷移確率の分母(少数の
場合は分数表示に直す)の公倍数表示に直した時に、公
倍数を数直線の線分として各遷移確率の分子に等しい線
分領域に分割し、乱数を公倍数で除したときの剰余が入
る領域に遷移すれば良い。For example, in the case of completely random motion transitions with equal probabilities (that is, the transition probability to each state is 1
/ 6), there are 6 states that can be shifted from the basic state, including the basic state. Therefore, by using the remainder system of 6, if the remainder is 0, the basic state, if 1 the state A, if 2 the state B, Three
If it is state C, if it is 4, state D if it is 5, and if it is 5, state E is determined in advance. Under this condition, the transition calculation may be performed in the procedure of (1) generating a random number, (2) dividing the random number value by 6, (3) examining the remainder, and (4) transitioning to a state that matches the remainder. The same can be done when the probability is not equal, and when the common denominator of the denominator of the transition probability (if it is a small number, it is converted to the fraction display) is changed to the common multiple display, the common multiple is a line segment of a number line and the line segment area equal to the numerator of each transition probability. It is sufficient to make a transition to a region in which the remainder when the random number is divided by the common multiple is entered.
【0076】以上は完全にランダムな場合の動作遷移で
あるが、シナリオでイベントが起きた時に、指定された
パート番号の次の動作が予め定められている場合は、次
の遷移はその指定された動作にする。例えば、口唇動作
の場合は、「あ」の口の動作が行われている時に、次の
動作が「い」である場合、イベントとして指定され、強
制的に次の動作は「い」の動作に遷移させる。このよう
な、強制的な遷移と上記のランダムな遷移を組み合わせ
ることも可能で、イベントが起きた時に予め指定された
次に遷移する動作の遷移確率を通常よりも大きくし、他
の遷移可能な動作の遷移確率を通常よりも低くし、この
修正された遷移確率に対して上記の乱数の処理を行う。
この場合、予め指定された動作への移行は高くはなる
が、強制的に移行する場合のように必ず移行するわけで
はない。従って、イベントに対する規則性が薄らぎ、実
際の人間にも見受けられる気まぐれさのような効果を作
り出すことが可能である。The above is the operation transition in the case of being completely random. However, if the next operation of the specified part number is predetermined when an event occurs in the scenario, the next transition is specified. To make it work. For example, in the case of lip movement, if the next movement is "yes" while the mouth movement of "a" is being performed, it is designated as an event and the next movement is forced to be "yes". Transition to. It is also possible to combine such forced transitions with the above-mentioned random transitions, and when the event occurs, the transition probability of the next transitional action specified in advance is made higher than usual, and other transitions are possible. The transition probability of the motion is set lower than usual, and the above-described random number processing is performed on the modified transition probability.
In this case, although the transition to the pre-designated operation is high, the transition is not necessarily made as in the case of forced transition. Therefore, the regularity to the event is weakened, and it is possible to create an effect such as the whimsicalness that can be seen by an actual person.
【0077】以上のような遷移処理の結果、図11
(a)では、パート0は動作Aに、パート1は動作B
に、パート2は動作Cに遷移したことを示している。ま
た、表情動作についても、表情0の動作が終了後、上記
の遷移処理によって、パート3は表情0から表情2に、
パート4は表情0から表情3に遷移した。このような処
理が繰り返し行われて、キャラクタのCGアニメーショ
ン画像が生成されていく。As a result of the above transition processing, FIG.
In (a), part 0 is for action A and part 1 is for action B
Part 2 shows that the operation has transitioned to the operation C. In addition, regarding facial expression motion, after the motion of facial expression 0 is completed, part 3 changes from facial expression 0 to facial expression 2 by the above transition processing.
In Part 4, the facial expression changed from 0 to 3. Such processing is repeatedly performed to generate the CG animation image of the character.
【0078】次に、パートテーブルの遷移について説明
する。本実施の形態では、イベントPが起きた時に、パ
ートテーブル0からパートテーブル1に遷移が起こり
(図11(a)参照)、イベントQが起きた時にパート
テーブル0からパートテーブル2への遷移が起こる(図
11(b)参照)ものと予めシナリオで指定されたもの
として説明を行う。イベントPやイベントQは、上記で
も説明したが、基本的にはどのような事項でもよいが、
例えば、キー入力やCGキャラクタが予め定められたあ
る位置に達した音声解析結果、他の形状との接触や衝突
などで、内容はシステムに依存するが本実施の形態では
内容自体は問わない。Next, the transition of the part table will be described. In the present embodiment, when the event P occurs, the transition from the part table 0 to the part table 1 occurs (see FIG. 11A), and when the event Q occurs, the transition from the part table 0 to the part table 2 occurs. The description will be made assuming that it occurs (see FIG. 11B) and that it is designated in advance by the scenario. Although the event P and the event Q have been described above, basically any matters may be used.
For example, the content depends on the system, such as a key input or a voice analysis result when the CG character has reached a predetermined position, a contact or a collision with another shape, but the content itself does not matter in the present embodiment.
【0079】尚、上述したシナリオ以外にも、感情推定
された結果をシナリオ中のイベントとしてCGキャラク
タの動作に反映させることも考えられる。例えば携帯電
話の話者の音声を利用して韻律や振幅、強勢等の音声デ
ータの周波数信号を用いた感情推定方法を用いて、「怒
り」、「悲しみ」、「喜び」等の感情に従った動作デー
タ等をアニメーション制御部1が指定することにより、
キャラクタ状態計算部3において感情推定に従った形状
データの変更を行ってCGキャラクタに反映することも
考えられる。この際、画面に表示されるCGキャラクタ
は、話者の感情を推定して表現されるため、本発明に係
るコンピュータグラフィックス・アニメーション装置の
娯楽性等を高めることが可能となる。In addition to the scenario described above, it is also possible to reflect the result of emotion estimation as an event in the scenario on the motion of the CG character. For example, by using the emotion estimation method that uses the frequency signal of voice data such as prosody, amplitude, and stress using the voice of the speaker of a mobile phone, the emotion such as “anger”, “sadness”, and “joy” can be followed. By specifying the motion data etc.
It is conceivable that the character state calculation unit 3 changes the shape data according to the emotion estimation and reflects it on the CG character. At this time, since the CG character displayed on the screen is estimated by expressing the emotion of the speaker, it becomes possible to enhance the entertainment property of the computer graphics / animation device according to the present invention.
【0080】図11(a)に基づいて説明すると、ま
ず、図示した時刻にイベントPの発生が、アニメーショ
ン制御部1に、外部またはキャラクタ状態計算部3から
通知される。アニメーション制御部1は通知を受ける
と、シナリオに基づきパートテーブル0からパートテー
ブル1への遷移を行う処理に移る。この処理で最も重要
なことは同期処理で、そのために、パート0について
は、現在行っている動作Dが終了後、強制的に基本状態
へ遷移させる。同様に、パート1は動作Eから基本状
態、パート2は動作Aから基本状態、パート3は表情1
から表情0、パート4は表情2から表情0に、現在行っ
ている各動作が終了後、遷移させる。これらの遷移が全
て完了したら、パートテーブル0からパートテーブル1
への遷移を行う(図11(a)ではイベントPの遷移時
刻)。Explaining with reference to FIG. 11A, first, the occurrence of the event P is notified to the animation control unit 1 from the outside or the character state calculation unit 3 at the illustrated time. When the animation control unit 1 receives the notification, the animation control unit 1 proceeds to the process of transitioning from the part table 0 to the part table 1 based on the scenario. The most important thing in this process is the synchronization process. For this reason, part 0 is forcibly transitioned to the basic state after the current operation D is completed. Similarly, Part 1 is a motion E to a basic state, Part 2 is a motion A to a basic state, and Part 3 is a facial expression 1.
To facial expression 0, and for part 4, transition from facial expression 2 to facial expression 0 after the end of each of the actions currently being performed. When all these transitions are completed, part table 0 to part table 1
Is performed (transition time of event P in FIG. 11A).
【0081】その際において、パートテーブル0とパー
トテーブル1では、パート個数や各パートの中のモーシ
ョンIDセットが異なっているが、パートテーブル1が
初期のパートテーブルでCGアニメーション画像生成す
るのと同じなので、連続的な内容でCGアニメーション
画像の生成が可能となる。以上の処理によって、パート
テーブルが0から1に遷移した後は、上記と同様に、遷
移確率に基づく動作遷移を繰り返したCGアニメーショ
ンが継続される。At this time, although the number of parts and the motion ID set in each part are different between the part table 0 and the part table 1, it is the same as when the part table 1 generates the CG animation image in the initial part table. Therefore, it is possible to generate a CG animation image with continuous contents. By the above process, after the part table has changed from 0 to 1, the CG animation in which the motion transition based on the transition probability is repeated is continued in the same manner as above.
【0082】図11(b)の場合もパート0からパート
4までの処理は前記図11(a)のパートテーブル0の
場合と同様であるが、パートテーブル2では階層構造自
体の変更、ここでは棒形状の追加(パート5)が起きる
ので、パート5については、遷移後の最初の棒動作につ
いては、棒基本状態から行い、その後は、上記の動作遷
移制御処理に基づいてCGアニメーション画像を生成す
る。これは、パートテーブル2を初期パートテーブルと
して処理を行うのと同じなので、連続的なCGアニメー
ション画像の生成が可能となる。以上の処理によって、
遷移した後は、上記と同様に、遷移確率に基づく動作遷
移を繰り返したCGアニメーションが継続される。In the case of FIG. 11B, the processing from part 0 to part 4 is the same as in the case of the part table 0 of FIG. 11A, but in the part table 2, the hierarchical structure itself is changed. Since the addition of a rod shape (Part 5) occurs, the first rod movement after the transition is performed from the rod basic state for Part 5, and thereafter, a CG animation image is generated based on the above-mentioned movement transition control processing. To do. This is the same as processing is performed using the part table 2 as the initial part table, and therefore continuous CG animation images can be generated. By the above process,
After the transition, in the same manner as above, the CG animation in which the motion transition based on the transition probability is repeated is continued.
【0083】このように、CGキャラクタは複数の部位
を含むパートに分けられ、動作データ保存部6は、各パ
ートそれぞれに対応する複数の動作データを保持する。
そして、キャラクタ状態計算部3は、シナリオに従い各
パートに前記動作データを時系列的に付与してCGキャ
ラクタ全体の形状の時間的変化を示す形状データを算出
する。そして、3次元描画部7においては、形状データ
にテクスチャデータを付与してCGキャラクタの3次元
画像を作成して、表示部9においては、作成された3次
元画像を画面に表示する。As described above, the CG character is divided into parts including a plurality of parts, and the motion data storage unit 6 holds a plurality of motion data corresponding to each part.
Then, the character state calculation unit 3 adds the motion data to each part in time series according to the scenario, and calculates the shape data indicating the temporal change of the shape of the entire CG character. Then, the three-dimensional drawing unit 7 adds texture data to the shape data to create a three-dimensional image of the CG character, and the display unit 9 displays the created three-dimensional image on the screen.
【0084】尚、棒形状が突然現れることを防ぐ場合に
は、棒形状は予め生成されたアニメーション画像に表示
させておけば良い。また、棒が突然飛んで来るような事
態を防ぐためには、イベントQが棒との接触を伴うもの
であればよい。但し、これらのことはシナリオに依存し
ている事項で、例えば魔法のようなシーンにおいては、
逆に、棒が突然現れたり、飛んできたりする場合があ
る。パートテーブル2からパートテーブル0への遷移に
ついても同様の処理を行うことで遷移可能である。パー
トテーブル0からパートテーブル2への遷移は形状や階
層の追加にあたり、パートテーブル2からパートテーブ
ル0への遷移は形状や階層の削除にあたる。また、棒と
いう単階層の形状について説明を行ったが、他の複数階
層構造を有する形状の場合でも同様の処理を行うことで
取り扱える。In order to prevent the stick shape from appearing suddenly, the stick shape may be displayed in an animation image generated in advance. Further, in order to prevent the situation where the stick suddenly flies, it is sufficient that the event Q involves contact with the stick. However, these things depend on the scenario, for example, in a magical scene,
Conversely, sticks may suddenly appear or fly away. The transition from the part table 2 to the part table 0 can be performed by performing similar processing. The transition from the part table 0 to the part table 2 corresponds to the addition of the shape and the hierarchy, and the transition from the part table 2 to the part table 0 corresponds to the deletion of the shape and the hierarchy. Moreover, although the shape of a single layer such as a rod has been described, the shape having another multi-layer structure can be handled by performing the same processing.
【0085】図12は、複数のパートを用いてCGキャ
ラクタ1201の動作変更を行う場合の参考図である。
ここでCGキャラクタ1201は、顔のパート120
2、上半身のパート1203及び下半身のパート120
4の3パートに分けられる。また、各パート1202、
パート1203及びパート1204は3種類の動作デー
タを持つ。尚、ここでは3つのパートそれぞれが3つの
動作を持つものとして説明を行うが本発明はこれに限定
されるものではないことは言うまでもない。FIG. 12 is a reference diagram in the case of changing the motion of the CG character 1201 using a plurality of parts.
Here, the CG character 1201 is the face part 120.
2, upper body part 1203 and lower body part 120
It is divided into 4 parts. Also, each part 1202,
Part 1203 and part 1204 have three types of operation data. Although the three parts are described as having three operations here, it goes without saying that the present invention is not limited to this.
【0086】そして、顔のパート1202は表情0(通
常顔)、表情1(泣き顔)及び表情2(笑い顔)の3種
類の表情動作データ、上半身のパート1203は、基本
状態A(腕を振る)、動作B(踊る)及び動作C(おじ
ぎする)の3種類の身体動作データ、下半身のパート1
204は、基本状態D(立つ)、動作E(走る)及び動
作F(座る)の3種類の身体動作データをそれぞれ有す
る。従って、3つの各パート1202、1203及び1
204が各3種類の動作データを有することにより、C
Gキャラクタは計27通りの動作をすることが可能とな
る。The face part 1202 has three types of facial expression motion data: facial expression 0 (normal face), facial expression 1 (crying face), and facial expression 2 (laughing face), and upper body part 1203 has basic state A (shake arms). ), Motion B (dancing) and motion C (bowing), three types of body motion data, lower body part 1
The reference numeral 204 has three types of body motion data: basic state D (standing), motion E (running), and motion F (sitting). Therefore, each of the three parts 1202, 1203 and 1
Since 204 has three types of operation data, C
The G character can perform a total of 27 movements.
【0087】このため、本発明に係るアニメーション装
置は、CGキャラクタを構成する部位を含む複数のパー
トを規定して、各パートに対応づけた動作データを付与
することにより、上述したように少ないデータ量でCG
キャラクタ全体の動作を制御できるのみでなく、CGキ
ャラクタ全体として複雑な動作表現を可能とし、アニメ
ーション装置の利用者がCGキャラクタの動作表現形態
が少ないため短期間で飽きてしまう等の問題を効果的に
防止できる。For this reason, the animation device according to the present invention defines a plurality of parts including parts constituting a CG character, and adds motion data associated with each part, thereby reducing the amount of data as described above. CG by quantity
Not only the motion of the entire character can be controlled, but also complicated motion expression is possible for the entire CG character, and the problem that the user of the animation device gets bored in a short period of time because the motion expression form of the CG character is small. Can be prevented.
【0088】そして、図13は、本発明に係るコンピュ
ータグラフィックス・アニメーション装置の機能を有す
る携帯電話1301を示す図である。携帯電話1301
の画面1302には、キャラクタ1303及びキャラク
タ1304が表示されている。アニメーション制御部1
は、キャラクタ1303及びキャラクタ1304それぞ
れのパート分割に従って動作データ等を指定して、キャ
ラクタ状態計算部3は、キャラクタ1303及びキャラ
クタ1304それぞれのパート毎の時間的変化を伴う形
状データを算出してCGキャラクタ全体の動作を制御す
る。従って、キャラクタ1303及びキャラクタ130
4は、互いに独立した動作制御が行われ画面に表示され
ることとなる。また、このようにCGキャラクタが複数
表示される場合には、CGキャラクタ同士の動作データ
等を共有することも考え得る。FIG. 13 is a diagram showing a mobile phone 1301 having the functions of the computer graphics animation device according to the present invention. Mobile phone 1301
A character 1303 and a character 1304 are displayed on the screen 1302. Animation control unit 1
Specifies motion data and the like according to the part division of the character 1303 and the character 1304, and the character state calculation unit 3 calculates shape data with time change for each part of the character 1303 and the character 1304 to calculate the CG character. Control the overall behavior. Therefore, the character 1303 and the character 130
In No. 4, the operation control independent of each other is performed and displayed on the screen. Further, when a plurality of CG characters are displayed in this way, it may be possible to share motion data or the like between the CG characters.
【0089】尚、本発明は上述した第1の実施の形態に
限定されるものではなく、その利用可能な範囲において
実施できることは言うまでもない。It is needless to say that the present invention is not limited to the above-described first embodiment and can be carried out within its usable range.
【0090】[0090]
【発明の効果】以上の構成により、本発明は、骨格構造
とは独立にパートという新たな概念を導入し、パートテ
ーブルを用いて、動作データに対して、パート分割の個
数の組合せ的に多様なCGキャラクタの行動を生成する
ことが可能となっている。また、パートテーブルの遷移
が可能な構成になっているので、更にその多様性を増す
ばかりでなく、形状や階層構造自体の追加削除変更にも
対応できる。With the above structure, the present invention introduces a new concept of a part independent of the skeleton structure, and uses a part table to diversify the number of part divisions in combination with respect to motion data. It is possible to generate an action of a different CG character. Moreover, since the transition of the part table is possible, not only the versatility thereof is further increased, but also addition and deletion of the shape and the hierarchical structure itself can be dealt with.
【0091】さらに、本発明に係るアニメーション装置
は、CGキャラクタを構成する複数の部位の集合をパー
トとして、パート毎にデータを付与してCGキャラクタ
全体の動作を制御する。このため、CGキャラクタを構
成する全ての部位に一度にデータを付与する必要がなく
なり、少ないデータ量でCGキャラクタ全体の動作変更
を行うことができる。Furthermore, the animation device according to the present invention controls the operation of the entire CG character by assigning data to each part with a set of a plurality of parts constituting the CG character as a part. For this reason, it is not necessary to add data to all the parts constituting the CG character at once, and it is possible to change the motion of the entire CG character with a small amount of data.
【0092】従って、本発明は従来の課題を解決するも
のであり、課題の大きな原因であったデータの冗長性を
極力排することが可能で、従来に比べ少ない適正なデー
タ量で、多様なCGキャラクタのアニメーションが実現
できる。しかも物を持つというような、日常の動作では
たわいのないものであるが、従来技術では実現困難であ
ったCGアニメーション画像の生成も、形状や階層構造
の追加や削除が容易に行えることで容易に行える。以上
により、本発明の効果は明らかであり、CGアニメーシ
ョン技術分野において非常に重要なものであると結論さ
れる。Therefore, the present invention solves the conventional problems, and can eliminate the redundancy of the data, which was a major cause of the problems, to the utmost, and with a proper data amount smaller than the conventional one, various data can be obtained. A CG character animation can be realized. Moreover, although it is not liable to have a daily operation such as holding an object, it is easy to generate a CG animation image, which was difficult to realize by the conventional technique, by easily adding or deleting a shape or a hierarchical structure. You can do it. From the above, it is concluded that the effects of the present invention are clear and very important in the field of CG animation technology.
【図1】本発明の実施の形態によるコンピュータグラフ
ィックス・アニメーション装置の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a computer graphics animation device according to an embodiment of the present invention.
【図2】キャラクタ形状と姿勢ベクトルの説明図FIG. 2 is an explanatory diagram of a character shape and a posture vector.
【図3】骨格構造(棒なし)の説明図FIG. 3 is an explanatory diagram of a skeleton structure (without a bar)
【図4】図3の階層構造(棒なし)の説明図FIG. 4 is an explanatory diagram of the hierarchical structure (without bars) of FIG.
【図5】キーフレームアニメーションの説明図FIG. 5 is an explanatory diagram of key frame animation.
【図6】テクスチャによる表情動作の説明図FIG. 6 is an explanatory diagram of a facial expression operation using texture.
【図7】骨格構造(棒あり)の説明図FIG. 7 is an explanatory diagram of a skeleton structure (with a bar)
【図8】図7の階層構造(棒あり)の説明図8 is an explanatory diagram of the hierarchical structure (with bars) of FIG. 7.
【図9】本発明のパートテーブルの説明図FIG. 9 is an explanatory diagram of a part table of the present invention.
【図10】(a)本発明の身体動作パターンデータの説
明図
(b)本発明の表情パターンデータの説明図
(c)本発明の棒動作パターンデータの説明図10A is an explanatory diagram of body movement pattern data of the present invention, FIG. 10B is an explanatory diagram of facial expression pattern data of the present invention, and FIG. 10C is an explanatory diagram of stick movement pattern data of the present invention.
【図11】(a)本発明の動作遷移やパートテーブルの
遷移の説明図
(b)本発明の動作遷移やパートテーブルの遷移の説明
図FIG. 11A is an explanatory diagram of the operation transition of the present invention and the transition of the part table. FIG. 11B is an explanatory diagram of the operation transition of the present invention and the transition of the part table.
【図12】複数のパートを用いてCGキャラクタの動作
変更を行う場合の参考図FIG. 12 is a reference diagram when a motion of a CG character is changed using a plurality of parts.
【図13】本発明に係るコンピュータグラフィックス・
アニメーション装置の機能を有する携帯電話を示す図FIG. 13 shows computer graphics according to the present invention.
Figure showing a mobile phone with the functionality of an animation device
1 アニメーション制御部 2 パートテーブル保存部 3 キャラクタ状態計算部 4 階層構造保存部 5 形状データ保存部 6 動作データ保存部 7 3次元描画部 8 テクスチャデータ保存部 9 表示部 1 Animation control section 2 Part table storage 3 Character state calculator 4 Hierarchical structure storage 5 Shape data storage 6 Motion data storage 7 3D drawing part 8 Texture data storage 9 Display
───────────────────────────────────────────────────── フロントページの続き (72)発明者 樋尻 利紀 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 上崎 亮 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 浅原 重夫 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 2C001 BA01 BB04 BC00 BC05 BC08 CB03 5B050 BA08 BA12 EA19 EA24 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Toshinori Hijiri 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. (72) Inventor Ryo Uezaki 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. (72) Inventor Shigeo Asahara 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. F-term (reference) 2C001 BA01 BB04 BC00 BC05 BC08 CB03 5B050 BA08 BA12 EA19 EA24
Claims (20)
タグラフィックス・アニメーション装置であって、 前記キャラクタを構成する複数の部位の階層構造を示す
データである階層構造データを保存する階層構造保存手
段と、 前記複数の部位の集まりを1つのパートとして対応づけ
た複数のパートについて、当該パートと前記部位との対
応関係を示すパートテーブルを保存するパートテーブル
保存手段と、 前記パートテーブルに登録された複数のパートそれぞれ
に対して、動作を対応づけた動作データを保存する動作
データ保存手段と、 前記動作データ、前記パートテーブル及び前記階層構造
データの指定を行うアニメーション制御手段と、 前記アニメーション制御手段からの入力に従った前記動
作データ、前記パートテーブル及び前記階層構造データ
に基づいて、前記キャラクタの形状の時間的変化を示す
形状データを算出するキャラクタ状態計算手段とを備え
ることを特徴とするコンピュータグラフィックス・アニ
メーション装置。1. A computer graphics animation device for displaying an image of a character, comprising hierarchical structure saving means for saving hierarchical structure data which is data indicating a hierarchical structure of a plurality of parts constituting the character, For a plurality of parts in which a set of a plurality of parts are associated as one part, a part table storage unit that saves a part table indicating a correspondence relationship between the part and the parts, and a plurality of parts registered in the part table. For each of them, a motion data storage means for storing motion data associated with a motion, an animation control means for designating the motion data, the part table and the hierarchical structure data, and an input from the animation control means. According to the operation data, the part table and the floor Based on the structure data, computer graphics animation apparatus, characterized in that it comprises a character state calculating means for calculating the shape data indicating the temporal change of the shape of the character.
パートテーブルを保存し、これらパートテーブル毎の前
記パートと前記部位との対応関係が異なることを特徴と
する請求項1記載のコンピュータグラフィックス・アニ
メーション装置。2. The computer graphics according to claim 1, wherein the part table storage means stores a plurality of part tables, and correspondence relationships between the parts and the parts are different for each part table. Animation device.
ートに含まれる前記部位は、他のパートには含まれない
ことを特徴とする請求項1記載のコンピュータグラフィ
ックス・アニメーション装置。3. The computer graphics animation apparatus according to claim 1, wherein the part included in one part is not included in another part in the part table.
に、 前記キャラクタ以外の附属部品をパートとして対応づけ
たパートについて、当該パートと前記附属部品との対応
関係を含むパートテーブルを保存することを特徴とする
請求項1記載のコンピュータグラフィックス・アニメー
ション装置。4. The part table storage means further stores a part table including a correspondence relationship between the part and the accessory part for a part in which an accessory part other than the character is associated as a part. The computer graphics animation device according to claim 1.
れる予め定められたシナリオによる動作情報、又はイベ
ントが生じた際に指定されるイベントによる動作情報に
従って、前記動作データ、前記パートテーブル及び前記
階層構造データの指定を行うことを特徴とする請求項1
記載のコンピュータグラフィックス・アニメーション装
置。5. The animation control means, according to the motion information according to a predetermined scenario that is input or the motion information according to an event specified when an event occurs, the motion data, the part table, and the hierarchical structure. The data is specified, and the data is specified.
Computer graphics animation device described.
率に従い又はランダムに前記パート毎に前記動作データ
を指定することを特徴とする請求項1記載のコンピュー
タグラフィックス・アニメーション装置。6. The computer graphics animation apparatus according to claim 1, wherein the animation control means specifies the motion data for each part according to a transition probability or randomly.
情推定機能を有し、 前記アニメーション制御手段は、前記感情推定機能の推
定に従い前記パート毎に前記動作データを指定し、 前記キャラクタ状態計算手段は、 前記アニメーション制御手段からの入力に従った前記動
作データ、前記パートテーブル及び前記階層構造データ
に基づいて、前記キャラクタの形状の時間的変化を示す
形状データを算出することを特徴とする請求項1記載の
コンピュータグラフィックス・アニメーション装置。7. The animation device further has an emotion estimation function, the animation control means specifies the motion data for each part according to the estimation of the emotion estimation function, and the character state calculation means The shape data indicating the temporal change of the shape of the character is calculated based on the motion data, the part table and the hierarchical structure data according to the input from the animation control means. Computer graphics animation device.
テーブル間の遷移を行うことを特徴とする請求項1記載
のコンピュータグラフィックス・アニメーション装置。8. The computer graphics animation apparatus according to claim 1, wherein the animation control means makes a transition between part tables in which the collection of the parts included in the part is different.
ートテーブル間の遷移を行うことを特徴とする請求項1
記載のコンピュータグラフィックス・アニメーション装
置。9. The animation control means performs transition between part tables having different numbers of the parts included in the part table.
Computer graphics animation device described.
トそれぞれに対して、複数の動作を対応づけた前記動作
データを有すると共に、当該動作データの1つを基本状
態の動作データとし、 前記アニメーション制御手段は、 前記パートテーブル間の遷移を行う際、パート毎に前記
基本状態の動作データに強制的に遷移させることによっ
て全てのパートの同期を取った後に、他のパートテーブ
ルへの遷移を行うことを特徴とする請求項1記載のコン
ピュータグラフィックス・アニメーション装置。10. The motion data storage means has the motion data in which a plurality of motions are associated with each of the parts, and one of the motion data is a motion data in a basic state, and the animation control is performed. The means, when performing transition between the part tables, synchronizes all parts by forcibly transitioning to the operation data of the basic state for each part, and then transitions to another part table. The computer graphics animation apparatus according to claim 1, wherein
トそれぞれに対して、複数の動作を対応づけた前記動作
データを有すると共に、当該動作データの1つを基本状
態の動作データとし、 前記アニメーション制御手段は、 前記パートテーブル間の遷移を行う際、パート毎に前記
基本状態の動作データを強制的に指定することを特徴と
する請求項1記載のコンピュータグラフィックス・アニ
メーション装置。11. The motion data storage means has the motion data in which a plurality of motions are associated with each of the parts, and one of the motion data is motion data in a basic state, and the animation control is performed. The computer graphics animation apparatus according to claim 1, wherein the means forcibly specifies the motion data of the basic state for each part when the transition between the part tables is performed.
動作データの時系列パラメータを示すフレーム番号とか
ら構成される状態情報の指定を行い、 前記キャラクタ状態計算手段は、 前記アニメーション制御手段からの入力に従った前記動
作データ、前記パートテーブル及び前記階層構造データ
に基づいて、前記キャラクタの形状の時間的変化を示す
形状データを算出することを特徴とする請求項1記載の
コンピュータグラフィックス・アニメーション装置。12. The animation control means specifies state information including the part, an identifier of the location of the action data, and a frame number indicating a time-series parameter of the action data, and the character state The calculation means calculates shape data indicating a temporal change of the shape of the character based on the motion data, the part table and the hierarchical structure data according to the input from the animation control means. The computer graphics animation device according to claim 1.
トそれぞれに対して複数の前記動作データを有すると共
に、当該動作データの1つを基本状態の動作データと
し、 前記アニメーション制御手段は、 初期の動作データとして、強制的に前記基本状態の動作
データからの前記状態情報を指定することを特徴とする
請求項12記載のコンピュータグラフィックス・アニメ
ーション装置。13. The motion data storage means has a plurality of motion data for each of the parts, and one of the motion data is the motion data of a basic state, and the animation control means includes an initial motion. 13. The computer graphics animation device according to claim 12, wherein the state information from the motion data of the basic state is forcibly designated as data.
タ、形状の変形データ又はアーカイビングされたテクス
チャデータを前記パート毎に指定し、 前記キャラクタ状態計算手段は、 指定された前記状態情報の動作データに応じて前記キャ
ラクタの形状の時間的変化を示す形状データを算出する
ことを特徴とする請求項12記載のコンピュータグラフ
ィックス・アニメーション装置。14. The animation control means specifies, for each of the parts, time series data of joint angles, shape deformation data, or archived texture data as the motion data of the state information, and the character state calculation means. 13. The computer graphics animation apparatus according to claim 12, wherein said shape data calculates the shape data indicating the temporal change of the shape of said character in accordance with the designated motion data of said state information.
の前記キャラクタそれぞれの前記動作データ、前記パー
トテーブル及び前記階層構造データの指定を行い、 前記キャラクタ状態計算手段は、 前記アニメーション制御手段からの入力に従い、複数の
前記キャラクタの形状の時間的変化を示す形状データを
算出することを特徴とする請求項1から請求項14のい
ずれか1項に記載のコンピュータグラフィックス・アニ
メーション装置。15. The animation control means specifies the motion data, the part table, and the hierarchical structure data of each of the plurality of characters, and the character state calculation means, in accordance with an input from the animation control means, 15. The computer graphics animation apparatus according to claim 1, wherein shape data indicating temporal changes in shapes of the plurality of characters is calculated.
の表情を示す表情動作データ、身体動作を示す身体動作
データ、及び前記附属部品の動きを示す部品動作データ
が含まれることを特徴とする請求項1記載から請求項1
5のいずれか1項に記載のコンピュータグラフィックス
・アニメーション装置。16. The motion data includes facial motion data indicating a facial expression of the character, physical motion data indicating a physical motion, and part motion data indicating a motion of the accessory part. 1 to claim 1
5. The computer graphics animation device according to any one of 5 above.
ニメーション装置は、さらに、 前記キャラクタ状態計算手段で変更された形状データに
対して3次元描画処理を行いキャラクタを生成する3次
元描画手段と、 前記3次元描画手段で生成された前記キャラクタを表示
する表示手段と を備えることを特徴とする請求項1から請求項16のい
ずれか1項に記載のコンピュータグラフィックス・アニ
メーション装置。17. The computer graphics animation apparatus further includes a three-dimensional drawing means for performing a three-dimensional drawing process on the shape data changed by the character state calculation means to generate a character, and the three-dimensional drawing. 17. A computer graphics animation device according to any one of claims 1 to 16, further comprising display means for displaying the character generated by the means.
ータグラフィックス・アニメーション方法であって、 前記キャラクタを構成する複数の部位の階層構造を示す
データである階層構造データを保存する階層構造保存ス
テップと、 前記複数の部位の集まりを1つのパートとして対応づけ
た複数のパートについて、当該パートと前記部位との対
応関係を示すパートテーブルを保存するパートテーブル
保存ステップと、 前記パートテーブルに登録された複数のパートそれぞれ
に対して、動作を対応づけた動作データを保存する動作
データ保存ステップと、 前記動作データ、前記パートテーブル及び前記階層構造
データの指定を行うアニメーション制御ステップと、 前記アニメーション制御ステップからの入力に従った前
記動作データ、前記パートテーブル及び前記階層構造デ
ータに基づいて、前記キャラクタの形状の時間的変化を
示す形状データを算出するキャラクタ状態計算ステップ
とを含むことを特徴とするコンピュータグラフィックス
・アニメーション方法。18. A computer graphics animation method for displaying an image of a character, comprising a hierarchical structure saving step of saving hierarchical structure data which is data indicating a hierarchical structure of a plurality of parts constituting the character. For a plurality of parts in which a set of a plurality of parts is associated as one part, a part table saving step of saving a part table indicating a correspondence relationship between the part and the parts, and a plurality of parts registered in the part table. An operation data saving step of saving operation data corresponding to each operation, an animation control step of specifying the operation data, the part table and the hierarchical structure data, and an input from the animation control step. According to the operation data, Based on the bets table and the hierarchical structure data, computer graphics animation method characterized by including the character state calculating step of calculating shape data indicating the temporal change of the shape of the character.
ータグラフィックス・アニメーション装置のためのデー
タが記録されたコンピュータ読み取り可能なデータ記録
媒体であって、 前記データは、 前記キャラクタを構成する複数の部位の階層構造を示す
データである階層構造データと、 前記複数の部位の集まりを1つのパートとして対応づけ
た複数のパートについて、当該パートと前記部位との対
応関係を示すパートテーブルを保存するパートテーブル
と、 前記パートテーブルに登録された複数のパートそれぞれ
に対して、動作を対応づけた動作データを保存する動作
データとを含むことを特徴とするコンピュータ読み取り
可能なデータ記録媒体。19. A computer-readable data recording medium on which data for a computer graphics animation device for displaying an image of a character is recorded, wherein the data is a hierarchy of a plurality of parts constituting the character. Hierarchical structure data that is data indicating a structure, and a part table that stores a part table indicating a correspondence relationship between the parts and the parts, for a plurality of parts in which a set of the plurality of parts is associated as one part, A computer-readable data recording medium, comprising: motion data storing motion data in which a motion is associated with each of a plurality of parts registered in the part table.
ータグラフィックス・アニメーション装置が備える手段
としてコンピュータを機能させるプログラムであって、 前記キャラクタを構成する複数の部位の階層構造を示す
データである階層構造データを保存する階層構造保存ス
テップと、 前記複数の部位の集まりを1つのパートとして対応づけ
た複数のパートについて、当該パートと前記部位との対
応関係を示すパートテーブルを保存するパートテーブル
保存ステップと、 前記パートテーブルに登録された複数のパートそれぞれ
に対して、動作を対応づけた動作データを保存する動作
データ保存ステップと、 前記動作データ、前記パートテーブル及び前記階層構造
データの指定を行うアニメーション制御ステップと、 前記アニメーション制御ステップからの入力に従った前
記動作データ、前記パートテーブル及び前記階層構造デ
ータに基づいて、前記キャラクタの形状の時間的変化を
示す形状データを算出するキャラクタ状態計算ステップ
とを含むことを特徴とするプログラム。20. A program for causing a computer to function as a means included in a computer graphics animation device for displaying an image of a character, the hierarchical structure data being data indicating a hierarchical structure of a plurality of parts constituting the character. A hierarchical structure saving step of saving; a part table saving step of saving a part table showing a correspondence relationship between the parts and the parts for a plurality of parts in which a group of the plurality of parts is associated as one part; A motion data storage step of storing motion data in which a motion is associated with each of a plurality of parts registered in the part table; and an animation control step of designating the motion data, the part table and the hierarchical structure data. , The animation A character state calculation step of calculating shape data indicating a temporal change of the shape of the character based on the motion data, the part table and the hierarchical structure data according to the input from the control step. Program to do.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003028981A JP2003337956A (en) | 2002-03-13 | 2003-02-06 | Apparatus and method for computer graphics animation |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002068099 | 2002-03-13 | ||
JP2002-68099 | 2002-03-13 | ||
JP2003028981A JP2003337956A (en) | 2002-03-13 | 2003-02-06 | Apparatus and method for computer graphics animation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003337956A true JP2003337956A (en) | 2003-11-28 |
Family
ID=29714066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003028981A Pending JP2003337956A (en) | 2002-03-13 | 2003-02-06 | Apparatus and method for computer graphics animation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003337956A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346721A (en) * | 2004-06-04 | 2005-12-15 | Reallusion Inc | Automatic animation production system |
JP2007527556A (en) * | 2003-03-25 | 2007-09-27 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Behavior translator for objects |
JP2007299300A (en) * | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | Animation creating device |
JP2008083672A (en) * | 2006-09-27 | 2008-04-10 | Compal Electronic Inc | Method of displaying expressional image |
JP2010119843A (en) * | 2008-11-17 | 2010-06-03 | Disney Enterprises Inc | System and method for dependency graph evaluation for animation |
JP2010246845A (en) * | 2009-04-20 | 2010-11-04 | Taito Corp | Game machine and game programs |
JP2013033325A (en) * | 2011-08-01 | 2013-02-14 | Sony Computer Entertainment Inc | Image generation device, image generation method, program, and information storage medium |
JP2014167737A (en) * | 2013-02-28 | 2014-09-11 | Kddi Corp | Device and program for creating gestures |
JP2018028808A (en) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | Game program and game system |
WO2020255996A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社コロプラ | Program, method, and terminal device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08315170A (en) * | 1995-05-11 | 1996-11-29 | Sony Computer Entateinmento:Kk | Animation data generating device |
JPH09198522A (en) * | 1996-01-22 | 1997-07-31 | Mitsubishi Electric Corp | Animation production system |
JPH11328439A (en) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | Method for generating animation and computer graphics |
JP2000172869A (en) * | 1998-09-29 | 2000-06-23 | Yamaha Corp | Generating device and reproducing device for playing image information |
JP2001209820A (en) * | 2000-01-25 | 2001-08-03 | Nec Corp | Emotion expressing device and mechanically readable recording medium with recorded program |
-
2003
- 2003-02-06 JP JP2003028981A patent/JP2003337956A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08315170A (en) * | 1995-05-11 | 1996-11-29 | Sony Computer Entateinmento:Kk | Animation data generating device |
JPH09198522A (en) * | 1996-01-22 | 1997-07-31 | Mitsubishi Electric Corp | Animation production system |
JPH11328439A (en) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | Method for generating animation and computer graphics |
JP2000172869A (en) * | 1998-09-29 | 2000-06-23 | Yamaha Corp | Generating device and reproducing device for playing image information |
JP2001209820A (en) * | 2000-01-25 | 2001-08-03 | Nec Corp | Emotion expressing device and mechanically readable recording medium with recorded program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007527556A (en) * | 2003-03-25 | 2007-09-27 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Behavior translator for objects |
JP2005346721A (en) * | 2004-06-04 | 2005-12-15 | Reallusion Inc | Automatic animation production system |
JP2007299300A (en) * | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | Animation creating device |
JP4631077B2 (en) * | 2006-05-02 | 2011-02-16 | 株式会社国際電気通信基礎技術研究所 | Animation creation device |
JP2008083672A (en) * | 2006-09-27 | 2008-04-10 | Compal Electronic Inc | Method of displaying expressional image |
JP2010119843A (en) * | 2008-11-17 | 2010-06-03 | Disney Enterprises Inc | System and method for dependency graph evaluation for animation |
JP2010246845A (en) * | 2009-04-20 | 2010-11-04 | Taito Corp | Game machine and game programs |
JP2013033325A (en) * | 2011-08-01 | 2013-02-14 | Sony Computer Entertainment Inc | Image generation device, image generation method, program, and information storage medium |
JP2014167737A (en) * | 2013-02-28 | 2014-09-11 | Kddi Corp | Device and program for creating gestures |
JP2018028808A (en) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | Game program and game system |
WO2020255996A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社コロプラ | Program, method, and terminal device |
JP2021000243A (en) * | 2019-06-21 | 2021-01-07 | 株式会社コロプラ | Program, method and terminal device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6999084B2 (en) | Method and apparatus for computer graphics animation utilizing element groups with associated motions | |
CN107154069B (en) | Data processing method and system based on virtual roles | |
US9734637B2 (en) | Semantic rigging of avatars | |
US9196074B1 (en) | Refining facial animation models | |
US6661420B2 (en) | Three-dimensional skeleton data compression apparatus | |
CN102999934A (en) | Three-dimensional animation system of computer and animation method | |
CN109035373A (en) | The generation of three-dimensional special efficacy program file packet and three-dimensional special efficacy generation method and device | |
JP2003337956A (en) | Apparatus and method for computer graphics animation | |
CN112598773A (en) | Method and device for realizing skeleton skin animation | |
CN108986227B (en) | Particle special effect program file package generation method and device and particle special effect generation method and device | |
CN115331265A (en) | Training method of posture detection model and driving method and device of digital person | |
CN113763518A (en) | Multi-mode infinite expression synthesis method and device based on virtual digital human | |
Maraffi | Maya character creation: modeling and animation controls | |
Kallmann et al. | Hierarchical motion controllers for real-time autonomous virtual humans | |
US8237719B1 (en) | Pose-structured animation interface | |
Fu et al. | Real-time multimodal human–avatar interaction | |
US10319133B1 (en) | Posing animation hierarchies with dynamic posing roots | |
Huang et al. | NURBS curve controlled modelling for facial animation | |
JP4357155B2 (en) | Animation image generation program | |
US8228335B1 (en) | Snapsheet animation visualization | |
CN115526967A (en) | Animation generation method and device for virtual model, computer equipment and storage medium | |
Molano et al. | Parametric facial animation for affective interaction workflow for avatar retargeting | |
US20240320920A1 (en) | Systems and methods for generating a model database with blendshape representation | |
US20240221270A1 (en) | Computer-implemented method for controlling a virtual avatar | |
JP2723070B2 (en) | User interface device with human image display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081222 |