[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2001357413A - アニメーション会話システムおよびそれに用いられるサーバ - Google Patents

アニメーション会話システムおよびそれに用いられるサーバ

Info

Publication number
JP2001357413A
JP2001357413A JP2000176677A JP2000176677A JP2001357413A JP 2001357413 A JP2001357413 A JP 2001357413A JP 2000176677 A JP2000176677 A JP 2000176677A JP 2000176677 A JP2000176677 A JP 2000176677A JP 2001357413 A JP2001357413 A JP 2001357413A
Authority
JP
Japan
Prior art keywords
message
person
animation
image data
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000176677A
Other languages
English (en)
Inventor
Tokio Kamimura
時男 上村
Yuzuru Tanaka
譲 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000176677A priority Critical patent/JP2001357413A/ja
Priority to US09/878,207 priority patent/US6943794B2/en
Publication of JP2001357413A publication Critical patent/JP2001357413A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】コンピュータによって仮想した実在または架空
の人物等との会話を遠隔的に行うこと。 【解決手段】クライアント2には、ユーザから仮想の人
物等への第一のメッセージを入力する装置と、それを送
信する手段と、人物等からユーザへの第二のメッセージ
および人物等の顔アニメーションを受信する手段と、第
二のメッセージを出力する出力装置22bと、顔アニメ
ーションを表示する表示装置22aとが設けられ、サー
バ3には、顔画像データベースと、第一のメッセージを
受信する手段と、第二のメッセージを生成する手段と、
第二のメッセージが出力されるタイミングと顔画像デー
タの動作とが合うように制御する動作制御データを生成
する手段と、動作制御データおよび顔画像データに基づ
いて顔アニメーションを生成する手段と、それらを送信
する手段とが設けられる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、コンピュータによ
って仮想した実在または架空の人物等との会話を行える
ようにしたアニメーション会話システムに関し、特に、
ユーザがクライアントからネットワークを介してサーバ
にアクセスし、遠隔的に会話を行えるようにしたアニメ
ーション会話システムに関する。
【0002】
【従来の技術】近年、コンピュータによって仮想された
実在または架空の人物、動物、人形、またはキャラクタ
などとコミュニケーションを取ることのできる技術が、
研究され開発されている。
【0003】例えば、特開平11−212934号に
は、仮想空間において飼育される生命体に対して、マウ
スまたはキーボードなどの入力装置を操作してコマンド
を入力し、所定の動作をさせる技術が開示されている。
これによると、仮想ペットに食事を与え、または仮想ペ
ットを寝かせ、褒め、叱り、または遊ばすなど、本物の
ペットと同じような世話を、コンピュータによって行
う。このような世話により、仮想ペットは成長し、ユー
ザは、表示装置またはスピーカなどから出力される画像
または音声によって仮想ペットの成長を確認しながら、
ペットの飼育を体験することができる。また、ネットワ
ークを介して遠隔的に仮想ペットを飼育することもでき
る。
【0004】生命体の音声と画像との出力のタイミング
を合わせる方法には、例えば、特開平10−31246
7号に記載の音声を画像に合わせて出力する方法、特開
平10−293860号に記載された画像を音声に合わ
せて出力する方法などがある。これらの方法によって、
画像が動作するアニメーションを作成し、アニメーショ
ンに同期して音声を出力することもできるので、ユーザ
は、出力される画像と音声とをリアルに感じ取ることが
できる。その他、実写映像を基にアニメーションを作成
する方法として、実写映像の認識によるアニメーション
合成技術がある(NTT技術ジャーナル 1998.1
2 p98〜106)。係る技術は、1枚の写真から自
動的に似顔絵を作成し、その似顔絵を基に、目、口の開
閉状態の異なる表情、喜怒哀楽の表情を自動作成し、音
声などに同期して似顔絵アニメーションを合成する方法
である。
【0005】
【発明が解決しようとする課題】上に述べた特開平11
−212934号の技術では、ネットワークを介して遠
隔的に仮想ペットとコミュニケーションを取ることがで
きる。しかし、この従来の技術は、ユーザが入力装置か
ら入力するコマンドによって仮想ペットが制御され、表
示面に表示されるものであって、ユーザが仮想ペットに
対して取り得るコミュニケーションのパターンは限られ
ている。例えば、仮想ペットと会話を行うことはでき
ず、リアリティのあるコミュニケーションを取ることは
できない。
【0006】また、特開平10−312467号に記載
のアニメーションの作成技術は、例えば、ある人物が話
をするときの動きのアニメーションを作成することがで
きるが、人物からユーザへ向かって一方的に出力される
ものにすぎず、ユーザと人物とが会話を行うことはでき
ない。
【0007】本発明は、コンピュータによって仮想した
実在または架空の人物等との会話を遠隔的に行うことの
できるシステム、サーバ、およびクライアントを提供す
ることを目的とする。
【0008】
【課題を解決するための手段】本発明に係るシステム
は、実在または架空の人物、動物、人形、またはキャラ
クタなどをコンピュータによって仮想し、これら人物等
との会話を行えるようにしたアニメーション会話システ
ムであって、クライアントおよびサーバを有し、前記ク
ライアントには、ユーザから前記人物等へのメッセージ
である第一のメッセージを入力する入力装置と、当該第
一のメッセージを送信する手段と、前記人物等からユー
ザへのメッセージである第二のメッセージおよび前記人
物等の顔アニメーションを受信する手段と、当該第二の
メッセージをユーザに出力する出力装置と、当該顔アニ
メーションを表示する表示装置とが設けられ、前記サー
バには、前記人物等の顔画像データを記憶した記憶手段
と、前記第一のメッセージを受信する手段と、前記第二
のメッセージを生成する手段と、前記第二のメッセージ
に合わせて顔画像データを動作させる動作制御データを
生成する手段と、当該動作制御データおよび前記顔画像
データに基づいて前記顔アニメーションを生成する手段
と、前記第二のメッセージおよび前記顔アニメーション
を送信する手段とが設けられている。
【0009】他の形態として、サーバからクライアント
に顔画像データを送信するようにし、クライアントにお
いて、受信した顔画像データに基づいて顔アニメーショ
ンを生成する手段を設ける。
【0010】さらに他の形態として、クライアントに顔
画像データを記憶する記憶手段を設け、クライアントに
おいて、その記憶手段から顔画像データを抽出する。顔
画像データとして、好ましくは、人物の頭部、または
口、目、鼻、耳などの構成部分、および皮膚、筋肉、骨
格などが動作可能なように構造化された3次元モデルが
用いられる。人物として、俳優、歌手、その他の芸能人
またはスター、スポーツ選手、政治家などの有名人、ユ
ーザの先祖、歴史上の人物など、種々の実在または架空
の人物を用いることができる。また人物のみでなく、動
物、人形、または漫画のキャラクタなどを用いることも
可能である。
【0011】
【発明の実施の形態】以下に示す3つの実施形態におい
て、種々の人物HMNをコンピュータによって仮想し、
その中からユーザが選択した人物HMNと会話を行える
ようにしたアニメーション会話システム1を例として説
明する。 〔第一の実施形態〕図1は本発明に係る第一の実施形態
のアニメーション会話システム1の全体の構成を示すブ
ロック図、図2はクライアント2の磁気ディスク装置2
7に記憶されるプログラムなどの例を示す図、図3はサ
ーバ3の磁気ディスク装置37に記憶されるプログラム
などの例を示す図、図4はサーバ3の磁気ディスク装置
37に設けられるデータベースなどの例を示す図、図5
は人物HMNの一覧表LSTの例を示す図である。
【0012】図1に示すように、アニメーション会話シ
ステム1は、クライアント2、サーバ3、およびネット
ワーク4などから構成される。クライアント2は、処理
装置21、表示装置22a、スピーカ22b、マウス2
3a、キーボード23b、マイク23c、通信制御装置
24、CD−ROM装置25、フロッピィディスク装置
26、および磁気ディスク装置27などから構成され
る。
【0013】処理装置21は、CPU21a、RAM2
1b、およびROM21cなどから構成され、クライア
ントにおける一連の処理を実行する。RAM21bには
プログラムまたはデータなどが一時的に記憶され、RO
M21cにはプログラムおよびクライアントのハードウ
ェアの設定情報などが記憶される。CPU21aは、そ
れらのプログラムを実行する。
【0014】表示装置22aは、人物HMNの顔のアニ
メーションを表示し、後述する文字データTXT2を表
示によってユーザに出力する。スピーカ22bは、後述
する音声データSND2を音声でユーザに出力する。マ
ウス23aおよびキーボード23bは、ユーザから人物
HMNへのメッセージである第一のメッセージMG1の
入力、またはクライアント2の操作などに用いられる。
マイク23cは、第一のメッセージMG1を音声によっ
て入力する。
【0015】通信制御装置24は、第一のメッセージM
G1、人物HMNからユーザへのメッセージである第二
のメッセージMG2、後述する顔アニメーションデータ
FAD、その他のデータの送受信を制御する。CD−R
OM装置25、フロッピィディスク装置26、および磁
気ディスク装置27は、データおよびプログラムを記憶
する。
【0016】サーバ3は、処理装置31、表示装置3
2、マウス33a、キーボード33b、通信制御装置3
4、CD−ROM装置35、フロッピィディスク装置3
6、および磁気ディスク装置37などから構成される。
【0017】処理装置31は、CPU31a、RAM3
1b、およびROM31cなどから構成される。処理装
置31それ自体の構成および機能は上に述べた処理装置
21と同様である。通信制御装置34は、第一のメッセ
ージMG1、第二のメッセージMG2、顔アニメーショ
ンデータFAD、その他のデータの送受信を制御する。
【0018】ネットワーク4は、公衆回線、専用線、L
AN、無線回線、またはインターネットなどによって構
成される。クライアント2とサーバ3は、ネットワーク
4を介して接続される。
【0019】第一のメッセージMG1は、マイク23c
から入力された音声データSND1、またはキーボード
33bなどから入力された文字データTXT1などであ
る。第二のメッセージMG2は、音声データSND2ま
たは文字データTXT2などである。顔アニメーション
データFADは、人物HMNの顔の連続的な動作の画像
によって構成される顔アニメーションの情報である。
【0020】図2に示すように、クライアント2の磁気
ディスク装置27には、クライアント2の基本プログラ
ムであるOS2s、アニメーション会話システム1のク
ライアント側のアプリケーションプログラムであるクラ
イアント会話プログラム2p、クライアント会話プログ
ラム2pに必要なデータ2dなどが記憶されている。ク
ライアント会話プログラム2pは、基本操作処理2b
s、その他の処理を行う。基本操作処理2bsは、OS
2sとの連携、人物HMNの選択に関する処理、および
第一のメッセージMG1の入力処理などを行うプロセス
である。これらのプログラムおよびデータは、適宜、R
AM21bにロードされ、CPU21aによって実行さ
れる。
【0021】図3に示すように、サーバ3の磁気ディス
ク装置37には、サーバ3の基本プログラムであるOS
3s、アニメーション会話システム1のサーバ側のアプ
リケーションプログラムであるサーバ会話プログラム3
p、サーバ会話プログラム3pに必要な情報であるデー
タ3dなどが記憶されている。
【0022】サーバ会話プログラム3pは、基本操作処
理3bs、言語認識会話エンジンEG1およびアニメー
ションエンジンEG2によって構成される。基本操作処
理3bsは、OS3sとの連携、言語認識会話エンジン
EG1およびアニメーションエンジンEG2などを統括
して制御するプロセスである。
【0023】言語認識会話エンジンEG1は、言語認識
処理3gnおよび会話生成処理3kiを行うシステムで
あり、それ自体は公知である。言語認識処理3gnは、
音声データSND1を分析して、日本語または英語など
の自然言語によって表現される文字データTXTaを抽
出するプロセスである。会話生成処理3kiは、音声デ
ータSND2または文字データTXT2を生成するプロ
セスである。
【0024】音声データSND2を作成するために、そ
れぞれの人物HMNについて、本人または代替となる人
の音声データを予め取得しておく。それらの音声データ
に基づいて、会話生成処理3kiにより音声合成が行わ
れる。
【0025】アニメーションエンジンEG2は、動作制
御処理3dsおよびアニメーション生成処理3anを行
う。動作制御処理3dsは、動作制御データDSDを生
成する。動作制御データDSDとは、第二のメッセージ
MG2がスピーカ22bまたは表示装置22aに出力さ
れるタイミングに合わせて人物HMNの顔画像データF
GDが動作するように制御するための制御情報である。
アニメーション生成処理3anは、動作制御データDS
Dおよび顔画像データFGDに基づいて、顔アニメーシ
ョンデータFADを生成するプロセスである。
【0026】これらのプログラムは、適宜、RAM31
bにロードされ、CPU31aによって実行される。ま
た、これらの処理で用いられる第一のメッセージMG
1、顔画像データFGD、第二のメッセージMG2、動
作制御データDSD、および顔アニメーションデータF
ADなども、必要に応じてRAM31bに一時的に記憶
される。
【0027】図4に示すように、磁気ディスク装置37
には、顔画像データベースFDB、人物情報データベー
スHDB、および会話データベースKDBが設けられて
いる。
【0028】顔画像データベースFDBには顔画像デー
タFGDが、人物情報データベースHDBには各人物H
MNに関する性別、性格、年齢などの情報である人物情
報HMJが、会話データベースKDBには会話文を生成
するための文法および単語である文章情報BNJおよび
単語情報TNJが、それぞれ蓄積されている。
【0029】顔画像データFGDは、人物HMNの頭部
を、口、目、鼻、耳などの構成部分、および皮膚、筋
肉、骨格などが動作可能なように構造化された3次元モ
デルによって表現したデータである(図8参照)。人物
HMNとして、俳優、歌手、その他の芸能人またはスタ
ー、スポーツ選手、政治家などの有名人、ユーザの先
祖、歴史上の人物など、種々の実在または架空の人物を
用いることができる。また人物のみでなく、動物、人
形、または漫画のキャラクタなどを用いることも可能で
ある。
【0030】このような顔画像データFGDは、次に示
す種々の公知の方法により作成することができる。例え
ば、まず、次に示す方法によって3次元データを取得す
る。 (1)2次元で撮影された通常の顔写真に基づいて構造
化顔画像を推定する方法。 (2)2次元の複数枚の画像、およびそれを最影したカ
メラと被写体との位置関係を示すデータから3次元形状
を算出する方法(ステレオ撮影法)。 (3)3次元計測装置を用いて人物または像を3次元測
定する方法。 (4)3次元CGキャラクターを新規に作成する方法。
【0031】次に、取得した3次元データを、構造化さ
れた3次元モデルに変換する。変換の方法として、例え
ば、特開平8−297751号、特開平11−3284
40号などに開示された方法、本出願人が提案する特願
2000−90629号などを用いることができる。
【0032】このようにして、例えば皮膚の3次元モデ
ルを作成する。そして、皮膚の3次元モデルに、筋肉お
よび骨格を付けてさらに構造化しておけばなおよい。図
5に示すように、一覧表LSTは、ユーザの会話の相手
となる複数の人物HMNを格納したデータベースであっ
て、各人物HMNを識別するための人物番号NUM、そ
の人物番号NUMに対応する人物の名称である人物名N
AMまたは顔の画像の例を示すサンプル画像SMPなど
のフィールドを有する。人物HMN1、人物HMN2な
どのように、複数の人物HMNに関するデータが保存さ
れている。
【0033】次に、人物HMNとの会話を行う際に、ア
ニメーション会話システム1で行われる処理および操作
について、フローチャートを参照して説明する。図6は
第一の実施形態におけるアニメーション会話システム1
の処理の流れを示すフローチャート、図7は顔アニメー
ションデータFADおよび第二のメッセージMG2を生
成する処理の流れを示すフローチャート、図8は顔画像
データFGD1の例を示す図である。
【0034】図6に示すように、まず、クライアント2
において、会話の相手となる人物HMNを、マウス23
aまたはキーボード23bを操作して一覧表LSTから
選択する(#11)。このとき、選択された人物HMN
についての人物番号NUMがサーバ3へ送信される。な
お、一覧表LSTは、ネットワーク4を介してサーバ3
から提供されてもよいし、図1に示すように予め磁気デ
ィスク装置27に保存されていてもよいし、CD−RO
Mまたはフロッピィディスクなどの媒体によって提供さ
れてもよい。
【0035】サーバ3において、会話の開始前における
人物HMNのアニメーションを生成する。まず、受信し
た人物番号NUMのデータに対応する顔画像データFG
Dおよび人物情報HMJが、顔画像データベースFDB
および人物情報データベースHDBから抽出される(#
12)。
【0036】次に、抽出された顔画像データFGDおよ
び人物情報HMJに基づいて、顔アニメーションデータ
FADが生成され(#13)、クライアント2へ送信さ
れる(#14)。クライアント2において、受信した顔
アニメーションデータFADが、人物HMNの初期状態
として表示装置22aに表示される(#15)。
【0037】なお、顔アニメーションデータFADの生
成とともに第二のメッセージMG2を生成し、それらを
クライアント2へ送信し、クライアント2において顔ア
ニメーションデータFADを表示するとともに第二のメ
ッセージMG2をスピーカ22bから出力してもよい。
【0038】顔アニメーションデータFADおよび第二
のメッセージMG2の生成方法については、後で説明す
る。ユーザは、表示装置22aに表示された人物HMN
を見て、その人物HMNに話し掛ける。すなわち、クラ
イアント2において、第一のメッセージMG1がマイク
23cまたはキーボード23bなどによって入力され、
入力された第一のメッセージMG1がサーバ3へ送信さ
れる(#16)。
【0039】なお、ステップ#13ないし#15を省略
し、最初にユーザから問いかけるようにしてもよい。サ
ーバ3において、受信した第一のメッセージMG1、顔
画像データFGDおよび人物情報HMJなどに基づい
て、次の顔アニメーションデータFADおよび第二のメ
ッセージMG2が生成され(#17)、生成されたデー
タがクライアント2に送信される(#18)。
【0040】クライアント2において、顔アニメーショ
ンデータFADおよび第二のメッセージMG2が、表示
装置22aまたはスピーカ22bによって出力される
(#19)。
【0041】人物HMNとの会話を中止するための切断
要求が出された場合は(#20でイエス)、処理は終了
し、切断要求が出されていない場合は、ステップ#16
に戻り、ユーザと人物HMNとの会話(対話)が繰り返
される。
【0042】ここで、ステップ#13およびステップ#
17で行われるアニメーションなどの生成方法について
説明する。本実施形態で用いられる顔画像データFGD
は、口、目、鼻、耳などの構成部分、および皮膚、筋
肉、骨格などを動作可能に構造化して構成した3次元モ
デルである。
【0043】図8に示す顔画像データFGD1では、皮
膚の3次元モデルが示されている。皮膚の3次元モデル
は、人物HMNの顔(頭部)の皮膚を構成する多数のポ
リゴン、および、顔の動きを制御するための複数の制御
点PNTからなる。
【0044】図7に示すように、サーバ3において、受
信した第一のメッセージMG1の認識を行う(#3
1)。第一のメッセージMG1が文字データTXT1か
らなる場合は、言語認識処理3gnを実行する必要はな
い。第一のメッセージMG1が音声データSND1から
なる場合は、言語認識会話エンジンEG1によって言語
認識処理3gnを実行し、文字データTXTaを生成す
る。ただし、ステップ#13のように第一のメッセージ
を受信していない場合、または会話が所定時間途切れた
場合は、ステップ#31を省略する。
【0045】第一のメッセージMG2に返答するため
に、第二のメッセージMG2を生成する。すなわち、言
語認識会話エンジンEG1によって会話生成処理3ki
を実行し、文字データTXT2を生成し(#32)、生
成された文字データTXT2から音声データSND2を
生成する(#33)。
【0046】文字データTXT2の生成は、文字データ
TXTaまたはTXT1、文章情報BNJおよび単語情
報TNJなどを参照して行われる。例えば、文字データ
TXTaまたはTXT1が「お元気ですか」という問い
かけである場合に、人物情報HMJを参照して、人物H
MNが係る問いかけに応答しそうな文章情報BNJを会
話データベースKDBから抽出し、単語情報TNJを文
章情報BNJに当てはめて、「はい、元気です、あなた
はお元気ですか」または「はい、しかし少し疲れていま
す、あなたは大丈夫ですか」などの文字データTXT2
を生成する。
【0047】文字データTXT2から音声データSND
2への変換は公知の技術を用いればよい。ただし、ステ
ップ#13のように第一のメッセージを受信していない
場合、または会話が所定時間途切れた場合は、ステップ
#32において、人物情報HMJ、文章情報BNJおよ
び単語情報TNJなどを参照し、人物HMNがユーザへ
問いかけるような文字データTXT2を生成する。例え
ば、「こんにちは」、「どうしたの」などである。
【0048】アニメーションエンジンEG2によって、
動作制御データDSDを生成し(#34)、顔アニメー
ションデータFADを生成する(#35)。動作制御デ
ータDSDは、動作制御処理3dsを実行することによ
って得られる。
【0049】例えば、従来の技術の項で述べた特開平1
0−293860号の技術を用いると、顔画像データF
GDを音声データSND2に同期させることができる。
そして、アニメーション生成処理3anを実行すること
によって、動作制御データDSDに基づいて顔画像デー
タFGDを動作させ、顔アニメーションデータFADを
生成する。
【0050】図8に示す顔画像データFGD1の場合に
は、制御点PNTを制御することによって顔画像データ
FGDを動作させる。顔アニメーションデータFADを
送信するには、例えばMPEGなどの種々の符号化方式
を用いて圧縮すればよい。
【0051】上述のように、第一の実施形態では、顔ア
ニメーションデータFADをサーバ3により生成してク
ライアント2に送信することにより、クライアント2で
はそれを受信して表示するだけでよくなり、性能または
仕様が低いためにアニメーション生成の処理が困難なク
ライアント2であっても、人物HMNとの会話を行うこ
とが可能となる。 〔第二の実施形態〕第二の実施形態において、アニメー
ション会話システムの全体の構成は第一の実施形態の場
合と同様である。しかし、クライアント2およびサーバ
3の各磁気ディスク装置27,37に記憶されるプログ
ラム、および処理装置21,31による処理内容が第一
の実施形態の場合と異なる。
【0052】すなわち、第一の実施形態では、サーバ3
の顔画像データベースFDBから抽出した顔画像データ
FGDを、サーバ3のRAM31bまたは磁気ディスク
装置37に一時的に記憶したが、第二の実施形態では、
顔画像データFGDをクライアント2に送信し、クライ
アント2のRAM21bまたは磁気ディスク装置27に
一時的に記憶する。そして、クライアント2の側におい
て、サーバ3から送信される動作制御データDSDに基
づいて、顔アニメーションデータFADを生成する。
【0053】図9は第二の実施形態における磁気ディス
ク装置27に記憶されているプログラムなどの例を示す
図、図10は第二の実施形態における磁気ディスク装置
37に記憶されているプログラムなどの例を示す図であ
る。
【0054】これらの図において、第一の実施形態の場
合と同じ機能を有する部分には同じ符号を付して説明を
省略しまたは簡略化する。以下同様である。図9に示す
ように、磁気ディスク装置27には、人物HMNの顔の
アニメーションを生成する手段であるアニメーション生
成処理3an、サーバ3から送信された顔画像データF
GDおよび動作制御データDSDが記憶される。
【0055】図10に示すように、磁気ディスク装置3
7に記憶されるサーバ会話プログラム3pは、第一の実
施形態と同様に、基本操作処理3bs、言語認識会話エ
ンジンEG1、およびアニメーションエンジンEG2に
よって構成される。ただし、アニメーションエンジンE
G2は、動作制御処理3dsを行うが、アニメーション
生成処理は行わない。
【0056】次に、人物HMNとの会話を行う際に、ア
ニメーション会話システム1で行われる処理および操作
について、フローチャートを参照して説明する。図11
は第二の実施形態におけるアニメーション会話システム
1の処理の流れを示すフローチャート、図12は動作制
御データDSDおよび第二のメッセージMG2を生成す
る処理の流れを示すフローチャートである。
【0057】図11に示すように、クライアント2にお
いて、会話の相手となる人物HMNを一覧表LSTから
選択する(#41)。このとき、選択された人物HMN
についての人物番号NUMがサーバ3へ送信される。人
物番号NUMを受信したサーバ3は、対応する顔画像デ
ータFGDを顔画像データベースFDBから読み出し、
クライアント2へ送信する(#42)。このような会話
のための前処理は、背景処理として自動的に行われる。
【0058】サーバ3において、動作制御データDSD
が生成され(#43)、クライアント2へ送信される
(#44)。クライアント2において、顔画像データF
GDを動作制御データDSDに基づいて動作させ、これ
によって顔アニメーションデータFADを生成し、これ
と同時に表示装置22aに表示する(#45)。
【0059】なお、サーバ3において、動作制御データ
DSDの生成とともに第二のメッセージMG2を生成
し、それらをクライアント2へ送信し、クライアント2
において顔アニメーションデータFADを表示するとと
もに第二のメッセージMG2をスピーカ22bから出力
してもよい。
【0060】クライアント2において、第一のメッセー
ジMG1が入力され、サーバ3へ送信される(#4
6)。サーバ3において、第一のメッセージMG1およ
び人物情報HMJなどに基づいて、動作制御データDS
Dおよび第二のメッセージMG2が生成され(#4
7)、生成されたデータがクライアント2へ送信される
(#48)。
【0061】そして、顔画像データFGDを動作制御デ
ータDSDに基づいて動作させながら表示装置22aに
出力し、これと同期して第二のメッセージMG2を表示
装置22aまたはスピーカ22bへ出力する(#4
9)。
【0062】切断要求が出されるまで、ユーザと人物H
MNとの会話が繰り返される(#46〜50)。ここ
で、図12を参照して、ステップ#43およびステップ
#47で行われる動作制御データなどの生成方法につい
て説明する。
【0063】サーバ3において、受信した第一のメッセ
ージMG1の認識を行う(#61)。文字データTXT
2を生成し(#62)、生成された文字データTXT2
から音声データSND2を生成し、第二のメッセージM
G2を生成する(#63)。そして、アニメーションエ
ンジンEG2によって、動作制御データDSDを生成す
る(#64)。
【0064】上述のように、第二の実施形態では、サー
バ3で抽出した顔画像データFGDをクライアント2に
送信し、クライアント2において、動作制御データDS
Dに基づいて顔画像データFGDを動作させてアニメー
ションを生成する。これにより、サーバ3とクライアン
ト2との間のデータ通信量を減少させ、高速なアニメー
ションの表示が可能となる。 〔第三の実施形態〕第三の実施形態において、アニメー
ション会話システムの全体の構成は第二の実施形態の場
合と同様である。磁気ディスク装置27,37に記憶さ
れるプログラムの内容は、図9および図10に示す第二
の実施形態の場合と大体同じである。しかし、クライア
ント2およびサーバ3の各磁気ディスク装置27,37
に記憶されるデータが第二の実施形態の場合と異なり、
これによる処理内容が若干異なる。
【0065】すなわち、第二の実施形態では、顔画像デ
ータベースFDBについてもクライアント2に設け、ク
ライアント2において、顔画像データFGDの抽出およ
び一時記憶、および顔アニメーションデータの生成を行
う。サーバ3は、クライアント2から送信される第一の
メッセージMG1に基づいて、動作制御データDSDお
よび第二のメッセージMG2の生成を行う。
【0066】図13は、第三の実施形態におけるクライ
アント2の磁気ディスク装置27およびサーバ3の磁気
ディスク装置37に設けられているデータベースなどの
例を示す図である。
【0067】図13に示すように、顔画像データベース
FDBは、サーバ3の磁気ディスク装置37には設けら
れておらず、クライアント2の磁気ディスク装置27の
みに設けられている。
【0068】第三の実施形態におけるアニメーション会
話システム1の処理内容は、第二の実施形態についての
図11のフローチャートとほぼ同じである。次に相違点
のみについて説明する。
【0069】図11のステップ#42において、顔画像
データFGDを、クライアント2の磁気ディスク装置2
7に設けられている顔画像データベースFDBから読み
出し、そのまま一時的に記憶する。他への送信は行わな
い。その他の処理は同じである。
【0070】上述のように、第三の実施形態では、顔画
像データベースFDBをクライアント2の磁気ディスク
装置2に設けることにより、サーバ3から顔画像データ
FGDを送信する必要がなくなり、会話の開始までに要
する時間を短縮することが可能となる。
【0071】上に説明した3つの実施形態のように、サ
ーバ3によって第二のメッセージMG2を生成すること
により、クライアント2の処理の負荷を軽減させて、遠
隔的に人物HMNとの会話をすることができる。
【0072】顔画像データFGDが3次元的に構造化さ
れているため、顔の動きや感情表現が豊かであり且つ自
然である。ユーザの話し掛けを理解した顔アニメーショ
ンが、3次元画像による感情表現と音声とを交えて返事
をしてくれるので、ユーザは双方向対話を楽しむことが
できる。
【0073】また、人物HMNを選択することにより、
歴史上の人物や血縁の故人との対話サービスを実現する
ことができる。例えば、顔画像データベースFDBの中
から人物HMNとして「ご先祖」を選択することによっ
て、ユーザは今は亡きご先祖の顔アニメーションとの対
話を日常的に楽しむことができる。
【0074】人物HMNが実在の有名人である場合に、
有名人の実生活を煩わせることなく、有名人と多数のフ
ァンとの対話を実現することができる。言語認識会話エ
ンジンEG1において、先祖、有名人、歴史上の人物な
どのように、人物HMNの種類に応じて会話の内容を設
定しておくことによって、ユーザと人物HMNとの間で
内容のある会話を行うことができる。
【0075】しかも、サーバ3を常時稼動させておくこ
とにより、ユーザは、時間および場所を問うことなく、
人物HMNとの会話を楽しむことができる。また、会話
データベースKDBのメンテナンスをサーバ3で行うこ
とができるので、クライアント2で特別なメンテナンス
を行うことなく、最新の話題や流行の言葉などに容易に
対応することができる。
【0076】上に述べた実施形態においては、人物HM
Nの音声の生成をサーバ3によって行ったが、文字デー
タTXT2のみをサーバ3で生成し、音声データSND
2をクライアント2で生成してもよい。
【0077】上に述べた実施形態において、サーバ3お
よびクライアント2として、ワークステーションまたは
パーソナルコンピュータなどを用いることができる。ま
た、クライアント3としては、通信機能を有した機器、
例えば、携帯電話機、モバイル機器、その他の種々の機
器を用いることができる。
【0078】その他、アニメーション会話システム1の
全体または各部の構成、回路、処理内容、処理順序、会
話の内容などは、本発明の趣旨に沿って適宜変更するこ
とができる。
【0079】
【発明の効果】本発明によると、コンピュータによって
仮想した実在または架空の人物等との会話を遠隔的に行
うことができる。サーバによって第二のメッセージを生
成するので、クライアントの処理の負荷を軽減させるこ
とができる。
【0080】請求項2の発明によると、データ通信量を
減少させ、高速なアニメーションの表示を行うことがで
きる。請求項3の発明によると、会話の開始までに要す
る時間を短縮することができる。
【図面の簡単な説明】
【図1】本発明に係るアニメーション会話システムの全
体の構成を示すブロック図である。
【図2】第一の実施形態におけるクライアント側に記憶
されているプログラムを示す図である。
【図3】第一の実施形態におけるサーバ側に記憶されて
いるプログラムを示す図である。
【図4】サーバの磁気ディスク装置に設けられているデ
ータベースを示す図である。
【図5】人物の一覧表の例を示す図である。
【図6】第一の実施形態におけるアニメーション会話シ
ステムの処理の流れを示すフローチャートである。
【図7】顔アニメーションデータおよび第二のメッセー
ジを生成する処理の流れを示すフローチャートである。
【図8】顔画像データの例を示す図である。
【図9】第二の実施形態におけるクライアント側に記憶
されているプログラムを示す図である。
【図10】第二の実施形態におけるサーバ側に記憶され
ているプログラムを示す図である。
【図11】第二の実施形態におけるアニメーション会話
システムの処理の流れを示すフローチャートである。
【図12】動作制御データおよび第二のメッセージを生
成する処理の流れを示すフローチャートである。
【図13】第三の実施形態におけるクライアントおよび
サーバのそれぞれの磁気ディスク装置に記憶されている
データベースを示す図である。
【符号の説明】
1 アニメーション会話システム 2 クライアント 21 処理装置 22a 表示装置(出力装置) 22b スピーカ(出力装置) 23a マウス(入力装置) 23b キーボード(入力装置) 23c マイク(入力装置) 24 通信制御装置 3 サーバ 31 処理装置 34 通信制御装置 FDB 顔画像データベース(記憶手段) EG1 言語認識会話エンジン(第二のメッセージを生
成する手段) EG2 アニメーションエンジン(動作制御データを生
成する手段、顔アニメーションを生成する手段) 3an アニメーション生成処理(顔アニメーションを
生成する手段) 4 ネットワーク HMN 人物 MG1 第一のメッセージ MG2 第二のメッセージ FAD 顔アニメーションデータ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/14 G10L 3/00 571U Fターム(参考) 5B050 BA08 BA12 CA07 CA08 EA24 FA10 5C064 AA06 AB04 AC05 AC06 AC12 AC16 AC17 AD08 AD09 AD13 5D015 KK02 KK04 LL06 LL08 5D045 AA20 AB26

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、ユーザから前記人物等へのメッ
    セージである第一のメッセージを入力する入力装置と、
    当該第一のメッセージを送信する手段と、前記人物等か
    らユーザへのメッセージである第二のメッセージおよび
    前記人物等の顔アニメーションを受信する手段と、当該
    第二のメッセージをユーザに出力する出力装置と、当該
    顔アニメーションを表示する表示装置とが設けられ、 前記サーバには、前記人物等の顔画像データを記憶した
    記憶手段と、前記第一のメッセージを受信する手段と、
    前記第二のメッセージを生成する手段と、前記第二のメ
    ッセージに合わせて顔画像データを動作させる動作制御
    データを生成する手段と、当該動作制御データおよび前
    記顔画像データに基づいて前記顔アニメーションを生成
    する手段と、前記第二のメッセージおよび前記顔アニメ
    ーションを送信する手段とが設けられている、 ことを特徴とするアニメーション会話システム。
  2. 【請求項2】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、ユーザから前記人物等へのメッ
    セージである第一のメッセージを入力する入力装置と、
    当該第一のメッセージを送信する手段と、前記人物等か
    らユーザへのメッセージである第二のメッセージをユー
    ザに出力する出力装置と、当該第二のメッセージ、前記
    人物等の顔を画像データ化した顔画像データ、および当
    該第二のメッセージに合わせて顔画像データを動作させ
    る動作制御データを受信する手段と、当該動作制御デー
    タおよび当該顔画像データに基づいて前記人物等の顔ア
    ニメーションを生成する手段と、当該顔アニメーション
    を表示する表示装置とが設けられ、 前記サーバには、前記顔画像データを記憶した記憶手段
    と、前記第一のメッセージを受信する手段と、前記第二
    のメッセージを生成する手段と、前記動作制御データを
    生成する手段と、前記第二のメッセージおよび前記動作
    制御データを送信する手段とが設けられている、 ことを特徴とするアニメーション会話システム。
  3. 【請求項3】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムであって、 クライアントおよびサーバを有し、 前記クライアントには、前記人物等の顔画像データを記
    憶した記憶手段と、ユーザから前記人物等へのメッセー
    ジである第一のメッセージを入力する入力装置と、当該
    第一のメッセージを送信する手段と、前記人物等からユ
    ーザへのメッセージである第二のメッセージをユーザに
    出力する出力装置と、当該第二のメッセージ、前記顔画
    像データ、および当該第二のメッセージに合わせて顔画
    像データを動作させる動作制御データを受信する手段
    と、当該動作制御データおよび当該顔画像データに基づ
    いて前記人物等の顔アニメーションを生成する手段と、
    当該顔アニメーションを表示する表示装置とが設けら
    れ、 前記サーバには、前記第一のメッセージを受信する手段
    と、前記第二のメッセージを生成する手段と、前記動作
    制御データを生成する手段と、前記第二のメッセージお
    よび前記動作制御データを送信する手段とが設けられて
    いる、 ことを特徴とするアニメーション会話システム。
  4. 【請求項4】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムに用いられるサーバであって、 前記人物等の顔画像データを記憶した記憶手段と、 ユーザから前記人物等へのメッセージである第一のメッ
    セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
    セージを生成する手段と、 前記第二のメッセージの出力に合わせて顔画像データを
    動作させる動作制御データを生成する手段と、 前記動作制御データおよび前記顔画像データに基づいて
    前記顔アニメーションを生成する手段と、 前記第二のメッセージおよび前記顔アニメーションを送
    信する手段と、 を有してなることを特徴とするサーバ。
  5. 【請求項5】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムに用いられるサーバであって、 前記人物等の顔画像データを記憶した記憶手段と、 ユーザから前記人物等へのメッセージである第一のメッ
    セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
    セージを生成する手段と、 前記第二のメッセージの出力に合わせて顔画像データを
    動作させる動作制御データを生成する手段と、 前記第二のメッセージおよび前記動作制御データを送信
    する手段と、 を有してなることを特徴とするサーバ。
  6. 【請求項6】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムに用いられるサーバであって、 ユーザから前記人物等へのメッセージである第一のメッ
    セージを受信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
    セージを生成する手段と、 前記第二のメッセージの出力に合わせて前記人物等の顔
    画像データを動作させる動作制御データを生成する手段
    と、 前記第二のメッセージおよび前記動作制御データを送信
    する手段と、 を有してなることを特徴とするサーバ。
  7. 【請求項7】実在または架空の人物、動物、人形、また
    はキャラクタなどをコンピュータによって仮想し、これ
    ら人物等との会話を行えるようにしたアニメーション会
    話システムに用いられるクライアントであって、 ユーザから前記人物等へのメッセージである第一のメッ
    セージを入力する入力装置と、 当該第一のメッセージを送信する手段と、 前記人物等からユーザへのメッセージである第二のメッ
    セージをユーザに出力する出力装置と、 前記第二のメッセージ、前記人物等の顔を画像データ化
    した顔画像データ、および前記第二のメッセージの出力
    に合わせて顔画像データを動作させる動作制御データを
    受信する手段と、 前記動作制御データおよび前記顔画像データに基づいて
    前記人物等の顔アニメーションを生成する手段と、 前記顔アニメーションを表示する表示装置と、 を有してなることを特徴とするクライアント。
  8. 【請求項8】前記顔画像データは、動作可能に構造化さ
    れた3次元モデルであり、 前記顔アニメーションを生成する手段は、前記動作制御
    データに基づいて3次元モデルの構造化された部分を動
    作させる、 請求項1、2、3、4、または7のいずれかに記載のシ
    ステム、サーバ、またはクライアント。
JP2000176677A 2000-06-13 2000-06-13 アニメーション会話システムおよびそれに用いられるサーバ Pending JP2001357413A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000176677A JP2001357413A (ja) 2000-06-13 2000-06-13 アニメーション会話システムおよびそれに用いられるサーバ
US09/878,207 US6943794B2 (en) 2000-06-13 2001-06-12 Communication system and communication method using animation and server as well as terminal device used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000176677A JP2001357413A (ja) 2000-06-13 2000-06-13 アニメーション会話システムおよびそれに用いられるサーバ

Publications (1)

Publication Number Publication Date
JP2001357413A true JP2001357413A (ja) 2001-12-26

Family

ID=18678375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000176677A Pending JP2001357413A (ja) 2000-06-13 2000-06-13 アニメーション会話システムおよびそれに用いられるサーバ

Country Status (1)

Country Link
JP (1) JP2001357413A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219908A (ja) * 2013-05-10 2014-11-20 株式会社Nttドコモ 情報処理システム及び情報処理装置
CN112669846A (zh) * 2021-03-16 2021-04-16 深圳追一科技有限公司 交互系统、方法、装置、电子设备及存储介质
JP2021086415A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
JP6993034B1 (ja) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219908A (ja) * 2013-05-10 2014-11-20 株式会社Nttドコモ 情報処理システム及び情報処理装置
JP2021086415A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
CN112669846A (zh) * 2021-03-16 2021-04-16 深圳追一科技有限公司 交互系统、方法、装置、电子设备及存储介质
JP6993034B1 (ja) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム
JP2022175923A (ja) * 2021-05-14 2022-11-25 Aiインフルエンサー株式会社 コンテンツ再生方法、及びコンテンツ再生システム

Similar Documents

Publication Publication Date Title
US6943794B2 (en) Communication system and communication method using animation and server as well as terminal device used therefor
JP7408048B2 (ja) 人工知能に基づくアニメキャラクター駆動方法及び関連装置
JP6019108B2 (ja) 文字に基づく映像生成
CN110286756A (zh) 视频处理方法、装置、系统、终端设备及存储介质
CN110400251A (zh) 视频处理方法、装置、终端设备及存储介质
US20180157901A1 (en) Method and system for incorporating contextual and emotional visualization into electronic communications
EP1269465B1 (en) Character animation
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
CN110413841A (zh) 多态交互方法、装置、系统、电子设备及存储介质
WO2001046947A1 (en) Voice-controlled animation system
CN110794964A (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN111939558A (zh) 一种实时语音驱动虚拟人物动作的方法和系统
CN111383642B (zh) 基于神经网络的语音应答方法、存储介质以终端设备
WO2011083978A2 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
KR20240038941A (ko) 텍스트 기반 아바타 생성 방법 및 시스템
CN117523088A (zh) 一种个性化的三维数字人全息互动形成系统及方法
CN110189404B (zh) 基于真实人脸图像的虚拟面部建模方法
JP2001357413A (ja) アニメーション会話システムおよびそれに用いられるサーバ
WO2024066549A1 (zh) 一种数据处理方法及相关设备
CN117173298A (zh) 图像处理方法、装置、可读存储介质和计算机程序产品
WO2023239804A1 (en) Voice chat translation
JP2001357414A (ja) アニメーション通信方法およびシステム並びにそれに用いる端末装置
Lokesh et al. Computer Interaction to human through photorealistic facial model for inter-process communication
Altarawneh et al. Leveraging Cloud-based Tools to Talk with Robots.
Ghaziasgar The use of mobile phones as service-delivery devices in sign language machine translation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704