[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002041084A - 対話処理システム - Google Patents

対話処理システム

Info

Publication number
JP2002041084A
JP2002041084A JP2000225091A JP2000225091A JP2002041084A JP 2002041084 A JP2002041084 A JP 2002041084A JP 2000225091 A JP2000225091 A JP 2000225091A JP 2000225091 A JP2000225091 A JP 2000225091A JP 2002041084 A JP2002041084 A JP 2002041084A
Authority
JP
Japan
Prior art keywords
utterance
user
information
attribute information
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000225091A
Other languages
English (en)
Inventor
Tsukimi Wakabayashi
つきみ 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2000225091A priority Critical patent/JP2002041084A/ja
Publication of JP2002041084A publication Critical patent/JP2002041084A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 使用者に応じた話し方及び内容の発話を行う
と共に、その時々の使用者の状況に応じた話し方及び内
容の発話を行ことが出来る親しみ易い対話処理システム
を提供すること。 【解決手段】 使用者情報及び使用者発話情報に基づい
て、応答発話の内容を決定する発話内容決定手段4と、
使用者情報、使用者発話情報、及び前記応答発話の内容
に基づいて、応答発話の特徴を設定する発話特徴決定手
段5と、前記決定された応答発話の内容、及び前記設定
された応答発話の特徴に基づいて発話出力する発話手段
6とを設ける。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人間と対話するユ
ーザインタフェースの一つである対話処理システムに関
し、特に、自然言語で人間と対話するための応答発話生
成方法に特徴を有する対話処理システムに関するもので
ある。
【0002】
【従来の技術】従来の対話型ユーザインタフェースにお
いては、使用者を個人として扱い、使用者に応じて言葉
遣いや声の調子を変えることによって、話し掛けている
相手が誰であるかを使用者に知らせたり親しみ易さを与
えることが難しかった。これを解決する方法として、使
用者の年齢・性別・心理的距離等の属性を推定し、使用
者の属性に基づいて言葉使いや声の調子、話す内容を変
えることの出来る発話方法が特開平11−175081
として提案されている。
【0003】
【発明が解決しようとする課題】しかしながら、上記提
案の方法においては、使用者属性のみに着目しており、
実際の対話場面における使用者の反応をフィードバック
することが考慮されていない。年代、性別、使用回数等
の属性を同じくする使用者であっても、話し方や話題の
好みはそれぞれ異なり、また、その時の気分によっても
異なるものとなる。これらは使用者自身の話し方や態度
に反映されるものであり、使用者属性のみでは個々の使
用者やその時々に適した応答発話の生成は困難である。
従って、使用者の話し方や態度を基にその時々の使用者
に相応しい発話応答を行うインタフェースを提供するこ
とが課題であった。
【0004】そこで本発明は、使用者属性に加え、使用
者の発話内容や話し方(使用者の発話の属性情報)とシ
ステムの発話応答の対応から使用者プロファイルを作成
し、使用者に応じた話し方及び内容の発話を行うと共
に、その時々の使用者の状況に応じた話し方及び内容の
発話を行ことが出来る親しみ易い対話処理システムを提
供することを目的とする。
【0005】
【課題を解決するための手段】そこで、上記課題を解決
するために本発明は、下記の対話処理システムを提供す
るものである。 (1) 使用者の属性情報を推定する使用者特徴推定手
段と、前記使用者の発話から得られる言語的な意味表現
情報を含む前記使用者の発話の属性情報を推定する使用
者発話特徴推定手段と、前記使用者の属性情報及び前記
使用者の発話の属性情報を使用者毎に格納する使用者プ
ロファイル格納手段と、前記使用者の属性情報及び前記
使用者の発話の属性情報に基づいて、応答発話の内容を
決定する発話内容決定手段と、前記使用者の属性情報、
前記使用者の発話の属性情報、及び前記応答発話の内容
に基づいて、応答発話の特徴を設定する発話特徴決定手
段と、前記決定された応答発話の内容、及び前記設定さ
れた応答発話の特徴に基づいて発話出力する発話手段
と、を備えたことを特徴とする対話処理システム。 (2) 前記使用者発話特徴推定手段で推定される前記
使用者の発話の属性情報は、前記言語的な意味表現情報
に加え、前記使用者の発話から得られる韻律情報及び言
葉遣い情報の内の少なくとも一方の情報を含むことを特
徴とする請求項1記載の対話処理システム。 (3) 前記使用者の属性情報及び前記使用者の発話の
属性情報は、使用者の使用毎に前記使用者プロファイル
格納手段に追加格納され、前記発話内容決定手段が前記
応答発話の内容を決定する動作、及び前記発話特徴決定
手段が前記応答発話の特徴を決定する動作の内の少なく
とも一方の動作が、前記格納される使用者の属性情報及
び使用者の発話の属性情報の変化に基づいて行われるこ
とを特徴とする請求項1または2記載の対話処理システ
ム。
【0006】
【発明の実施の形態】本発明の実施の形態を図を用いて
説明する。図1に本発明の対話処理システムの一実施例
の基本構成を示す。本対話処理システムは使用者特徴推
定手段1、使用者発話特徴推定手段2、使用者プロファ
イル格納手段3、発話内容決定手段4、発話特徴決定手
段5、発話手段6を備えている。
【0007】使用者発話特徴推定手段2では、使用者の
発話から言語解析を行い使用者の発話内容を推定すると
共に使用者の言葉遣い、口調等の発話特徴を推定する。
これらの情報は使用者発話情報(使用者の発話の属性情
報)として使用者プロファイル格納手段3に格納され、
発話内容決定手段4及び発話特徴決定手段5に送られ
る。使用者特徴推定手段1では、使用者の外観から性別
・年代等の特徴を推定する。使用者がリピーターの場合
は、使用者を特定する。これらの情報は使用者情報(使
用者の属性情報)として使用者プロファイル格納手段3
に格納され、発話内容決定手段4及び発話特徴決定手段
5に送られる。使用者プロファイル格納手段3では、使
用者発話情報と使用者情報を格納し、発話内容決定手段
4及び発話特徴決定手段5に送る。発話内容決定手段4
では、使用者発話情報と使用者情報を元に発話内容を決
定する。発話内容は発話内容情報として、発話特徴決定
手段5及び発話手段6に送られる。発話特徴決定手段5
では、使用者発話情報と使用者情報と発話内容情報を元
に、現在の使用者及び発話内容に適した言葉遣い、口調
等の特徴を決定する。これらの特徴は発話特徴情報とし
て発話手段6に送られる。発話手段6では、発話内容情
報と発話特徴情報を元に、自然言語による発話を生成し
使用者に対し応答出力する。
【0008】本発明の一実施例のより詳しい構成を図2
に示す。使用者発話特徴推定手段2には音声入力手段2
3、音声言語解析手段22、韻律推定手段25、言葉遣
い推定手段24、言語解析辞書21、韻律照合辞書2
7、言葉遣い照合辞書26を用いる。使用者特徴推定手
段1には画像入力手段11、使用者識別手段13、年齢
推定手段14、性別推定手段15、年齢照合辞書16、
性別照合辞書17、使用者照合辞書12を用いる。使用
者プロファイル格納手段3には、対話履歴格納手段3
3、使用者発話特徴格納手段31、使用者情報格納手段
32を用いる。
【0009】発話内容決定手段4には発話内容選択手段
41、発話内容データベース42を用いる。発話特徴決
定手段5には発話特徴設定手段51、発話特徴データベ
ース52を用いる。発話手段6には発話文生成手段6
1、発話音声生成手段63、音声出力手段65、発話画
像生成手段62、画像出力手段64を用いる。
【0010】以下に、これらの構成を用いた対話処理の
流れを説明する。使用者特徴推定手段1では、使用者の
映った画像から、外見から使用者を特定すると共に、使
用者の特徴を推定する。使用者がシステムの前に姿を現
わすと、画像入力手段11から使用者の画像を入力し、
人物画像データを使用者識別手段13、年齢推定手段1
4、性別推定手段15に送る。使用者識別手段13で
は、人物画像データを使用者照合辞書12と照合し、既
に使用者登録された使用者であれば、使用者を特定し、
使用者識別情報を使用者情報格納手段32に格納すると
共に年齢推定手段14及び性別推定手段15に送る。新
規の使用者であれば新しい使用者識別情報を生成し、使
用者情報格納手段32に格納する。使用者識別情報は、
発話内容決定手段4及び発話特徴決定手段5に送られ
る。
【0011】人物画像データの内、使用者識別に用いる
照合情報は使用者照合辞書12に蓄積される。年齢推定
手段14では、人物画像データを年齢照合辞書16と照
合して年齢を推定し、使用者情報格納手段32に格納す
る。使用者識別情報が与えられている場合は、使用者情
報格納手段32から年齢情報を取り出し参照する。推定
年齢が取り出した年齢情報と異なる場合は、使用者情報
格納手段32に年齢情報を送り年齢情報を追加する。こ
の推定年齢変化情報は、発話内容決定時に使用可能とな
る。性別推定手段15では、人物画像データを性別照合
辞書17と照合して性別を推定し、使用者情報格納手段
32に格納する。使用者識別情報が与えられている場合
は、使用者情報格納手段32から性別情報を取り出し参
照する。推定性別が取り出した性別情報と異なる場合
は、使用者情報格納手段32に推定した性別情報を送り
性別情報を追加する。この推定性別変化情報は、発話内
容決定時に使用可能となる。
【0012】使用者発話特徴推定手段2では、使用者の
発話音声から発話の内容及び話し方の特徴を推定する。
使用者がシステムに話し掛けると音声入力手段23から
使用者の発話音声を入力し音声データとして音声言語解
析手段22、韻律推定手段25に送る。音声言語解析手
段22では、言語解析辞書21を用いて使用者の発話を
音声認識・解析し使用者発話内容情報を推定する。省略
表現等を含む発話やいろいろな意味に解釈可能な発話に
関しては、対話履歴格納手段33から過去の対話内容を
取り出し、意味を補って解析する。使用者発話内容情報
は対話履歴格納手段33に格納する。解析結果の形態素
情報は韻律推定手段25及び言葉遣い推定手段24に送
られる。韻律推定手段25では、音声データと形態素情
報から韻律照合辞書27を用いて使用者の発話音声の大
きさ、速さ、ピッチ等を抽出して韻律的な特徴を推定
し、使用者発話特徴格納手段31に格納する。言葉遣い
推定手段24では形態素情報から言葉遣い照合辞書26
を用いて使用者の言葉遣いの特徴を推定し、使用者発話
特徴格納手段31に格納する。言葉遣いの特徴の例とし
ては、敬語、若者言葉、方言等が挙げられる。
【0013】使用者プロファイル格納手段3では、対話
履歴格納手段33、使用者発話特徴格納手段31、使用
者情報格納手段32への格納情報を相互に対応づけて格
納する。それぞれの格納情報は、発話内容決定手段4及
び発話特徴決定手段5から参照することが出来る。
【0014】発話内容決定手段4では、使用者識別情報
を元に対話履歴格納手段33より過去の対話内容情報及
び使用者発話内容情報を、使用者発話特徴格納手段31
より使用者発話特徴情報を、使用者情報格納手段32よ
り使用者情報を取り出す。発話内容選択手段41で、こ
れらの情報を元に発話内容データベース42から発話内
容を選択する。発話内容は対話履歴格納手段35に格納
される。
【0015】発話特徴決定手段5では、使用者識別情報
を元に対話履歴格納手段33より過去の対話内容情報及
び使用者発話内容情報に加え、発話内容決定手段4で決
定した発話内容情報、使用者発話特徴格納手段31より
使用者発話特徴情報、使用者情報格納手段32より使用
者情報を取り出す。発話特徴設定手段51で、これらの
情報を元に発話特徴データベース52から発話特徴パラ
メータを取り出し発話特徴を設定し、発話内容情報と共
に発話手段6に送る。発話特徴情報はまた、対話履歴格
納手段33に格納される。
【0016】発話手段6では、発話情報を元に発話出力
を行う。発話文生成手段61では、発話情報を元に実際
に発話する文を生成する。発話音声生成手段63では、
発話文を発話特徴情報で設定された発話特徴を有する音
声とし、音声出力手段65から音声出力する。発話画像
生成手段62では、発話文と発話特徴情報から、発話内
容及び発話特徴に適した画像、例えば、発話特徴に合っ
た表情で話すエージェントの画像等を生成し、画像出力
手段64より出力する。
【0017】この方法による発話内容決定の例として、
使用者に適すると予測される書籍を紹介する情報案内シ
ステムの応答発話生成を考える。初めて使用する使用者
の場合は、推定年齢、性別、発話特徴から、同じ特徴を
持つ使用者の平均的な好みを初期値として与え、既に使
用したことのある使用者の場合は、前回迄の使用者情報
及び対話履歴を元に初期値を設定する。発話内容及び発
話特徴はこの初期値を元にして、対話の流れ即ち対話履
歴と使用者の発話特徴及びその変化により決定する。シ
ステムは使用者の話し方に合わせた言葉遣いや韻律で話
すことが出来る。以前に使用したことのある使用者に関
して前回と発話特徴が変化している場合、応答の発話内
容及び発話特徴はこの変化から使用者の状態を推測し、
これを反映したものとなる。
【0018】例えば、使用者が従来に比べ小さく低い声
で不明瞭に話した場合、使用者が元気が無さそうだと判
断し、使用者の好みの初期値及び対話により得られた条
件に加え、元気の出る内容の書籍を紹介することが出来
る。或いは使用者が従来に比べ早口で丁寧でない言葉遣
いで話した場合、使用者が忙しそうだと判断し、使用者
の好みの初期値及び対話により得られた条件に加え、携
帯に適した短編の文庫本を紹介することが出来る。
【0019】
【発明の効果】以上の通り、本発明の対話処理システム
は、使用者属性に加え、使用者の発話内容や話し方(使
用者の発話属性)から使用者プロファイルを作成し、こ
の情報を元に発話内容及び発話の仕方を決めることによ
り、使用者に応じた内容及び話し方の発話を行うことが
出来る。更に、本発明の対話処理システムは、格納され
た情報の変化を元に発話内容及び発話の仕方を決めるこ
とにより、その時々の使用者の状態や気分に応じた内容
及び話し方の発話を行うことが出来る。これにより、使
用者一人一人のその時々に応じた応答を行う、親しみ易
い対話型ユーザインタフェースを提供することが出来
る。
【図面の簡単な説明】
【図1】対話処理システムの一実施例の基本構成を示す
図である。
【図2】対話処理システムの一実施例の詳細な構成を示
す図である。
【符号の説明】
1 使用者特徴推定手段 2 使用者発話特徴推定手段 3 使用者プロファイル格納手段 4 発話内容決定手段 5 発話特徴決定手段 6 発話手段
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551P 15/28

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】使用者の属性情報を推定する使用者特徴推
    定手段と、 前記使用者の発話から得られる言語的な意味表現情報を
    含む前記使用者の発話の属性情報を推定する使用者発話
    特徴推定手段と、 前記使用者の属性情報及び前記使用者の発話の属性情報
    を使用者毎に格納する使用者プロファイル格納手段と、 前記使用者の属性情報及び前記使用者の発話の属性情報
    に基づいて、応答発話の内容を決定する発話内容決定手
    段と、 前記使用者の属性情報、前記使用者の発話の属性情報、
    及び前記応答発話の内容に基づいて、応答発話の特徴を
    設定する発話特徴決定手段と、 前記決定された応答発話の内容、及び前記設定された応
    答発話の特徴に基づいて発話出力する発話手段と、を備
    えたことを特徴とする対話処理システム。
  2. 【請求項2】前記使用者発話特徴推定手段で推定される
    前記使用者の発話の属性情報は、前記言語的な意味表現
    情報に加え、前記使用者の発話から得られる韻律情報及
    び言葉遣い情報の内の少なくとも一方の情報を含むこと
    を特徴とする請求項1記載の対話処理システム。
  3. 【請求項3】前記使用者の属性情報及び前記使用者の発
    話の属性情報は、使用者の使用毎に前記使用者プロファ
    イル格納手段に追加格納され、 前記発話内容決定手段が前記応答発話の内容を決定する
    動作、及び前記発話特徴決定手段が前記応答発話の特徴
    を決定する動作の内の少なくとも一方の動作が、前記格
    納される使用者の属性情報及び使用者の発話の属性情報
    の変化に基づいて行われることを特徴とする請求項1ま
    たは2記載の対話処理システム。
JP2000225091A 2000-07-26 2000-07-26 対話処理システム Pending JP2002041084A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000225091A JP2002041084A (ja) 2000-07-26 2000-07-26 対話処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000225091A JP2002041084A (ja) 2000-07-26 2000-07-26 対話処理システム

Publications (1)

Publication Number Publication Date
JP2002041084A true JP2002041084A (ja) 2002-02-08

Family

ID=18718926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000225091A Pending JP2002041084A (ja) 2000-07-26 2000-07-26 対話処理システム

Country Status (1)

Country Link
JP (1) JP2002041084A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2005062420A (ja) * 2003-08-11 2005-03-10 Nec Corp コンテンツ生成システム、コンテンツ生成方法およびコンテンツ生成プログラム
JP2006011316A (ja) * 2004-06-29 2006-01-12 Kokichi Tanihira 仮想会話システム
JP2011217018A (ja) * 2010-03-31 2011-10-27 Oki Networks Co Ltd 音声応答装置及びプログラム
JP2015514254A (ja) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. ユーザからのオーディオ入力
JP2016038501A (ja) * 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム
WO2019044534A1 (ja) * 2017-08-31 2019-03-07 ソニー株式会社 情報処理装置、及び情報処理方法
JP2019061050A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 対話装置、対話方法及びプログラム
JP2019220022A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム
JP2020034895A (ja) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 応答方法及び装置
CN110930998A (zh) * 2018-09-19 2020-03-27 上海博泰悦臻电子设备制造有限公司 语音互动方法、装置及车辆

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2005062420A (ja) * 2003-08-11 2005-03-10 Nec Corp コンテンツ生成システム、コンテンツ生成方法およびコンテンツ生成プログラム
JP2006011316A (ja) * 2004-06-29 2006-01-12 Kokichi Tanihira 仮想会話システム
JP2011217018A (ja) * 2010-03-31 2011-10-27 Oki Networks Co Ltd 音声応答装置及びプログラム
US9626150B2 (en) 2012-04-27 2017-04-18 Hewlett-Packard Development Company, L.P. Audio input from user
JP2015514254A (ja) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. ユーザからのオーディオ入力
JP2016038501A (ja) * 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム
WO2019044534A1 (ja) * 2017-08-31 2019-03-07 ソニー株式会社 情報処理装置、及び情報処理方法
JPWO2019044534A1 (ja) * 2017-08-31 2020-11-19 ソニー株式会社 情報処理装置、及び情報処理方法
JP2019061050A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 対話装置、対話方法及びプログラム
JP2019220022A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム
JP7172168B2 (ja) 2018-06-21 2022-11-16 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム
JP2020034895A (ja) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 応答方法及び装置
US11475897B2 (en) 2018-08-30 2022-10-18 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for response using voice matching user category
CN110930998A (zh) * 2018-09-19 2020-03-27 上海博泰悦臻电子设备制造有限公司 语音互动方法、装置及车辆

Similar Documents

Publication Publication Date Title
JP4085130B2 (ja) 感情認識装置
Theune et al. Generating expressive speech for storytelling applications
US6725199B2 (en) Speech synthesis apparatus and selection method
Levitan et al. Implementing Acoustic-Prosodic Entrainment in a Conversational Avatar.
US7096183B2 (en) Customizing the speaking style of a speech synthesizer based on semantic analysis
JP3083640B2 (ja) 音声合成方法および装置
US7062440B2 (en) Monitoring text to speech output to effect control of barge-in
KR100590553B1 (ko) 대화체 운율구조 생성방법 및 장치와 이를 적용한음성합성시스템
US7191132B2 (en) Speech synthesis apparatus and method
US20020184029A1 (en) Speech synthesis apparatus and method
JP3581881B2 (ja) 音声補完方法、装置および記録媒体
JP2001215993A (ja) 対話処理装置および対話処理方法、並びに記録媒体
US20060229873A1 (en) Methods and apparatus for adapting output speech in accordance with context of communication
JP4729902B2 (ja) 音声対話システム
Campbell et al. No laughing matter.
JP6720520B2 (ja) 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム
JP2004037721A (ja) 音声応答システム、音声応答プログラム及びそのための記憶媒体
JP2002041084A (ja) 対話処理システム
CN116917984A (zh) 交互式内容输出
JP2003066991A (ja) 音声認識結果出力方法および音声認識結果出力装置ならびに音声認識結果出力処理プログラムを記録した記録媒体
JPH11175081A (ja) 発話装置及び発話方法
JP2003302992A (ja) 音声合成方法及び装置
JP2004226881A (ja) 会話システム及び会話処理プログラム
JP6806619B2 (ja) 音声合成システム、音声合成方法、及び音声合成プログラム
JP2003271194A (ja) 音声対話装置及びその制御方法