[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7218816B2 - 対話方法、対話システム、対話装置、およびプログラム - Google Patents

対話方法、対話システム、対話装置、およびプログラム Download PDF

Info

Publication number
JP7218816B2
JP7218816B2 JP2021550888A JP2021550888A JP7218816B2 JP 7218816 B2 JP7218816 B2 JP 7218816B2 JP 2021550888 A JP2021550888 A JP 2021550888A JP 2021550888 A JP2021550888 A JP 2021550888A JP 7218816 B2 JP7218816 B2 JP 7218816B2
Authority
JP
Japan
Prior art keywords
utterance
user
dialogue
evaluation
topic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550888A
Other languages
English (en)
Other versions
JPWO2021064948A1 (ja
Inventor
弘晃 杉山
宏美 成松
雅博 水上
庸浩 有本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021064948A1 publication Critical patent/JPWO2021064948A1/ja
Application granted granted Critical
Publication of JP7218816B2 publication Critical patent/JP7218816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 ウェブサイトの掲載日:2018年10月15日,アドレス:https://jsai.ixsq.nii.ac.jp/ej/index.php?page_id=0
特許法第30条第2項適用 開催期間:2018年11月20日~21日(公知日:2018年11月21日),集会名:第9回対話システムシンポジウム,開催場所:早稲田大学西早稲田キャンパス55号館大会議室(東京都新宿区大久保3-4-1)
特許法第30条第2項適用 展示日:2019年5月27日(公知日:2019年5月27日)、展示会名:NTTコミュニケーション科学基礎研究所オープンハウス2019内覧会、開催場所:NTT京阪奈ビル(京都府相楽郡精華町光台2-4)
特許法第30条第2項適用 ウェブサイトの掲載日:2019年5月27日,アドレス:https://www.kecl.ntt.co.jp/openhouse/2019/download.html,https://www.kecl.ntt.co.jp/openhouse/2019/program.html#exhibition
特許法第30条第2項適用 展示日:2019年5月30日~31日(公知日:2019年5月30日),展示会名:NTTコミュニケーション科学基礎研究所オープンハウス2019、開催場所:NTT京阪奈ビル(京都府相楽郡精華町光台2-4)
特許法第30条第2項適用 ウェブサイトの掲載日:2019年6月7日,アドレス:https://www.kecl.ntt.co.jp/openhouse/2019/,https://www.kecl.ntt.co.jp/openhouse/2019/download/2019_booklet.pdf
この発明は、人とコミュニケーションを行うロボットなどに適用可能な、コンピュータが人間と自然言語等を用いて対話を行う技術に関する。
ユーザの音声発話を音声認識してその発話に対する応答文を生成して音声合成してロボットなどが発話する対話システム、ユーザのテキスト入力による発話を受け付けてその発話に対する応答文を生成して表示する対話システム、など、様々な形態の対話システムが実用化されつつある。近年は、従来のタスク指向の対話システムとは異なる、雑談を行う雑談対話システムに注目が集まっている(例えば、非特許文献1参照)。タスク指向の対話は、対話を通して別の明確なゴールを持つタスクを効率よく達成することを目的とする対話である。雑談はタスク指向の対話とは異なり、対話そのものから楽しさや満足を得ることを目的とする対話である。すなわち、雑談対話システムは、対話を通して人を楽しませたり、満足を与えたりすることを目的とする対話システムといえる。
従来の雑談対話システムの研究の主流は、多様な話題(以下、「オープンドメイン」とも呼ぶ)のユーザによる発話(以下「ユーザ発話」とも呼ぶ)への自然な応答の生成となっており、これまで、オープンドメインの雑談において、どのようなユーザ発話に対しても何かしら応答できることを目指し、一問一答レベルで妥当な応答発話の生成や、それを適切に組み合わせた数分間の対話の実現が取り組まれてきた。
Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y., "Towards an open-domain conversational system fully based on natural language processing," in Proceedings of the 25th International Conference on Computational Linguistics, pp. 928-939, 2014.
しかしながら、オープンドメインな応答生成が、対話を通して人を楽しませ満足させるという雑談対話システムの本来の目的の達成に直接繋がるわけではない。例えば、従来の雑談対話システムでは、局所的には話題が繋がっていても、大局的には対話がどこに向かっているのかをユーザに理解できないことがある。そのため、ユーザが、対話システムの発話(以下、「システム発話」とも呼ぶ)の意図を解釈できずストレスを感じたり、対話システムが自身の発話さえ理解していないように感じられることから、対話能力が欠落しているように感じたりすることが課題であった。
この発明の目的は、上記のような技術的課題に鑑みて、ユーザの発話を正しく理解できるだけの十分な対話能力を持っている印象をユーザに与えることができる対話システム、対話装置を実現することである。
上記の課題を解決するために、この発明の一態様の対話方法は、人格が仮想的に設定された対話システムが実行する対話方法であって、対話中の話題についてのユーザの経験を引き出すための発話を提示する第1発話提示ステップと、第1発話提示ステップで提示した発話に対するユーザ発話を受け付ける第1回答受付ステップと、第1回答受付ステップで得たユーザ発話が、話題についてユーザが経験したことがある旨を含む発話であった場合に、話題についてのユーザの経験に対するユーザの評価を引き出すための発話を提示する第2発話提示ステップと、第2発話提示ステップで得たユーザ発話を受け付ける第2回答受付ステップと、第2回答受付ステップで得たユーザ発話が、話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に、当該肯定評価または否定評価に共感する発話を提示する第3発話提示ステップと、を含む。
この発明によれば、ユーザの発話を正しく理解できるだけの十分な対話能力を持っている印象をユーザに与えることができる。
図1は、第1実施形態の対話システムの機能構成を例示する図である。 図2は、発話決定部の機能構成を例示する図である。 図3は、第1実施形態の対話方法の処理手続きを例示する図である。 図4は、第1実施形態の対話方法の特徴部分の処理手続きを例示する図である。 図5は、第1実施形態のシステム発話の決定と提示の処理手続きを例示する図である。 図6は、第2実施形態の対話システムの機能構成を例示する図である。 図7は、コンピュータの機能構成を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。本発明の対話システムは、ロボットやコンピュータのディスプレイ上に仮想的に設定されたチャット相手などの、仮想的な人格が設定された「エージェント」がユーザとの対話を行うものである。そこで、エージェントとして人型ロボットを用いる形態を第1実施形態として説明し、エージェントとしてコンピュータのディスプレイ上に仮想的に設定されたチャット相手を用いる形態を第2実施形態として説明する。
[第1実施形態]
〔対話システムの構成と各部の動作〕
まず、第1実施形態の対話システムの構成と各部の動作について説明する。第1実施形態の対話システムは、一台の人型ロボットがユーザとの対話を行うシステムである。対話システム100は、図1に示すように、例えば、対話装置1と、マイクロホン11からなる入力部10と、少なくともスピーカ51を備える提示部50とを含む。対話装置1は、例えば、音声認識部20、発話決定部30、および音声合成部40を備える。
対話装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。対話装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。対話装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、対話装置1の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
[入力部10]
入力部10は提示部50と一体もしくは部分的に一体として構成してもよい。図1の例では、入力部10の一部であるマイクロホン11が、提示部50である人型ロボット50の頭部(耳の位置)に搭載されている。
入力部10は、ユーザの発話を対話システム100が取得するためのインターフェースである。言い換えれば、入力部10は、ユーザの発話を対話システム100へ入力するためのインターフェースである。例えば、入力部10はユーザの発話音声を収音して音声信号に変換するマイクロホン11である。マイクロホン11は、ユーザ101が発話した発話音声を収音可能とすればよい。つまり、図1は一例であって、マイクロホン11は一個でもよいし、三個以上であってもよい。また、ユーザ101の近傍などの人型ロボット50とは異なる場所に設置された一個以上のマイクロホン、または、複数のマイクロホンを備えたマイクロホンアレイを入力部とし、人型ロボット50がマイクロホン11を備えない構成としてもよい。マイクロホン11は、変換により得たユーザの発話音声の音声信号を出力する。マイクロホン11が出力した音声信号は、音声認識部20へ入力される。
[音声認識部20]
音声認識部20は、マイクロホン11から入力されたユーザの発話音声の音声信号を音声認識してユーザの発話内容を表すテキストに変換し、発話決定部30に対して出力する。音声認識部20が行う音声認識の方法は、既存のいかなる音声認識技術であってもよく、利用環境等に合わせて適したものを選択すればよい。
[発話決定部30]
発話決定部30は、対話システム100からの発話内容を表すテキストを決定し、音声合成部40に対して出力する。音声認識部20からユーザの発話内容を表すテキストが入力された場合には、入力されたユーザの発話内容を表すテキストに基づいて、対話システム100からの発話内容を表すテキストを決定し、音声合成部40に対して出力する。
図2に、発話決定部30の詳細な機能構成を示す。発話決定部30は、ユーザの発話内容を表すテキストを入力とし、対話システム100からの発話内容を表すテキストを決定して出力する。発話決定部30は、例えば、ユーザ発話理解部310、システム発話生成部320、ユーザ情報記憶部330、およびシナリオ記憶部350を備える。
[[ユーザ情報記憶部330]]
ユーザ情報記憶部330は、予め設定した各種別の属性について、ユーザ発話から取得したユーザに関する属性の情報を格納する記憶部である。属性の種別は、対話で用いるシナリオ(すなわち、後述するシナリオ記憶部350に記憶されたシナリオ)に応じて予め設定しておく。属性の種別の例は、名前、居住県、居住県の名所への訪問経験の有無、居住県の名所の経験の有無、当該名所の経験に対する評価が肯定評価であるか否定評価であるか、などである。各属性の情報は、後述するユーザ発話理解部310により、発話決定部30へ入力されたユーザの発話内容を表すテキストから抽出されてユーザ情報記憶部330に格納される。
[[シナリオ記憶部350]]
シナリオ記憶部350には、対話のシナリオが予め記憶されている。シナリオ記憶部350に記憶されている対話のシナリオは、対話の最初から終わりまでの流れにおける発話意図の状態の有限の範囲内での遷移と、対話システム100が発話する各状態における、直前のユーザ発話の発話意図の候補と、直前のユーザ発話の発話意図の各候補に対応するシステム発話の発話テンプレート(すなわち、直前のユーザ発話の発話意図と矛盾しない発話意図の発話を対話システム100が表出するための発話内容のテンプレート)の候補と、発話テンプレートの各候補に対応する次のユーザ発話の発話意図の候補(すなわち、発話テンプレートの各候補における対話システム100の発話意図に対して行われる次のユーザ発話の発話意図の候補)と、を含んで構成される。なお、発話テンプレートは、対話システム100の発話内容を表すテキストのみを含むものであってもよいし、対話システム100の発話内容を表すテキストの一部に代えて、ユーザに関する所定の種別の属性の情報を含めることを指定する情報などを含むものであってもよい。
[[ユーザ発話理解部310]]
ユーザ発話理解部310は、発話決定部30に入力されたユーザの発話内容を表すテキストから、ユーザ発話の発話意図の理解結果とユーザに関する属性の情報を取得し、システム発話生成部320に対して出力する。ユーザ発話理解部310は、取得したユーザに関する属性の情報についてはユーザ情報記憶部330への格納も行う。
[[システム発話生成部320]]
システム発話生成部320は、システム発話の内容を表すテキストを決定し、音声合成部40に対して出力する。システム発話生成部320は、シナリオ記憶部350に記憶されたシナリオにおける現在の状態における直前のユーザ発話の発話意図の各候補に対応する発話テンプレートのうちの、ユーザ発話理解部310から入力されたユーザの発話意図(すなわち、最も新しく入力されたユーザ発話の発話意図)に対応する発話テンプレートを取得する。次に、システム発話生成部320は、取得した発話テンプレートがユーザに関する所定の種別の属性の情報を含めることを指定する情報を含む場合であって、ユーザに関する当該種別の属性の情報がユーザ発話理解部310から取得されていない場合には、ユーザに関する当該種別の属性の情報をユーザ情報記憶部330から取得し、取得した情報を発話テンプレート中の指定された位置に挿入してシステム発話の内容を表すテキストとして決定する。
[音声合成部40]
音声合成部40は、発話決定部30から入力されたシステム発話の内容を表すテキストを、システム発話の内容を表す音声信号に変換し、提示部50に対して出力する。音声合成部40が行う音声合成の方法は、既存のいかなる音声合成技術であってもよく、利用環境等に合わせて適したものを選択すればよい。
[提示部50]
提示部50は、発話決定部30が決定した発話内容をユーザへ提示するためのインターフェースである。例えば、提示部50は、人間の形を模して製作された人型ロボットである。この人型ロボットは、音声合成部40から入力された発話内容を表す音声信号に対応する音声を、例えば頭部に搭載したスピーカ51から発音する、すなわち、発話を提示する。スピーカ51は、音声合成部40から入力された発話内容を表す音声信号に対応する音声を発音可能とすればよい。つまり、図1は一例であって、スピーカ51は一個でもよいし、三個以上であってもよい。また、ユーザ101の近傍などの人型ロボット50とは異なる場所に一個以上のスピーカ、または、複数のスピーカを備えたスピーカアレイを設置し、人型ロボット50がスピーカ51を備えない構成としてもよい。
〔本発明の対話システムが行う対話方法の特徴〕
次に、本発明の対話システムが行う対話方法の特徴について、対話システムとユーザとの対話の具体例を用いて説明する。以降の具体例の記載では、“S”はシステム発話を表し、“U”はユーザ発話を表す。t(i)(i=0, 1, 2, …)は対話中の発話を表し、iは発話の順番を表す数字である。
[具体例1]
t(1) S: こんにちは!お名前を伺ってもいいですか?
t(2) U: 杉山といいます。
t(3) S: 杉山さんとおっしゃるんですね。私はリコっていいます。よろしくお願いします。杉山さんは何県にお住まいなんですか?
t(4) U: 埼玉県に住んでいます。
t(5) S: ふむふむ。埼玉県ですか。埼玉いいですね。行ってみたいです。長瀞とか有名ですよね?
t(6) U: 長瀞は近いので自転車で行くこともあります。
t(7) S: いい桜があるのうらやましいなあ。。私はお花見とか好きなんですけど、長瀞の桜ってどうですか?
t(8) U: 荒川沿いの桜並木が見事で、春には桜のトンネルのような景色になります。
t(9) S: 桜いいですよねえ。ところで、私青森県に住んでるんですけど、桜といえば弘前城とかもおすすめです。杉山さんは行かれたことはありますか?
[具体例2]
※t(1), …, t(7)は具体例1と同一であるため省略する。
t(8') U: うーん・・どうですかねえ。
t(9') S: そこまで綺麗ってわけでもないんですかね。
[本発明の特徴]
以下、具体例1,2を参照しながら、本発明の対話システムが行う対話方法の特徴を説明する。
[[例1-1]]具体例1の、システム発話t(5)の「行ってみたいです。長瀞とか有名ですよね?」と、システム発話t(7)の「私はお花見とか好きなんですけど、長瀞の桜ってどうですか?」と、システム発話t(9)の「桜いいですよねえ。」
システム発話t(9)の「桜いいですよねえ。」は、直前のユーザ発話t(8)で「荒川沿いの桜並木が見事で、春には桜のトンネルのような景色になります。」と表出されたユーザの経験に対する肯定評価に正しく共感する発話である。対話システムは、システム発話t(9)で共感するためのユーザの評価を含むユーザ発話t(8)を引き出すために、システム発話t(7)の「私はお花見とか好きなんですけど、長瀞の桜ってどうですか?」という、長瀞の桜を見たときのユーザの評価を問う発話をしている。このシステム発話t(7)を提示すれば、ユーザは長瀞にあるお花見の名所の桜についての評価を語るはずだからである。また、対話システムは、システム発話t(7)で評価を問う発話をするためのユーザの経験を含む発話t(6)を引き出すために、システム発話t(5)の「行ってみたいです。長瀞とか有名ですよね?」という、長瀞へのユーザの訪問経験を問う発話をしている。このシステム発話t(5)を提示すれば、ユーザは長瀞への訪問経験を語るはずだからである。
人の評価表現は様々であることから、ユーザが自由に評価を発話すると、その評価に正しく共感するシステム発話を生成することができない場合がある。一方、人は、自身が肯定的に評価しているものに対して対話相手が肯定的な評価を示せば、対話相手が自身に共感したと明確に認識することができる。同様に、人は、自身が否定的に評価しているものに対して対話相手が否定的な評価を示せば、対話相手が自身に共感したと明確に認識することができる。そこで、本発明の対話システムが行う対話方法では、肯定評価または否定評価の対象となる経験をまずユーザに発話させるようにし、次にその経験に対する肯定評価または否定評価にユーザの発話を絞り込ませるようにしている。
すなわち、本発明の対話システムが行う対話方法の特徴は、システム発話t(5)のような、対話中の話題についてのユーザの経験を引き出すためのシステム発話(以下、「第1システム発話」とも呼ぶ)を提示し、第1システム発話に対するユーザ発話t(6)のような発話(以下、「第1ユーザ発話」とも呼ぶ)を受け付け、第1ユーザ発話が当該話題についてユーザが経験したことがある旨を含む発話であった場合に、システム発話t(7)のような、当該話題についてのユーザの経験に対するユーザの評価を引き出すためのシステム発話(以下、「第2システム発話」とも呼ぶ)を提示し、第2システム発話に対するユーザ発話t(8)のようなユーザ発話(以下、「第2ユーザ発話」とも呼ぶ)を受け付け、第2ユーザ発話が当該話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に、システム発話t(9)のような、当該評価(すなわち肯定評価または否定評価)に共感するシステム発話(以下、「第3システム発話」とも呼ぶ)を提示することである。これにより、システムがユーザの評価を正しく理解できるだけの十分な対話能力を持っている印象を、ユーザに与えることができる。
[[例1-2]]具体例2の、システム発話t(5)の「行ってみたいです。長瀞とか有名ですよね?」と、システム発話t(7)の「私はお花見とか好きなんですけど、長瀞の桜ってどうですか?」と、システム発話t(9')の「そこまで綺麗ってわけでもないんですかね。」
具体例2は、システム発話で共感するためのユーザの評価を含むユーザ発話を引き出すためにシステム発話t(7)をすること、システム発話t(7)で評価を問う発話をするためのユーザの経験を含む発話t(6)を引き出すためにシステム発話t(5)の「行ってみたいです。長瀞とか有名ですよね?」という、長瀞へのユーザの訪問経験を問う発話をすること、は具体例1と同様であるが、システム発話t(7)に対してユーザが否定評価を含むユーザ発話t(8')をした場合の例である。発話t(9')の「そこまで綺麗ってわけでもないんですかね。」は、直前のユーザ発話t(8')で「うーん・・どうですかねえ。」と表出されたユーザの経験に対するユーザの否定評価に正しく共感する発話である。上述したように、本発明の対話システムでは、システム発話t(7)までの対話で、システム発話t(7)に対するユーザ発話がユーザの経験に対するユーザの肯定評価または否定評価を含むように誘導しているため、ユーザの評価がユーザ発話t(8)のような肯定評価ではなくユーザ発話t(8')のような否定評価であっても、正しく共感する発話を提示することができる。
なお、下記の例2-1や例2-2のように、経験や経験に対する評価をユーザから引き出すためのシステム発話として、自由度が高い発話をできる質問の発話と、その質問の前に置かれた、ユーザ発話を絞り込ませる布石となる発話と、により構成されるシステム発話を提示するようにしてもよい。
[[例2-1]]システム発話t(5)の「長瀞とか有名ですよね?」に前置された「行ってみたいです。」
上記の具体例では、システム発話t(5)の「長瀞とか有名ですよね?」という発話に対して、続くユーザ発話t(6)では、ユーザは、長瀞が有名であるか否かを答えるのではなく、「長瀞は近いので自転車で行くこともあります。」と自由に発話しているようにも感じられる。しかしながら、システム発話t(5)では、「長瀞とか有名ですよね?」という質問の前に、「行ってみたいです。」という布石を打っており、長瀞に行った経験を語らせたいというシステムの意図に沿ったユーザ発話を引き出している。すなわち、対象に対する経験を引き出すシステム発話として、自由度の高い発話をできる質問と、その質問の前に置かれたユーザの発話を絞り込ませるための布石となる発話と、により構成されるシステム発話を提示することで、経験の有無を直接質問する場合よりもユーザに自由に発話している印象を与えながらも、対話システムが意図した通りに、経験をユーザから引き出し、次のシステム発話であるユーザの経験の有無に対応するシステム発話t(7)に繋げることを可能としている。これにより、ユーザの自由な発話に対してもシステムが正しく理解できるだけの十分な対話能力を持っている印象を、ユーザに与えることができる。
[[例2-2]]システム発話t(7)の「私はお花見とか好きなんですけど、」
上記の具体例では、システム発話t(7)の「長瀞の桜ってどうですか?」という様々な答えの可能性がある質問に対して、続くユーザ発話t(8)またはt(8')では、ユーザは、「荒川沿いの桜並木が見事で、春には桜のトンネルのような景色になります。」または「うーん・・どうですかねえ。」のように自由に発話しているようにも感じられる。しかしながら、システム発話t(7)では、「長瀞の桜ってどうですか?」という質問の前に、「私はお花見とか好きなんですけど、」という布石を打っており、長瀞の桜を見た経験に対する肯定評価または否定評価を語らせたいというシステムの意図に沿った発話を引き出している。すなわち、経験に対する評価を引き出す発話として、自由度の高い発話をできる質問と、その質問の前に置かれたユーザの発話を絞り込ませるための布石となる発話と、により構成されるシステム発話を提示することで、肯定評価であるか否定評価であるかを直接質問した場合よりもユーザに自由に発話している印象を与えながらも、対話システムが意図した通りに、肯定評価であるか否定評価であるかをユーザから引き出し、次のシステム発話であるユーザの経験の肯定評価または否定評価に共感するシステム発話t(9)またはt(9')に繋げることを可能としている。これにより、ユーザの自由な発話に対してもシステムが正しく理解できるだけの十分な対話能力を持っている印象を、ユーザに与えることができる。
〔対話システム100が行う対話方法の処理手続き〕
次に、第1実施形態の対話システム100が行う対話方法の処理手続きは図3に示す通りであり、そのうちの本発明の特徴に対応する部分の処理手続きの例は図4に示す通りである。
[初回のシステム発話の決定と提示(初回のステップS2)]
対話システム100が対話の動作を開始すると、まず、発話決定部30のシステム発話生成部320が、シナリオの最初の状態で行うシステム発話の発話テンプレートをシナリオ記憶部350から読み出して、システム発話の内容を表すテキストを出力し、音声合成部40が音声信号への変換を行い、提示部50が提示する。シナリオの最初の状態で行うシステム発話は、例えば、システム発話t(1)のような挨拶とユーザに何らかの質問をする発話である。
[ユーザ発話の受け付け(ステップS1)]
入力部10がユーザの発話音声を収音して音声信号に変換し、音声認識部20がテキストへの変換を行い、ユーザの発話内容を表すテキストを発話決定部30に出力する。ユーザの発話内容を表すテキストは、例えば、システム発話t(1)に対して発話されたユーザ発話t(2)、システム発話t(3)に対して発話されたユーザ発話t(4)、システム発話t(5)に対して発話されたユーザ発話t(6)、システム発話t(7)に対して発話されたユーザ発話t(8)またはt(8')、である。
[システム発話の決定と提示(初回以外のステップS2)]
発話決定部30は、直前のユーザ発話に含まれる情報に基づいて、シナリオの現在の状態で行うシステム発話の発話テンプレートをシナリオ記憶部350から読み出して、システム発話の内容を表すテキストを決定し、音声合成部40が音声信号への変換を行い、提示部50が提示する。提示されるシステム発話は、ユーザ発話t(2)に対するシステム発話t(3)、ユーザ発話t(4)に対するシステム発話t(5)、ユーザ発話t(6)に対するシステム発話t(7)、ユーザ発話t(8)に対するシステム発話t(9)、ユーザ発話t(8')に対するシステム発話t(9')、である。ステップS2の詳細については、〔システム発話の決定と提示の処理手続き〕として後述する。
[対話の継続と終了(ステップS3)]
発話決定部30のシステム発話生成部320は、シナリオ記憶部350に記憶されたシナリオにおける現在の状態が最後の状態であれば対話システム100が対話の動作を終了し、そうでなければステップS1を行うことで対話を継続する。
〔対話システム100が行う対話方法の本発明の特徴に対応する部分の処理手続き〕
対話システム100が行う対話方法の本発明の特徴に対応する部分は、図4に示す通り、最初に行うステップS2であるステップS2Aと、ステップS2Aの次に行うステップS1であるステップS1Aと、ステップS1Aの次に行うステップS2であるステップS2Bと、ステップS2Bの次に行うステップS1であるステップS1Bと、ステップS1Bの次に行うステップS2であるステップS2Cと、を順に行うことである。なお、対話システム100は、シナリオ記憶部350に記憶されたシナリオに基づく対話における現在の状態が、ユーザの経験を引き出す発話を引き出すための発話をする状態となったときにステップS2Aを行う。
[第1システム発話の決定と提示(ステップS2A)]
発話決定部30が、ユーザの経験を引き出すための発話(第1システム発話)を含む発話テンプレートをシナリオ記憶部350から読み出して、システム発話の内容を表すテキストを決定する。決定したシステム発話の内容を表すテキストは音声合成部40が音声信号への変換を行い、提示部50が提示する。話題が長瀞の桜である場合のユーザの経験を引き出すためのシステム発話(第1システム発話)の内容を表すテキストの例は、発話t(5)に含まれる「行ってみたいです。長瀞とか有名ですよね?」のような訪問経験を質問する発話である。
[第1ユーザ発話の受け付け(ステップS1A)]
入力部10が、ユーザの経験を引き出すためのシステム発話(第1システム発話)に対するユーザの発話(第1ユーザ発話)の音声を収音して音声信号に変換し、音声認識部20がテキストへの変換を行い、ユーザの発話内容を表すテキストを発話決定部30に出力する。ユーザの経験を引き出すためのシステム発話(第1システム発話)に対するユーザ発話(第1ユーザ発話)の内容を表すテキストの例は、発話t(6)の「長瀞は近いので自転車で行くこともあります。」である。
[第2システム発話の決定と提示(ステップS2B)]
発話決定部30は、第1ユーザ発話が、第1システム発話の話題についてユーザが経験したことがある旨を含む発話であった場合に、当該話題についてのユーザの経験に対するユーザの評価を引き出すためのシステム発話(第2システム発話)を含む発話テンプレートをシナリオ記憶部350から読み出して、システム発話の内容を表すテキストを決定する。決定したシステム発話の内容を表すテキストは音声合成部40が音声信号への変換を行い、提示部50が提示する。ユーザの経験に対するユーザの評価を引き出すためのシステム発話(第2システム発話)の内容を表すテキストの例は、発話t(7)に含まれる「私はお花見とか好きなんですけど、長瀞の桜ってどうですか?」のような長瀞の桜の評価を質問する発話である。
[第2ユーザ発話の受け付け(ステップS1B)]
入力部10が、ユーザの経験に対するユーザの評価を引き出すためのシステム発話(第2システム発話)に対するユーザの発話(第2ユーザ発話)の音声を収音して音声信号に変換し、音声認識部20がテキストへの変換を行い、ユーザの発話内容を表すテキストを発話決定部30に出力する。ユーザの経験に対するユーザの評価を引き出すためのシステム発話(第2システム発話)に対するユーザの発話(第2ユーザ発話)の内容を表すテキストの例は、発話t(8)の「荒川沿いの桜並木が見事で、春には桜のトンネルのような景色になります。」、発話t(8')の「うーん・・どうですかねえ。」、である。
[第3システム発話の決定と提示(ステップS2C)]
発話決定部30は、第2ユーザ発話が、第1システム発話の話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に、ユーザの当該評価(すなわち、肯定評価または否定評価)に共感するシステム発話(第3システム発話)を含む発話テンプレートをシナリオ記憶部350から読み出して、システム発話の内容を表すテキストを決定する。決定したシステム発話の内容を表すテキストは音声合成部40が音声信号への変換を行い、提示部50が提示する。ユーザの肯定評価または否定評価に共感するシステム発話(第3システム発話)の内容を表すテキストの例は、発話t(9)に含まれる「桜いいですよねえ。」のようなユーザの肯定評価に共感する発話、発話t(9')の「そこまで綺麗ってわけでもないんですかね。」のようなユーザの否定評価に共感する発話、である。
〔システム発話の決定と提示の処理手続き〕
システム発話の決定と提示の処理手続き(ステップS2)の詳細は、以下のステップS21からステップS25の通りである。
[ユーザ発話の理解結果の取得(ステップS21)]
ユーザ発話理解部310は、発話決定部30に入力されたユーザの発話内容を表すテキストから、ユーザ発話の発話意図の理解結果とユーザに関する属性の情報とを得て、システム発話生成部320に対して出力する。ユーザ発話理解部310は、取得したユーザに関する属性の情報については、ユーザ情報記憶部330への格納も行う。
例えば、入力されたユーザの発話内容を表すテキストが発話t(2)であれば、ユーザ発話理解部310は、ユーザ発話の発話意図の理解結果として「発話意図=名前を発話した」旨を得て、ユーザに関する属性の情報として「ユーザの名前」である「杉山」を得る。入力されたユーザの発話内容を表すテキストが発話t(4)であれば、ユーザ発話理解部310は、ユーザ発話の発話意図の理解結果として「発話意図=居住県を発話した」旨を得て、ユーザに関する属性の情報として「ユーザの居住県」である「埼玉県」を得る。入力されたユーザの発話内容を表すテキストが発話t(6)であれば、ユーザ発話理解部310は、ユーザ発話の発話意図の理解結果として「発話意図=名所への訪問経験ありと発話した」旨を得て、ユーザに関する属性の情報として「ユーザの居住県の名所への訪問経験=あり」を得る。入力されたユーザの発話内容を表すテキストが発話t(8)であれば、ユーザ発話理解部310は、ユーザ発話の発話意図の理解結果として「発話意図=名所の経験が肯定評価であると発話した」旨を得て、ユーザに関する属性の情報として「ユーザの居住県の名所の経験に対する評価=肯定評価」を得る。入力されたユーザの発話内容を表すテキストが発話t(8')であれば、ユーザ発話理解部310は、ユーザ発話の発話意図の理解結果として「発話意図=名所の経験が否定評価であると発話した」旨を得て、ユーザに関する属性の情報として「ユーザの居住県の名所の経験に対する評価=否定評価」を得る。
なお、初回のステップS2においては、ステップS21は行わない。
[発話テンプレートの取得(ステップS22)]
システム発話生成部320は、シナリオ記憶部350に記憶されたシナリオにおける現在の状態における直前のユーザ発話の発話意図の各候補に対応する発話テンプレートのうちの、ユーザ発話理解部310から入力されたユーザの発話意図に対応する発話テンプレートを取得する。
例えば、入力されたユーザの発話内容を表すテキストが発話t(2)であれば、システム発話生成部320は、「[ユーザの名前]さんとおっしゃるんですね、私はリコっていいます。よろしくお願いします。[ユーザの名前]さんは何県にお住まいなんですか?」という発話テンプレートを取得する。なお、発話テンプレートのうちの[](角括弧)で囲まれた部分は、ユーザ発話理解部310とユーザ情報記憶部330のいずれかから情報を取得して含めることを指定する情報である。
また例えば、入力されたユーザの発話内容を表すテキストが発話t(4)であれば、システム発話生成部320は、「ふむふむ。埼玉県ですか。埼玉いいですね。行ってみたいです。長瀞とか有名ですよね?」という発話テンプレートを取得する。また例えば、入力されたユーザの発話内容を表すテキストが発話t(6)であれば、システム発話生成部320は、「いい桜があるのうらやましいなあ。。私はお花見とか好きなんですけど、長瀞の桜ってどうですか?」という発話テンプレートを取得する。
また例えば、入力されたユーザの発話内容を表すテキストが発話t(8)であれば、システム発話生成部320は、「桜いいですよねえ。ところで、私青森県に住んでいるんですけど、桜といえば弘前城とかもおすすめです。[ユーザの名前]さんは行かれたことはあります?」という発話テンプレートを取得する。一方、入力されたユーザの発話内容を表すテキストが発話t(8')であれば、システム発話生成部320は、「そこまで綺麗ってわけでもないんですかね。」という発話テンプレートを取得する。
なお、初回のステップS2におけるステップS22では、システム発話生成部320は、シナリオ記憶部350に記憶されたシナリオにおける最初の状態の発話テンプレートを取得する。
[システム発話の生成(ステップS23)]
システム発話生成部320は、ステップS22で取得した発話テンプレートが、ユーザ発話理解部310から取得されなかったユーザに関する所定の種別の属性の情報を含めることを指定する情報を含む場合には、ユーザに関する当該種別の属性の情報をユーザ情報記憶部330から取得し、取得した情報を発話テンプレート中の指定された位置に挿入してシステム発話の内容を表すテキストとして決定して出力する。システム発話生成部320は、ステップS22で取得した発話テンプレートにユーザに関する所定の種別の属性の情報を含めることを指定する情報を含まない場合には、取得した発話テンプレートをそのままシステム発話の内容を表すテキストとして決定して出力する。
例えば、入力されたユーザの発話内容を表すテキストが発話t(2)であれば、システム発話生成部320は、ユーザ発話理解部310から取得された[ユーザの名前]である「杉山」を上述した発話テンプレートに挿入して発話t(3)のテキストとして決定して出力する。入力されたユーザの発話内容を表すテキストが発話t(8)であれば、[ユーザの名前]である「杉山」をユーザ情報記憶部330から取得して、上述した発話テンプレートに挿入して発話t(9)のテキストとして決定して出力する。
[システム発話の音声の合成(ステップS24)]
音声合成部40は、発話決定部30から入力されたシステム発話の内容を表すテキストを、システム発話の内容を表す音声信号に変換し、提示部50に対して出力する。
[システム発話の提示(ステップS25)]
提示部50は、音声合成部40から入力された発話内容を表す音声信号に対応する音声を提示する。
[第2実施形態]
第1実施形態では、エージェントとして人型ロボットを用いて音声による対話を行う例を説明したが、本発明の対話システムの提示部は身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、本発明の対話システムはこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態であってもよい。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」(登録商標)のような、テキストメッセージにより対話を行うチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に適用することも可能である。この形態を第2実施形態として説明する。第2実施形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本発明の対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
第2実施形態の対話システム200は、図6に示すように、例えば、一台の対話装置2からなる。第2実施形態の対話装置2は、例えば、入力部10、音声認識部20、発話決定部30、および提示部50を備える。対話装置2は、例えば、マイクロホン11、スピーカ51を備えていてもよい。
第2実施形態の対話装置2は、例えば、スマートフォンやタブレットのようなモバイル端末、もしくはデスクトップ型やラップトップ型のパーソナルコンピュータなどの情報処理装置である。以下、対話装置2がスマートフォンであるものとして説明する。提示部50はスマートフォンが備える液晶ディスプレイである。この液晶ディスプレイにはチャットアプリケーションのウィンドウが表示され、ウィンドウ内にはチャットの対話内容が時系列に表示される。このチャットには、対話装置2が制御する仮想的な人格に対応する仮想アカウントと、ユーザのアカウントとが参加しているものとする。すなわち、本実施形態は、エージェントが、対話装置であるスマートフォンの液晶ディスプレイに表示された仮想アカウントである場合の一例である。ユーザはソフトウェアキーボードを用いてチャットのウィンドウ内に設けられた入力エリアである入力部10へ発話内容を入力し、自らのアカウントを通じてチャットへ投稿することができる。発話決定部30はユーザのアカウントからの投稿に基づいて対話装置2からの発話内容を決定し、仮想アカウントを通じてチャットへ投稿する。なお、スマートフォンに搭載されたマイクロホン11と音声認識機能を用い、ユーザが発声により入力部10へ発話内容を入力する構成としてもよい。また、スマートフォンに搭載されたスピーカ51と音声合成機能を用い、各対話システムから得た発話内容を、各仮想アカウントに対応する音声でスピーカ51から出力する構成としてもよい。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。
[プログラム、記録媒体]
上記実施形態で説明した各対話装置における各種の処理機能をコンピュータによって実現する場合、各対話装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図7に示すコンピュータの記憶部1020に読み込ませ、演算処理部1010、入力部1030、出力部1040などに動作させることにより、上記各対話装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体は、例えば、非一時的な記録媒体であり、具体的には、磁気記録装置、光ディスク、等である。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の非一時的な記憶装置である補助記録部1050に格納する。そして、処理の実行時、このコンピュータは、自己の非一時的な記憶装置である補助記録部1050に格納されたプログラムを記憶部1020に読み込み、読み込んだプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを記憶部1020に読み込み、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 人格が仮想的に設定された対話システムが実行する対話方法であって、
    対話中の話題についてのユーザの経験を引き出すための発話を提示する第1発話提示ステップと、
    前記第1発話提示ステップで提示した発話に対するユーザ発話を受け付ける第1回答受付ステップと、
    前記第1回答受付ステップで得たユーザ発話が、前記話題についてユーザが経験したことがある旨を含む発話であった場合に、前記話題についてのユーザの経験に対するユーザの評価を引き出すための発話を提示する第2発話提示ステップと、
    前記第2発話提示ステップで得たユーザ発話を受け付ける第2回答受付ステップと、
    前記第2回答受付ステップで得たユーザ発話が、前記話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に、当該肯定評価または否定評価に共感する発話を提示する第3発話提示ステップと、
    を含む対話方法。
  2. 請求項1に記載の対話方法であって、
    前記第1発話提示ステップで提示する発話は、前記話題についての印象を尋ねる質問と、当該質問に前置された経験してみたい旨の発話と、により構成される、
    対話方法。
  3. 請求項1または2に記載の対話方法であって、
    前記第2発話提示ステップで提示する発話は、前記話題についての印象を尋ねる質問と、当該質問に前置された評価表現を用いた発話と、により構成される、
    対話方法。
  4. 人格が仮想的に設定された対話システムであって、
    対話中の話題についてのユーザの経験を引き出すための発話である第1システム発話と、
    前記第1システム発話に対するユーザ発話が、前記話題についてユーザが経験したことがある旨を含む発話であった場合に提示される、前記話題についてのユーザの経験に対するユーザの評価を引き出すための発話である第2システム発話と、
    前記第2システム発話に対するユーザ発話が、前記話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に提示される、当該肯定評価または否定評価に共感する発話である第3システム発話と、
    を提示する提示部と、
    前記第1システム発話に対するユーザ発話である第1ユーザ発話と、
    前記第2システム発話に対するユーザ発話である第2ユーザ発話と、
    を受け付ける入力部と、
    を含む対話システム。
  5. ユーザの発話を受け付ける入力部と、発話を提示する提示部を少なくとも含む対話システムが提示する発話を決定する対話装置であって、
    対話中の話題についてのユーザの経験を引き出すための発話である第1システム発話と、
    前記第1システム発話に対するユーザ発話が、前記話題についてユーザが経験したことがある旨を含む発話であった場合に提示される、前記話題についてのユーザの経験に対するユーザの評価を引き出すための発話である第2システム発話と、
    前記第2システム発話に対するユーザ発話が、前記話題についてのユーザの経験に対するユーザの肯定評価または否定評価を含む発話であった場合に提示される、当該肯定評価または否定評価に共感する発話である第3システム発話と、
    を決定する発話決定部
    を含む対話装置。
  6. 請求項1から3のいずれかに記載の対話方法の各ステップをコンピュータに実行させるためのプログラム。
  7. 請求項5に記載の対話装置としてコンピュータを機能させるためのプログラム。
JP2021550888A 2019-10-03 2019-10-03 対話方法、対話システム、対話装置、およびプログラム Active JP7218816B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/039146 WO2021064948A1 (ja) 2019-10-03 2019-10-03 対話方法、対話システム、対話装置、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2021064948A1 JPWO2021064948A1 (ja) 2021-04-08
JP7218816B2 true JP7218816B2 (ja) 2023-02-07

Family

ID=75337938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550888A Active JP7218816B2 (ja) 2019-10-03 2019-10-03 対話方法、対話システム、対話装置、およびプログラム

Country Status (3)

Country Link
US (1) US20220351727A1 (ja)
JP (1) JP7218816B2 (ja)
WO (1) WO2021064948A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323388A (ja) 2002-05-01 2003-11-14 Omron Corp 情報提供方法および情報提供システム
US20150185996A1 (en) 2013-12-31 2015-07-02 Next It Corporation Virtual assistant team identification
WO2017200079A1 (ja) 2016-05-20 2017-11-23 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
JP2017208003A (ja) 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
WO2018163647A1 (ja) 2017-03-10 2018-09-13 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575963B2 (en) * 2012-04-20 2017-02-21 Maluuba Inc. Conversational agent
KR20140052155A (ko) * 2012-10-19 2014-05-07 삼성전자주식회사 디스플레이 장치, 디스플레이 장치 제어 방법 및 디스플레이 장치의 제어를 위한 정보처리장치
CN107113222B (zh) * 2014-06-06 2020-09-01 谷歌有限责任公司 基于环境的主动聊天信息系统
US20190286711A1 (en) * 2015-01-23 2019-09-19 Conversica, Inc. Systems and methods for message building for machine learning conversations
US11295736B2 (en) * 2016-01-25 2022-04-05 Sony Corporation Communication system and communication control method
US20190143527A1 (en) * 2016-04-26 2019-05-16 Taechyon Robotics Corporation Multiple interactive personalities robot
WO2018142686A1 (ja) * 2017-01-31 2018-08-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6853752B2 (ja) * 2017-08-17 2021-03-31 Kddi株式会社 対話シナリオコーパスの作成支援システム
CN109986569B (zh) * 2017-12-29 2022-08-23 微软技术许可有限责任公司 具有角色化和性格化的聊天机器人
US10845937B2 (en) * 2018-01-11 2020-11-24 International Business Machines Corporation Semantic representation and realization for conversational systems
EP3766066B1 (en) * 2018-04-19 2024-02-21 Microsoft Technology Licensing, LLC Generating response in conversation
US11194973B1 (en) * 2018-11-12 2021-12-07 Amazon Technologies, Inc. Dialog response generation
US20200395008A1 (en) * 2019-06-15 2020-12-17 Very Important Puppets Inc. Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
WO2021011139A1 (en) * 2019-07-18 2021-01-21 Sri International The conversational assistant for conversational engagement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323388A (ja) 2002-05-01 2003-11-14 Omron Corp 情報提供方法および情報提供システム
US20150185996A1 (en) 2013-12-31 2015-07-02 Next It Corporation Virtual assistant team identification
WO2017200079A1 (ja) 2016-05-20 2017-11-23 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
JP2017208003A (ja) 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
WO2018163647A1 (ja) 2017-03-10 2018-09-13 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杉山弘晃他,文脈に沿った発話理解・生成を行うドメイン特化型雑談対話システムの実験的検討,第84回言語・音声理解と対話処理研究会資料,一般社団法人人工知能学会,2018年11月,pp.118-123

Also Published As

Publication number Publication date
WO2021064948A1 (ja) 2021-04-08
JPWO2021064948A1 (ja) 2021-04-08
US20220351727A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
WO2017200072A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6719741B2 (ja) 対話方法、対話装置、及びプログラム
CN114391145A (zh) 具有自适应响应生成的ai驱动的个人助理
JP6667855B2 (ja) 取得方法、生成方法、それらのシステム、及びプログラム
WO2017200076A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6864326B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
Yamamoto et al. Voice interaction system with 3D-CG virtual agent for stand-alone smartphones
JP7310907B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2020113150A (ja) 音声翻訳対話システム
JP7218816B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
WO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
US11485022B2 (en) Dialogue apparatus and control program for dialogue apparatus
JP6610965B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2002132291A (ja) 自然言語対話処理装置およびその方法並びにその記憶媒体
JP7132206B2 (ja) 案内システム、案内システムの制御方法、およびプログラム
WO2017200075A1 (ja) 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム
Wolter et al. A Study on Automated Receptionists in a Real-World Scenario
Carlsson Designing a Digital Voice-Controlled Travel Guide: Investigating the User Experience of Voice-Controlled Customer Service
Campbell et al. Expressivity in interactive speech synthesis; some paralinguistic and nonlinguistic issues of speech prosody for conversational dialogue systems
Wolter et al. VU Research Portal
Vrabec et al. IQ kiosk in metropolitan information system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20220207

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R150 Certificate of patent or registration of utility model

Ref document number: 7218816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150