[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7132206B2 - 案内システム、案内システムの制御方法、およびプログラム - Google Patents

案内システム、案内システムの制御方法、およびプログラム Download PDF

Info

Publication number
JP7132206B2
JP7132206B2 JP2019225540A JP2019225540A JP7132206B2 JP 7132206 B2 JP7132206 B2 JP 7132206B2 JP 2019225540 A JP2019225540 A JP 2019225540A JP 2019225540 A JP2019225540 A JP 2019225540A JP 7132206 B2 JP7132206 B2 JP 7132206B2
Authority
JP
Japan
Prior art keywords
action
variables
information
executing
guidance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019225540A
Other languages
English (en)
Other versions
JP2021096293A (ja
Inventor
秀樹 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2019225540A priority Critical patent/JP7132206B2/ja
Publication of JP2021096293A publication Critical patent/JP2021096293A/ja
Application granted granted Critical
Publication of JP7132206B2 publication Critical patent/JP7132206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Description

本開示は、案内システム等に関する。
電話による問合せの際に、音声ガイダンスによってユーザに番号を指定して電話の番号ボタンを操作させる問合せシステムが存在する。また、駅や銀行において、ユーザに反応して、音声により情報を提供する会話ロボットが存在する。
特許文献1には、ユーザとの対話を行う対話インタフェースを提供する対話システムが開示されており、ユーザの発話内容を特定し、ユーザの発話内容に対してシステムの出力する発話内容を選択することが記載されている。
特許文献2には、機械と人間の対話方法が開示されており、ロボットは、対話を通じて話者のプロファイルを充実させ、更新された話者のプロファイルを用いて応答文を生成することが記載されている。
特開2018-205616号公報 特表2016-536630号公報
音声ガイダンスを利用した問合せシステムでは、システムのシーケンスに従う必要があるから、ユーザは音声ガイダンスをよく聞いて、問合せ事項を特定する要素をシステムに入力する必要がある。したがって、問合せ事項の特定はシステム主体となる。さらに、ユーザはシステムのシーケンスにひとつずつ従っていると、問合せ事項の特定に時間がかかる。
特許文献1および2の開示では、システムとユーザの対話において、ユーザの発話内容はシステムの質問内容に捕らわれるから、対話はシステム主体となる。
本開示は、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。
本開示に係る案内システムは、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する記憶手段と、音声から認識した単語が関係する前記変数を推定する推定手段と、前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、を有する。
本開示に係る案内システムの制御方法は、音声から認識した単語が関係する変数を推定し、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する。
本開示に係る案内プログラムは、音声から認識した単語が関係する変数を推定する推定処理と、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、をコンピュータに実行させる。
本開示によれば、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。
第1実施形態における情報処理システムのハードウエア構成例を概念的に示す図である。 第1実施形態に係る案内システム100の構成を例示するブロック図である。 アクション情報の例を示す図である。 第1実施形態における案内システム100の動作例を示すフローチャートである。 変数「乗車駅」の値が設定された第1設定情報の例を示す図である。 変数「乗車駅」と「降車駅」の値が設定された第1設定情報の例を示す図である。 変数「乗車駅」、「降車駅」、「日時」の値が設定された第1設定情報の例を示す図である。 第2実施形態に係る案内システム200の構成を例示するブロック図である。 第2実施形態における案内システム200の動作例を示すフローチャートである。 第2設定情報の例を示す図である。 アクションの選択の例を示す図である。 第2設定情報の例を示す図である。 アクションの選択の例を示す図である。 第3実施形態に係る案内システム300の構成を例示するブロック図である。 第3実施形態における案内システム300の動作例を示すフローチャートである。 第3実施形態における案内システム300の動作例を示すフローチャートである。 質問情報の例を示す図である。 第1~3実施形態における案内システム100~300の他のハードウエア構成例を概念的に示す図である。
以下、本開示の実施形態について図面を参照しながら説明する。
[第1実施形態]
〔ハードウエア構成〕
図1は、第1実施形態における案内システムと周辺機器を含む情報処理システムのハードウエア構成例を概念的に示す図である。第1実施形態における案内システムは、例えば、コンピュータ90によって構成される。コンピュータ90は、CPU(Central Processing Unit)91、メモリ92を有する。コンピュータ90には、音声認識装置60、マイク70、出力装置80が接続される。これら各ハードウエア要素は、例えば、バス等により接続される。メモリ92は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等である。
マイク70は、ユーザの音声を取得して音声認識装置60に音声データを送信する。音声認識装置60は、マイク70から入力された音声データを音声認識してテキストに変換し、当該テキストをコンピュータ90に送信する。出力装置80は、例えばスピーカーやディスプレイであり、ユーザに対し検索結果を提供する。なお、出力装置80は、スピーカー、ディスプレイに限られない。
〔処理構成〕
図2は、コンピュータ90によって構成される、第1実施形態に係る案内システム100の機能的構成を例示するブロック図である。案内システム100はユーザの問合せに応じてアクションを実行し、種々の情報をユーザに提供する。案内システム100が実行するアクションは、情報の検索であり、例えば、ユーザが手ごろな日本料理店を知りたい場合、案内システム100はアクションとして、所定の価格帯の日本料理店に関する情報を検索する。
案内システム100は、記憶部111、推定部112、設定部113、実行部114を有する。推定部112、設定部113、実行部114は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。記憶部111は例えばメモリ92である。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワークを介して他のコンピュータからインストールされ、メモリ92に格納されてもよい。また、案内システム100は、図2に示されていない他の機能を実行するソフトウェア要素を有してもよい。
記憶部111は、アクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する。図3は、第1実施形態において記憶部111が記憶するアクション情報の例を示す図である。図3において、記憶部111は、例えばアクション「列車検索」に必要な、3つの変数「乗車駅」「降車駅」「日時」を記憶する。なお、アクションに必要となる変数の数は2つでもよく、3つより多くてもよい。
推定部112は、ユーザの音声データから音声認識した単語をテキストとして受け付け、単語が関係する変数を推定する。音声認識は、既存の技術を用いて音声データをテキストに変換する。推定部112は、既存の技術を用いて、例えば文章構造から変数を推定してもよい。推定部112は、文章構造や単語と変数との関係を記憶するデータベースを参照して、単語と関係する変数を推定してもよい。推定部112は、抜き出した単語が関係する変数の推定に機械学習を用いてもよい。推定部112はテキスト含意認識技術を用いて、文の意味を捉えてもよい。
設定部113は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、音声認識した単語を設定する。設定部113は、認識された単語と同じ意味を持つ別の単語をデータベースから検索して設定してもよい。実行部114は、必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。案内システム100が実行するアクションの例は次に説明する。
〔動作例〕
以下、第1実施形態における案内システム100の制御方法について、図4を用いて説明する。図4は、第1実施形態における案内システム100の動作例を示すフローチャートである。以下において、ユーザがアクションの実行に必要な変数を、一文で発話した例について説明する。
ユーザが「5日9時に新大阪から東京まで行く。」と発声すると、音声認識装置60は、マイク70を介してユーザの音声データを取得する。音声認識装置60は、マイク70から取得した音声データを音声認識処理によってテキストに変換し、当該テキストを案内システム100に送信する。
推定部112は、音声から認識した単語が関係する変数を推定する(ステップS11)。例えば、推定部112は、テキストに変換された音声から認識した単語「新大阪」が、変数「乗車駅」に関係することを、テキスト含意認識技術を用いて推定する。同様に、推定部112は、単語「東京」が変数「降車駅」に関係し、「5日9時」が変数「日時」に関係することを推定する。
設定部113は、記憶部111が記憶するアクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し(ステップS12)、アクションの実行に必要な変数の値として、認識した単語を設定する(ステップS13)。
例えば、設定部113は、図3に示すアクション情報を参照し(ステップS12)、推定した変数「乗車駅」を要するアクションである、アクション「列車検索」および「天気予報1」を選択する。設定部113は、選択されたアクションの実行に必要な変数の値を設定する第1設定情報を生成する。図5Aは、変数「乗車駅」の値が設定された第1設定情報の例を示す図である。設定部113は、図5Aに示すように、変数「乗車駅」の値として、認識した単語「新大阪」を設定する(ステップS13)。
次に、実行部114は、設定部113が選択したアクションが必要とする変数の値が設定済みであるか判定する(ステップS14)。実行部114は、アクションが必要とする変数の値が設定されていないと判定すると(ステップS14;No)、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。
例えば、実行部114は、図5Aの第1設定情報より、アクション「列車検索」に必要な変数「降車駅」および「日時」の値が設定されていないことを判定する(ステップS14;No)と、設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「降車駅」を要するアクション「列車検索」、「天気予報2」を選択する。
設定部113は、変数「降車駅」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」の第1設定情報に加え、変数「降車駅」の第1設定情報をマージして変数「乗車駅」と変数「降車駅」の値を設定する第1設定情報を生成する。図5Bは、変数「乗車駅」、変数「降車駅」の値が設定された第1設定情報の例を示す図である。図5Bに示すように、設定部113は、変数「乗車駅」の値として「新大阪」を設定し、変数「降車駅」の値として「東京」を設定する(ステップS13)。
実行部114は、図5Bに示す第1設定情報より、アクション「列車検索」、「天気予報1」、「天気予報2」に対して変数「日時」の値が設定されていないことを判定する(ステップS14;No)と、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。
設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「日時」を要するアクション「列車検索」、「天気予報1」、「天気予報2」を選択する。
設定部113は、変数「日時」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」と変数「降車駅」の第1設定情報に加え、変数「日時」の第1設定情報をマージして変数「乗車駅」、「降車駅」、「日時」の値を設定する第1設定情報を生成する。図5Cは、変数「乗車駅」、「降車駅」、「日時」の値が設定された第1設定情報の例を示す図である。図5Cに示すように、設定部113は、変数「乗車駅」、「降車駅」、「日時」の値として、それぞれ「新大阪」、「東京」、「5日9時」を設定する。
実行部114は、アクションに必要な複数の変数の値が設定されたことを判定すると(ステップS14;Yes)、設定された単語に基づいてアクションを実行する(ステップS15)。例えば、実行部114は、アクション「列車検索」の変数の値がコンプリートされたことを判定し、単語「新大阪」、「東京」、「5日9時」に基づきアクション「列車検索」を実行し、列車に関する情報を検索する。案内システム100は、列車に関する情報を出力装置80に送信し、出力装置80は列車の発車時刻や運賃などの情報を提供する。出力装置80はユーザが乗車する列車の切符の購入画面を表示してもよい。
同様に、実行部114は、アクションに必要な変数が設定された「天気予報1」および「天気予報2」を実行する(ステップS14、ステップS15)。実行部114が実行するアクション「天気予報1」は、例えば乗車駅における天気の情報の検索であり、アクション「天気予報2」は、例えば降車駅における天気の情報の検索である。出力装置80は検索された天気の情報を提供する。
なお、記憶部111は、アクションに必要となる変数の数が1つであるアクションを記憶してもよい。例えば図3において、記憶部111はアクション「挨拶発話」に必要な変数「挨拶」を記憶している。ユーザが「こんにちは」と発声すると、変数「挨拶」に値「こんにちは」が設定され、実行部114は「挨拶発話」を実行する。実行部114は音声「こんにちは」を出力装置80であるスピーカーから出力するよう指示してもよい。
〔第1実施形態の効果〕
第1実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム100が、複数の変数を必要とするアクションについて、音声から認識した単語が関係する変数を推定し、変数に値を設定し、複数の変数の値が設定されるとアクションを実行するからである。
[第2実施形態]
〔処理構成〕
図6は、第2実施形態に係る案内システム200の構成を例示するブロック図である。案内システム200は、記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221を有する。第2実施形態に係る案内システム200のハードウエア構成は、第1実施形態において説明した図1のコンピュータ90と同様であってもよい。推定部212、設定部213、実行部214、音声認識部220および音声合成部221は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。
記憶部211、推定部212、設定部213、実行部214は、第1実施形態における記憶部111、推定部112、設定部113、実行部114と同様の機能を有し、さらに他の機能も有する。案内システム200の具体的な動作については後述する。
音声認識部220は、マイクを介して入力されたユーザの音声データをテキストに変換する。音声合成部221は、ユーザに情報を提供するために、音声を合成する。例えば、音声合成部221は、実行部214がアクションとして検索した結果を音声合成する。
第2実施形態の案内システム200は、音声認識部220および音声合成部221を案内システム200に内装した例で説明するが、これに限られない。音声認識部220および音声合成部221の少なくとも一方が外部装置として案内システム200に接続された構成でもよい。
推定部212は、音声認識部220からユーザの音声データが変換されたテキストを受け付け、テキストに含まれる単語が関係する変数を推定する。設定部213は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、ユーザの音声を認識した単語を設定する。また設定部213は以下の機能を有する。
設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報を生成する。第1実施形態の第1設定情報が、選択されたアクションの実行に必要な変数の値を設定する設定情報である。これに対し、第2実施形態の第2設定情報はアクションの実行に必要な変数の値を設定する設定情報ではあるが、第2設定情報には変数に対応づけられるアクションは含まれていない。
次に設定部213は、推定部212が推定した変数の値は設定済みであるか判定する。すなわち、設定部213は推定した変数のうち、値を設定していない変数(以下、未設定変数と記す)が存在するか判定する。未設定変数が存在する場合、設定部213は、第2設定情報に変数の値を設定する。
設定部213は、第2設定情報の変数に値が設定されると、第2設定情報に含まれる値が設定された変数が、アクション情報に含まれるアクションの実行に必要な変数に該当するかを確認する。該当する場合、設定部213は、第2設定情報の変数を含むアクションを選択する。なお、該当するアクションが複数ある場合、設定部213は、該当するアクションがアクション情報に残っているか確認する。
実行部214は、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。また実行部214は以下の機能を有する。
実行部214は、設定部213が選択したアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。実行部214は、アクションを実行した結果を音声合成部221に出力する。
また、実行部214は、設定部213が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部214は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。
〔動作例〕
以下、第2実施形態における案内システム200の制御方法について、図7を用いて説明する。図7は、第2実施形態における案内システム200の動作例を示すフローチャートである。
以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。また、第1実施形態における動作例では、設定部113は認識した単語を一つずつ設定する例について説明したが、以下の例において、設定部213は、認識した単語を一度に複数設定する場合について説明する。
ユーザが例えば「新大阪から新幹線で東京まで行く。」と発声すると、音声認識部220は、マイクを介してユーザの音声データを取得する(ステップS21)。音声認識部220は、取得した音声データをテキストに変換する(ステップS22)。推定部212は、テキストから単語「新大阪」と「新幹線」と「東京」を抜き出し、記憶部211に記憶された図3に示すアクション情報を参照して、これらの単語が関係する変数が「乗車駅」と「降車駅」であると推定する(ステップS23)。
設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。ステップS23において、推定部212は変数「乗車駅」と「降車駅」を推定しており、設定部213はまだこれらの値を設定した設定情報を生成していない。したがって設定部213は推定した変数の値は設定済みでないことを判定する(ステップS24;No)。設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報において、変数「乗車駅」に値「新大阪」を設定し、変数「降車駅」に値「東京」を設定する(ステップS25)。例えば、設定部213は図8Aに示す第2設定情報を生成することで、値を設定する。
設定部213は、図3に示すアクション情報を参照し、変数「乗車駅」または変数「降車駅」を含む、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Bに示す態様でアクションを選択してもよい。
実行部214は、アクションの実行に必要な変数の値は設定されたかを判定する(ステップS27)。例えば、実行部214は、アクション情報と第2設定情報より、アクション「列車検索」が要求する変数「乗車駅」と「降車駅」以外の他の変数として変数「日時」の値が設定されていないことを判定する(ステップS27;No)。
図8Aに示す第2設定情報ではアクション「列車検索」を実行できないため、実行部214は、アクション情報を参照し、変数「乗車駅」と「降車駅」を含む実行されていないアクションが残っているか確認する(ステップS29)。実行部214はアクション「天気予報1」と「天気予報2」が存在することを確認する(ステップS29;Yes)。実行部214は、アクション「天気予報1」の必要とする変数が全て設定されているか確認し(ステップS27)、変数「日時」の値が設定されていないことを判定する(ステップS27;No)。
実行部214はアクション「天気予報2」についても、アクション「天気予報1」と同様に、ステップS27の判定を行う。実行部214は、再度アクション情報を参照し、変数「乗車駅」を含む実行されていないアクションが残っているか確認し(ステップS29)、他にアクションがないことを確認する(ステップS29;No)。
設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。設定部213は変数「乗車駅」と「降車駅」の値を設定した第2設定情報を生成済みである。したがって設定部213は推定した変数の値は設定済みであることを判定する(ステップS24;Yes)。
ここで、音声認識部220が、新たに音声「週末の5日の朝9時に出掛ける」の音声データを取得する(ステップS21)。音声認識部220は音声データをテキスト変換する(ステップS22)。推定部212は、「5日」「朝9時」が変数「日時」に関係すると推定する(ステップS23)。設定部213は、新たに推定された変数「日時」の値は第2設定情報に設定されていないことを判定し(ステップS24;No)、値「5日9時」を設定する(ステップS25)。例えば、設定部213は図8Aの第2設定情報を更新し、図8Cに示す第2設定情報を生成することで、値を設定する。
設定部213は、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Dに示す態様でアクションを選択してもよい。変数「日時」を含み、変数「乗車駅」「降車駅」を含まないアクションは、図3に示したアクション情報の例には存在しない。したがって、図8Dと図8Bを比較すると、設定部213が選択するアクションに変化はない。
実行部214は、「列車検索」に必要な変数の値が充足していることを判定し(ステップS27;Yes)、アクション「列車検索」を実行する(ステップS28)。実行部214は、列車検索の結果を音声合成部221に送信し、音声合成部221は、例えば検索結果に関する「9時6分のぞみ4号があります」の音声を合成する。
次に、実行部214は、変数「日時」を含むアクション「天気予報1」が残っていることを確認する(ステップS29;Yes)。実行部14は、「天気予報1」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報1」を実行し(ステップS28)、例えば新大阪駅5日の天気予報を検索する。
さらに、実行部214は、変数「日時」を含むアクション「天気予報2」が実行されずに残っていることを確認する(ステップS29;Yes)。実行部214は、「天気予報2」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報2」を実行し、東京駅の5日の天気予報を検索する(ステップS28)。実行部214は、変数「日時」を含むアクションが全て実行されたことを判定し(ステップS29;No)、処理ステップはステップS24に戻る。
案内システム200は、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。
第2実施形態において、設定部213は、推定された変数を含むアクションを全て選択したが、アクションの選択方法はこれに限られない。設定部213が選択するアクションの数には制限を設けてもよい。また、推定された変数を含むアクションが複数存在する場合、設定部213は、複数のアクションのうち不足している変数が少ないアクションを優先して選択してもよい。設定部213は、第2設定情報に含まれる変数を全て必要とするアクションを選択してもよい。さらに、推定部212は、ユーザの発話内容に基づいて、推定された変数を含む複数のアクションのうちユーザが求めるアクションを推定してもよい。
〔第2実施形態の効果〕
第2実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム200が、ユーザが追加で発話した音声についても、音声から認識した単語が関係する変数を推定し、変数に値を設定し、アクション情報が定める複数の変数の値が設定されるとアクションを実行するからである。
音声認識部220と音声合成部221を備えた自動音声応答(Interactive Voice Response, IVR)システムを利用することで、ユーザはシステムとの対話を通じて問合せをすることが可能になる。
[第3実施形態]
〔処理構成〕
図9は、第3実施形態に係る案内システム300の構成を例示するブロック図である。案内システム300は、記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321、タイマー322を有する。第3実施形態に係る案内システム300のハードウエア構成は、第1および第2実施形態において説明した、図1のコンピュータ90と同様であってもよい。
記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321は、第2実施形態における記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221と同様の機能を有する。以下において、第2実施形態における機能と相違する点を説明する。
設定部313は、第2設定情報に変数の値として、単語を第2設定情報に設定した後、値を設定した変数を含むアクションを選択する。第3実施形態において、実行部314は、設定部313が選択したアクションに対して、図3に示すアクション情報を参照し、第2設定情報の変数でアクションが実行できるか判定する。例えば、実行部314は、第2設定情報にアクションの実行に不足している変数の値がある場合、案内システム300のユーザに対してアクションの実行に必要な変数に関する発話を促す情報を出力する。
さらに、設定部313が選択したアクションの実行に必要な変数が不足している場合に、実行部314は、タイマー322をセットする。タイマー322は、所定時間の経過を計測する。タイマー322の計測する所定の時間が経過すると、実行部314は、不足している変数が設定されたか判定する。不足している変数が設定されていない場合、実行部314はユーザの発話を誘導する情報を案内システム300に出力する。
実行部314は、例えば、誘導する情報として、質問文を出力してもよい。案内システム300は合成音声の質問文を出力してもいいし、ディスプレイに誘導する情報を表示してもよい。
実行部314は、値が入力されていない変数が所定の個数以下となったアクションのタイマー322をセットしてもよい。これにより実行部314が実行するアクションを絞り込むことが可能になる。値が揃った実行可能なアクションが複数存在する場合、実行部314は、アクション情報に予め定められた優先順位が高い順に、実行するアクションを決定してもよい。また、実行部314は、実行可能なアクションが複数ある場合、ユーザに実行する前記アクションの決定する発話を誘導する情報を出力してもよい。実行部314は、図3に示すアクション情報の「提供情報」を参照し、「「列車」と「天気」、どちらについて知りたいですか?」と出力してもよい。
タイマー322による所定時間の経過は、ユーザが発話を終えた時点から計測してもいいし、設定部313が値の設定を終えた時点から計測してもよいが、これらに限られない。例えば実行部314は、変数「日時」が不足していることを判定した時点でタイマー322をセットしてもよい。タイマー322は、例えばセットされた時点から5秒を計測する。タイマー322は実行部314に変数「日時」が不足していることを判定した時点から5秒が経過したことを通知してもよい。
実行部314は、ユーザの発話に基づいて、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。実行部314はさらに以下の機能を有する。実行部314は、アクションを実行した結果を音声合成部321に出力する。
また、実行部314は、設定部313が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部314は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部314は、変数の値が第2設定情報に設定済みであればアクションを実行する。
記憶部311は、アクションの実行に不足している変数と質問文との対応関係を定める質問情報を記憶していてもよい。実行部314は記憶された質問情報を参照し、質問文を選択してもよい。図11は、質問情報の例を示す図である。実行部314は、変数「乗車駅」の値が不足している場合、質問文「どこから乗りますか?」を選択し、案内システム300に出力する。
〔動作例〕
以下、第3実施形態における案内システム300の制御方法について、図10Aおよび図10Bを用いて説明する。図10Aおよび図10Bは、第3実施形態における案内システム300の動作例を示すフローチャートである。以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。
音声認識部320は、マイクを介して例えば「新大阪から新幹線で東京まで行く。」の音声データを取得する(ステップS21)。このとき案内システム300の動作は、第2実施形態におけるステップS21からステップS27までの動作例と同様であるため詳細な説明は省略する。
実行部314は、変数「日時」の値が設定されていないことを判定すると(ステップS27;No)、変数「日時」に関する発話を誘導する情報の出力タイミングを計測するタイマー322をセットする(ステップS30)。その後、設定部313は、変数「乗車駅」を含むアクションが設定情報に残っているか確認する(ステップS29)。
本例において、ユーザが最初に「新大阪から新幹線で東京まで行く。」と発話した後に、変数「日時」の値に関して、追加で自発的に発話しない場合について説明する。タイマー322は、所定時間経過を計測する(ステップS31)。所定時間経過後、実行部314は、変数「日時」の値が設定されていないことを判定する(ステップS32;No)。実行部314は、発話を誘導する情報を出力する(ステップS33)。実行部314は、誘導する情報として例えば「日時を教えて下さい。」を音声合成部321に出力してもよい。
第2実施形態における動作例と同様に、ユーザが自発的に「日時」に関する発話をした場合、所定時間経過後(ステップS31)、実行部314は値が設定されていなかった「日時」の値が設定されたことを判定し(ステップS32;Yes)処理を終了する。
なお、案内システム300においても、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。
〔第3実施形態の効果〕
第3実施形態では、案内システム300は、ユーザによる最初の発話に含まれる単語に基づき、アクションに必要な変数が揃うように誘導する情報を出力する。このためユーザが発話すべき内容が明確になり、ユーザの最初の発話から案内システム300のアクションの実行までの時間を短縮することができる。
第3実施形態では、タイマー322を備えることにより、所定時間が経過してから不足する変数を誘導する情報を出力させるから、ユーザ主体の問合せの発話を可能にする。すなわち、タイマー322により、ユーザの発話内容を十分に聞いてから、不足している変数に関する発話を促すことができる。
なお、第3実施形態において、タイマー322が所定時間の経過を計測する場合について説明したが、所定時間の経過は実行部314が計測してもよい。このとき、実行部314はタイマー322が示す時間を参照し、時間の経過を計測する。
また、第3実施形態において、案内システム300がタイマー322を備える場合について説明したが、案内システム300はタイマー322を備えていなくてもよい。すなわち誘導する情報の出力のタイミングは、タイマー322により制御しない構成であってもいい。例えばアクションに必要な変数の数が所定の個数以下であると、実行部314は、不足している変数に関する発話を誘導する情報を出力してもよい。
〔変形例〕
以下に第1実施形態に係る案内システム100の変形例について説明するが、これらの変形例は、第2および第3実施形態に係る案内システム200、300に対しても適用することができる。
図12は、案内システム100の他のハードウエア構成例を概念的に示す図である。案内システム100の各機能は、図1に示すように1つのコンピュータ90に備えられる必要はなく、複数のコンピュータ190、290等により実現されてもよい。図1における出力装置80は、具体的には、図12に示すようにディスプレイ81およびスピーカー82であってもよい。出力装置80は、プリンタであってもよい。マイク70はコンピュータ190に接続されていてもよい。
設定部113は、値を入力する際に、ユーザに対する返答を生成してもよい。返答とは、例えば「はい」や「なるほど」であり、検索結果の提供とは異なる。案内システム100がロボットである場合、ロボットは返答として、頷く動作をしてもよい。案内システム100が返答をすることで、ユーザは音声が入力されていることを確認することが可能になる。
また、案内システム100は、返答として、ユーザの発話内容を復唱してもよい。例えばユーザが「朝9時」を含む発話をすると、案内システム100は「本日の朝9時ですね。」と復唱する。案内システム100がユーザの発話内容を復唱することで、ユーザは発話内容が正しく認識されていることを確認することが可能になる。
以上のように、案内システム100がアクションを実行する前に、返答を行うことで、ユーザは落ち着いて問合せの発話をすることができる。
案内システム100は、情報案内としてディスプレイに検索結果を表示する代わりに、検索結果を表示するウェブサイトを特定する情報を出力してもよい。ウェブサイトを特定する情報はURL(Uniform Resource Locator)や二次元バーコードであってもよく、これらはディスプレイに表示されてもいいし、プリンタにより紙に印刷されてもよい。さらに、案内システム100は近距離無線通信、メール、ソーシャルネットワークサービスを通じて、ユーザに情報案内を送信してもよい。また電話案内の際には、ユーザの携帯端末に情報案内をショートメッセージサービスにより送信してもよい。
実行部が実行するアクションには、情報案内アクションの他に、会話アクションを含んでもよい。アクション情報には、ユーザの個人情報に関する変数「体調」や、地域の情報に関する変数「天気」などを含んでもよい。変数「体調」の値が「良い」であり、変数「天気」の値も「晴れ」であると、案内システム100は、例えば地域のイベントに出かけることを促す発話アクションを実行することができる。このように、案内システム100は会話ロボットとして雑談をすることもできる。
なお、推定部112は、ユーザの発話内容のうち、変数「体調」または変数「天気」に関係する単語を推定してもよい。設定部113は、インターネットを通じて一部の変数の値を取得し、設定してもよい。
一般的な会話ロボットは、対話のテーマとシナリオが予め決まっているため、会話はシステム主導となり、人は予め定められたシーケンスに則って発話する必要がある。会話アクションの実行に案内システム100を適用すると、会話をユーザ主導とすることができる。
対話のテーマを自由にするために、インターネットのチャット履歴を機械学習によって学習したチャットボットを利用しても、会話の内容は一般化されてしまうから、チャットボットとの会話は各人に合わせた内容とならないことがある。会話アクションの実行に第1実施形態の案内システム100を適用すると、各人に合わせた会話が可能になる。
<適用例>
本開示の各実施形態は、切符の自動販売機、観光地の案内ロボット、ホテルのチェックインシステム、コンビニエンスストアのマルチメディアキオスクまたは複合機において適用することができる。
音声によってユーザの問合せを受け付けることで、ユーザは複雑な画面から問合せ内容を探し出す必要がなくなる。さらに音声入力によれば、ボタンの操作が困難である場面において、ハンズフリーで要求を入力することができる。
以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
100、200、300 案内システム
111、211、311 記憶部
112、212、312 推定部
113、213、313 設定部
114、214、314 実行部
220、320 音声認識部
221、321 音声合成部
322 タイマー

Claims (7)

  1. アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する記憶手段と、
    音声から認識した単語が関係する前記変数を推定する推定手段と、
    前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、
    前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、
    を備え
    前記実行手段は、値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する
    案内システム。
  2. 前記推定手段は、前記アクションの実行に必要な複数の変数が不足している間、前記変数の推定を繰り返す、
    請求項1に記載の案内システム。
  3. 実行可能な前記アクションが複数ある場合、実行する前記アクションの決定する発話を誘導する情報を出力する
    請求項1又は2に記載の案内システム。
  4. 前記アクションはユーザに案内する情報の検索である
    請求項1乃至のいずれか1項に記載の案内システム。
  5. 前記設定手段は、値を設定するとき、アクション実行前に返答を生成する、
    請求項1乃至のいずれか1項に記載の案内システム。
  6. 音声から認識した単語が関係する変数を推定し、
    アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、
    値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力し、
    前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する、
    案内システムの制御方法。
  7. 音声から認識した単語が関係する変数を推定する推定処理と、
    アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、
    値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する出力処理と、
    前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、
    をコンピュータに実行させる案内プログラム。
JP2019225540A 2019-12-13 2019-12-13 案内システム、案内システムの制御方法、およびプログラム Active JP7132206B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019225540A JP7132206B2 (ja) 2019-12-13 2019-12-13 案内システム、案内システムの制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225540A JP7132206B2 (ja) 2019-12-13 2019-12-13 案内システム、案内システムの制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021096293A JP2021096293A (ja) 2021-06-24
JP7132206B2 true JP7132206B2 (ja) 2022-09-06

Family

ID=76431140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225540A Active JP7132206B2 (ja) 2019-12-13 2019-12-13 案内システム、案内システムの制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7132206B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193479A (ja) 1998-12-25 2000-07-14 Aisin Aw Co Ltd ナビゲ―ション装置及び記憶媒体
JP2003108581A (ja) 2001-09-27 2003-04-11 Mitsubishi Electric Corp 対話型情報検索装置および対話型情報検索方法
WO2017145373A1 (ja) 2016-02-26 2017-08-31 三菱電機株式会社 音声認識装置
JP2018151631A (ja) 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド ドメイン曖昧性除去を含む音声対応システム
JP2019105904A (ja) 2017-12-11 2019-06-27 トヨタ自動車株式会社 サービス提供装置、サービス提供プログラム及び音声認識によるサービスを提供する方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193479A (ja) 1998-12-25 2000-07-14 Aisin Aw Co Ltd ナビゲ―ション装置及び記憶媒体
JP2003108581A (ja) 2001-09-27 2003-04-11 Mitsubishi Electric Corp 対話型情報検索装置および対話型情報検索方法
WO2017145373A1 (ja) 2016-02-26 2017-08-31 三菱電機株式会社 音声認識装置
JP2018151631A (ja) 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド ドメイン曖昧性除去を含む音声対応システム
JP2019105904A (ja) 2017-12-11 2019-06-27 トヨタ自動車株式会社 サービス提供装置、サービス提供プログラム及び音声認識によるサービスを提供する方法

Also Published As

Publication number Publication date
JP2021096293A (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
US9742912B2 (en) Method and apparatus for predicting intent in IVR using natural language queries
US11869495B2 (en) Voice to voice natural language understanding processing
KR101211796B1 (ko) 외국어 학습 장치 및 그 제공 방법
JP5967569B2 (ja) 音声処理システム
CN101287043B (zh) 用于提供与多模式应用之间的表达用户交互的方法和设备
RU2352979C2 (ru) Синхронное понимание семантических объектов для высокоинтерактивного интерфейса
RU2349969C2 (ru) Синхронное понимание семантических объектов, реализованное с помощью тэгов речевого приложения
JP6540414B2 (ja) 音声処理装置および音声処理方法
CN106796788A (zh) 基于用户反馈来改善自动语音识别
US11615787B2 (en) Dialogue system and method of controlling the same
KR101836430B1 (ko) 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버
US20060020471A1 (en) Method and apparatus for robustly locating user barge-ins in voice-activated command systems
JPWO2019031268A1 (ja) 情報処理装置、及び情報処理方法
CN117809641A (zh) 一种终端设备及基于查询文本改写的语音交互方法
CN105869631B (zh) 语音预测的方法和装置
Lai et al. Conversational speech interfaces and technologies
JP7132206B2 (ja) 案内システム、案内システムの制御方法、およびプログラム
JP4103085B2 (ja) 異言語間対話処理方法およびその装置、ならびにそのプログラムと記録媒体
WO2018135302A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
JP7310907B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2019015950A (ja) 音声認識方法、プログラム、音声認識装置、及びロボット
KR20230135396A (ko) 대화 관리 방법, 사용자 단말 및 컴퓨터로 판독 가능한 기록 매체
JP4408665B2 (ja) 音声認識用発話データ収集装置、音声認識用発話データ収集方法、及びコンピュータプログラム
KR20210098250A (ko) 전자 장치 및 이의 제어 방법
JP7218816B2 (ja) 対話方法、対話システム、対話装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220825

R150 Certificate of patent or registration of utility model

Ref document number: 7132206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150