JP2018132624A - Voice interaction apparatus - Google Patents
Voice interaction apparatus Download PDFInfo
- Publication number
- JP2018132624A JP2018132624A JP2017025582A JP2017025582A JP2018132624A JP 2018132624 A JP2018132624 A JP 2018132624A JP 2017025582 A JP2017025582 A JP 2017025582A JP 2017025582 A JP2017025582 A JP 2017025582A JP 2018132624 A JP2018132624 A JP 2018132624A
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- voice
- threshold
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は音声対話装置に関し、特に、感情の推定を行う音声対話装置に関する。 The present invention relates to a voice interaction apparatus, and more particularly to a voice interaction apparatus that estimates emotions.
ユーザと会話を行う音声対話装置が知られている。このような技術に関し、例えば、特許文献1では、ユーザの感情に合わせた応答を行う対話処理装置について開示している。この対話処理装置では、ユーザの発話内容に基づいて、ユーザの感情が、ポジティブ、ネガティブ、ニュートラルのいずれであるかを一定の判定基準に従って推定し、推定結果に応じた応答を行う。 2. Description of the Related Art A voice interactive device that has a conversation with a user is known. With regard to such a technique, for example, Patent Document 1 discloses a dialog processing apparatus that performs a response in accordance with the user's emotion. In this interactive processing device, based on the content of the user's utterance, it is estimated according to a certain criterion whether the user's emotion is positive, negative, or neutral, and a response is made according to the estimation result.
このように、言語情報、音韻情報、又は画像情報などといった特徴量に基づいて、ユーザの感情を指標化して、ユーザによらず一定の判断基準で感情を推定する技術がある。 As described above, there is a technique for indexing a user's emotion based on a feature amount such as language information, phonological information, or image information, and estimating the emotion based on a certain criterion regardless of the user.
しかしながら、対話シーンによって、感情推定に使用される特徴量へのユーザの感情の反映度合いが異なる場合がある。例えば、ユーザが主に話し手として対話している場合、ユーザが主に聞き手として対話している場合に比べ、特徴量への感情の反映度合いは大きい。特許文献1に記載された技術の場合、ユーザの感情が特徴量に反映されにくい対話シーンの場合には、ユーザに対しては、推定結果としてニュートラルとなることが多くなり、ユーザの感情が特徴量に反映されやすい対話シーンの場合には、推定結果としてポジティブ又はネガティブが多くなる。このように、対話シーンによって、ばらつきが多くなり適切な感情推定を行うことができない。 However, the degree of reflection of the user's emotion in the feature quantity used for emotion estimation may differ depending on the conversation scene. For example, when the user is mainly interacting as a speaker, the degree of reflection of emotion on the feature amount is greater than when the user is mainly interacting as a listener. In the case of the technique described in Patent Document 1, in the case of a conversation scene in which the user's emotion is difficult to be reflected in the feature amount, the estimation result is often neutral for the user, and the user's emotion is characteristic. In the case of an interactive scene that is easily reflected in the amount, positive or negative increases as an estimation result. In this way, there are many variations depending on the conversation scene, and appropriate emotion estimation cannot be performed.
本発明は、上記した事情を背景としてなされたものであり、対話シーンの違いによる影響を抑制した感情推定を行うことができる音声対話装置を提供することを目的とする。 The present invention has been made against the background of the above-described circumstances, and an object thereof is to provide a voice interaction apparatus capable of performing emotion estimation while suppressing the influence of a difference in a conversation scene.
上記目的を達成するための本発明の一態様は、対話相手であるユーザの発話音声を認識し、前記ユーザに対し音声を出力する音声対話装置であって、感情推定に用いる特徴量を前記ユーザから取得する特徴量取得部と、前記ユーザと自装置の対話履歴に基づいて、前記ユーザ及び自装置のいずれが聞き手側として対話し、いずれが話し手側として対話しているかを判定する対話シーン判定部と、感情を推定するための閾値を、前記対話シーン判定部による判定結果に応じて設定する感情閾値設定部と、前記特徴量に基づいて前記ユーザの感情の指標値を算出し、算出した前記指標値と前記感情閾値設定部により設定された閾値との比較結果に応じて、前記ユーザの感情を推定する感情推定部とを有する音声対話装置である。
この音声対話装置によれば、ユーザが、聞き手側として対話しているのか話し手側として対話しているかが判定され、その判定結果に応じて感情推定のための閾値が設定される。このため、この音声対話装置によれば、対話シーンの違いによる影響を抑制した感情推定を行うことができる。
One aspect of the present invention for achieving the above object is a speech dialogue apparatus that recognizes a speech voice of a user who is a conversation partner and outputs the voice to the user, wherein the feature amount used for emotion estimation is the user. Based on the feature amount acquisition unit acquired from the user and the conversation history of the user and the own apparatus, the conversation scene determination is performed to determine which of the user and the own apparatus is interacting as the listener side and which is interacting as the speaker side. And an emotion threshold setting unit for setting a threshold for estimating emotion according to a determination result by the dialog scene determination unit, and calculating an index value of the user's emotion based on the feature amount It is a voice interactive apparatus having an emotion estimation unit that estimates the user's emotion according to a comparison result between the index value and the threshold set by the emotion threshold setting unit.
According to this voice interactive apparatus, it is determined whether the user is interacting as a listener or a speaker, and a threshold for emotion estimation is set according to the determination result. For this reason, according to this speech dialogue apparatus, it is possible to perform emotion estimation while suppressing the influence due to the difference in dialogue scene.
本発明によれば、対話シーンの違いによる影響を抑制した感情推定を行うことができる音声対話装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the audio | voice dialog apparatus which can perform the emotion estimation which suppressed the influence by the difference in a dialog scene can be provided.
以下、図面を参照して本発明の実施の形態について説明する。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。 Embodiments of the present invention will be described below with reference to the drawings. Note that, in each drawing, the same element is denoted by the same reference numeral, and redundant description is omitted as necessary.
図1は、実施の形態1にかかる音声対話装置1のハードウェア構成を示す図である。音声対話装置1は、ユーザと音声を用いて対話を行う。具体的には、音声対話装置1は、ユーザからの発話に応じて、ユーザに対して音声を出力することで、ユーザと対話を行う。つまり、音声対話装置1は、対話相手であるユーザの発話音声を認識し、このユーザに対し音声を出力する。音声対話装置1は、例えば、生活支援ロボット及び小型ロボット等のロボット、クラウドシステム及びスマートフォン等に搭載可能である。 FIG. 1 is a diagram illustrating a hardware configuration of the voice interactive apparatus 1 according to the first embodiment. The voice interactive apparatus 1 performs a conversation with a user using voice. Specifically, the voice interaction apparatus 1 interacts with the user by outputting a voice to the user in response to an utterance from the user. That is, the voice dialogue apparatus 1 recognizes the voice of the user who is the dialogue partner and outputs the voice to the user. The voice interactive apparatus 1 can be mounted on, for example, a robot such as a life support robot and a small robot, a cloud system, a smartphone, and the like.
音声対話装置1は、周辺の音声を収集するマイク2と、音声を発するスピーカ3と、制御装置10とを有する。制御装置10は、例えばコンピュータとしての機能を有する。制御装置10は、マイク2及びスピーカ3と、有線又は無線で接続されている。なお、音声対話装置1が、周辺の画像を取得するカメラ(図示せず)をさらに備え、制御装置10が、さらに、このカメラと有線又は無線で接続されていてもよい。
The voice interaction device 1 includes a
制御装置10は、主要なハードウェア構成として、CPU(Central Processing Unit)12と、ROM(Read Only Memory)14と、RAM(Random Access Memory)16とを有する。CPU12は、制御処理及び演算処理等を行う演算装置としての機能を有する。ROM14は、CPU12によって実行される制御プログラム及び演算プログラム等を記憶するための機能を有する。RAM16は、処理データ等を一時的に記憶するための機能を有する。
The
制御装置10は、マイク2によって集音されたユーザの発話を解析して、そのユーザの発話に応じて、ユーザに対する応答を生成する。そして、制御装置10は、スピーカ3を介して、生成された応答に対応する音声(応答音声)を出力する。
The
図2は、実施の形態1にかかる音声対話装置1の制御装置10の構成を示すブロック図である。制御装置10は、特徴量取得部101と、発話行為タイプ判別部102と、対話履歴記憶部103と、対話シーン判定部104と、感情推定部105と、感情閾値設定部106と、応答生成部107と、音声合成部108とを有する。なお、図2に示す特徴量取得部101、発話行為タイプ判別部102、対話シーン判定部104、感情推定部105、感情閾値設定部106、応答生成部107、及び音声合成部108は、例えば、CPU12がROM14に記憶されたプログラムを実行することによって実現可能である。また、必要なプログラムを任意の不揮発性記録媒体に記録しておき、必要に応じてインストールするようにしてもよい。また、対話履歴記憶部103は、例えば、ROM14等の記憶装置により実現される。なお、各構成要素は、上記のようにソフトウェアによって実現されることに限定されず、何らかの回路素子等のハードウェアによって実現されてもよい。
FIG. 2 is a block diagram of the configuration of the
特徴量取得部101は、感情推定に用いる特徴量を、対話相手であるユーザから取得する。本実施の形態では、特徴量取得部101は、マイク2により取得されたユーザの音声データに対し、音声認識処理を行うことで、特徴量としてテキストデータを生成する。したがって、特徴量取得部101は、音声認識部と称されてもよい。なお、本実施の形態では、特徴量取得部101により取得された特徴量、すなわちテキストデータは、感情推定のみならず、応答の生成にも用いられる。また、特徴量取得部101は、音声認識処理結果に基づいて、ユーザの発話時間を特定し、特定した発話時間を後述する対話履歴記憶部103に格納する。
The feature
発話行為タイプ判別部102は、ユーザの発話行為タイプを判別する。発話行為タイプ判別部102は、例えば、5種類の発話行為タイプ(質問、応答、挨拶、情報提供、あいづち)を判別する。ここで、発話行為タイプ「質問」は、対話相手に質問する発話である。また、発話行為タイプ「応答」は、対話相手からの質問に応答する発話である。また、発話行為タイプ「挨拶」は、対話相手に対して挨拶する発話である。また、発話行為タイプ「情報提供」は、自発的な話題の提供を行う発話であり、事象等についての説明、自身に関する情報の提供などがこれに該当する。また、発話行為タイプ「あいづち」は、対話相手の発話に対するあいづちを示す発話である。なお、発話行為タイプ判別部102による具体的な判別方法としては公知の種々の方法が適用可能である。例えば、発話行為タイプ判別部102は機械学習を用いた判別を行ってもよいが、判別方法はこれに限られない。また、発話行為タイプ判別部102は、判別した発話行為タイプを対話履歴記憶部103に格納する。
The speech act type
対話履歴記憶部103は、対話履歴を記憶する。本実施の形態では、対話履歴記憶部103は、直近のNターン(ただし、Nは、所定の正整数)の対話におけるユーザと音声対話装置1の対話履歴を記憶する。すなわち、直近のNターンにおける、ユーザの発話行為タイプ及び発話時間並び音声対話装置1の発話行為タイプ及び発話時間を記憶する。
The dialogue
対話シーン判定部104は、対話履歴記憶部103に記憶されたユーザと音声対話装置1の対話履歴に基づいて、現在、ユーザ及び音声対話装置1のいずれが聞き手側として対話し、いずれが話し手側として対話しているかを判定する。すなわち、対話シーン判定部104は、対話履歴記憶部103に記憶された発話時間又は発話行為タイプを用いて、現在の対話シーンを判定する。
Based on the conversation history between the user and the voice conversation apparatus 1 stored in the conversation
例えば、対話シーン判定部104は、対話履歴記憶部103に記憶された直近のNターンのユーザと音声対話装置1の発話時間から、直近のNターンの両者の発話割合を算出し、その算出結果に基づいて、次のように対話シーンを判定する。ここで、対話シーン判定部104は、音声対話装置1の発話割合を0〜100%の値で算出するものとする。すなわち、ユーザの発話割合は、100%−(音声対話装置1の発話割合)で表される。
For example, the conversation
(1)音声対話装置1の発話割合が閾値T1(例えば60%)以上100%以下の場合、すなわちユーザの発話割合が0%以上閾値T2(例えば40%)以下の場合:
対話シーン判定部104は、対話シーンが、音声対話装置1による情報提供シーンであると判定する。すなわち、対話シーン判定部104は、現在の対話シーンが、音声対話装置1が話し手側として対話し、ユーザが聞き手側として対話しているシーンであると判定する。
(2)音声対話装置1の発話割合が閾値T3(例えば40%)以上閾値T1(例えば60%)未満の場合、すなわちユーザの発話割合が閾値T2(例えば40%)より高く、閾値T4(例えば60%)以下の場合:
対話シーン判定部104は、対話シーンが、音声対話装置1とユーザによる雑談シーンであると判定する。すなわち、対話シーン判定部104は、現在の対話シーンが、主にいずれが話し手側として対話し、主にいずれが聞き手側として対話しているかを特定できないシーンであると判定する。
(3)音声対話装置1の発話割合が0%以上閾値T3(例えば40%)未満の場合、すなわちユーザの発話割合が閾値T4(例えば60%)より高く、100%以下の場合:
対話シーン判定部104は、対話シーンが、音声対話装置1による傾聴シーンであると判定する。すなわち、対話シーン判定部104は、現在の対話シーンが、音声対話装置1が聞き手側として対話し、ユーザが話し手側として対話しているシーンであると判定する。
(1) When the speech rate of the voice interaction apparatus 1 is not less than the threshold value T1 (for example, 60%) and not more than 100%, that is, the user's rate of speech is not less than 0% and not more than the threshold value T2 (for example, 40%):
The conversation
(2) When the utterance ratio of the voice interactive apparatus 1 is equal to or higher than the threshold T3 (for example, 40%) and lower than the threshold T1 (for example, 60%), that is, the user's utterance ratio is higher than the threshold T2 (for example, 40%). 60%) if:
The conversation
(3) When the utterance ratio of the voice interaction apparatus 1 is 0% or more and less than the threshold T3 (for example, 40%), that is, when the user's utterance ratio is higher than the threshold T4 (for example, 60%) and 100% or less:
The conversation
すなわち、このような判別が行われる場合、対話シーン判定部104は、所定回数の会話中における音声対話装置1による発話割合がユーザの発話割合よりも所定値以上大きい場合、音声対話装置1が話し手側として対話し、ユーザが聞き手側として対話しているシーンであると判定する。また、対話シーン判定部104は、所定回数の会話中における音声対話装置1による発話割合がユーザの発話割合よりも所定値以上小さい場合、音声対話装置1が聞き手側として対話し、ユーザが話し手側として対話しているシーンであると判定する。
In other words, when such a determination is made, the conversation
なお、対話シーン判定部104は、対話履歴に基づいて対話シーンを判別すればよく、上記判別方法は一例である。したがって、例えば、対話シーン判定部104は、直近のNターンの両者の発話行為タイプに基づいて、対話シーンを判定してもよい。具体的には、例えば、対話シーン判定部104は、直近のNターンの対話におけるユーザの発話行為タイプにおいて、「情報提供」の割合が閾値以上である場合、音声対話装置1による傾聴シーンであると判定し、「あいづち」の割合が閾値以上である場合、音声対話装置1による情報提供シーンであると判定してもよい。なお、対話シーン判定部104は、対話履歴記憶部103に記憶された発話時間及び発話行為タイプの両方を用いて、対話シーンの判別を行ってもよい。例えば、対話シーン判定部104は、所定の発話行為タイプについての、音声対話装置1とユーザの発話割合に基づいて、対話シーンの判別を行ってもよい。
The conversation
感情推定部105は、特徴量取得部101が取得した特徴量に基づいて、ユーザの感情の指標値を算出する。具体的には、感情推定部105は、特徴量取得部101により生成されたテキストデータを解析し、予め定められた算出規則に従ってユーザの感情を示す指標値を算出する。また、感情推定部105は、算出した指標値と閾値との比較結果に応じて、ユーザの感情を推定する。ここで、閾値は、後述する感情閾値設定部106により設定される値であり、対話シーンに応じた値である。
The
なお、感情推定部105は、感情の指標値の算出及び指標値と閾値との比較に基づいて感情の推定を行なえばよく、そのような感情推定の方法として公知の任意の手法が適用可能である。例えば、感情推定方法のひとつとして、「Webから獲得した感情生起要因コーパスに基づく感情推定」(徳久良子ほか,言語処理学会第14回年次大会論文集,2008年3月)に記載された技術が用いられてもよい。
The
本実施の形態では、感情推定部105は、ユーザの発話内容を示すテキストデータの解析結果から、指標値として、−1.0〜+1.0の範囲内の数値を算出する。ここで、解析結果がネガティブな感情を示す場合、指標値はマイナスの値となり、解析結果がポジティブな感情を示す場合、指標値はプラスの値となる。
In the present embodiment,
本実施の形態では、感情推定部105は、算出した指標値と閾値とを用いて、ポジティブ、ネガティブ、ニュートラルのいずれかの感情を決定する。なお、ニュートラルとは、ポジティブでもネガティブでもない感情である。例えば、ポジティブな感情と推定するための閾値を+0.5とし、ネガティブな感情と推定するための閾値を−0.5とする。この場合、感情推定部105は、特徴量取得部101が取得した特徴量に基づいて算出した指標値が、−0.5以下である場合、ユーザの感情がネガティブであると決定する。また、感情推定部105は、特徴量取得部101が取得した特徴量に基づいて算出した指標値が、+0.5以上である場合、ユーザの感情がポジティブであると決定する。そして、感情推定部105は、特徴量取得部101が取得した特徴量に基づいて算出した指標値が、−0.5より大きく+0.5未満である場合、ユーザの感情がニュートラルであると決定する。
In the present embodiment,
感情閾値設定部106は、感情を推定するための閾値を、対話シーン判定部104による判定結果に応じて設定する。例えば、対話シーン判定部104により、対話シーンが、音声対話装置1による情報提供シーンであると判定された場合、すなわち、現在の対話シーンが、音声対話装置1が話し手側として対話し、ユーザが聞き手側として対話しているシーンであると判定された場合、ユーザの感情が特徴量に反映されにくいと考えられる。このため、この場合、感情閾値設定部106は、ポジティブ又はネガティブの感情が推定されやすくなるよう、予め定められた基本閾値よりもゆるい閾値を設定する。
The emotion
これに対し、対話シーン判定部104により、対話シーンが、音声対話装置1による傾聴シーンであると判定された場合、すなわち、現在の対話シーンが、音声対話装置1が聞き手側として対話し、ユーザが話し手側として対話しているシーンであると判定された場合、ユーザの感情が特徴量に反映されやすいと考えられる。このため、この場合、感情閾値設定部106は、ポジティブ又はネガティブの感情が推定されにくくなるよう、基本閾値よりもきつい閾値を設定する。
On the other hand, when the dialog
したがって、具体的には、対話シーン判定部104により、対話シーンが、音声対話装置1による情報提供シーンであると判定された場合、例えば、感情閾値設定部106は、ポジティブな感情と推定するための閾値を、その基本閾値である+0.5より0.2だけ下げ、+0.3とし、ネガティブな感情と推定するための閾値を、その基本閾値である−0.5より0.2だけ上げ、−0.3とする。また、対話シーン判定部104により、対話シーンが、音声対話装置1による傾聴シーンであると判定された場合、例えば、感情閾値設定部106は、ポジティブな感情と推定するための閾値を、その基本閾値である+0.5より0.2だけ上げ、+0.7とし、ネガティブな感情と推定するための閾値を、その基本閾値である−0.5より0.2だけ下げ、−0.7とする。また、対話シーン判定部104により、対話シーンが、音声対話装置1とユーザによる雑談シーンであると判定された場合、例えば、感情閾値設定部106は、ポジティブな感情と推定するための閾値を、その基本閾値である+0.5とし、ネガティブな感情と推定するための閾値を、その基本閾値である−0.5とする。
Therefore, specifically, when the conversation
応答生成部107は、対話相手であるユーザの発話に対する応答を生成する。応答は、典型的にはテキストデータである。本実施の形態では、応答生成部107は、感情推定部105により推定された感情に応じて適切な応答を生成する。応答生成部107は、例えば、感情の種類に対応付けられた応答文を含む応答文テーブルを参照し、応答文テーブルから適切な応答文を選択することにより、応答文の生成を行ってもよい。なお、応答生成部107は、生成した応答についての発話行為タイプ及び発話時間を対話履歴記憶部103に記憶する。応答生成部107が生成した応答についての発話行為タイプ及び発話時間は、予め、応答文テーブルの応答文と対応付けられてROM14等の記憶装置に記憶されていてもよいし、発話行為タイプ判別部102等による解析により得られてもよい。
The response generation unit 107 generates a response to the utterance of the user who is the conversation partner. The response is typically text data. In the present embodiment, the response generation unit 107 generates an appropriate response according to the emotion estimated by the
音声合成部108は、応答生成部107が生成した応答を音声データに変換する。すなわち、音声合成部108は、応答生成部107が生成した応答文のテキストデータを音声データに変換する。テキストデータからの音声データの生成は、公知の種々の音声合成技術等により実現可能である。その後、典型的にはD/A変換装置(図示せず)が音声データをアナログ音声信号に変換し、スピーカ3がアナログ音声信号を音声として出力する。
The
次に、音声対話装置1の動作について説明する。図3は、音声対話装置1の動作の一例を示すフローチャートである。以下、図3に沿って、音声対話装置1の動作例を説明する。 Next, the operation of the voice interaction apparatus 1 will be described. FIG. 3 is a flowchart showing an example of the operation of the voice interaction apparatus 1. Hereinafter, an operation example of the voice interactive apparatus 1 will be described with reference to FIG.
ステップ100(S100)において、特徴量取得部101が、マイク2により取得されたユーザの音声データに対し、音声認識処理を行い、テキストデータを生成する。例えば、ステップ100では、ユーザの発話から「今日は晴れているよ」というテキストデータが生成される。また、特徴量取得部101は、ユーザの発話時間を特定し、特定した発話時間を対話履歴記憶部103に格納する。
In step 100 (S100), the feature
次に、ステップ101(S101)において、発話行為タイプ判別部102が、ステップ100で取得されたユーザの音声についての発話行為タイプを判別する。例えば、発話行為タイプ判別部102は、「今日は晴れているよ」という発話の発話行為タイプが、「情報提供」であると判別し、判別した発話行為タイプを対話履歴記憶部103に格納する。
Next, in step 101 (S101), the speech act
次に、ステップ102(S102)において、対話シーン判定部104が、直近のNターンの対話履歴に基づいて、現在の対話シーンを判定する。例えば、対話シーン判定部104は、現在の対話シーンが、音声対話装置1による傾聴シーンであると判定する。
Next, in step 102 (S102), the dialog
次に、ステップ103(S103)において、感情閾値設定部106は、ステップ102で判定された対話シーンに応じた閾値を設定する。例えば、対話シーンが傾聴シーンである場合、感情閾値設定部106は、ポジティブな感情と推定するための閾値を、その基本閾値よりも0.2だけ大きい+0.7とし、ネガティブな感情と推定するための閾値を、その基本閾値よりも0.2だけ小さい−0.7とする。
Next, in step 103 (S103), the emotion
次に、ステップ104(S104)において、感情推定部105は、ステップ100で得られたテキストデータに基づいてユーザの感情の指標値を算出し、算出した指標値とステップ103で設定された閾値との比較結果に応じて、ユーザの感情を推定する。例えば、ユーザの感情の指標値が+0.6である場合、指標値は、基本閾値である+0.5よりも大きいもののステップ103で修正された閾値である+0.7未満であるため、ユーザの感情は、ポジティブとは判定されず、ニュートラルと判定される。
Next, in step 104 (S104), the
次に、ステップ105(S105)において、応答生成部107は、ステップ104において推定された感情に応じた応答を生成する。例えば、ステップ104で推定された感情がニュートラルである場合、ステップ105では、応答「そうなんだ」が生成される。
Next, in step 105 (S105), the response generation unit 107 generates a response according to the emotion estimated in
次に、ステップ106(S106)において、音声合成部108が、ステップ105で生成された応答のテキストデータを音声データに変換する。これにより、スピーカ3からステップ105で生成された応答の音声が出力される。以降、処理は、ステップ100に戻り、対話が繰り返されることとなる。
Next, in step 106 (S106), the
以上、実施の形態にかかる音声対話装置1について説明した。音声対話装置1は、上述の通り、対話シーンを判定し、その判定結果に従って、閾値を動的に変更する。したがって、音声対話装置1によれば、対話シーンの違いによる影響を抑制した感情推定を行うことができる。つまり、例えば、ユーザの感情が特徴量に反映されにくいシーンである、ユーザが主に聞き手となるシーンにおいても、適切に感情を推定することができる。このように、感情を的確に捉えた上で、応答を生成することができるため、音声対話装置1は、より円滑にユーザとコミュニケーションをとることができる。 Heretofore, the voice interactive apparatus 1 according to the embodiment has been described. As described above, the voice interaction apparatus 1 determines a conversation scene, and dynamically changes the threshold according to the determination result. Therefore, according to the voice interaction device 1, it is possible to perform emotion estimation while suppressing the influence due to the difference in the conversation scene. That is, for example, even in a scene where the user's emotion is difficult to be reflected in the feature amount and the user is mainly a listener, the emotion can be appropriately estimated. As described above, since the response can be generated after accurately capturing the emotion, the voice interaction apparatus 1 can communicate with the user more smoothly.
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記の実施の形態では、特徴量として、ユーザの発話内容が用いられたが、これに限らず、ユーザの表情、韻律などの他の特徴量に基づいて、指標値の算出及び感情の推定が行われてもよい。すなわち、他の一例として、特徴量取得部101は、図示しないカメラが取得した画像に対し画像処理を行って、特徴量としてのユーザの表情を取得してもよい。また、指標値及び閾値に関する各値は、一例であり、上記の値に限られない。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, the content of the user's utterance is used as the feature amount. However, the present invention is not limited to this, and based on other feature amounts such as the user's facial expression and prosody, the calculation of the index value and the emotional amount are performed. An estimation may be made. That is, as another example, the feature
1 音声対話装置
101 特徴量取得部
102 発話行為タイプ判別部
103 対話履歴記憶部
104 対話シーン判定部
105 感情推定部
106 感情閾値設定部
107 応答生成部
108 音声合成部
DESCRIPTION OF SYMBOLS 1
Claims (1)
感情推定に用いる特徴量を前記ユーザから取得する特徴量取得部と、
前記ユーザと自装置の対話履歴に基づいて、前記ユーザ及び自装置のいずれが聞き手側として対話し、いずれが話し手側として対話しているかを判定する対話シーン判定部と、
感情を推定するための閾値を、前記対話シーン判定部による判定結果に応じて設定する感情閾値設定部と、
前記特徴量に基づいて前記ユーザの感情の指標値を算出し、算出した前記指標値と前記感情閾値設定部により設定された閾値との比較結果に応じて、前記ユーザの感情を推定する感情推定部と
を有する音声対話装置。 A speech dialogue apparatus for recognizing a speech voice of a user who is a conversation partner and outputting a voice to the user,
A feature amount acquisition unit for acquiring a feature amount used for emotion estimation from the user;
Based on the interaction history of the user and the own device, an interaction scene determination unit that determines which of the user and the own device interacts as a listener side and which is interacting as a speaker side;
An emotion threshold setting unit for setting a threshold for estimating emotion according to a determination result by the dialog scene determination unit;
Emotion estimation that calculates an index value of the user's emotion based on the feature amount, and estimates the user's emotion according to a comparison result between the calculated index value and a threshold set by the emotion threshold setting unit And a voice interaction device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025582A JP6766675B2 (en) | 2017-02-15 | 2017-02-15 | Voice dialogue device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025582A JP6766675B2 (en) | 2017-02-15 | 2017-02-15 | Voice dialogue device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018132624A true JP2018132624A (en) | 2018-08-23 |
JP6766675B2 JP6766675B2 (en) | 2020-10-14 |
Family
ID=63248946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017025582A Active JP6766675B2 (en) | 2017-02-15 | 2017-02-15 | Voice dialogue device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6766675B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111531552A (en) * | 2020-03-13 | 2020-08-14 | 华南理工大学 | Psychological accompanying robot and emotion support method |
CN111899717A (en) * | 2020-07-29 | 2020-11-06 | 北京如影智能科技有限公司 | Voice reply method and device |
WO2021169170A1 (en) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | Big data-based voice generation method and apparatus, device and medium |
CN113707184A (en) * | 2021-08-30 | 2021-11-26 | 北京金山云网络技术有限公司 | Method and device for determining emotional characteristics, electronic equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259238A (en) * | 2003-02-25 | 2004-09-16 | Kazuhiko Tsuda | Feeling understanding system in natural language analysis |
JP2010020390A (en) * | 2008-07-08 | 2010-01-28 | Toyota Central R&D Labs Inc | Emotion estimation device and emotion estimation program |
JP2013072979A (en) * | 2011-09-27 | 2013-04-22 | Fuji Xerox Co Ltd | Voice analysis system and voice analysis device |
-
2017
- 2017-02-15 JP JP2017025582A patent/JP6766675B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259238A (en) * | 2003-02-25 | 2004-09-16 | Kazuhiko Tsuda | Feeling understanding system in natural language analysis |
JP2010020390A (en) * | 2008-07-08 | 2010-01-28 | Toyota Central R&D Labs Inc | Emotion estimation device and emotion estimation program |
JP2013072979A (en) * | 2011-09-27 | 2013-04-22 | Fuji Xerox Co Ltd | Voice analysis system and voice analysis device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021169170A1 (en) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | Big data-based voice generation method and apparatus, device and medium |
CN111531552A (en) * | 2020-03-13 | 2020-08-14 | 华南理工大学 | Psychological accompanying robot and emotion support method |
CN111899717A (en) * | 2020-07-29 | 2020-11-06 | 北京如影智能科技有限公司 | Voice reply method and device |
CN113707184A (en) * | 2021-08-30 | 2021-11-26 | 北京金山云网络技术有限公司 | Method and device for determining emotional characteristics, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6766675B2 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423904B2 (en) | Method and system of audio false keyphrase rejection using speaker recognition | |
JP6731326B2 (en) | Voice interaction device and voice interaction method | |
JP3984207B2 (en) | Speech recognition evaluation apparatus, speech recognition evaluation method, and speech recognition evaluation program | |
JP5018773B2 (en) | Voice input system, interactive robot, voice input method, and voice input program | |
JP6446993B2 (en) | Voice control device and program | |
JP2018124425A (en) | Voice dialog device and voice dialog method | |
KR20200074199A (en) | Voice noise canceling method and device, server and storage media | |
JP6766675B2 (en) | Voice dialogue device | |
JP5431282B2 (en) | Spoken dialogue apparatus, method and program | |
JP5051882B2 (en) | Voice dialogue apparatus, voice dialogue method, and robot apparatus | |
JP2014191029A (en) | Voice recognition system and method for controlling voice recognition system | |
KR20200025226A (en) | Electronic apparatus and thereof control method | |
KR102217917B1 (en) | Voice interaction system, voice interaction method, and program | |
JPWO2017085992A1 (en) | Information processing device | |
US8793128B2 (en) | Speech signal processing system, speech signal processing method and speech signal processing method program using noise environment and volume of an input speech signal at a time point | |
JPWO2010128560A1 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JP6747318B2 (en) | Dialogue device | |
CN111145748B (en) | Audio recognition confidence determining method, device, equipment and storage medium | |
JP6468258B2 (en) | Voice dialogue apparatus and voice dialogue method | |
JP2009539133A (en) | Utterance distinction | |
JP6772881B2 (en) | Voice dialogue device | |
JP2012168296A (en) | Speech-based suppressed state detecting device and program | |
JP2018017776A (en) | Voice interactive device | |
JP2014092751A (en) | Acoustic model generating device, method for the same, and program | |
JP2018022086A (en) | Server device, control system, method, information processing terminal, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200831 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6766675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |