JP6720520B2 - 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム - Google Patents
感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム Download PDFInfo
- Publication number
- JP6720520B2 JP6720520B2 JP2015247885A JP2015247885A JP6720520B2 JP 6720520 B2 JP6720520 B2 JP 6720520B2 JP 2015247885 A JP2015247885 A JP 2015247885A JP 2015247885 A JP2015247885 A JP 2015247885A JP 6720520 B2 JP6720520 B2 JP 6720520B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- voice
- section
- change pattern
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成ステップと、
を含むことを特徴とする。
教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段と、
を含むことを特徴とする。
コンピュータを
教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段、
として機能させることを特徴とする。
解析対象とする複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記感情ごとに対応する前記特徴量の変化パターンごとに、前記特徴量の変化パターンと同じ特徴量の変化パターンを有する教師データに基づいて生成された、音声を発話したときの発話者の感情を推定する感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定ステップと、
を含むことを特徴とする。
解析対象とする複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記感情ごとに対応する前記特徴量の変化パターンごとに、前記特徴量の変化パターンと同じ特徴量の変化パターンを有する教師データに基づいて生成された、音声を発話したときの発話者の感情を推定する感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定手段と、
を備えることを特徴とする。
本実施形態では、音声データから発話者の感情を推定する感情推定器を生成する感情推定器生成装置について説明した後、音声を発話した時の発話者の感情を推定する感情推定装置について説明する。本実施形態では、感情推定装置が、発話者の感情を悲しんでいる状態(悲しみ)、退屈している状態(退屈)、怒っている状態(怒り)、驚いている状態(驚き)、落胆している状態(落胆)、嫌悪感を抱いている状態(嫌悪)、喜んでいる状態(喜び)、の基本的な7種類の感情状態のいずれかであると推定する場合について説明する。
なお、以下の実施形態では、音声データの特徴量の変化パターンをアクセント型と称する。
実施形態1では、アクセント型を判別するために特徴量をモーラ区間の単位で解析する説明をした。変形例1では、モーラ区間の中の母音区間に限定して特徴量を解析する説明を行う。具体的には、図12に示すように、母音区間のみの音声データを取り出して、図13に示すように特徴量の解析を行う。基本周波数の解析方法は実施形態1の説明と同じである。
実施形態1の説明では、アクセント型抽出部132が、音声の特徴量として音声のピッチ情報(音声の基本周波数)を利用する場合について説明した。変形例2では、音声の特徴量として音声の強度情報を利用する場合について説明する。ここでは、発話時の感情状態によって母音の発話区間における音声のエネルギー分布が変化することに着目した技術について説明する。
変形例3では、音声の特徴量として音素の継続時間長を利用する場合について説明する。怒ったり喜んだりした状態で発話すると音素の継続時間長は短くなる傾向があり、退屈な状態や悲しい状態で発話すると音素の継続時間長が長くなる傾向があるので、この傾向を利用するものである。
実施形態1と変形例1では、音声の特徴量として音声のピッチ情報を利用してアクセント型を抽出する技術の説明をした。また、変形例2では、音声の強度情報を利用してアクセント型を抽出する技術を紹介し、変形例3では、音素の継続時間長を利用してアクセント型を抽出する技術を紹介した。アクセント型を抽出する場合、これらの技術を単独で使用することもできるが、音声のピッチ情報と音声の強度情報のように2つ以上の技術を組み合わせてアクセント型を抽出することもできる。2つ以上の情報を組み合わせるとアクセント型の種類が増えることになるが、感情推定の精度を向上させることができる。
実施形態1の説明では、解析対象の文に含まれるアクセント句ごとの感情推定結果に基づいて、最も多かった感情をその文を発話したときの発話者の感情として推定する技術について説明を行った。しかし、統合処理の仕方はこれに限定する必要は無い。例えば、「少し驚きを伴った喜び」のように、複数の感情を含む推定を行うこともできる。感情推定器を構成する分類器では、特徴量をベクトルとして取得し、そのベクトルと識別閾値との距離に基づいて、いずれの感情に分類するかを決める場合が多い。例えば、「坊主が」、「屏風に」、「上手に」、「坊主の」、「絵を」、「描いた」の7つのアクセント句に対応する特徴量を、図15に示す1から7に示す位置ベクトルで表し、7つの位置ベクトルを合成した平均ベクトルが、図15に「平均」で示した位置ベクトルであったとする。この場合、位置ベクトル「平均」は、喜びの領域に属しているが、喜びと驚きの境界に近い位置に存在する。このような場合には、「少し驚きの感情が混在している可能性がある」というニュアンスを含めた感情推定結果を出力するようにしてもよい。
教師データの元となる音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記特徴量の変化パターンごとに分類された音声データを教師データとして、前記特徴量の変化パターンごとに、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成ステップと、
を含む感情推定器生成方法。
前記変化パターン決定ステップは、
前記解析区間に含まれる音声データを、音節の単位であるモーラ区間に分割するモーラ区間抽出ステップと、
前記解析区間における音声データの特徴量の平均値と、前記モーラ区間における音声データの特徴量の平均値と、をモーラ区間ごとに比較した比較結果に基づいて、前記解析区間の音声データを発話したときのモーラ区間ごとに変化する音声の特徴量の変化パターンを抽出する変化パターン抽出ステップと、
を含むことを特徴とする付記1に記載の感情推定器生成方法。
前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音声の基本周波数を用い、前記解析区間における音声の平均基本周波数と、前記モーラ区間における音声の平均基本周波数と、をモーラ区間ごとに比較し、モーラ区間の音声の平均基本周波数が解析区間の音声の平均基本周波数よりも高い場合にはHighを、低い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする付記2に記載の感情推定器生成方法。
前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音声の強度を用い、前記解析区間における音声の平均強度と、前記モーラ区間における音声の平均強度と、をモーラ区間ごとに比較し、モーラ区間の音声の平均強度が解析区間の音声の平均強度よりも高い場合にはHighを、低い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする付記2に記載の感情推定器生成方法。
前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音素の継続時間長を用い、前記解析区間における音素の平均継続時間長と、前記モーラ区間における音素の平均継続時間長と、をモーラ区間ごとに比較し、モーラ区間の音素の平均継続時間長が解析区間の音素の平均継続時間長よりも長い場合にはHighを、短い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする付記2に記載の感情推定器生成方法。
前記変化パターン抽出ステップでは、音声の特徴量として、音声の基本周波数、音声の強度、音素の継続時間長の少なくとも何れか1つを使用して音声の特徴量の変化パターンを抽出する、
ことを特徴とする付記2から5の何れか一つに記載の感情推定器生成方法。
前記解析区間設定ステップでは、音声データを、言語の意味を持つ最小の単位である形態素に分割し、当該形態素の後で発話された助詞又は助動詞と結合したアクセント句の区間を前記解析区間として設定する、
ことを特徴とする付記1から6の何れか一つに記載の感情推定器生成方法。
前記モーラ区間抽出ステップでは、音声データをテキスト表示した場合に、仮名文字1文字を1モーラ区間とし、小書きの仮名文字はその前の仮名文字と一緒にして1モーラ区間とし、長音は独立して1モーラ区間とする、
ことを特徴とする付記2に記載の感情推定器生成方法。
前記感情推定器は、発話者の発話時の感情を、悲しみ、退屈、怒り、驚き、落胆、嫌悪、喜び、の何れかの感情であると推定する、
ことを特徴とする付記1から8の何れか一つに記載の感情推定器生成方法。
前記複数のクラスに分類された変化パターンを設定する変化パターン設定ステップを含む、
ことを特徴とする付記1から9の何れか一つに記載の感情推定器生成方法。
教師データの元となる音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記特徴量の変化パターンごとに分類された音声データを教師データとして、前記特徴量の変化パターンごとに、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段と、
を含む感情推定器生成装置。
コンピュータを
教師データの元となる音声データの特徴量を解析する解析区間を設定する解析区間設定手段、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段、
前記特徴量の変化パターンごとに分類された音声データを教師データとして、前記特徴量の変化パターンごとに、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段、
として機能させるためのプログラム。
解析対象とする音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記特徴量の変化パターンごとに、同じ特徴量の変化パターンを有する教師データに基づいて生成された感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定ステップと、
を含む感情推定方法。
解析対象とする音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数のクラスに分類された変化パターンに基づいて、前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記特徴量の変化パターンごとに、同じ特徴量の変化パターンを有する教師データに基づいて生成された感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定手段と、
を備えた感情推定装置。
Claims (14)
- 教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成ステップと、
を含む感情推定器生成方法。 - 前記変化パターン決定ステップは、
前記解析区間に含まれる音声データを、音節の単位であるモーラ区間に分割するモーラ区間抽出ステップと、
前記解析区間における音声データの特徴量の平均値と、前記モーラ区間における音声データの特徴量の平均値と、をモーラ区間ごとに比較した比較結果に基づいて、前記解析区間の音声データを発話したときのモーラ区間ごとに変化する音声の特徴量の変化パターンを抽出する変化パターン抽出ステップと、
を含むことを特徴とする請求項1に記載の感情推定器生成方法。 - 前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音声の基本周波数を用い、前記解析区間における音声の平均基本周波数と、前記モーラ区間における音声の平均基本周波数と、をモーラ区間ごとに比較し、モーラ区間の音声の平均基本周波数が解析区間の音声の平均基本周波数よりも高い場合にはHighを、低い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする請求項2に記載の感情推定器生成方法。 - 前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音声の強度を用い、前記解析区間における音声の平均強度と、前記モーラ区間における音声の平均強度と、をモーラ区間ごとに比較し、モーラ区間の音声の平均強度が解析区間の音声の平均強度よりも高い場合にはHighを、低い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする請求項2に記載の感情推定器生成方法。 - 前記変化パターン抽出ステップでは、音声の特徴量として音声データから抽出した音素の継続時間長を用い、前記解析区間における音素の平均継続時間長と、前記モーラ区間における音素の平均継続時間長と、をモーラ区間ごとに比較し、モーラ区間の音素の平均継続時間長が解析区間の音素の平均継続時間長よりも長い場合にはHighを、短い場合にはLowを付与し、モーラ区間ごとにHighとLowに変化する音声の特徴量の変化パターンを抽出する、
ことを特徴とする請求項2に記載の感情推定器生成方法。 - 前記変化パターン抽出ステップでは、音声の特徴量として、音声の基本周波数、音声の強度、音素の継続時間長の少なくとも何れか1つを使用して音声の特徴量の変化パターンを抽出する、
ことを特徴とする請求項2から5の何れか一項に記載の感情推定器生成方法。 - 前記解析区間設定ステップでは、音声データを、言語の意味を持つ最小の単位である形態素に分割し、当該形態素の後で発話された助詞又は助動詞と結合したアクセント句の区間を前記解析区間として設定する、
ことを特徴とする請求項1から6の何れか一項に記載の感情推定器生成方法。 - 前記モーラ区間抽出ステップでは、音声データをテキスト表示した場合に、仮名文字1文字を1モーラ区間とし、小書きの仮名文字はその前の仮名文字と一緒にして1モーラ区間とし、長音は独立して1モーラ区間とする、
ことを特徴とする請求項2に記載の感情推定器生成方法。 - 前記感情推定器は、発話者の発話時の感情を、悲しみ、退屈、怒り、驚き、落胆、嫌悪、喜び、の何れかの感情であると推定する、
ことを特徴とする請求項1から8の何れか一項に記載の感情推定器生成方法。 - 前記複数の感情のクラスに分類された変化パターンを設定する変化パターン設定ステップを含む、
ことを特徴とする請求項1から9の何れか一項に記載の感情推定器生成方法。 - 教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段と、
を含む感情推定器生成装置。 - コンピュータを
教師データの元となる複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段、
前記感情ごとに対応する前記特徴量の変化パターンごとに分類された音声データを教師データとして、音声を発話したときの発話者の感情を推定する感情推定器を生成する感情推定器生成手段、
として機能させるためのプログラム。 - 解析対象とする複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定ステップと、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定ステップと、
前記感情ごとに対応する前記特徴量の変化パターンごとに、前記特徴量の変化パターンと同じ特徴量の変化パターンを有する教師データに基づいて生成された、音声を発話したときの発話者の感情を推定する感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定ステップと、
を含む感情推定方法。 - 解析対象とする複数の感情状態を含む音声データの特徴量を解析する解析区間を設定する解析区間設定手段と、
前記解析区間に含まれる音声データの特徴量の変化するパターンを、複数の感情のクラスに分類された変化パターンに基づいて、前記複数の感情のクラスに対応する前記解析区間に含まれる音声データの特徴量の変化パターンとして決定する変化パターン決定手段と、
前記感情ごとに対応する前記特徴量の変化パターンごとに、前記特徴量の変化パターンと同じ特徴量の変化パターンを有する教師データに基づいて生成された、音声を発話したときの発話者の感情を推定する感情推定器を用いて、前記解析区間の音声を発話した時の発話者の感情を推定する感情推定手段と、
を備えた感情推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247885A JP6720520B2 (ja) | 2015-12-18 | 2015-12-18 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247885A JP6720520B2 (ja) | 2015-12-18 | 2015-12-18 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020104161A Division JP7001126B2 (ja) | 2020-06-17 | 2020-06-17 | 感情推定装置、感情推定方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017111760A JP2017111760A (ja) | 2017-06-22 |
JP6720520B2 true JP6720520B2 (ja) | 2020-07-08 |
Family
ID=59080241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015247885A Active JP6720520B2 (ja) | 2015-12-18 | 2015-12-18 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6720520B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6613290B2 (ja) | 2017-11-28 | 2019-11-27 | 株式会社Subaru | 運転アドバイス装置及び運転アドバイス方法 |
JP7017755B2 (ja) * | 2018-01-24 | 2022-02-09 | 株式会社見果てぬ夢 | 放送波受信装置、放送受信方法、及び、放送受信プログラム |
JP6909733B2 (ja) * | 2018-01-26 | 2021-07-28 | 株式会社日立製作所 | 音声分析装置および音声分析方法 |
JP7159655B2 (ja) | 2018-07-09 | 2022-10-25 | 富士フイルムビジネスイノベーション株式会社 | 感情推定システムおよびプログラム |
CN109587554B (zh) * | 2018-10-29 | 2021-08-03 | 百度在线网络技术(北京)有限公司 | 视频数据的处理方法、装置及可读存储介质 |
JP7230545B2 (ja) | 2019-02-04 | 2023-03-01 | 富士通株式会社 | 音声処理プログラム、音声処理方法および音声処理装置 |
KR102195246B1 (ko) * | 2019-03-15 | 2020-12-24 | 숭실대학교산학협력단 | 음성 신호를 이용한 감정 분류 방법, 이를 수행하기 위한 기록 매체 및 장치 |
KR102163862B1 (ko) * | 2019-03-25 | 2020-10-12 | 한국과학기술원 | 멀티스케일 음성 감정 인식을 위한 전자 장치 및 그의 동작 방법 |
CN112489682B (zh) * | 2020-11-25 | 2023-05-23 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4456537B2 (ja) * | 2004-09-14 | 2010-04-28 | 本田技研工業株式会社 | 情報伝達装置 |
WO2007148493A1 (ja) * | 2006-06-23 | 2007-12-27 | Panasonic Corporation | 感情認識装置 |
JP2009182433A (ja) * | 2008-01-29 | 2009-08-13 | Seiko Epson Corp | コールセンターの情報提供システム、情報提供装置、情報提供方法及び情報提供プログラム |
-
2015
- 2015-12-18 JP JP2015247885A patent/JP6720520B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017111760A (ja) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6720520B2 (ja) | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム | |
JP7280386B2 (ja) | 多言語音声合成およびクロスランゲージボイスクローニング | |
US7809572B2 (en) | Voice quality change portion locating apparatus | |
Arias et al. | Shape-based modeling of the fundamental frequency contour for emotion detection in speech | |
JP6523893B2 (ja) | 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム | |
Koolagudi et al. | Speech emotion recognition using segmental level prosodic analysis | |
JP6908045B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
JP6370749B2 (ja) | 発話意図モデル学習装置、発話意図抽出装置、発話意図モデル学習方法、発話意図抽出方法、プログラム | |
Martinez et al. | Prosodic features and formant modeling for an ivector-based language recognition system | |
Tóth et al. | Speech emotion perception by human and machine | |
JP2007219286A (ja) | 音声のスタイル検出装置、その方法およびそのプログラム | |
JP6127422B2 (ja) | 音声認識装置及び方法、並びに、半導体集積回路装置 | |
JP6013104B2 (ja) | 音声合成方法、装置、及びプログラム | |
KR20210059581A (ko) | 말하기의 자동 유창성 평가 방법 및 그 장치 | |
JP2002041084A (ja) | 対話処理システム | |
JP6436806B2 (ja) | 音声合成用データ作成方法、及び音声合成用データ作成装置 | |
JP7001126B2 (ja) | 感情推定装置、感情推定方法及びプログラム | |
Abdelmalek et al. | High quality Arabic text-to-speech synthesis using unit selection | |
JP5315976B2 (ja) | 音声認識装置、音声認識方法、および、プログラム | |
JP7159655B2 (ja) | 感情推定システムおよびプログラム | |
JP5722295B2 (ja) | 音響モデル生成方法と音声合成方法とそれらの装置とプログラム | |
JP6748607B2 (ja) | 音声合成学習装置、音声合成装置、これらの方法及びプログラム | |
Jauk et al. | Prosodic and spectral ivectors for expressive speech synthesis | |
JP6370732B2 (ja) | 発話意図モデル学習装置、発話意図抽出装置、発話意図モデル学習方法、発話意図抽出方法、プログラム | |
Khan et al. | detection of questions in Arabic audio monologues using prosodic features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6720520 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |