JP6105337B2 - 評価システム及び評価方法 - Google Patents
評価システム及び評価方法 Download PDFInfo
- Publication number
- JP6105337B2 JP6105337B2 JP2013051843A JP2013051843A JP6105337B2 JP 6105337 B2 JP6105337 B2 JP 6105337B2 JP 2013051843 A JP2013051843 A JP 2013051843A JP 2013051843 A JP2013051843 A JP 2013051843A JP 6105337 B2 JP6105337 B2 JP 6105337B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- analysis
- target
- recording
- usage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011156 evaluation Methods 0.000 title claims description 88
- 230000008451 emotion Effects 0.000 claims description 297
- 238000004458 analytical method Methods 0.000 claims description 119
- 238000009826 distribution Methods 0.000 claims description 55
- 238000003860 storage Methods 0.000 claims description 39
- 230000001364 causal effect Effects 0.000 claims description 31
- 230000002996 emotional effect Effects 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 16
- 238000013075 data extraction Methods 0.000 description 18
- 238000011160 research Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 9
- 238000007405 data analysis Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 241000282693 Cercopithecidae Species 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 241000282836 Camelus dromedarius Species 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000011835 investigation Methods 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 244000291564 Allium cepa Species 0.000 description 1
- 235000002732 Allium cepa var. cepa Nutrition 0.000 description 1
- 244000132059 Carica parviflora Species 0.000 description 1
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000571 coke Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ところが、顧客満足度というのは、複合的で、マーケティング研究者によってさまざまに定義されている。例えば、サービスの品質や信頼性の「見える化」のための指標の一つとして開発されたものの一つに、日本版顧客満足度指数(JCSI)がある。その一方で、それよりも先に開発された米国版顧客満足度指数(ACSI)や韓国版顧客満足度指数(NCSI)など多様な顧客満足度指数が存在する。このように顧客満足度というのは、その定義の仕方によって区々の値や程度を示し、また同じ定義を用いる場合であっても、各個人の満足度から統計量を得るということを意味有らしめるには困難な作業がつきまとう。
本発明の課題は、利用対象の利用状況を容易に評価することができる評価システム及び評価方法を提供することにある。
本発明の一見地に係る評価システムは、音声の特徴を分析するための複数のパラメータを座標軸にとった2次元以上の感情マッピング空間に割り付けられた複数の感情領域のうちの第1感情領域に、利用対象を利用する不特定複数の利用者の第1分析対象音声がマッピングされるか否かによって、第1感情を表意した第1感情表意話者と表意しなかった第1感情非表意話者との推定を行なう感情推定装置と、感情推定装置の推定結果に基づく第1感情表意話者及び第1感情非表意話者の第1分布から、利用対象の利用状況についての所定現象を分析する分析装置と、を備え、感情推定装置は、第1分布と所定現象の発生との相関係数の絶対値が第1所定値以上になるように第1感情領域が区分されているものである。
このように構成された評価システムによれば、商品やサービスなどの利用対象を利用者が利用するときに発声する第1分析対象音声を用いて、利用対象の利用状況の所定現象が分析され、それにより、利用状況が評価される。その際に、感情推定装置によって、第1分析対象音声の複数のパラメータの値から、その利用者が第1感情を表意した第1感情表意話者か、第1感情を表意しなかった第1感情非表意話者かが推定される。そして、推定された第1感情表意話者と第1感情非表意話者の第1分布に基づいて、分析装置によって、利用対象の利用状況の所定現象が分析される。そのため、利用者の思惑による評価結果の歪みを抑えて利用状況を評価することができる。その際、第1分布と所定現象の発生との相関係数の絶対値が第1所定値以上になるように第1感情領域が区分されていることから、所定現象が直接かつ容易に分析できる。
この評価システムにおいて、分析装置は、所定現象を、第1感情表意話者の割合に基づいて分析する、ものであってもよい。このように構成されることにより、第1感情表意話者の割合を用いて、所定現象を直接簡単に分析することができる。
このように構成された評価方法によれば、商品やサービスなどの利用対象を利用者が利用するときに発声する第1分析対象音声を用いて、利用対象の利用状況の所定現象が分析され、それにより、利用状況が評価される。その際に、感情推定ステップにおいて、第1分析対象音声の複数のパラメータから、その利用者が第1感情を表意した第1感情表意話者か、第1感情を表意しなかった第1感情非表意話者かが推定される。そして、推定された第1感情表意話者と第1感情非表意話者の第1分布に基づいて、分析ステップによって、利用対象の利用状況の所定現象が分析される。そのため、利用者の思惑による評価結果の歪みを抑えて利用状況を評価することができる。その際、第1分布と所定現象の発生との相関係数の絶対値が所定値以上になるように第1感情領域が区分されていることから、所定現象が直接かつ容易に分析できる。
図1には、本発明の一実施形態に係る評価システムの構成が示されている。
図1に示されている評価システム1は、音声収録装置2と、記憶装置3と、音声認識装置4と、マーケティング調査データ抽出装置5と、感情推定装置6と、分析装置7とを備えている。
評価システム1は、音声収録装置2により、収録場所を特定して音声を収録する。音声収録装置2で、音声収録装置2により収録される音声が電気信号に変換され、記憶装置3に記憶可能な収録データが生成される。収録データは、音声収録装置2から記憶装置3に送信され、記憶装置3に記憶される。音声信号は、所定間隔(例えば20秒毎)で時間のタグが付加されており、何時何分に録音されたものであるかが識別できるようになっている。
記憶装置3には、収録データ31a及び収録データ31aの位置情報31bを含むビッグデータ31以外に、調査用辞書32と、話者属性情報33と、収録場所の場所属性情報34と、コーザル情報35と、テキストデータ36とが記憶されている。なお、音声信号に付されていた時間のタグは、収録データ31aにも付加されている。
この音声認識装置4が音声認識を行なうときも音声認識用辞書41を参照する。音声認識装置4が音声認識の際に参照する音声認識用辞書41は、上述の調査用辞書32とは別に準備されるものである。なお、ここでは、記憶装置3に音声認識用辞書41が記憶される場合について示しているが、音声認識用辞書41は音声認識装置4が保持していてもよい。
また、マーケティング調査データ抽出装置5は、記憶装置3に蓄積されるマーケティングテキストデータに対して、話者属性情報33や場所属性情報34やコーザル情報35などの関連付けを行なう。
マーケティング調査データ抽出装置5が記憶装置3に蓄積したマーケティングテキストデータファイル39を使って、感情推定装置6は、収録データ31aから「キャー」という肉声の録音データを取得する。そして、感情推定装置6は、ローラーコースター(利用対象の一例)を利用する不特定複数の利用者の「キャー」という叫び声(第1分析対象音声の一例)について、イントネーション、音声波形及びボリュームを用いて区分される第1感情領域を含む複数の感情領域のいずれに分析対象音声を発したときの利用者感情が当て嵌まるかを推定する。感情推定装置6で行なわれる推定の具体例については後述する。
次に、分析装置7が、第1感情領域に含まれる分析対象音声を発した不特定複数の利用者(以下、第1感情表意話者という)を特定する。同時に、分析装置7が、第1感情領域に含まれる分析対象音声を発しなかった不特定複数の利用者(以下、第1感情非表意話者という)を特定する。そして、第1感情表意話者と第1感情非表意話者の分布(第1分布)に基づいて、利用対象を利用した利用者感情が利用対象の利用状況に与える影響を分析装置7が分析する。分析装置7で行なわれる分析の具体例については後述する。
マーケティングデータ解析装置8は、分析装置7の分析結果に基づいて、調査項目に関係する顧客などの行動や関心や満足度などを数値化したり、明文化したりするマーケティング分析を行なう。例えば、マーケティングデータ解析装置8で満足度の共分散分析が行なわれ、満足度への影響要因をアトラクション(遊具)の運転の開始点から終了点までの時系列で把握することが行なわれる。
(2−1)音声収録装置
音声収録装置2には、2つのタイプがある。1つ目は、一つのマーケティング調査における音声収録中は移動されない固定型の音声収録装置2Aであり、2つ目は、一つのマーケティング調査における音声収録中に移動される携帯型の音声収録装置2Bである。
音声収録装置2Aは、本体部21と情報入力装置22と固定具23とを備えている。本体部21は、マイクロフォンなどの音声入力部と音声を電気信号に変換して音声信号を生成する変換部、音声信号を記憶するメモリチップなどの記録媒体などを有している。情報入力装置22は、例えばタッチパネルやキーボードなどであり、収録位置の入力に用いられる。本体部21は、音声収録が終了するまで三脚などの固定具23によって所定の箇所に固定される。
また、音声収録装置2A,2B以外に、ワイヤレスマイクロフォン2Cを音声収録装置2とすることもできる。例えば、利用者U1がローラーコースターなどの移動物体に乗車している場合に、その利用者U1に対しては音声収録装置2A,2Bでの音声収録ができない場合が生じる。そのような利用者U1の話を収録するために、利用者U1にワイヤレスマイクロフォン2Cを装着して使用することができる。ワイヤレスマイクロフォン2Cは、例えば音声を収録するために話者に装着される小型の受話送信器26と受話送信機からの無線信号を受信する受信機27とで構成される。ワイヤレスマイクロフォン2Cで収録される収録データは、音声収録装置2A,2Bで収録される収録データに付属させてもよく、それらとは区別してメモリチップに記憶されるように構成してもよい。
記憶装置3には、音声収録装置2A,2Bやワイヤレスマイクロフォン2Cの記録媒体に記録されている音声信号を読み取る読取装置102(図2参照)が設けられている。読取装置102は、読み取った収録データ31aを記憶装置3のビッグデータ31に蓄積する。このとき同時に、音声収録装置2A,2Bやワイヤレスマイクロフォン2Cの記録媒体に記録されている収録場所を示す信号を読み取って、収録場所の物理的な位置を収録データ31aと関連付けて位置情報31bとして記憶する。
また、記憶装置3には、マーケティング調査の調査項目に適した調査用辞書32が記憶されている。調査用辞書32には、例えば、調査項目に適した語句が記述されており、また、主語がない文や指示代名詞が主語となっている文の解釈の仕方が記述されている。
音声認識装置4は、既存の音声認識技術によって、ヒトの話す音声言語をコンピュータによって解析し、話している内容を文字データとして取り出す装置である。音声認識装置4は、従来と同様に、音声認識のときに音声認識用辞書41を使用する。この音声認識装置4は、収録場所の位置情報31bを音声認識後のテキストデータ36に関連付けて記憶装置3に出力する。また、この音声認識装置4は、複数の話者の会話を音声認識によって話者別に認識することができる。例えば、AさんとBさんとCさんの3人の会話が収録データ31aαに収録されている場合に、Aさんが「ローラーコースター、楽しかったね。」、Bさんが「そうだね。」、Cさんが「次、コーヒーカップにしない?」、Aさんが「いいよ。それじゃあ、行こうか。」と話したとすると、最初と最後の話者が同じで、次の話者とその次の話者は最初の話者とは別の人であるということを特定して認識できる。
また、音声認識装置4は、例えばAさんが女性であることをその音声の周波数の分析から特定でき、さらに詳細には例えばホルマント周波数の違いから成人の男女を簡単に区別することができる。性別や年齢などの話者属性情報33を収集することでマーケティング調査の価値が上がる。
マーケティング調査データ抽出装置5は、辞書取得部51と、テキストデータ取得部52と、マーケティングテキストデータ抽出部53と、情報関連付け部54とを備えている。
辞書取得部51は、記憶装置3に記憶されている調査用辞書32を取得する。また、辞書取得部51の動作と並行して、テキストデータ取得部52は、記憶装置3に記憶されているテキストデータ36を取得する。
情報関連付け部54は、マーケティングテキストデータ抽出部53が抽出する各マーケティングテキストデータに話者属性情報33と場所属性情報34とコーザル情報35とを関連付ける。話者属性情報33として男性と女性の区別を関連付ける場合には、例えばマーケティングテキストデータ抽出部53でテキストデータ36の文が時系列の順に抽出対象となるよう処理するのであれば、それらの文に対応する男性と女性を識別する符号が文と同様に時系列の順に並べられる。このような場合には、情報関連付け部54では、マーケティングテキストデータとして抽出されたテキストデータ36に対応する文の男女別の符号のみを残す作業を行なうことで、マーケティングテキストデータに話者属性情報33として男女の性別を関連付けることができる。
マーケティングデータ解析装置8では、情報関連付け部54で話者属性情報33、場所属性情報34及びコーザル情報35が関連付けされているマーケティングテキストデータを用いてマーケティングに関する各種の分析が行なわれる。
評価システム1は、具体的には図2に示されているように、主に、音声収録装置2とパーソナルコンピュータ100とによって構成される。パーソナルコンピュータ100は、例えば、CPU(中央演算装置)101と、読取装置102と、データ入力装置103と、メモリシステム104と、表示装置105と、印刷装置106とを備えている。
読取装置102は、音声収録装置2で収録された音声信号が記録されている記録媒体から収録データを読み取る。メモリシステム104には、データ入力装置103から入力されるソフトウェアが記憶される。メモリシステム104に記憶されているソフトウェアを実行することにより、図1に示されている記憶装置3、音声認識装置4、マーケティング調査データ抽出装置5、感情推定装置6、分析装置7及びマーケティングデータ解析装置8の各機能ブロックが実現される。表示装置105及び印刷装置106は、収録データの入力やデータ解析に必要な情報の入力を促すためディスプレイを使った表示、あるいはデータ解析結果などの情報のディスプレイを使った表示や用紙を使った印字などの出力を行なうための出力装置である。
(4−1)評価方法の流れ
音声収録装置2及びパーソナルコンピュータ100を使った評価方法について図3のフローチャートに沿って説明する。分かりやすく説明を行なうために、具体的に例を挙げて説明する。
図4に示されているように、ワイヤレスマイクロフォン2Cを使ってローラーコースター200のマーケティング調査を行なうことを考える。調査対象のローラーコースター200の車両210には、複数の利用者に対応して複数台の受話送信器26が設置されている。また、受話送信器26には、GPS25が取り付けられており、ローラーコースター200の各エリアの位置情報を同時に送信できるように構成されている。
次に、ワイヤレスマイクロフォン2Cに、音声が収録される(ステップS2)。ワイヤレスマイクロフォン2Cの受話送信器26の内部では、音声がマイクロフォンなどによって音声信号として取り込まれ、音声信号からコンピュータで読み取り可能な収録データに変換されてワイヤレスマイクロフォン2Cの受信機27の内部にセットされているメモリチップなどに記憶される。ここでは、所定期間の音声収録が終了したワイヤレスマイクロフォン2Cのメモリチップを、パーソナルコンピュータ100の読取装置102で読み取ることで、メモリシステム104に収録データ31aが読み込まれる。それにより、パーソナルコンピュータ100の中に構築されている記憶装置3に収録データ31aが記憶される。この実施形態では読取装置102も記憶装置3の一部になっている。
場所属性情報34は、例えば、ローラーコースター200を、それを構成する複数の場所に関する性質や特徴を示す情報であり、例えば、最初のブロックにはらくだの背のようなキャメルバックがあり、中間ブロックには宙返りをするような垂直ループがあり、最後のブロックには螺旋状に360度回転するコークスクリューがあるなどといった情報である。
次に、収録されている収録データの音声認識が行なわれる(ステップS4)。ローラーコースター200では、男性客よりもむしろ女性客や子供の反応が重要であるので、音声認識の際に、男性か女性か子供かといった話者属性情報33もこのステップS4で認識される。この話者属性情報33は、メモリシステム104に蓄積される。換言すれば、音声認識装置4から記憶装置3に話者属性情報33が記憶されるということである。
次に、ステップS5からステップS8が利用対象を評価するステップである。これらのステップについては後ほど詳細に説明する。
最後に、ステップS5からステップS8で抽出される利用対象の評価結果を使ってデータ解析が行なわれる(ステップS9)。
マーケティングテキストデータの抽出を行なうために、まず、調査用辞書32の取得が行なわれる。調査用辞書32は、記憶装置3(メモリシステム104)に予め準備されている。
まず、音声収録装置2での収録に係るテキストデータ36からマーケティングテキストデータの抽出が行なわれる。そのために、辞書取得部51は、ワイヤレスマイクロフォン2Cでの収録に係る調査用辞書32を記憶装置3から取得する。テキストデータ取得部52がワイヤレスマイクロフォン2Cでの収録に係るテキストデータ36を取得し、マーケティングテキストデータ抽出部53で、調査用辞書32を用いてテキストデータ36の解釈が行なわれる。
ローラーコースター200の車両210が走っているときは、乗客Ug1,Ug2…は、「キャー」などという叫び声しかあげないので、テキストデータ36の意味の解釈の必要性は小さいが、遊園地内を移動する利用者の会話などを用いてマーケティングを行なう場合には、会話で語られている文や語句の内容を解釈して、マーケティングに用いるテキストデータを抽出するという作業が必要になる。例えば、遊園地の利用者にモニターになってもらい、入場から退場までの間、当該利用者の会話を全て録音するような場合などでは、マーケティング調査の時間を短縮するために、多くの不要なテキストデータを調査対象から外すことが行なわれる。
次に、感情推定装置6によって、抽出されたマーケティングテキストデータから、その「キャー」という分析対象音声を発したときの乗客Ug1,Ug2…の利用者感情が推定される。
感情の推定は、例えば音声波形の差、ボリュームの差及びイントネーションの差を用いて行なわれる。商品を購入する顧客に対してアドバイスする友人の会話を例に採って、音声波形の差、ボリュームの差及びイントネーションの差について説明する。
図5に音声波形の一例が示されている。図5に示されているような生の音声波形を比較しても、音声波形の差を判別するのは難しい。しかし、音声波形の差は、例えば、高速フーリエ変換した後のパワースペクトラムの比較によって比較的容易に顕在化することができる。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者の方が、音声波形のぶれる幅が大きくなる。そのため、ある特定の周波数に注目すると、そのパワーは、後者の方が大きくなる。FFTにより音声信号の中にどの周波数成分がどれだけ含まれるかが抽出されるので、パワーの大小の比較のために注目するのは、ある周波数ではなくて、ある周波数帯であってもよい。
次に、図6を用いてボリュームの比較について説明する。ボリュームの差は、例えば、会話の平均的な音量に対する分析対象音声の音量の比率を比較することによって容易に顕在化させることができる。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者のボリュームが大きくなる傾向がある。図6(a)は、前者の単なる疑問を呈する音声を含む音声波形を表しており、図6(b)は、後者の止めた方がいいという気持ちで発せられた音声を含む音声波形を表している。図6(a)における区間IN1及び図6(b)における区間IN2で、分析対象音声が発せられている。例えば、「今買うの?」を含む前後の会話の平均的なボリュームに対するその大小の割合を比較すると、図6(a)における区間IN1ではその前後と同じような振幅(ボリューム)で話されているが、図6(b)における区間IN2ではその前後に比べて振幅(ボリューム)が大きくなっている。
次に、図7を用いてイントネーションについて説明する。イントネーションの差は、単純な比較でも、容易にその差が顕在化する。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者のイントネーションがかなり大きく変化する。図7(a)には、前者の単なる疑問を呈する音声のイントネーションが階段状のグラフで模式的に示されており、図7(b)は、後者の止めた方がいいという気持ちで発せられた音声のイントネーションが階段状のグラフで模式的に示されている。「今買うの?」という単なる疑問の場合には、通常の疑問文と同様の通常のイントネーションであり、最後に少しピッチが高くなる。それに対して、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合には、イントネーションが強くなり、通常の疑問文よりもピッチの上がり方が大きくなる。
同じような感情であっても、発声する語句や文が異なると、分析対象音声の音声波形やボリュームやイントネーションが当然に異なる。そのため、発声する語句や文が異なると、図8に示されているように音声波形やボリュームやイントネーションによりマッピングを行なっても、その分析対象音声を発したときの感情を推定することが難しくなる。
そのため、マーケティングの対象ごとに分析対象音声が特定される。上述のローラーコースター200の場合には、例えば、「キャー」、「キャッ」あるいは「ギャー」などの感動詞が第1分析対象音声として、マーケティングテキストデータ抽出のステップS5で抽出される。これらは、同じような感情で発音されると、類似した音声波形とボリュームとイントネーションとを示す。
図8に示されている音声波形の座標軸と、イントネーションの座標軸と、ボリュームの座標軸とは、利用者の個人差が出ないように例えば正規化されている。既に説明したボリュームの正規化であれば、例えば図6(a)の区間IN1のボリュームに対してその前後の所定区間の音声データ中の最大音量を特定し、特定した音量が目標の音量レベルに収まるように全体の音量を調整する。このような正規化や補正によって、地声の大きな利用者や普段から小声で話す利用者など、個人的な声の大きさの違い等により利用者感情の推定結果に生じる誤差が抑えられる。分析対象音声の音声波形やイントネーションなどについても、分析対象音声が発せられた前後の音声波形やイントネーションによって正規化したり、補正したりすることで、利用者感情の推定結果に生じる誤差が抑えられる。
図8のようにマッピングされた第1分析対象音声の各感情領域には、利用状況のある側面(所定現象)と高い相関を示す場合がある。利用状況の所定現象についての具体的な例として、リピート率を考える。ここでは、リピート率として、ローラーコースター200の全体の利用者のうち、所定期間内に、ローラーコースター200を複数回利用する利用者の割合を考える。なお、所定期間は、1回の来園や1ヶ月や1年など、そのマーケティング調査の趣旨に沿って適当に設定されるが、以下では1回の来園を所定期間として説明する。
図9は、図8の5名の利用者UA,UB,UC,UD,UEのうち、1回の来園で2回以上ローラーコースター200に乗車した利用者UA,UBを残し、リピートしなかった他の3名の利用者のデータを図8のグラフから削除したものである。図9を見ると、第1感情領域Ar1に属するような第1感情を表意した利用者UA,UBがリピータとなっていることが分かる。このように、リピートする利用者がどのような感情領域に属するような感情を表意するのかを予め検討しておけば、その感情領域に属するような利用者感情を表意した利用者の分布に基づいて、ローラーコースター200という利用対象について、リピート率という利用状況の所定現象の分析が行なえる。
上述のように、リピート率などの利用状況の所定現象に対して影響する感情領域を決定する際には、例えば、相関係数が0.7以上のように、相関係数が第1所定値以上になる感情領域を区分して用いる。上述の場合には、このようにして決定された感情領域が第1感情領域である。図10(a)には、第1感情表意話者数とリピート率との間に正の相関がある場合が示されているが、他の組合せで利用状況の所定現象に対して影響する感情領域を決定する場合、例えば負の相関係数が所定値以下(負の相関係数の絶対値が第1所定値以上)であってもよい。
また、ローラーコースター200を満足しながら利用したとか、不満を抱きながら利用したというのも利用状況の所定現象の一つである。満足するとか、不満を抱くという利用者の評価の形成には、単に楽しかったとか、怖かったとかいう感情以外に、利用料が高かったとか、従業員の対応が悪かったとか等の他の要因も大きく影響する。しかし、楽しいと感じた利用者が満足しやすいとか、つまらないと感じた利用者が不満を抱きやすいといった傾向があることも事実である。従って、例えばJCSIなどに準拠したアンケート調査などで顧客満足度を数値化する一方、その指標と比較的相関の高い感情領域との関係を調べておけば、満足度や不満度といったものも利用状況の所定現象として各感情領域の表意話者の分布に基づいて分析することができる。このように満足度や不満度といった利用状況の所定現象を分析することによって、ローラーコースター200の顧客満足度などを評価することができる。
上述のように、一つの感情領域、例えば第1感情領域の分布だけを用いて利用対象を評価することができる。しかし、利用対象の評価をもう少し一般化して示すと、図11の概念図に示されているようになる。
図11において、左端の円CP1が分析対象音声を示しており、円CP1の右隣の四角CP2が各分析対象音声a1〜a9の属するキーワードを示しており、四角CP2の右隣の楕円CP3が感情領域に属する感情を示しており、楕円CP3の右隣にある円CP4が分析対象音声に与える外乱を示しており、右端の四角CP5が総合的な評価結果を示している。分析対象音声a1〜a9は、例えばローラーコースター200のような同一の利用対象について9名の異なる利用者がそれぞれ発声した分析対象音声であってもよい。また、分析対象音声a1〜a9は、例えばローラーコースター200及びそれ以外の異なる利用対象について同一の利用者がそれぞれ発声した分析対象音声であってもよい。さらに、分析対象音声a1〜a9は、異なる利用対象について異なる利用者がそれぞれ発声した分析対象音声であってもよい。音声収録装置2を使ってどのような分析対象音声を収録するかは、マーケティング調査に応じて適宜決められるものである。
楕円CP3に記載されている「喜」、「怒」、「哀」、「楽」の利用者感情は、一つの例であり、それら以外に例えば驚きと喜びが交じり合ったような感情であってもよい。例えば、上述の第1感情領域Ar1に属する利用者感情が「喜」というように分類されてもよい。楕円CP3に記載されている利用者感情は、必ずしも従来から命名されている感情である必要はなく、例えば図8に示されている音声波形とイントネーションとボリュームの3つの座標軸を持つ感情マッピング空間の一部を占める所定領域に属するものであればよい。
円CP4は、評価に影響を与える任意の外乱を示している。図12を用いて外乱の一つの具体例を示す。図12には、遊園地のアトラクションの一つであるコーヒーカップ300に2名の子供の乗客Ug3,Ug4が乗っている状況が示されている。そして、子供の乗客Ug3,Ug4が保護者GUにより見守られている。ここでは、リピートするような喜び方を子供の乗客Ug3,Ug4がしているものとする。しかしこのとき、保護者GUは、コーヒーカップ300で子供が遊んでいる期間中待っているのに疲れて、乗客Ug3,Ug4がコーヒーカップ300に再度乗りたいと頼んでも、その頼みを聞き入れないことがある。この場合、保護者GUの行為が外乱b1に該当する。外乱は、このように明確に分かる場合だけでなく、例えば「雨が降った」というコーザル情報の対象になっている要因を含む場合もある。
このような仮定をおいた場合、上述のように第1感情領域Ar1に属する利用者感情を示した第1感情表意話者数だけでリピート率を評価したのでは不十分であり、第1感情表意話者数で評価されるリピート率を、第2感情表意話者数で補正した方が良いことは容易に想像できる。上述の評価では、5名の利用者UA,UB,UC,UD,UEのうち2名の利用者UA,UBがリピートするので、図8のような分布が得られたときにはリピート率を例えば40%とした。しかし、第2感情表意話者である利用者UBがリピートしない可能性があるため、利用者UBのような状況でリピートしない確率が50%であるとすると、その分を差し引いて例えばリピート率を30%と評価する。
ここでは、「喜」と「怒」の感情表意話者を例に挙げて説明したが、「哀」や「楽」などの他の感情表意話者となっているか否かを考慮して総合的な評価結果を導くこともできる。それぞれの感情表意話者の影響を考慮する際に、共分散構造分析を行なうことによって因果関係を同定してもよい。上述の「喜」と「怒」のように直接リピート率に寄与するものではなく、間接的に寄与する場合であってもその寄与を考慮することができる。
例えば、同一の利用者が2回「喜」の感情を示したときに、その2回の「喜」の間に「楽」の感情を示すと、よりリピート率が高まるといった場合である。そのような場合には、「喜」「楽」「喜」の順に利用者感情を表意した者を区別して評価することもできる。
図14(b)には、場所属性情報34によって分類された「キャメルバックブロック」、「垂直ループブロック」及び「コークスクリューブロック」の3つのグループが示されている。どのブロックで分析対象音声が発声されたかによってこれらのうちのどのグループに属するかが分類される。受話送信器26にはGPS25が取り付けられているので、どのブロックで分析対象音声が発せられたかが関連付けて記憶できるようになっている。例えば、体の姿勢によって発音が異なったり、どのブロックで「喜」の感情を示すかによってリピート率などの利用状況の所定現象の評価に差が生じたりすることがあるので、そのような場合には適宜修正することができる。ここでは、乗車した状態での位置情報の違いを示しているが、例えば降車した後にローラーコースター200などの利用対象からの距離に応じて修正するようにしてもよい。ローラーコースター200で形成された感情も距離が遠くなるほど薄められることが予想されるが、遠く離れてもその感情が維持されるということを勘案して強い感情という判断を行なうこともできる。
図14(c)には、コーザル情報35によって分類された「うさぎのぬいぐるみ同乗」と「効果音の放送」の2つのグループが示されている。コーザル情報35としては、このようなイベントの違い以外にも気温や天候など種々のものがある。このようなコーザル情報35に合わせて感情推定や分析の仕方を修正することができる。
図14(d)には、収録時間によって分類された「日曜・祝日」、「ゴールデンウィーク」及び「平日」の3つのグループが示されている。これら以外にも、「朝」、「昼」及び「夕方」など収録時間の他の切り口で分類することもできる。そして、このように収録時間によって分類されるグループ間で感情推定や分析に違いを設けることもできる。
上述の(4−5)で説明した評価は、利用対象の所定現象についてのアンケートとその利用対象に対する利用者感情との関連データの収集などとに基づいてその利用対象を直接的に評価するものである。このような利用対象の絶対的な評価だけでなく、遊園地内の異なるアトラクションや異なる遊園地間の同じアトラクションの評価など、任意のアトラクションを基準として他のアトラクションを評価することもできる。
図15に2つの異なる遊園地A,Bのローラーコースターの相対的な評価方法の簡単なフローが示されている。遊園地Aのローラーコースターの評価は、既に説明したように、例えば図3に示されているようなフローに沿って行なわれる。このとき、ローラーコースター200の評価において、ノルム値を決定する(ステップS11)。例えば、ローラーコースター200のリピート率であれば、リピート率と相関の高い第1感情表意話者の割合について、平均値、中央値あるいは最頻値等の統計量を用いてノルム値を決定する。
次に、遊園地Bのローラーコースターについて図3に示したと同様の方法で評価を行なう(ステップS12)。
最後に、遊園地Bのローラーコースターの評価結果とノルム値とを比較して、遊園地Aのローラーコースター200よりも、遊園地Bのローラーコースターのリピート率の方が高いか否かを比較して、その違いの有無を検討する(ステップS13)。このような相違の有無については、例えば統計における有意差の有無を用いて判定することができる。
(5−1)
上述のように、評価システム1では、ローラーコースター200やコーヒーカップ300(サービスの利用対象の例)を乗客Ug1,Ug2,Ug3,Ug4(利用者の例)が利用するときに発声する「キャー」などの感動詞(第1分析対象音声の一例)を用いて、ローラーコースター200やコーヒーカップ300の利用状況のリピート率(所定現象の一例)が分析され、それにより、利用状況が評価される。その際に、感情推定装置6によって、「キャー」という利用者の肉声(第1分析対象音声の一例)が第1感情領域Ar1に入るか否かから、その利用者が第1感情表意話者か第1感情非表意話者かが推定される(ステップS6)。図10(a)に示されているように、第1感情表意話者数の割合(第1分布の一例)とリピート率(所定現象の発生)との相関係数の絶対値が第1所定値以上になるように第1感情領域Ar1が区分されている。そして、図10(b)に示されているように、推定された第1感情表意話者と第1感情非表意話者の分布に基づいて、分析装置7によって、ローラーコースター200やコーヒーカップ300の利用状況のリピート率が分析される(ステップS7)。上述のように、第1感情領域Ar1についての第1感情表意話者と第1感情非表意話者の分布の簡単な例が第1感情表意話者の全体に占める割合や第1感情非表意話者の全体に占める割合といったものになる。この場合、ローラーコースター200のリピート率を第1感情領域Ar1に属する利用者感情によって直接簡単に分析することができる。
以上説明したように、評価システム1は、乗客Ug1,Ug2,Ug3,Ug4の思惑による評価結果の歪みを抑えて利用状況を評価することができる。ここでいう思惑とは、例えば、交通渋滞などで遊園地に着くまでの負の顧客価値の形成など、本来利用対象によって与えられる顧客価値とは無関係であるものの利用対象の顧客価値に影響を及ぼす要因である。このようにローラーコースター200やコーヒーカップ300の利用状況を容易に評価することができる評価システム及び評価方法を提供することができる。
また、上述の実施形態では、利用対象として、ローラーコースター200やコーヒーカップ300などのアトラクションによるサービスを例に挙げて説明したが、利用対象は商品であってもよい。また、利用者には、商品やサービスを使用する使用者(ユーザー)だけでなく、商品やサービスなどを選択する購買者(バイヤー)、及び商品やサービスに対して対価を支払う支払者(ペイヤー)などが含まれる。
上記実施の形態では、感情推定装置6は、第1感情領域Ar1以外の第2感情領域Ar2や第3感情領域Ar3に当て嵌まるか否かを推定している。そして、分析装置7は、第1感情表意話者である利用者UA,UBと、そのうちの第2感情表意話者である利用者UBという分布に基づいてリピート率という利用状況の一所定現象について評価している。このように、第1感情表意話者と第1感情非表意話者と第2感情表意話者と第2感情非表意話者の分布を組み合わせることで、組み合わせによって生まれるバリエーションから評価内容に適するものを選べるようになる。
評価システム1において、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスが音声的に異なるものである場合、例えば上述のように第1キーワードがローラーコースター200に乗っているときの「キャー」という感動詞であり、第2キーワードがローラーコースター200から降りたときの「凄い」という形容詞であるような場合が考えられる。このような場合には第1キーワードと第2キーワードの音声波形が全く異なるが、感情領域の範囲を異ならせることで、類似の感情を持って発声されたときには類似の感情領域に分類しやすくなる。
例えば、図8や図9を用いて説明したように、感情推定装置6は、感情マッピング空間を形成するための複数のパラメータとして、イントネーション、音声波形及びボリュームを用いている。このように構成されることにより、利用状況のリピート率の分析に大きな影響を与える第1感情表意話者と第1感情非表意話者の推定が簡単に実現できる。なお、上記実施形態では、イントネーション、音声波形及びボリュームの3つの次元を持つ感情マッピング空間を用いているが、分析する利用状況の所定現象によっては、イントネーション、音声波形及びボリュームのうちのいずれか2つを座標軸とする2次元の感情マッピング空間を用いてもよい。また、イントネーション、音声波形及びボリュームに、「語・句・文の間(間隔)」や「同一の語・句・文の繰返し回数」など他のパラメータを加えた、4次元以上の感情マッピング空間を感情推定装置6が用いるように構成することもできる。また、感情マッピング空間の座標軸となる複数のパラメータには、イントネーション、音声波形及びボリュームに代えて、アクセントやテンポなどといった音声を特徴づける他のパラメータを用いることもできる。
(5−5)
評価システム1において、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスが音声的に異なるものである場合、例えば上述のように第1キーワードがローラーコースター200に乗っているときの「キャー」という感動詞であり、第2キーワードがローラーコースター200から降りたときの「凄い」という形容詞であるような場合が考えられる。このように非常に満足して興奮して、似通った利用者感情で第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとが発声されても、例えば「キャー」という第1キーワードと「凄い」という第2キーワードとではそのキーワード自身が持っている意味があるために利用状況の評価における重みが異なることがある。このようなキーワードやフレーズやセンテンスの意味内容の違いを重み付けによって分析に反映させることで、利用状況の分析の内容や精度を向上させ易くなる。
感情推定装置6は、例えば図14に示されているように、分析対象音声の集合体全体を、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34などでグルーピングして感情を推定することができる。なお、図14(a)に示されている話者属性情報33でのグルーピングは、コーザル情報でのグルーピングの一種と考えることができる。このように、記憶装置3に記憶されたコーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つに応じて、図13に示されている第1感情領域Ar1,Ar11のように、範囲を異ならせることができる。それにより、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用者感情に与える影響を反映した分析を感情推定装置6が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
(5−7)
分析装置7は、例えば図14に示されているように、分析対象音声の集合体全体を、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34などでグルーピングして利用状況を分析することができる。分析装置7は、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用状況に与える影響を反映した分析を行なうことができる。
また、分析装置7は、第1感情表意話者の分布に異なる重みを付けることで、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用状況に与える影響の大小を反映した分析を行なうことができる。同様に、第2感情表意話者の分布や第3感情表意話者の分布に重み付けを行なってもよい。
また、分析装置7は、コーザル情報、収録時間及び収録場所のうちの少なくとも一つが第1感情表意話者と第1感情非表意話者の分布変化に与える影響から利用状況の分析を行なうことができる。同様に、第2感情表意話者の分布変化や第3感情表意話者の分布変化に与える影響から利用状況の分析を行なってもよい。
これらのような分析を行なえば、現実の利用状況の分析の内容や精度を向上させ易くなる。
図12を用いて説明したように、感情推定装置6は、コーヒーカップ300(利用対象の一例)を利用する乗客Ug3,Ug4(不特定複数の利用者の一例)の保護者GU(関係者の一例)が発生する「もう終わりにしましょう。」などの音声(分析対象補助音声の一例)から感情を推定することができる。感情推定装置6は、保護者GUが発生する分析対象補助音声について、イントネーション、音声波形及びボリュームを用いて分析対象補助音声を発したときの保護者GUが補助感情領域に属する感情を示したか否かを推定する。このときに用いる補助感情領域は、上述の第1感情領域Ar1のように感情マッピング空間に割り付けられた領域とすることができる。そして、分析装置7は、補助感情領域に属する感情を示した関係者に関係する利用者の分布を補正する。例えば、保護者GUが退屈して「もう終わりにしましょう。」と言った場合には、その子供たちである乗客Ug3,Ug4がリピートするような感情を示している場合でも、リピート率の評価を下げるような分析に補正する。このように、保護者GUが子供の乗客Ug3,Ug4に与える影響を反映させて利用状況の分析を行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
このような保護者GUに係わる補正は、一般化すると、図11に示す外乱b1、b2に係わる補正とみなすことができる。従って、関係者による補正と同様の補正を、外乱による補正にも適用することができる。
(6−1)変形例1A
上記実施形態では、音声収録装置2がパーソナルコンピュータ100に収録データを与える構成としてメモリチップに記憶させて読取装置102で収録データを読み取る構成を説明した。しかし、音声収録装置2が記憶装置3に収録データを与える構成は、このような構成に限られるものではなく、例えば、音声収録装置2とパーソナルコンピュータ100を公衆回線で繋いで、公衆回線を経由して収録データの送受信を行なってもよい。
(6−2)変形例1B
上記実施形態では、音声収録装置2によって生成される収録データが記憶装置3に記憶される場合について説明したが、収録データが記憶されるのは記憶装置3に限られるものではない。例えば、音声収録装置2自身のメモリに記憶されて、音声収録装置2のメモリから音声認識装置4が直接収録データを読み出すように構成することもできる。また、収録データが記憶されているメモリチップから音声認識装置4が直接収録データを読み出すように構成することもできる。
上記実施形態では、例えば図10(a)に示した第1感情表意話者の割合でリピート率を評価することを説明したが、このような評価システムや評価方法は、従来の評価システムや評価方法と組み合わせることもできる。例えば、特許文献1に記載されている満足度算出方法によって算出された満足度と第1感情表意話者の割合とを組み合わせてローラーコースター200のリピート率を評価してもよい。
(6−4)変形例1D
上記実施形態では、感情領域が第1感情領域Ar1や第2感情領域Ar2や第3感情領域Ar3のように一つの閉じた領域である場合を説明したが、図16に示されているような玉ねぎの皮のように、例えば第1感情領域Ar1を例えば利用状況に与える影響の違いから複数の領域Ar1−1、Ar1−2,Ar1−3,Ar1−4,Ar1−5のように分割してもよい。例えば、中心部分の領域Ar1−1に属する感情を示した利用者は、ローラーコースター200で非常に喜んで高揚した状態で非常に高い確率でリピートするが、外郭部分の領域Ar1−5に属する感情を示した利用者は、ローラーコースター200で喜んではいるもののリピート率があまり高くないなどである。
上記実施形態では、第1感情空間Ar1,Ar11が、イントネーション、音声波形及びボリュームのそれぞれについて上限の境界と下限の境界とを持つ閉じた領域である場合について説明しているが、感情空間は必ずしも閉じた空間である必要はない。例えば、イントネーションが上がっているか下がっているかのみを感情領域の境界とすることもでき、その場合には、図8に示されている感情マッピング空間の上に開いた感情領域と下に開いた感情領域が形成される。
また、上記実施形態では、感情マッピング空間の座標軸を形成するパラメータが連続的なものとして表現されているが、これらは離散的なものであってもよい。例えば、イントネーションについて、平坦、最後のみ下降調、全体的に下降調、最後のみ上昇調、全体的に上昇調の5段階に離散的に分類して、そのどれに属するかで感情領域を分けるようにすることもできる。
また、上記実施形態では、マーケティング調査データ抽出装置5や感情推定装置6や分析装置7などの各機能ブロックが、メモリシステム104(ROM、RAM、ハードディスク等)に格納され、上述した処理手順を実行可能なプログラムデータがCPU101によって解釈実行されることで実現される場合について説明した。このプログラムデータは、記録媒体を介してメモリシステム104内に導入されてもよいし、記録媒体上から直接実行されてもよい。なお、記録媒体は、ROMやRAMやフラッシュメモリ等の半導体メモリ、フレキシブルディスクやハードディスク等の磁気ディスクメモリ、CD−ROMやDVDやBD等の光ディスクメモリ、及びメモリカード等をいう。また、記録媒体は、電話回線や搬送路等の通信媒体も含む概念である。
また、上記実施形態のマーケティング調査データ抽出装置5や感情推定装置6や分析装置7などは、集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。また、集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)などを利用してもよい。
2,2A,2B 音声収録装置
3 記憶装置
4 音声認識装置
5 マーケティング調査データ抽出装置
6 感情推定装置
7 分析装置
8 マーケティングデータ解析装置
25 GPS
31 ビッグデータ
33 話者属性情報
34 場所属性情報
35 コーザル情報
Claims (10)
- 音声の特徴を分析するための複数のパラメータを座標軸にとった2次元以上の感情マッピング空間に割り付けられた複数の感情領域のうちの第1感情領域に、利用対象を利用する不特定複数の利用者の第1分析対象音声がマッピングされるか否かによって、第1感情を表意した第1感情表意話者と表意しなかった第1感情非表意話者との推定を行なう感情推定装置と、
前記感情推定装置の推定結果に基づく前記第1感情表意話者及び前記第1感情非表意話者の第1分布から、前記利用対象の利用状況についての所定現象を分析する分析装置と、
を備え、
前記感情推定装置は、前記第1分布と前記所定現象の発生との相関係数の絶対値が第1所定値以上になるように前記第1感情領域が区分されている、評価システム。 - 前記感情推定装置は、複数の前記感情領域のうちの第2感情領域に第2分析対象音声がマッピングされるか否かによって、第2感情を表意した第2感情表意話者と表意しなかった第2感情非表意話者との推定を行ない、
前記分析装置は、前記感情推定装置の推定結果に基づく前記第1分布に、前記感情推定装置の推定結果に基づく前記第2感情表意話者及び前記第2感情非表意話者の第2分布を加味して前記所定現象を分析し、
前記感情推定装置は、前記第2分布と前記所定現象の発生との相関係数の絶対値が第2所定値以上になるように前記第2感情領域が区分されている、
請求項1に記載の評価システム。 - 前記感情推定装置は、前記第1分析対象音声として前記利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、前記第1キーワード、前記第1キーフレーズ又は前記第1キーセンテンスと前記第2キーワード、前記第2キーフレーズ又は前記第2キーセンテンスとで前記第1感情領域の範囲を異ならせる、
請求項1又は請求項2に記載の評価システム。 - 前記感情推定装置は、複数の前記パラメータとして、イントネーション、音声波形及びボリュームを用いる、
請求項1から3のいずれか一項に記載の評価システム。 - 前記分析装置は、前記所定現象を、前記第1感情表意話者の割合に基づいて分析する、
請求項1から4のいずれか一項に記載の評価システム。 - 前記感情推定装置は、前記第1分析対象音声として前記利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、
前記分析装置は、前記第1キーワード、前記第1キーフレーズ又は前記第1キーセンテンスと前記第2キーワード、前記第2キーフレーズ又は前記第2キーセンテンスとで異なる重みを付けて前記利用対象の利用状況を分析する、
請求項1から5のいずれか一項に記載の評価システム。 - 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
前記感情推定装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて前記第1感情領域の区分を異ならせる、
請求項1から6のいずれか一項に記載の評価システム。 - 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
前記分析装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて前記第1分布に異なる重みを付けて前記利用対象の利用状況を分析する、
請求項1から7のいずれか一項に記載の評価システム。 - 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
前記分析装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて変化する、前記第1感情表意話者と前記第1感情非表意話者の分布変化に基づいて前記利用対象の利用状況を分析する、
請求項1から8のいずれか一項に記載の評価システム。 - 前記感情推定装置は、前記利用対象を利用する不特定複数の前記利用者の関係者の分析対象補助音声について前記感情マッピング空間に割り付けられた補助感情領域に、前記関係者の前記分析対象補助音声がマッピングされるか否かによって、補助感情を表意した補助感情表意話者と表意しなかった補助感情非表意話者との推定を行ない、
前記分析装置は、前記補助感情表意話者に関係する前記第1分布を補正する、
請求項1から9のいずれか一項に記載の評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013051843A JP6105337B2 (ja) | 2013-03-14 | 2013-03-14 | 評価システム及び評価方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013051843A JP6105337B2 (ja) | 2013-03-14 | 2013-03-14 | 評価システム及び評価方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014178835A JP2014178835A (ja) | 2014-09-25 |
JP6105337B2 true JP6105337B2 (ja) | 2017-03-29 |
Family
ID=51698735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013051843A Expired - Fee Related JP6105337B2 (ja) | 2013-03-14 | 2013-03-14 | 評価システム及び評価方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6105337B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6755304B2 (ja) * | 2016-04-26 | 2020-09-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JP6382273B2 (ja) * | 2016-09-30 | 2018-08-29 | 本田技研工業株式会社 | 施設満足度算出装置 |
CN109766770A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 服务质量评价方法、装置、计算机设备和存储介质 |
CN109961801A (zh) * | 2019-01-16 | 2019-07-02 | 深圳壹账通智能科技有限公司 | 智能服务评价方法、计算机可读存储介质和终端设备 |
CN112309431B (zh) * | 2020-09-21 | 2024-02-23 | 厦门快商通科技股份有限公司 | 一种客服人员声音感染力的评测方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3676969B2 (ja) * | 2000-09-13 | 2005-07-27 | 株式会社エイ・ジー・アイ | 感情検出方法及び感情検出装置ならびに記録媒体 |
JP5039045B2 (ja) * | 2006-09-13 | 2012-10-03 | 日本電信電話株式会社 | 感情検出方法、感情検出装置、その方法を実装した感情検出プログラム及びそのプログラムを記録した記録媒体 |
JP2011210133A (ja) * | 2010-03-30 | 2011-10-20 | Seiko Epson Corp | 満足度算出方法、満足度算出装置およびプログラム |
-
2013
- 2013-03-14 JP JP2013051843A patent/JP6105337B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014178835A (ja) | 2014-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11030993B2 (en) | Advertisement selection by linguistic classification | |
CN101261832B (zh) | 汉语语音情感信息的提取及建模方法 | |
Wu et al. | Emotion recognition of affective speech based on multiple classifiers using acoustic-prosodic information and semantic labels | |
Rozgic et al. | Emotion Recognition using Acoustic and Lexical Features. | |
CN105895087A (zh) | 一种语音识别方法及装置 | |
JP6105337B2 (ja) | 評価システム及び評価方法 | |
CN103377651B (zh) | 语音自动合成装置及方法 | |
CN109119069B (zh) | 特定人群识别方法、电子装置及计算机可读存储介质 | |
Hansen et al. | Speaker height estimation from speech: Fusing spectral regression and statistical acoustic models | |
Alías et al. | Efficient and reliable perceptual weight tuning for unit-selection text-to-speech synthesis based on active interactive genetic algorithms: A proof-of-concept | |
Huang et al. | Novel sub-band spectral centroid weighted wavelet packet features with importance-weighted support vector machines for robust speech emotion recognition | |
Xue et al. | Measuring the intelligibility of dysarthric speech through automatic speech recognition in a pluricentric language | |
Anjos et al. | Sibilant consonants classification comparison with multi‐and single‐class neural networks | |
Koti et al. | Speech Emotion Recognition using Extreme Machine Learning | |
McGraw | Crowd-supervised training of spoken language systems | |
CN114141271B (zh) | 心理状态检测方法及系统 | |
Yang | [Retracted] Design of Service Robot Based on User Emotion Recognition and Environmental Monitoring | |
Alshammri | IoT‐Based Voice‐Controlled Smart Homes with Source Separation Based on Deep Learning | |
Karadayi et al. | Diarization in Maximally Ecological Recordings: Data from Tsimane Children. | |
WO2021139737A1 (zh) | 一种人机交互的方法和系统 | |
Scheffler et al. | Speecheval–evaluating spoken dialog systems by user simulation | |
Muneer et al. | Convolutional Neural Network-Based Automatic Speech Emotion Recognition System for Malayalam | |
Singh | Designing an efficient algorithm for recognition of human emotions through speech | |
JPWO2019044534A1 (ja) | 情報処理装置、及び情報処理方法 | |
JP2014085886A (ja) | マーケティング調査システム、マーケティング調査データ抽出装置、マーケティング調査方法及びマーケティング調査データ抽出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6105337 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |