[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6388824B2 - 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム - Google Patents

感情情報推定装置、感情情報推定方法及び感情情報推定プログラム Download PDF

Info

Publication number
JP6388824B2
JP6388824B2 JP2014244553A JP2014244553A JP6388824B2 JP 6388824 B2 JP6388824 B2 JP 6388824B2 JP 2014244553 A JP2014244553 A JP 2014244553A JP 2014244553 A JP2014244553 A JP 2014244553A JP 6388824 B2 JP6388824 B2 JP 6388824B2
Authority
JP
Japan
Prior art keywords
information
user
emotion
emotion information
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014244553A
Other languages
English (en)
Other versions
JP2016106689A (ja
Inventor
法子 横山
法子 横山
真 中辻
真 中辻
浩之 戸田
浩之 戸田
義昌 小池
義昌 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014244553A priority Critical patent/JP6388824B2/ja
Publication of JP2016106689A publication Critical patent/JP2016106689A/ja
Application granted granted Critical
Publication of JP6388824B2 publication Critical patent/JP6388824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ユーザの状態や個人差に依らず、楽しいなどの感情を推定する感情推定技術に関する。
ウェアラブルセンサを用いて、疲労や感情などの内面状態の把握を目指す研究が盛んに行われている。人の内面状態を推定できれば、感情に合ったレコメンデーション等が可能となり、より快適な生活を送る手助けになることが期待できる。例えば、GPS情報と組み合わせることにより、施設に対する大規模な感情データを収集できるようになり、ユーザの状態に応じた施設推薦サービスが可能となる。
近年、生体情報から感情を推定する研究がなされている(非特許文献1,2)。非特許文献1に開示された研究では、筋電図,皮膚コンダクタンス等のデータから音楽鑑賞中の感情推定を行っている。非特許文献2に開示された研究では、脳波等のデータからビデオ視聴中の感情推定を行っている。これらの知見を利用すれば、生体情報から感情の推定を行うことが可能である。
J. Kim, and E. Andre, "Emotion recognition based on physiological changes in music listening", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 30, no. 12, pp. 2067-2083,2008 Sander Koelstra, Christian Muhl, Mohammad Soleymani, Jong-Seok Lee, Ashkan Yazdani, Touradj Ebrahimi, Thierry Pun, Anton Nijholt, Ioannis Patras, "DEAP: A Database for Emotion Analysis Using Physiological Signals", IEEE Transactions on Affective Computing, vol. 3, no. 1, pp. 18-31,2012 Jing Cai, Guangyuan Liu, Min Hao, "The research on emotion recognition from ECG signal", Information Technology and Computer Science, vol. 1, pp. 497-500, 2009 東 英和、重岡 正、糸川 剛、北須賀 輝明、有次 正義,「加速度計を用いた歩行分析による疲労推定特徴量の検討」,情報処理学会研究報告,UBI研究会,Vol.2011-MBL-57 No.27,Vol.2011-MBL-29 No.27,2011/3/8
従来の感情推定は、音楽鑑賞中やビデオ視聴中のような、限られた状況下での推定に限定されている。実生活では、ユーザの動きや疲労度等の様々な要因により生体信号が変化するため、ユーザの状況によっては感情の推定が正しく行えない。また、生体信号は個人差が大きく、ユーザ非依存の推定は難しい。
本発明は、上記の事情に鑑み、任意の身体的状態に基づく感情情報をユーザ非依存に推定することを課題とする。
そこで、本発明は、現在のユーザの身体的状態を判別し、予めユーザの身体的状態毎に作成しておいた推定器のうちから現在のユーザの身体的状態に対応する推定器を選択してこの推定器を用いて当該ユーザの感情情報を推定する。
この本発明の感情情報推定装置の態様としては、ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置であって、予め取得したユーザの生体情報とこの生体情報に対応したそのユーザの感情情報と身体的状態とを格納したデータベースに基づき生体情報と感情情報との関係を学習して身体的状態毎に生体情報から感情情報を推定する推定器を生成する推定器生成手段と、ユーザの位置情報とこの位置情報が取得された時点で検出されたそのユーザの生体情報とに基づき当該ユーザの身体的状態を判定する状態判定手段と、前記生成された身体的状態毎の推定器のうちで前記判定されたユーザの身体的状態に対応した推定器を用いて前記検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情判定手段を備える。
この本発明の感情情報推定方法の態様としては、ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置が実行する感情情報推定方法であって、予め取得したユーザの生体情報とこの生体情報に対応したそのユーザの感情情報と身体的状態とを格納したデータベースに基づき生体情報と感情情報との関係を学習して身体的状態毎に生体情報から感情情報を推定する推定器を生成する推定器生成ステップと、ユーザの位置情報とこの位置情報が取得された時点で検出されたそのユーザの生体情報とに基づき当該ユーザの身体的状態を判定する状態判定ステップと、前記生成された身体的状態毎の推定器のうちで前記判定されたユーザの身体的状態に対応した推定器を用いて前記検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情判定ステップを有する。
また、他の本発明は、現在のユーザの身体的状態に近い学習データを用いて生成した推定器によって当該ユーザの感情情報を推定する。
この他の本発明の感情情報推定装置の態様としては、ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置であって、予め取得したユーザの感情情報とこの感情情報に対応した生体情報と当該感情情報が生成された時点の一定時間前から当該時点までの間に取得された当該ユーザの生体情報とを格納したデータベースと、このデータベースに格納された生体情報であって、前記感情情報が生成された時点の一定時間前から当該時点までの間に検出された生体情報が、ユーザの位置情報が取得された時点の一定時間前から当該時点までの間に検出された当該ユーザの生体情報と類似している生体情報とこの生体情報に対応した感情情報を前記データベースから取得する類似判定手段と、前記取得された生体情報及び感情情報に基づき生体情報と感情情報との関係を学習して生体情報から感情情報を推定する推定器を作成しこの推定器を用いて前記位置情報が取得された時点で検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情情報判定手段を備える。
この他の本発明の感情情報推定方法の態様としては、ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置が実行する感情情報推定方法であって、予め取得したユーザの感情情報とこの感情情報に対応した生体情報と当該感情情報が生成された時点の一定時間前から当該時点までの間に取得された当該ユーザの生体情報とを格納したデータベースから、このデータベースに格納された生体情報であって、前記感情情報が生成された時点の一定時間前から当該時点までの間に検出された生体情報が、ユーザの位置情報が取得された時点の一定時間前から当該時点までの間に検出された当該ユーザの生体情報と類似している生体情報とこの生体情報に対応した感情情報とを取得する類似判定ステップと、前記取得された生体情報及び感情情報に基づき生体情報と感情情報との関係を学習して生体情報から感情情報を推定する推定器を作成しこの推定器を用いて前記位置情報が取得された時点で検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情情報判定ステップを有する。
尚、本発明は上記装置の各手段としてコンピュータを機能させるプログラムまたは上記方法のステップをコンピュータに実行させるプログラムの態様とすることもできる。
以上の発明によれば、任意の身体的状態に基づく感情情報をユーザ非依存に推定できる。
本発明の実施形態1における感情情報推定装置のブロック構成図。 実施形態1における履歴蓄積データベースの構成例。 実施形態1における事前学習のフロー図。 実施形態1の感情推定のフロー図。 推定によって得られた感情情報の一例。 本発明の実施形態2における感情情報推定装置のブロック構成図。 実施形態2における履歴蓄積データベースの構成例。 実施形態2における事前学習のフロー図。 実施形態2の感情推定のフロー図。 本発明の実施形態3における感情情報推定装置のブロック構成図。 実施形態3における事前学習のフロー図。 実施形態3の感情推定のフロー図。
以下、図面を参照しながら本発明の実施の形態について説明するが本発明はこの実施形態に限定されるものではない。
[実施形態1]
(概要)
図1に示された本実施形態の感情情報推定装置1は、現在のユーザの身体的状態を判別し、予めユーザの身体的状態毎に作成しておいた推定器のうちから現在のユーザの身体的状態に対応する推定器を選択してこの推定器を用いて当該ユーザの感情情報を推定する
以下の説明では、感情情報として例えば「楽しい」「退屈」を推定する手法について述べるが、他の感情情報の推定にも同じ手法が適用できる。また、ユーザの身体的状態や感情を推定するためのセンサデータとして、加速度や心拍データを用いた事例についての説明がなされているが、皮膚コンダクタンス等、他のセンサデータを用いてもよい。尚、1拍動の時間から算出した瞬時心拍数を単に心拍数と称する。尚、いくつかの瞬時心拍数を平均した値を心拍数として用いてもよい。
(装置の構成)
図1を参照しながら本実施形態の感情情報推定装置1の構成について説明する。
感情情報推定装置1は事前学習部301と推定部302とを備える。
事前学習部301は、感情取得部310、センサデータ取得部330、状態取得部340、履歴蓄積データベース350、推定器生成部360を備える。
感情取得部310は、ユーザから感情のアノテーションデータ(例えば、楽しい/退屈を示すデータ)を取得する。
センサデータ取得部330は、例えば、ユーザに付帯された生体センサ(ウェアラブルセンサ)から感情生成時のユーザの心拍数データを予め取得する。
状態取得部340は、疲労度等のユーザの身体的状態を予め取得する。
履歴蓄積データベース350は、感情取得部310から取得した感情情報(例えば、楽しい、退屈等)、センサデータ取得部330から取得した生体情報(例えば、心拍数等)、状態取得部340から取得したユーザの身体状態を示す情報(例えば、疲労、普通等)を予め格納したデータベースである。このデータベースの一例を図2に示した。
推定器生成部360は、ユーザの身体的状態(例えば、疲労,普通,元気)毎に、心拍数データから感情を推定する推定器を、予め生成する。
また、推定部302は、場所取得部370、センサデータ取得部380、状態判定部390、感情判定部395、感情可視化部396を備える。
場所取得部370は、ユーザの現在の位置情報を取得し続ける。
センサデータ取得部380は、ユーザに装着された加速度計,心拍計から生体情報として加速度,心拍数をそれぞれ取得し続ける。
状態判定部390は、場所取得部370,センサデータ取得部380から取得された情報に基づき、ユーザがある場所への訪問開始時の当該ユーザの身体的状態を判定する。
感情判定部395は、推定器生成部360が作成した推定器の群のうちで状態判定部390が判定したユーザの身体状態に対応した推定器を用いて、センサデータ取得部380によって取得された前記訪問開始時の生体情報に基づき、前記ユーザの感情情報を推定する。
感情可視化部396は、感情判定部395による推定によって得られた感情情報をユーザに提示する。
以上の感情情報推定装置1の各機能部301,302はコンピュータのハードウェアリソースによって実現される。すなわち、感情情報推定装置1は、少なくとも演算装置(CPU)、記憶装置(メモリ、ハードディスク装置等)、通信インタフェース等のコンピュータに係るハードウェアリソースを備える。そして、これらのハードウェアリソースがソフトウェアリソース(OS、アプリケーション等)と協働することにより各機能部301,302が実装される。また、各々のコンピュータに機能部301,302を各々実装させるようにしてもよい。
(本実施形態の感情情報推定過程の説明)
図1〜5を参照しながら本実施形態の感情情報推定過程について説明する。本実施形態の感情情報推定過程は事前学習ステップS301と推定ステップS302とからなる。
事前学習ステップS301は図3に示したように以下のS410,S420からなる。
S410:感情取得部310、状態取得部340、センサデータ取得部330は、ユーザから入力された感情情報,身体的状態,この身体的情報のラベルの付いた心拍数データを、履歴蓄積データベース350に保存する。データ長は、感情開始後、1分間、5分間等、予め設定した時間幅としてもよいし、感情開始,感情終了のアノテーションを行い、データ毎に異なるデータ長さに設定してもよい。
S420:推定器生成部360は、履歴蓄積データベース350のデータに基づき、入力データが生体情報(心拍数)であると共に出力データが感情情報(例えば、楽しい,退屈等)である推定器を身体的状態毎(例えば、元気,普通,疲れている)に機械学習を用いて生成する。推定器は例えば非特許文献3に開示された特徴量・分類手法によって生成される。
推定ステップS302は、図4に示したようにS510〜S550からなる。
S510:場所取得部370は前記ユーザの現在の位置情報(例えば施設名等)を取得し続ける。前記位置情報はGPSを用いて自動で取得してもよい。一方、センサデータ取得部380は前記ユーザの加速度計並びに生体センサから当該ユーザの加速度、心拍数のデータを取得し続ける。
S520:前記ユーザがある施設にたどり着いた際に、センサデータ取得部380は、それ以前(例えば直近1分間)の加速度を取得する。
S530:状態判定部390は、ステップS520にて取得した加速度を入力として、ユーザの身体状態(元気,普通,疲れている)を判定する。判定には、例えば非特許文献4のような加速度の特徴量を入力として、加速度と身体状態(元気,普通,疲れている)との関係を予め学習しておいた推定器を用いる。
S540:感情判定部395は、ステップS420にて生成された推定器の群のうちでS530にて判定した身体状態に対応した推定器を選択して前記ユーザの前記施設滞在中にセンサデータ取得部380が取得した生体情報(心拍数)から当該ユーザの施設滞在中の感情情報を推定する。
S550:感情可視化部396は、ステップS540での推定によって得られた感情情報をユーザに提示する。感情情報の一例を図5に例示する。
[実施形態2]
(概要)
図6に示された本実施形態の感情情報推定装置2は、現在のユーザの身体的状態に近い学習データを用いて生成した推定器によって当該ユーザの感情情報を推定する。
本実施形態の説明においても、感情情報として例えば「楽しい」「退屈」を推定する手法について述べるが、他の感情情報の推定にも同じ手法が適用できる。また、類似データの判定や感情を推定するためのセンサデータとして、心拍データを用いた事例についての説明がなされているが、加速度や皮膚コンダクタンス等、他のセンサデータを用いてもよい。尚、1拍動の時間から算出した瞬時心拍数を単に心拍数と称する。尚、いくつかの瞬時心拍数を平均した値を心拍数として用いてもよい。
(装置の構成)
図6を参照しながら本実施形態の感情情報推定装置2の構成について説明する。
感情情報推定装置2は事前学習部601と推定部602とを備える。
事前学習部601は、感情取得部610、センサデータ取得部620、履歴蓄積データベース630を備える。
感情取得部610は、ユーザから感情のアノテーションデータ(例えば、楽しい/退屈を示すデータ)を予め取得する。
センサデータ取得部620は、ユーザに付帯された生体センサ(ウェアラブルセンサ)から当該ユーザの感情生成時と直近1時間の心拍数データを、予め取得する。
履歴蓄積データベース630は、感情取得部610から取得した感情情報、センサデータ取得部620から取得した感情生成時の生体情報(例えば、心拍数等)並びに感情生成時直前の一定期間(例えば一時間)の生体情報(心拍数等)を予め格納したデータベースである。このデータベースの一例を図7に示した。
推定部602は、場所取得部640、センサデータ取得部650、類似データ判定部660、感情判定部670、感情可視化部680を備える。
場所取得部640は、ユーザの現在の位置情報を取得し続ける。
センサデータ取得部650は、ユーザに装着された心拍計から生体情報として心拍数を取得し続ける。
類似データ判定部660は、場所取得部640によって前記ユーザの位置情報が取得された時点の一定時間(例えば1時間)前から当該時点までの間におけるセンサデータ取得部650によって検出された当該ユーザの生体情報(例えば心拍数等)と類似している生体情報とこの生体情報に対応した感情情報とを履歴蓄積データベース630から取得する。
感情判定部670は、類似データ判定部660が取得したデータを用いて、生体情報(例えば心拍数)と感情情報(例えば、楽しい,退屈)との関係を学習して生体情報から感情情報を推定する推定器を作成し、この推定器を用いてセンサデータ取得部650が取得した生体情報(例えば、心拍数)に基づき前記場所に滞在中の前記ユーザの感情情報を推定する。
感情可視化部680は、感情判定部670による推定によって得られた感情情報をユーザに提示する。
以上の感情情報推定装置2の各機能部601,602はコンピュータのハードウェアリソースによって実現される。すなわち、感情情報推定装置1は、少なくとも演算装置(CPU)、記憶装置(メモリ、ハードディスク装置等)、通信インタフェース等のコンピュータに係るハードウェアリソースを備える。そして、これらのハードウェアリソースがソフトウェアリソース(OS、アプリケーション等)と協働することにより各機能部601,602が実装される。また、各々のコンピュータに機能部601,602を各々実装させるようにしてもよい。
(本実施形態の感情情報推定過程の説明)
図6〜9を参照しながら本実施形態の感情情報推定過程について説明する。本実施形態の感情情報推定過程は事前学習ステップS601と推定ステップS602とからなる。
事前学習ステップS601は図8に示したように以下のS710,S720からなる。
S710:感情取得部610はユーザから感情情報の入力を受ける。また、センサデータ取得部620は前記ユーザから前記感情情報のラベルの付いた生体情報(心拍数データ)の入力を受ける。データ長は、感情開始後、1分間、5分間等、予め設定した時間幅としてもよいし、感情開始,感情終了のアノテーションを行い、データ毎に異なるデータ長さに設定してもよい。
S720:感情取得部610,センサデータ取得部620は、前記入力された感情情報,この感情情報のラベルの付いた生体情報(心拍数データ)を、履歴蓄積データベース630に保存する。
推定ステップS602は、図9に示したようにS810〜S860からなる。
S810:場所取得部640は前記ユーザの現在の位置情報(例えば施設名等)を取得し続ける。前記位置情報はGPSを用いて自動で取得してもよい。一方、センサデータ取得部650は前記ユーザの生体センサから当該ユーザの心拍数のデータを取得し続ける。
S820:前記ユーザがある施設にたどり着いた際に、センサデータ取得部650は、それ以前(例えば直近1時間)の心拍数データを取得する。
S830:類似データ判定部660は、1時間の生体情報(心拍数データfi(t))がステップS820にて取得した生体情報(心拍数データg(t))と類似している生体情報(心拍数データ)とこの生体情報に対応した感情情報とを、履歴蓄積データベース630から取得する。類似しているかどうかの判定は、例えば、それぞれの1時間の生体情報(心拍数データ)の平均(average(fi(t)),average(g(t))が下記の式(1)を満たしていれば類似していると判断する。
Figure 0006388824
S840:ステップS830にて取得したデータを用いて、生体情報(心拍数)と感情情報との関係を学習し、入力が生体情報(心拍数データ)であると共に出力が感情情報である推定器を生成する。推定器は例えば非特許文献3に開示された特徴量・分類手法によって生成される。
S850:感情判定部670は、ステップS840にて作成した推定器を用いて、センサデータ取得部650が取得した生体情報(心拍数データ)から施設滞在中のユーザの感情情報を推定する。
S860:感情可視化部680は、ステップS850での推定によって得られた感情情報をユーザに提示する。感情情報の一例を図5に例示する。
[実施形態3]
(概要)
図10に示した本実施形態の感情情報推定装置3は、ユーザの身体的状態間の生体情報の関係を学習し、その関係を用いて学習データを増幅することにより、アノテーションコストの低減を図る。
(装置の構成)
図10を参照しながら本実施形態の感情情報推定装置3の構成について説明する。
感情情報推定装置3は、事前学習部301においてデータ増幅部955を備えたこと以外は、実施形態1の感情情報推定装置1と同じ構成となっている。
データ増幅部955は、履歴蓄積データベース350に蓄積されている同一の感情情報に対応した身体的状態と他の身体的状態の情報に基づき身体的状態間の関係を学習して推定器生成部360に供される身体的状態とその感情情報とに対応する生体情報を疑似的に生成する。
(本実施形態の感情情報推定過程の説明)
図10〜12を参照しながら本実施形態の感情情報推定過程について説明する。本実施形態の感情情報推定過程は事前学習ステップS901と推定ステップS902とからなる。
事前学習ステップS901は図11に示したように以下のS1010〜S1040からなる。
S1010:感情取得部310、状態取得部340、センサデータ取得部330は、ユーザから入力された感情情報,身体的状態,この身体的情報のラベルの付いた心拍数データを、履歴蓄積データベース350に保存する。データ長は、感情開始後、1分間、5分間等、予め設定した時間幅としてもよいし、感情開始,感情終了のアノテーションを行い、データ毎に異なるデータ長さに設定してもよい。
S1020:データ増幅部955は、履歴蓄積データベース350に蓄積されている同一の感情情報に対応した前記ユーザの身体的状態と他の身体的状態の情報に基づき身体的状態間の関係式を学習する。
例えば、学習によって得られた身体的状態1、2のある2つのデータf1(t),f2(t)間の特徴量(例えば平均値)の関係式rは下記の式(2)となる。
Figure 0006388824
S1030:データ増幅部955は、ステップS1020にて作成した関係式rを用いて、学習用データの少ない状態のデータ(特徴量)を、別の身体的状態のデータ(特徴量)から疑似的に生成する。
例えば、下記の式(3)によって身体的状態2のあるデータf’2(t)から身体的状態1の疑似データf’(t)の特徴量(平均値)が生成される。
Figure 0006388824
この処理を、S1040で用いる全ての特徴量に関して行い、疑似データを作成する。
S1040:推定器生成部360は、履歴蓄積データベース350のデータとステップS1030にて生成したデータとに基づき、入力データが生体情報(心拍数)であると共に出力データが感情情報(例えば、楽しい,退屈等)である推定器を身体的状態毎(例えば、元気,普通,疲れている)に機械学習を用いて生成する。推定器は例えば非特許文献3に開示された特徴量・分類手法によって生成される。
推定ステップS902は、図12に示したようにS1110〜S1150からなる。
S1110:場所取得部370はユーザの現在の位置情報(例えば施設名等)を取得し続ける。前記位置情報はGPSを用いて自動で取得してもよい。一方、センサデータ取得部380は前記ユーザの加速度計並びに生体センサから当該ユーザの加速度、心拍数のデータを取得し続ける。
S1120:ユーザがある施設にたどり着いた際に、センサデータ取得部380は、それ以前(例えば直近1分間)の加速度を取得する。
S1130:状態判定部390は、ステップS1120にて取得した加速度を入力として、ユーザの身体状態(元気,普通,疲れている)を判定する。判定には、例えば非特許文献4のような加速度の特徴量を入力として、加速度と身体状態(元気,普通,疲れている)との関係を予め学習しておいた推定器を用いる。
S1140:感情判定部395は、ステップS1040にて生成された推定器の群のうちでS1130にて判定した身体状態に対応した推定器を用いて、前記ユーザの前記施設滞在中にセンサデータ取得部380が取得した生体情報(心拍数)から当該ユーザの施設滞在中の感情情報を推定する。
S1150:感情可視化部396は、ステップS1140での推定によって得られた感情情報をユーザに提示する。感情情報の一例を図5に例示する。
[実施形態1〜3の効果]
従来は、音楽鑑賞中等の限られた状況下での感情推定が行われており、実生活の様々な状況下で感情情報を推定することができなかった。そこで、感情情報推定装置1〜3によれば、ユーザの状態・状況に応じたモデルを用いて感情推定を行うため、様々な状況下で精度良く感情情報を推定することができる。
また、生体信号は個人差が大きく、ユーザ非依存の推定は難しかったが、実施形態2の感情情報推定装置2によれば、他人のデータの中から、そのユーザに類似したデータのみを用いてモデルを作成することにより、ユーザ非依存の感情情報の推定も可能である。
さらに、実施形態3の感情情報推定装置3においては、学習に用いるデータの増幅も行うため、アノテーションコストを軽減できる。
また、感情情報推定装置1〜3においては、GPSと感情推定技術を組み合わせると、施設等に対する大規模な感情データを収集でき、マーケティングや状態に応じた推薦サービス等、様々な応用が考えられる。
さらに、前記推定された感情情報をこの感情情報の推定を行ったときのユーザの位置情報と対応付けて履歴蓄積データベース350,630に保存することにより、ユーザが特定の感情を抱かせる位置情報の把握と取得が可能となる。
[本発明の他の態様]
本発明は、感情情報推定装置1〜3を構成する上記の機能部301,302,601,602の一部若しくは全てとしてコンピュータを機能させるプログラムで構成しこれを当該コンピュータに実行させることにより実現できる。または、同装置1〜3が実行する上記のステップS301,302,601,602,901,902の一部若しくは全てをコンピュータに実行させるプログラムで構成しこれを当該コンピュータに実行させることにより実現できる。そして、このプログラムをそのコンピュータが読み取り可能な周知の記録媒体(例えば、ハードディスク、フレキシブルディスク、CD−ROM等)に格納して提供できる。または、前記プログラムをインターネットや電子メール等でネットワークを介して提供できる。
尚、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更、応用が可能である。
1,2,3…感情情報推定装置
350,630…履歴蓄積データベース
360…推定器生成部
390…状態判定部
395,670…感情判定部(感情判定手段)
660…類似データ判定部(類似判定手段)
955…データ増幅部(増幅手段)

Claims (7)

  1. ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置であって、
    予め取得したユーザの生体情報とこの生体情報に対応したそのユーザの感情情報と身体的状態とを格納したデータベースに基づき生体情報と感情情報との関係を学習して身体的状態毎に生体情報から感情情報を推定する推定器を生成する推定器生成手段と、
    ユーザの位置情報とこの位置情報が取得された時点で検出されたそのユーザの生体情報とに基づき当該ユーザの身体的状態を判定する状態判定手段と、
    前記生成された身体的状態毎の推定器のうちで前記判定されたユーザの身体的状態に対応した推定器を用いて前記検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情判定手段と
    を備えたこと
    を特徴とする感情情報推定装置。
  2. ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置であって、
    予め取得したユーザの感情情報とこの感情情報に対応した生体情報と当該感情情報が生成された時点の一定時間前から当該時点までの間に取得された当該ユーザの生体情報とを格納したデータベースと、
    このデータベースに格納された生体情報であって、前記感情情報が生成された時点の一定時間前から当該時点までの間に検出された生体情報が、ユーザの位置情報が取得された時点の一定時間前から当該時点までの間に検出された当該ユーザの生体情報と類似している生体情報とこの生体情報に対応した感情情報を前記データベースから取得する類似判定手段と、
    前記取得された生体情報及び感情情報に基づき生体情報と感情情報との関係を学習して生体情報から感情情報を推定する推定器を作成しこの推定器を用いて前記位置情報が取得された時点で検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情情報判定手段と
    を備えたこと
    を特徴とする感情情報推定装置。
  3. 前記データベースに蓄積されている同一の感情情報に対応した身体的状態と他の身体的状態の情報に基づき身体的状態間の関係を学習して前記推定器生成手段に供される身体的状態とその感情情報とに対応する生体情報を疑似的に生成する増幅手段をさらに備えたこと
    を特徴とする請求項1に記載の感情情報推定装置。
  4. 前記推定された感情情報はこの感情情報を推定したときのユーザの位置情報と対応付けて前記データベースに保存されること
    を特徴とする請求項1から3のいずれか1項に記載の感情情報推定装置。
  5. ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置が実行する感情情報推定方法であって、
    予め取得したユーザの生体情報とこの生体情報に対応したそのユーザの感情情報と身体的状態とを格納したデータベースに基づき生体情報と感情情報との関係を学習して身体的状態毎に生体情報から感情情報を推定する推定器を生成する推定器生成ステップと、
    ユーザの位置情報とこの位置情報が取得された時点で検出されたそのユーザの生体情報とに基づき当該ユーザの身体的状態を判定する状態判定ステップと、
    前記生成された身体的状態毎の推定器のうちで前記判定されたユーザの身体的状態に対応した推定器を用いて前記検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情判定ステップと
    を有すること
    を特徴とする感情情報推定方法。
  6. ユーザの生体情報に基づき当該ユーザの感情情報を推定する感情情報推定装置が実行する感情情報推定方法であって、
    予め取得したユーザの感情情報とこの感情情報に対応した生体情報と当該感情情報が生成された時点の一定時間前から当該時点までの間に取得された当該ユーザの生体情報とを格納したデータベースから、このデータベースに格納された生体情報であって、前記感情情報が生成された時点の一定時間前から当該時点までの間に検出された生体情報が、ユーザの位置情報が取得された時点の一定時間前から当該時点までの間に検出された当該ユーザの生体情報と類似している生体情報とこの生体情報に対応した感情情報とを取得する類似判定ステップと、
    前記取得された生体情報及び感情情報に基づき生体情報と感情情報との関係を学習して生体情報から感情情報を推定する推定器を作成しこの推定器を用いて前記位置情報が取得された時点で検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情情報判定ステップと
    を有すること
    を特徴とする感情情報推定方法。
  7. コンピュータを請求項1から4のいずれか1項に記載の感情情報推定装置を構成する各手段として機能させることを特徴とする感情情報推定プログラム。
JP2014244553A 2014-12-03 2014-12-03 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム Active JP6388824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014244553A JP6388824B2 (ja) 2014-12-03 2014-12-03 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014244553A JP6388824B2 (ja) 2014-12-03 2014-12-03 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム

Publications (2)

Publication Number Publication Date
JP2016106689A JP2016106689A (ja) 2016-06-20
JP6388824B2 true JP6388824B2 (ja) 2018-09-12

Family

ID=56122411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014244553A Active JP6388824B2 (ja) 2014-12-03 2014-12-03 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム

Country Status (1)

Country Link
JP (1) JP6388824B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4331483A1 (en) 2022-08-29 2024-03-06 ASICS Corporation Emotion estimating device, emotion estimating system, and emotion estimating method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
JP2018102617A (ja) * 2016-12-27 2018-07-05 オムロン株式会社 感情推定装置、方法およびプログラム
US20190000384A1 (en) * 2017-06-30 2019-01-03 Myant Inc. Method for sensing of biometric data and use thereof for determining emotional state of a user
JP6905892B2 (ja) 2017-08-04 2021-07-21 株式会社日立製作所 計算機システム
KR102186059B1 (ko) * 2019-04-22 2020-12-03 한국과학기술원 웨어러블 기기를 위한 상황 적응형 개인화 심리상태 표집 방법 및 장치
JP2022157156A (ja) * 2021-03-31 2022-10-14 三井化学株式会社 モデル生成方法、コンピュータプログラム、情報処理装置、情報処理システム、情報処理方法、及び訓練データの生成方法
JP7435965B2 (ja) * 2022-02-28 2024-02-21 株式会社Csイノベーション 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム
CN114357237B (zh) * 2022-03-17 2022-05-20 合肥心之声健康科技有限公司 一种心电信号与音乐信号匹配方法、系统、装置和介质
WO2024004090A1 (ja) * 2022-06-29 2024-01-04 日本電信電話株式会社 感情推定装置、方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006130121A (ja) * 2004-11-08 2006-05-25 Univ Nihon 生体情報に基づく感情認識方法
JP4748084B2 (ja) * 2007-03-06 2011-08-17 トヨタ自動車株式会社 心理状態推定装置
JP2008301957A (ja) * 2007-06-06 2008-12-18 Toyota Motor Corp 心理状態推定装置
WO2010001512A1 (ja) * 2008-07-03 2010-01-07 パナソニック株式会社 印象度抽出装置および印象度抽出方法
JP5493451B2 (ja) * 2009-04-24 2014-05-14 トヨタ自動車株式会社 意識低下度判定装置および警報装置
JP4519193B1 (ja) * 2009-07-27 2010-08-04 エンパイア テクノロジー ディベロップメント エルエルシー 情報処理システム、情報処理方法
JP5917841B2 (ja) * 2011-06-15 2016-05-18 日産自動車株式会社 気分判定装置及び気分判定装置の作動方法
JP2014008070A (ja) * 2012-06-27 2014-01-20 Nissan Motor Co Ltd ストレス状態推定装置、ストレス状態推定方法
US20140107531A1 (en) * 2012-10-12 2014-04-17 At&T Intellectual Property I, Lp Inference of mental state using sensory data obtained from wearable sensors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4331483A1 (en) 2022-08-29 2024-03-06 ASICS Corporation Emotion estimating device, emotion estimating system, and emotion estimating method

Also Published As

Publication number Publication date
JP2016106689A (ja) 2016-06-20

Similar Documents

Publication Publication Date Title
JP6388824B2 (ja) 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
US20240252048A1 (en) Ai assistance system
EP3461293B1 (en) Using proxies to enable on-device machine learning
JP5920364B2 (ja) 情報処理装置、代表波形生成方法および代表波形生成プログラム
EP2698112B1 (en) Real-time stress determination of an individual
JP6191242B2 (ja) 集中度推定装置
JP2019522300A (ja) 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
JP6515670B2 (ja) 睡眠深度推定装置、睡眠深度推定方法、およびプログラム
JP6386810B2 (ja) 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
JP6365915B2 (ja) 応対装置、応対システム、応対方法、及び記録媒体
JP2018202130A (ja) 状態推定装置、情報処理装置、状態推定システム
JP6321571B2 (ja) センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム
US11246530B2 (en) Respiratory biological sensing
JP6688022B2 (ja) 情報処理装置及びプログラム
JP6951516B2 (ja) 人の歩調を検出する方法及びシステム
WO2019124010A1 (ja) 生活習慣管理装置、方法およびプログラム
WO2020157493A1 (en) Mental state determination method and system
US11064893B2 (en) Real time authentication based on blood flow parameters
WO2014116826A1 (en) Mobile, neurally-assisted personal assistant
WO2023112384A1 (ja) 計算機システム及び情動推定方法
KR20200072172A (ko) 인지 능력 평가 방법, 이의 시스템 및 이를 위한 웨어러블 디바이스
JP2019072371A (ja) システム及び意思疎通を図るために行うアクションの評価方法
JP2009066186A (ja) 脳活動状態推定方法および情報処理システム
JP2019122782A (ja) 判定装置、判定方法及びコンピュータプログラム
JP2020048622A (ja) 生体状態推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180815

R150 Certificate of patent or registration of utility model

Ref document number: 6388824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150