[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018195043A - コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム - Google Patents

コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム Download PDF

Info

Publication number
JP2018195043A
JP2018195043A JP2017097884A JP2017097884A JP2018195043A JP 2018195043 A JP2018195043 A JP 2018195043A JP 2017097884 A JP2017097884 A JP 2017097884A JP 2017097884 A JP2017097884 A JP 2017097884A JP 2018195043 A JP2018195043 A JP 2018195043A
Authority
JP
Japan
Prior art keywords
content
value
user
emotional state
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017097884A
Other languages
English (en)
Other versions
JP6839818B2 (ja
Inventor
吹野 美和
Yoshikazu Fukino
美和 吹野
大森 基司
Motoji Omori
基司 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017097884A priority Critical patent/JP6839818B2/ja
Priority to CN201810429420.XA priority patent/CN108939251B/zh
Priority to US15/974,512 priority patent/US10853414B2/en
Publication of JP2018195043A publication Critical patent/JP2018195043A/ja
Application granted granted Critical
Publication of JP6839818B2 publication Critical patent/JP6839818B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F16/636Filtering based on additional data, e.g. user or group profiles by using biological or physiological data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Anesthesiology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Hematology (AREA)
  • Acoustics & Sound (AREA)
  • Pain & Pain Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Cardiology (AREA)

Abstract

【課題】ユーザの感情状態をユーザが目標とする感情状態へと誘導することができるコンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラムを提供する。【解決手段】目標感情状態入力部103は、ユーザが目標とする感情状態を示す目標感情状態値を取得し、生体データ測定部102は、ユーザの生体データを取得し、リズムフィードバック反映部202は、生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値を算出し、音楽コンテンツ決定部207は、目標感情状態値と現在感情状態値との差分値を算出し、差分値に応じて感情状態を変化させるためのコンテンツを決定し、音楽コンテンツ出力部101は、決定したコンテンツをユーザに提供する。【選択図】図1

Description

本開示は、感情状態を変化させるためのコンテンツをユーザに提供するコンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラムに関するものである。
従来、ユーザの感情を分析し、現在のユーザの感情に適した楽曲を提供する技術が存在している。
例えば、特許文献1では、音楽の楽曲データとその曲の心理的な印象を表す空間の座標値である音楽感性空間座標値とが登録されているデータベースと、ユーザの音声を検出する音声入力手段と、音声入力手段によって検出された音声信号から、物理的特徴量を抽出する音声分析手段と、音声分析手段によって抽出された物理的特徴量に基づいて、ユーザの感情を表す感情情報を生成する感情情報生成手段と、感情情報生成手段によって得られた感情情報に基づいて、推奨する曲の心理的な印象を表す空間の座標値である音楽感性空間座標値を決定する感情情報/音楽感性空間座標変換手段と、感情情報/音楽感性空間座標変換手段によって決定された音楽感性空間座標値に最も近い曲を、データベースから選曲する選曲手段と、選曲手段によって選曲された曲を再生する再生手段とを備える自動選曲装置が開示されている。特許文献1に開示されている自動選曲装置によれば、ユーザの現在の感情に適した曲を自動的に選曲することができる。
特開2006−155157号公報
しかしながら、上記従来の技術では、音楽によってユーザの感情状態をユーザが目標とする感情状態へと誘導することについては考慮されておらず、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができるコンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラムを提供することを目的とするものである。
本開示の一態様に係るコンテンツ提供方法は、ユーザが目標とする感情状態を示す目標感情状態値を取得し、前記ユーザの生体データを取得し、前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出し、前記目標感情状態値と前記現在感情状態値との差分値を算出し、前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定し、決定した前記コンテンツを前記ユーザに提供する。
本開示によれば、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
本開示の一実施の形態に係るコンテンツ提供システムの構成の一例を示すブロック図である。 本実施の形態における目標感情状態入力部によって入力される目標感情状態値を説明するための図である。 本実施の形態におけるリズム特性データ記憶部に記憶されるリズム特性データの一例を示す図である。 本実施の形態における音楽反応特性データ記憶部に記憶される音楽反応特性データの一例を示す図である。 本実施の形態におけるコンテンツ提供システムの動作について説明するための第1のフローチャートである。 本実施の形態におけるコンテンツ提供システムの動作について説明するための第2のフローチャートである。
(本開示の基礎となった知見)
一般的に、音楽又は映像には、人の感情を変化させる効果があるとされている。例えば、人は、音楽を聴くことによって、楽しい気持ちになったり、悲しい気持ちになったり、リラックスしたり、目が覚めたり、眠くなったりすることがある。
上記の特許文献1では、ユーザの現在の感情に適した音楽が提供されるが、音楽によってユーザの感情をユーザが目標とする感情へと誘導することについては考慮されていない。
以上の課題を解決するために、本開示の一態様に係るコンテンツ提供方法は、ユーザが目標とする感情状態を示す目標感情状態値を取得し、前記ユーザの生体データを取得し、前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出し、前記目標感情状態値と前記現在感情状態値との差分値を算出し、前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定し、決定した前記コンテンツを前記ユーザに提供する。
この構成によれば、ユーザが目標とする感情状態を示す目標感情状態値が取得される。ユーザの生体データが取得される。生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値が算出される。目標感情状態値と現在感情状態値との差分値が算出される。差分値に応じて感情状態を変化させるためのコンテンツが決定される。決定されたコンテンツがユーザに提供される。
したがって、ユーザが目標とする感情状態を示す目標感情状態値と、ユーザの現在の感情状態を示す現在感情状態値との差分値に応じて感情状態を変化させるためのコンテンツが決定され、決定されたコンテンツがユーザに提供されるので、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
また、上記のコンテンツ提供方法において、前記ユーザを識別するためのユーザ識別情報を取得し、前記コンテンツを提供してから所定時間経過した後における前記ユーザの前記生体データを取得し、提供された前記コンテンツから特徴量を抽出し、取得した前記生体データと前記特徴量とに基づいて、前記コンテンツが提供されることにより変化した前記ユーザの感情状態を示す感情状態変化値を算出し、前記ユーザ識別情報と、前記コンテンツを識別するためのコンテンツ識別情報と、前記感情状態変化値とを対応付けて感情状態変化値記憶部に記憶し、前記差分値に近似する前記感情状態変化値に対応する前記コンテンツ識別情報を前記感情状態変化値記憶部から読み出し、前記コンテンツ識別情報に対応するコンテンツをコンテンツ記憶部から読み出してもよい。
この構成によれば、ユーザを識別するためのユーザ識別情報が取得される。コンテンツが提供されてから所定時間経過した後におけるユーザの生体データが取得される。提供されたコンテンツから特徴量が抽出される。取得された生体データと特徴量とに基づいて、コンテンツが提供されることにより変化したユーザの感情状態を示す感情状態変化値が算出される。ユーザ識別情報と、コンテンツを識別するためのコンテンツ識別情報と、感情状態変化値とが対応付けられて感情状態変化値記憶部に記憶される。差分値に近似する感情状態変化値に対応するコンテンツ識別情報が感情状態変化値記憶部から読み出される。コンテンツ識別情報に対応するコンテンツがコンテンツ記憶部から読み出される。
同じコンテンツが提供されたとしても、ユーザによっては感情状態の変化は異なる可能性がある。したがって、コンテンツが提供されることにより変化したユーザの感情状態を示す感情状態変化値が算出され、ユーザ識別情報と、コンテンツを識別するためのコンテンツ識別情報と、算出された感情状態変化値とが対応付けられて感情状態変化値記憶部に記憶されるので、個別のユーザに応じた感情状態変化値を記憶することができ、個別のユーザに応じてコンテンツを提供することができる。
また、上記のコンテンツ提供方法において、前記コンテンツは、複数のコンテンツを含み、前記目標感情状態値に到達するまでの前記ユーザが目標とする時刻を示す目標時刻を取得し、前記感情状態変化値が前記差分値より小さい場合、前記目標時刻に到達するまでに前記複数のコンテンツのそれぞれの前記感情状態変化値の合計値が前記差分値と等しくなるように、前記複数のコンテンツを識別するための複数のコンテンツ識別情報を前記感情状態変化値記憶部から読み出してもよい。
この構成によれば、コンテンツは、複数のコンテンツを含む。目標感情状態値に到達するまでのユーザが目標とする時刻を示す目標時刻が取得される。感情状態変化値が差分値より小さい場合、目標時刻に到達するまでに複数のコンテンツのそれぞれの感情状態変化値の合計値が差分値と等しくなるように、複数のコンテンツを識別するための複数のコンテンツ識別情報が感情状態変化値記憶部から読み出される。
したがって、目標時刻に到達するまでに複数のコンテンツのそれぞれの感情状態変化値の合計値が差分値と等しくなるように、複数のコンテンツをユーザに提供することにより、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
また、上記のコンテンツ提供方法において、所定の期間において周期的に変化する前記ユーザの感情状態値の変化パターンを取得し、前記変化パターンに基づいて、前記現在時刻から前記目標時刻までに変化する前記感情状態値を補正値として算出し、算出した前記補正値を用いて前記差分値を補正してもよい。
この構成によれば、所定の期間において周期的に変化するユーザの感情状態値の変化パターンが取得される。変化パターンに基づいて、現在時刻から目標時刻までに変化する感情状態値が補正値として算出され、算出された補正値を用いて差分値が補正される。
したがって、コンテンツが提供されない状況で現在時刻から目標時刻までに変化する感情状態値を考慮して差分値を算出し、コンテンツを決定することができる。
また、上記のコンテンツ提供方法において、前記コンテンツは、前記感情状態を変化させる音楽コンテンツを含んでもよい。
この構成によれば、コンテンツは、感情状態を変化させる音楽コンテンツを含むので、音楽コンテンツをユーザに聞かせることにより、当該ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
また、上記のコンテンツ提供方法において、前記コンテンツは、前記感情状態を変化させる映像コンテンツを含んでもよい。
この構成によれば、コンテンツは、感情状態を変化させる映像コンテンツを含むので、映像コンテンツをユーザに見せることにより、当該ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
また、上記のコンテンツ提供方法において、前記コンテンツは、前記ユーザがいる空間内の照明の色を変化させることにより、前記感情状態を変化させる照明コンテンツを含んでもよい。
この構成によれば、コンテンツは、ユーザがいる空間内の照明の色を変化させることにより、感情状態を変化させる照明コンテンツを含むので、照明コンテンツをユーザに見せることにより、当該ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
また、上記のコンテンツ提供方法において、前記目標感情状態値及び前記現在感情状態値は、覚醒度と感情価とを示す2次元座標で表されてもよい。
この構成によれば、目標感情状態値及び現在感情状態値は、覚醒度と感情価とを示す2次元座標で表されるので、ユーザの感情状態を覚醒度と感情価との2つの値で表すことができる。
また、上記のコンテンツ提供方法において、前記2次元座標を表示し、表示した前記2次元座標上における前記目標感情状態値の前記ユーザによる入力を受け付けてもよい。
この構成によれば、2次元座標が表示され、表示された2次元座標上における目標感情状態値のユーザによる入力が受け付けられるので、ユーザは、目標感情状態値を容易に入力することができる。
また、上記のコンテンツ提供方法において、前記生体データは、前記ユーザの血流、心拍数、脈拍数、脳波及び血圧の少なくとも1つを含んでもよい。
この構成によれば、生体データは、ユーザの血流、心拍数、脈拍数、脳波及び血圧の少なくとも1つを含むので、ユーザの血流、心拍数、脈拍数、脳波及び血圧の少なくとも1つに基づいて、ユーザの現在の感情状態を推定することができる。
本開示の他の態様に係るコンテンツ提供装置は、ユーザが目標とする感情状態を示す目標感情状態値を取得する目標感情状態値取得部と、前記ユーザの生体データを取得する生体データ取得部と、前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出する現在感情状態値算出部と、前記目標感情状態値と前記現在感情状態値との差分値を算出する差分値算出部と、前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定するコンテンツ決定部と、決定した前記コンテンツを前記ユーザに提供するコンテンツ提供部と、を備える。
この構成によれば、ユーザが目標とする感情状態を示す目標感情状態値が取得される。ユーザの生体データが取得される。生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値が算出される。目標感情状態値と現在感情状態値との差分値が算出される。差分値に応じて感情状態を変化させるためのコンテンツが決定される。決定されたコンテンツがユーザに提供される。
したがって、ユーザが目標とする感情状態を示す目標感情状態値と、ユーザの現在の感情状態を示す現在感情状態値との差分値に応じて感情状態を変化させるためのコンテンツが決定され、決定されたコンテンツがユーザに提供されるので、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
本開示の他の態様に係るコンテンツ提供プログラムは、コンピュータを、ユーザが目標とする感情状態を示す目標感情状態値を取得する目標感情状態値取得部と、前記ユーザの生体データを取得する生体データ取得部と、前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出する現在感情状態値算出部と、前記目標感情状態値と前記現在感情状態値との差分値を算出する差分値算出部と、前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定するコンテンツ決定部として機能させる。
この構成によれば、ユーザが目標とする感情状態を示す目標感情状態値が取得される。ユーザの生体データが取得される。生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値が算出される。目標感情状態値と現在感情状態値との差分値が算出される。差分値に応じて感情状態を変化させるためのコンテンツが決定される。
したがって、ユーザが目標とする感情状態を示す目標感情状態値と、ユーザの現在の感情状態を示す現在感情状態値との差分値に応じて感情状態を変化させるためのコンテンツが決定されるので、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
なお、本開示において、装置の全部又は一部の機能は、プロセッサ及びメモリ等を備えるコンピュータに実行させるコンピュータプログラムとして実現することもできる。この場合、コンピュータプログラムは、CD−ROM等のコンピュータ読み取り可能な非一時的な記録媒体に記録されてもよい。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態)
図1は、本開示の一実施の形態に係るコンテンツ提供システムの構成の一例を示すブロック図である。図1に示すコンテンツ提供システムは、端末装置100及びコンテンツ提供装置200を備える。
端末装置100は、例えば、パーソナルコンピュータ、タブレット型コンピュータ又はスマートフォンであり、ユーザが存在する空間に配置されている。
コンテンツ提供装置200は、例えば、プロセッサ及びメモリ等を備えるサーバであり、ユーザの感情状態を変化させるためのコンテンツを提供する。なお、本実施の形態では、コンテンツ提供装置200は、コンテンツの一例として、音楽コンテンツをユーザに提供するが、本開示は特にこれに限定されず、ユーザの感情状態を変化させるための映像コンテンツを提供してもよく、ユーザがいる空間内の照明の色を変化させることにより、ユーザの感情状態を変化させる照明コンテンツを提供してもよい。端末装置100とコンテンツ提供装置200とは、インターネットなどのネットワークを介して互いに通信可能に接続されている。
端末装置100は、音楽コンテンツ出力部101、生体データ測定部102、目標感情状態入力部103、ユーザID入力部104及び通信部105を備える。
音楽コンテンツ出力部101は、例えば、スピーカであり、通信部105によって受信された音楽コンテンツを外部に出力する。なお、音楽コンテンツ出力部101は、端末装置100に内蔵されていなくてもよく、端末装置100の外部にあってもよい。
生体データ測定部102は、例えば、種々のセンサであり、ユーザの生体データを測定して取得する。また、生体データ測定部102は、音楽コンテンツを提供してから所定時間経過した後におけるユーザの生体データを測定して取得する。生体データとしては、例えば、ユーザの血流、心拍数、脈拍数、脳波、血圧、脳波、生体ガス、呼吸、及び/又は体温等が該当する。例えば、生体データ測定部102は、高感度なスペクトラム拡散ミリ波レーダー等を用いて、非接触でユーザの脈波を計測するセンサを備え、ユーザの心拍数及び心拍変動を検出する。
なお、生体データ測定部102の構成は、この例に特に限定されず、人間の生体データ等を測定するスマートウォッチをユーザに装着し、スマートウォッチから生体データ等を取得するようにしてもよい。この場合、端末装置100は、測定された生体データを取得する生体データ取得部を備える。
目標感情状態入力部103は、例えば、キーボード、マウス又はタッチパネルディスプレイであり、ユーザが目標とする感情状態を示す目標感情状態値の入力を受け付ける。また、目標感情状態入力部103は、目標感情状態値に到達するまでのユーザが目標とする時刻を示す目標時刻の入力を受け付ける。
図2は、本実施の形態における目標感情状態入力部によって入力される目標感情状態値を説明するための図である。図2において、縦軸は覚醒度を示し、横軸は感情価を示している。
目標感情状態値は、覚醒度と感情価とを示す2次元座標で表される。目標感情状態入力部103は、2次元座標を表示し、表示した2次元座標上における目標感情状態値のユーザによる入力を受け付ける。図2に示す2次元座標は、ラッセルの円環図(circumplex model of affect)に基づくものである(James A. Russell、「A Circumplex Model of Affect」、Journal of Personality and Social Psychology、1980、Vol.39、No.6、1161−1178)。
覚醒度は、−1.0(鎮静)から+1.0(覚醒)までの値で示され、感情価は、−1.0(不快)から+1.0(快適)までの値で示される。ユーザは、自身が目標とする感情状態に応じて、円環図内の所望の位置を選択する。
ユーザID入力部104は、例えば、キーボード、マウス又はタッチパネルディスプレイであり、ユーザを識別するためのユーザID(ユーザ識別情報)の入力を受け付ける。なお、ユーザID入力部104は、指紋等の生体情報によりユーザを認証する生体認証装置、又はICカードによりユーザを認証するカードリーダであってもよい。
通信部105は、目標感情状態入力部103によって入力された目標感情状態値及び目標時刻をコンテンツ提供装置200へ送信する。また、通信部105は、ユーザID入力部104によって入力されたユーザIDをコンテンツ提供装置200へ送信する。また、通信部105は、生体データ測定部102によって測定された生体データをコンテンツ提供装置200へ送信する。さらに、通信部105は、コンテンツ提供装置200から送信された音楽コンテンツを受信する。
なお、通信部105は、目標感情状態値、ユーザID及び目標時刻をそれぞれ個別に送信してもよいし、目標感情状態値、ユーザID及び目標時刻を一括して送信してもよい。
コンテンツ提供装置200は、通信部201、リズムフィードバック反映部202、リズム特性データ記憶部203、反応フィードバック反映部204、音楽反応特性データ記憶部205、時刻情報取得部206、音楽コンテンツ決定部207、音楽コンテンツ記憶部208及び音楽特徴量抽出部209を備える。
通信部201は、端末装置100から送信された目標感情状態値、ユーザID及び目標時刻を受信する。また、通信部201は、端末装置100から送信された生体データを受信する。すなわち、通信部201は、目標感情状態値を取得するとともに、生体データを取得する。さらに、通信部201は、音楽コンテンツ決定部207によって決定された音楽コンテンツを端末装置100へ送信する。通信部201は、受信した目標感情状態値を音楽コンテンツ決定部207へ出力する。通信部201は、受信したユーザIDを音楽コンテンツ決定部207、リズム特性データ記憶部203及び音楽反応特性データ記憶部205へ出力する。通信部201は、受信した生体データをリズムフィードバック反映部202及び反応フィードバック反映部204へ出力する。
時刻情報取得部206は、現在時刻を示す時刻情報を取得する。時刻情報取得部206は、時刻情報を音楽コンテンツ決定部207及びリズムフィードバック反映部202へ出力する。
リズムフィードバック反映部202は、生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値を算出する。リズムフィードバック反映部202は、時刻情報取得部206から入力される時刻情報と、通信部201によって受信される生体データとに基づいて、現在時刻における感情状態値を算出する。リズムフィードバック反映部202は、例えば、生体データの値と、感情状態値とを対応付けたテーブル、又は生体データの値を感情状態値に変換するための関数を予め記憶している。リズムフィードバック反映部202は、受信された生体データの値に対応付けられている感情状態値をテーブルから読み出す、又は受信された生体データの値を関数に代入して感情状態値を算出する。リズムフィードバック反映部202は、現在時刻と感情状態値とを対応付けたリズム特性データをリズム特性データ記憶部203に記憶する。リズム特性データは、ユーザごとの時間帯に依存する周期的な感情の変化パターンを示す。
リズム特性データ記憶部203は、通信部201によって受信されたユーザIDと、リズムフィードバック反映部202によって算出された時刻及び感情状態値とを対応付けたリズム特性データを記憶する。
図3は、本実施の形態におけるリズム特性データ記憶部に記憶されるリズム特性データの一例を示す図である。
図3に示すように、リズム特性データは、ユーザIDと時間帯と感情状態値とを含む。リズム特性データは、例えば1時間毎の感情状態値を含み、例えば、1日、1週間又は1ヶ月などの所定期間における感情状態値を含む。図3では、例えば、ユーザIDが「1111」であり、AM7時〜AM8時の時間帯には、(覚醒度,感情価)が(−0.3,−0.2)である感情状態値が対応付けられている。なお、感情状態値は、所定の時間帯内における感情状態値の平均値であってもよく、所定の時間帯内の任意の時刻における感情状態値であってもよい。また、リズム特性データ記憶部203は、一般的な人間の感情状態値を予めリズム特性データの初期値として記憶していてもよく、当該初期値は、リズムフィードバック反映部202によって更新されてもよい。
例えば、リズムフィードバック反映部202は、ユーザの1日の生体データを取得し、取得した1日の生体データを感情状態値に変換し、1日の感情状態値をリズム特性データ記憶部203に記憶してもよい。なお、リズムフィードバック反映部202は、音楽コンテンツがユーザに提供されない状況で取得された生体データを感情状態値に変換し、1日の感情状態値の変化パターンをリズム特性データとしてリズム特性データ記憶部203に記憶することが好ましい。
音楽特徴量抽出部209は、提供される音楽コンテンツから所定の音楽特徴量を抽出する。音楽特徴量抽出部209は、音楽信号の物理的な特徴量を抽出する。物理的な特徴量としては、例えば、テンポ(曲の速さ)、ビート白色性(ビート形成に寄与する音と寄与しない音との出現頻度の比率)、スペクトル変化度(所定の時間長のフレーム間でのスペクトル変化の度合い)、平均発音数(楽曲中で発音される音の発音頻度)、発音非周期性(楽曲中で発音される音の非周期性の度合い)、ビート周期(楽曲の4分音符に相当する時間長)、ビート周期比率(楽曲の4分音符に相当する音と、優勢に発音されている音との周期比率)、ビート強度1(ビート周期の概ね半分に相当する周期で発音されている音の強度)、ビート強度2(ビート周期の概ね1/4に相当する周期で発音されている音の強度)、及びビート強度比(ビート強度1とビート強度2との比率)などが抽出される。なお、音楽特徴量抽出部209は、複数種類の音楽特徴量のうち、少なくとも1種類の音楽特徴量を抽出する。
反応フィードバック反映部204は、通信部201によって受信された音楽コンテンツを提供してから所定時間経過した後におけるユーザの生体データと、音楽特徴量抽出部209によって抽出された音楽特徴量とに基づいて、音楽コンテンツが提供されることにより変化したユーザの感情状態を示す感情状態変化値を算出する。反応フィードバック反映部204は、ユーザIDと、音楽コンテンツを識別するための曲ID(コンテンツ識別情報)と、音楽コンテンツの名称を示す曲名と、音楽特徴量と、算出した感情状態変化値とを対応付けた音楽反応特性データを音楽反応特性データ記憶部205に記憶する。
音楽反応特性データ記憶部205は、ユーザIDと、曲IDと、曲名と、音楽特徴量と、感情状態変化値とを対応付けた音楽反応特性データを記憶する。
図4は、本実施の形態における音楽反応特性データ記憶部に記憶される音楽反応特性データの一例を示す図である。
図4に示すように、音楽反応特性データは、ユーザIDと、曲IDと、曲名と、音楽特徴量と、感情状態変化値とを含む。音楽特徴量は、第1音楽特徴量、第2音楽特徴量及び第3音楽特徴量を含む。第1音楽特徴量はテンポであり、第2音楽特徴量は平均発音数であり、第3音楽特徴量はビート強度1である。なお、本実施の形態において、1つの音楽コンテンツに対応付けられる音楽特徴量の数は、3つに限定されない。図4では、例えば、ユーザIDが「1111」であり、曲名IDが「0033」であり、曲名が「A」であり、第1音楽特徴量(テンポ)が「89.3BPM」であり、第2音楽特徴量(平均発音数)が「0.58」であり、第3音楽特徴量(ビート強度1)が「8.22」であり、感情状態変化値(覚醒度,感情価)が(+0.2,+0.5)である。
感情状態変化値は、ユーザが音楽コンテンツを聞くことにより、変化する感情状態を表している。すなわち、図4に示す例では、ユーザIDが「1111」であるユーザは、曲IDが「0033」である音楽コンテンツを聞くことにより、覚醒度が+0.2上昇し、感情価が+0.5上昇する。
音楽コンテンツ記憶部208は、複数の音楽コンテンツを記憶している。音楽コンテンツ記憶部208は、曲IDと、曲名と、音楽コンテンツとを対応付けて記憶している。
音楽コンテンツ決定部207は、通信部201によって受信された目標感情状態値、目標時刻及びユーザIDを取得する。音楽コンテンツ決定部207は、目標感情状態値と現在感情状態値との差分値を算出し、算出した差分値に応じて感情状態を変化させるための音楽コンテンツを決定する。音楽コンテンツ決定部207は、時刻情報取得部206から現在時刻を取得し、現在時刻に対応する感情状態値を、リズム特性データ記憶部203に記憶されており、かつ取得したユーザIDに対応するリズム特性データから現在感情状態値として読み出す。
音楽コンテンツ決定部207は、差分値に近似する感情状態変化値に対応する曲IDを、音楽反応特性データ記憶部205に記憶されており、かつ取得したユーザIDに対応する音楽反応特性データから抽出し、抽出した曲IDに対応する音楽コンテンツを音楽コンテンツ記憶部208から読み出す。
また、音楽コンテンツ決定部207は、ユーザIDに対応するリズム特性データに基づいて、目標感情状態値と現在感情状態値との差分値を補正する。すなわち、音楽コンテンツ決定部207は、所定の期間において周期的に変化するユーザの感情状態値の変化パターンを示すリズム特性データを取得する。音楽コンテンツ決定部207は、リズム特性データに基づいて、現在時刻から目標時刻までに変化する感情状態値を補正値として算出し、算出した補正値を用いて差分値を補正する。音楽コンテンツ決定部207は、リズム特性データから、現在時刻から目標時刻までに楽曲を流さなくても自動的に変化する感情状態値を補正値として算出する。
具体的には、音楽コンテンツ決定部207は、リズム特性データから、現在時刻に対応する時間帯の感情状態値と、目標時刻に対応する時間帯の感情状態値とを読み出し、目標時刻に対応する時間帯の感情状態値から現在時刻に対応する時間帯の感情状態値を減算し、減算値を補正値して算出する。そして、音楽コンテンツ決定部207は、目標感情状態値と現在感情状態値との差分値から補正値を減算することにより、差分値を補正する。
また、音楽コンテンツ決定部207は、感情状態変化値が差分値より小さい場合、目標時刻に到達するまでに複数の音楽コンテンツのそれぞれの感情状態変化値の合計値が差分値と等しくなるように、複数の音楽コンテンツを識別するための複数の曲IDを音楽反応特性データ記憶部205から読み出してもよい。例えば、差分値(覚醒度、感情価)が(+1.2,+0.9)であり、1つの音楽コンテンツによりユーザの感情状態を補正する補正単位時間が10分であり、現在時刻から目標時刻まで1時間である場合、音楽コンテンツ決定部207は、感情状態変化値(覚醒度、感情価)が(+0.2,+0.15)である音楽コンテンツを6回選択する。端末装置100は、当該音楽コンテンツを6回再生することにより、目標時刻までに目標感情状態値となるようにユーザの感情状態を変化させる。また、差分値(覚醒度、感情価)が(+1.2,+0.9)であり、1つの音楽コンテンツによりユーザの感情状態を補正する補正単位時間が10分であり、現在時刻から目標時刻まで2時間である場合、音楽コンテンツ決定部207は、感情状態変化値(覚醒度、感情価)が(+0.1,+0.075)である音楽コンテンツを12回選択する。
音楽コンテンツ決定部207は、決定した音楽コンテンツを通信部201へ出力する。通信部201は、音楽コンテンツ決定部207によって決定された音楽コンテンツを端末装置100へ送信する。端末装置100の通信部105は、コンテンツ提供装置200によって送信された音楽コンテンツを受信し、音楽コンテンツ出力部101へ出力する。音楽コンテンツ出力部101は、通信部105によって受信された音楽コンテンツを出力し、決定された音楽コンテンツをユーザに提供する。
ここで、通信部201が目標感情状態値取得部及び生体データ取得部の一例に相当し、リズムフィードバック反映部202が現在感情状態値算出部の一例に相当し、音楽コンテンツ決定部207が差分値算出部及びコンテンツ決定部の一例に相当し、音楽コンテンツ出力部101がコンテンツ提供部の一例に相当する。
続いて、本実施の形態におけるコンテンツ提供システムの動作について説明する。
図5は、本実施の形態におけるコンテンツ提供システムの動作について説明するための第1のフローチャートであり、図6は、本実施の形態におけるコンテンツ提供システムの動作について説明するための第2のフローチャートである。
まず、ステップS1において、端末装置100のユーザID入力部104は、ユーザIDのユーザによる入力を受け付ける。
次に、ステップS2において、目標感情状態入力部103は、目標感情状態値及び目標時刻のユーザによる入力を受け付ける。例えば、目標感情状態入力部103は、図2に示す円環図上のユーザが目標とする座標値の選択を受け付けることにより、目標感情状態値の入力を受け付ける。また、目標感情状態入力部103は、現在時刻から、ユーザが目標とする時刻までの時間を示す目標時間のユーザによる入力を受け付けてもよい。
次に、ステップS3において、通信部105は、ユーザID入力部104によって入力されたユーザIDと、目標感情状態入力部103によって入力された目標感情状態値及び目標時刻とをコンテンツ提供装置200へ送信する。
次に、ステップS11において、コンテンツ提供装置200の通信部201は、端末装置100によって送信されたユーザID、目標感情状態値及び目標時刻を受信する。
次に、ステップS12において、音楽コンテンツ決定部207は、受信したユーザIDに対応するリズム特性データをリズム特性データ記憶部203から読み出す。
次に、ステップS13において、音楽コンテンツ決定部207は、受信したユーザIDに対応する音楽反応特性データを音楽反応特性データ記憶部205から読み出す。
次に、ステップS14において、時刻情報取得部206は、現在時刻を示す時刻情報を取得する。時刻情報取得部206は、取得した時刻情報を音楽コンテンツ決定部207へ出力する。
次に、ステップS15において、音楽コンテンツ決定部207は、リズム特性データ記憶部203から読み出したリズム特性データと、時刻情報取得部206によって取得された現在時刻とに基づいて、現在時刻に対応する現在感情状態値を算出する。例えば、リズム特性データが1日分の感情状態値を含む場合、音楽コンテンツ決定部207は、現在時刻に対応する感情状態値をリズム特性データから抽出する。
次に、ステップS16において、音楽コンテンツ決定部207は、受信した目標感情状態値と、算出した現在感情状態値との差分値を算出する。例えば、目標感情状態値(覚醒度,感情価)が(+0.8,+0.4)であり、現在感情状態値(覚醒度,感情価)が(−0.3,−0.2)である場合、差分値(覚醒度,感情価)は(+1.1,+0.6)となる。
このとき、音楽コンテンツ決定部207は、ユーザIDに対応するリズム特性データに基づいて、目標感情状態値と現在感情状態値との差分値を補正する。例えば、現在時刻が午後3時であり、目標時刻が午後7時である場合、図3に示すリズム特性データによると、午後3時の感情状態値(覚醒度,感情価)は(+0.1,−0.1)であり、午後7時の感情状態値(覚醒度,感情価)は(+0.3,+0.4)である。リズム特性データは、時間帯に依存する周期的な感情の変化パターンを表しているので、音楽を聞かなかったとしても、午後3時から午後7時になると、感情状態値の覚醒度は+0.2上昇し、感情状態値の感情価は+0.5上昇することが分かる。
そこで、音楽コンテンツ決定部207は、リズム特性データから、現在時刻に対応する時間帯の感情状態値と、目標時刻に対応する時間帯の感情状態値とを読み出し、目標時刻に対応する時間帯の感情状態値から現在時刻に対応する時間帯の感情状態値を減算し、減算値を補正値して算出する。この補正値が、目標時刻に楽曲を流さなくても自動的に変化する感情状態値になる。上記の例では、補正値(覚醒度,感情価)は(+0.2,+0.5)となる。目標感情状態値と現在感情状態値との差分値(覚醒度,感情価)が(+1.1,+0.6)である場合、音楽コンテンツ決定部207は、差分値から補正値を減算した減算値(+0.9,+0.1)を、補正後の差分値として算出する。
次に、ステップS17において、音楽コンテンツ決定部207は、差分値に近似する感情状態変化値に対応する曲IDを、読み出した音楽反応特性データから抽出し、抽出した曲IDに対応する音楽コンテンツを音楽コンテンツ記憶部208から読み出す。このとき、差分値に近似する感情状態変化値が音楽反応特性データに存在しておらず、音楽反応特性データに含まれる複数の音楽コンテンツに対応する複数の感情状態変化値のそれぞれが差分値より小さい場合、音楽コンテンツ決定部207は、受信した目標時刻に到達するまでに感情状態変化値の合計値が差分値と等しくなる複数の音楽コンテンツを選択し、選択した複数の音楽コンテンツに対応する複数の曲IDを音楽反応特性データから抽出してもよい。また、選択する複数の音楽コンテンツは、同一の音楽コンテンツであっても、異なる音楽コンテンツであってもよく、同一の音楽コンテンツが複数回数再生されてもよく、異なる音楽コンテンツがそれぞれ再生されてもよい。
次に、ステップS18において、音楽コンテンツ決定部207は、決定した音楽コンテンツを音楽コンテンツ記憶部208から読み出す。音楽コンテンツ決定部207は、音楽反応特性データから抽出した曲IDに対応する音楽コンテンツを音楽コンテンツ記憶部208から読み出す。このとき、複数の音楽コンテンツが決定された場合、音楽コンテンツ決定部207は、決定した複数の音楽コンテンツを読み出してもよい。音楽コンテンツ決定部207は、読み出した音楽コンテンツを通信部201へ出力する。
次に、ステップS19において、音楽特徴量抽出部209は、音楽コンテンツ決定部207から出力された音楽コンテンツから所定の音楽特徴量を抽出する。
次に、ステップS20において、通信部201は、音楽コンテンツ決定部207によって読み出された音楽コンテンツを端末装置100へ送信する。このとき、複数の音楽コンテンツが決定された場合、通信部201は、決定された複数の音楽コンテンツを端末装置100へ送信してもよい。
次に、ステップS4において、端末装置100の通信部105は、コンテンツ提供装置200によって送信された音楽コンテンツを受信する。このとき、コンテンツ提供装置200によって複数の音楽コンテンツが送信された場合、通信部105は、複数の音楽コンテンツを受信してもよい。通信部105は、受信した音楽コンテンツを音楽コンテンツ出力部101へ出力する。
次に、ステップS5において、音楽コンテンツ出力部101は、通信部105によって受信された音楽コンテンツを外部に出力する。このとき、通信部105によって複数の音楽コンテンツが受信された場合、音楽コンテンツ出力部101は、複数の音楽コンテンツを順次外部に出力する。また、複数の音楽コンテンツが出力される場合、音楽コンテンツ出力部101は、複数の音楽コンテンツのうちの第1の音楽コンテンツと第2の音楽コンテンツとを続けて出力する。
次に、ステップS6において、生体データ測定部102は、音楽コンテンツの出力が終了したか否かを判断する。ここで、音楽コンテンツの出力が終了していないと判断された場合(ステップS6でNO)、ステップS5の処理に戻り、音楽コンテンツ出力部101は、引き続き音楽コンテンツを外部に出力する。なお、複数の音楽コンテンツが出力される場合、ステップS6において、生体データ測定部102は、複数の音楽コンテンツのうちの1の音楽コンテンツの出力が終了したか否かを判断してもよい。
一方、音楽コンテンツの出力が終了したと判断された場合(ステップS6でYES)、ステップS7において、生体データ測定部102は、音楽コンテンツの出力が終了してから所定時間経過したか否かを判断する。ここで、音楽コンテンツの出力が終了してから所定時間経過していないと判断された場合(ステップS7でNO)、所定時間が経過するまで、ステップS7の処理が繰り返し行われる。
一方、音楽コンテンツの出力が終了してから所定時間経過したと判断された場合(ステップS7でYES)、ステップS8において、生体データ測定部102は、ユーザの生体データを測定する。ここで測定される生体データは、ユーザが音楽コンテンツを聞くことによって変化する感情状態が反映されている。
次に、ステップS9において、通信部105は、生体データ測定部102によって測定された生体データをコンテンツ提供装置200へ送信する。なお、複数の音楽コンテンツが出力される場合、複数の音楽コンテンツのうちの1の音楽コンテンツが出力される毎に、ステップS6からステップS9の処理が行われてもよい。また、ステップS6からステップS9の処理が行われている間は、次の音楽コンテンツが出力されることになる。また、通信部105は、複数の音楽コンテンツのそれぞれが出力される毎に、測定された生体データを送信してもよいし、複数の音楽コンテンツが全て出力された後、複数の音楽コンテンツのそれぞれに対して測定された複数の生体データを送信してもよい。
次に、ステップS21において、コンテンツ提供装置200の通信部201は、端末装置100によって送信された生体データを受信する。通信部201は、受信した生体データを音楽コンテンツ決定部207、リズムフィードバック反映部202及び反応フィードバック反映部204へ出力する。
次に、ステップS22において、時刻情報取得部206は、現在時刻を示す時刻情報を取得する。時刻情報取得部206は、取得した時刻情報をリズムフィードバック反映部202へ出力する。
次に、ステップS23において、リズムフィードバック反映部202は、生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値を算出し、時刻情報取得部206によって取得された現在時刻と、算出した現在感情状態値とを対応付けたリズム特性データを生成する。
次に、ステップS24において、リズムフィードバック反映部202は、生成したリズム特性データをリズム特性データ記憶部203に記憶する。なお、音楽コンテンツがユーザに提供されない状況におけるリズム特性データを取得する場合、ステップS22〜ステップS24の処理は行われなくてもよい。
次に、ステップS25において、反応フィードバック反映部204は、通信部201によって受信された生体データと、音楽特徴量抽出部209によって抽出された音楽特徴量とに基づいて、音楽コンテンツが提供されることにより変化したユーザの感情状態を示す感情状態変化値を算出し、ユーザIDと曲IDと曲名と音楽特徴量と感情状態変化値とを対応付けた音楽反応特性データを生成する。
次に、ステップS26において、反応フィードバック反映部204は、生成した音楽反応特性データを音楽反応特性データ記憶部205に記憶する。
このように、ユーザが目標とする感情状態を示す目標感情状態値と、ユーザの現在の感情状態を示す現在感情状態値との差分値に応じて感情状態を変化させるための音楽コンテンツが決定され、決定された音楽コンテンツがユーザに提供されるので、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができる。
本開示に係るコンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラムは、ユーザの感情状態をユーザが目標とする感情状態へと誘導することができ、感情状態を変化させるためのコンテンツをユーザに提供するコンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラムとして有用である。
100 端末装置
101 音楽コンテンツ出力部
102 生体データ測定部
103 目標感情状態入力部
104 ユーザID入力部
105 通信部
200 コンテンツ提供装置
201 通信部
202 リズムフィードバック反映部
203 リズム特性データ記憶部
204 反応フィードバック反映部
205 音楽反応特性データ記憶部
206 時刻情報取得部
207 音楽コンテンツ決定部
208 音楽コンテンツ記憶部
209 音楽特徴量抽出部

Claims (12)

  1. ユーザが目標とする感情状態を示す目標感情状態値を取得し、
    前記ユーザの生体データを取得し、
    前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出し、
    前記目標感情状態値と前記現在感情状態値との差分値を算出し、
    前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定し、
    決定した前記コンテンツを前記ユーザに提供する、
    コンテンツ提供方法。
  2. 前記ユーザを識別するためのユーザ識別情報を取得し、
    前記コンテンツを提供してから所定時間経過した後における前記ユーザの前記生体データを取得し、
    提供された前記コンテンツから特徴量を抽出し、
    取得した前記生体データと前記特徴量とに基づいて、前記コンテンツが提供されることにより変化した前記ユーザの感情状態を示す感情状態変化値を算出し、
    前記ユーザ識別情報と、前記コンテンツを識別するためのコンテンツ識別情報と、前記感情状態変化値とを対応付けて感情状態変化値記憶部に記憶し、
    前記差分値に近似する前記感情状態変化値に対応する前記コンテンツ識別情報を前記感情状態変化値記憶部から読み出し、
    前記コンテンツ識別情報に対応するコンテンツをコンテンツ記憶部から読み出す、
    請求項1記載のコンテンツ提供方法。
  3. 前記コンテンツは、複数のコンテンツを含み、
    前記目標感情状態値に到達するまでの前記ユーザが目標とする時刻を示す目標時刻を取得し、
    前記感情状態変化値が前記差分値より小さい場合、前記目標時刻に到達するまでに前記複数のコンテンツのそれぞれの前記感情状態変化値の合計値が前記差分値と等しくなるように、前記複数のコンテンツを識別するための複数のコンテンツ識別情報を前記感情状態変化値記憶部から読み出す、
    請求項2記載のコンテンツ提供方法。
  4. 所定の期間において周期的に変化する前記ユーザの感情状態値の変化パターンを取得し、
    前記変化パターンに基づいて、前記現在時刻から前記目標時刻までに変化する前記感情状態値を補正値として算出し、算出した前記補正値を用いて前記差分値を補正する、
    請求項1〜3のいずれか1項に記載のコンテンツ提供方法。
  5. 前記コンテンツは、前記感情状態を変化させる音楽コンテンツを含む、
    請求項1〜4のいずれか1項に記載のコンテンツ提供方法。
  6. 前記コンテンツは、前記感情状態を変化させる映像コンテンツを含む、
    請求項1〜4のいずれか1項に記載のコンテンツ提供方法。
  7. 前記コンテンツは、前記ユーザがいる空間内の照明の色を変化させることにより、前記感情状態を変化させる照明コンテンツを含む、
    請求項1〜4のいずれか1項に記載のコンテンツ提供方法。
  8. 前記目標感情状態値及び前記現在感情状態値は、覚醒度と感情価とを示す2次元座標で表される、
    請求項1〜7のいずれか1項に記載のコンテンツ提供方法。
  9. 前記2次元座標を表示し、
    表示した前記2次元座標上における前記目標感情状態値の前記ユーザによる入力を受け付ける、
    請求項8記載のコンテンツ提供方法。
  10. 前記生体データは、前記ユーザの血流、心拍数、脈拍数、脳波及び血圧の少なくとも1つを含む、
    請求項1〜9のいずれか1項に記載のコンテンツ提供方法。
  11. ユーザが目標とする感情状態を示す目標感情状態値を取得する目標感情状態値取得部と、
    前記ユーザの生体データを取得する生体データ取得部と、
    前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出する現在感情状態値算出部と、
    前記目標感情状態値と前記現在感情状態値との差分値を算出する差分値算出部と、
    前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定するコンテンツ決定部と、
    決定した前記コンテンツを前記ユーザに提供するコンテンツ提供部と、
    を備えるコンテンツ提供装置。
  12. コンピュータを、
    ユーザが目標とする感情状態を示す目標感情状態値を取得する目標感情状態値取得部と、
    前記ユーザの生体データを取得する生体データ取得部と、
    前記生体データに基づいて、前記ユーザの現在の感情状態を示す現在感情状態値を算出する現在感情状態値算出部と、
    前記目標感情状態値と前記現在感情状態値との差分値を算出する差分値算出部と、
    前記差分値に応じて前記感情状態を変化させるためのコンテンツを決定するコンテンツ決定部として機能させる、
    コンテンツ提供プログラム。
JP2017097884A 2017-05-17 2017-05-17 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム Active JP6839818B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017097884A JP6839818B2 (ja) 2017-05-17 2017-05-17 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
CN201810429420.XA CN108939251B (zh) 2017-05-17 2018-05-08 内容提供方法、内容提供装置以及记录介质
US15/974,512 US10853414B2 (en) 2017-05-17 2018-05-08 Computer-implemented method for providing content in accordance with emotional state that user is to reach

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097884A JP6839818B2 (ja) 2017-05-17 2017-05-17 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム

Publications (2)

Publication Number Publication Date
JP2018195043A true JP2018195043A (ja) 2018-12-06
JP6839818B2 JP6839818B2 (ja) 2021-03-10

Family

ID=64271833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097884A Active JP6839818B2 (ja) 2017-05-17 2017-05-17 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム

Country Status (3)

Country Link
US (1) US10853414B2 (ja)
JP (1) JP6839818B2 (ja)
CN (1) CN108939251B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020080394A1 (ja) 2018-10-16 2020-04-23 日本ケミファ株式会社 睡眠の質の改善剤
WO2020080398A1 (ja) 2018-10-16 2020-04-23 日本ケミファ株式会社 アルコール飲料摂取による悪酔い又は二日酔いの抑制剤
JP2020149592A (ja) * 2019-03-15 2020-09-17 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP2020149241A (ja) * 2019-03-12 2020-09-17 Necソリューションイノベータ株式会社 生活習慣表現装置、生活習慣表現方法、プログラムおよび記録媒体
JP2020154870A (ja) * 2019-03-20 2020-09-24 ヤフー株式会社 選択装置、選択方法及び選択プログラム
WO2021261123A1 (ja) * 2020-06-25 2021-12-30 ソニーグループ株式会社 コンテンツ提示システム、コンテンツ提示装置、及びコンテンツ提示方法
US11379094B2 (en) 2019-06-06 2022-07-05 Panasonic Intellectual Property Management Co., Ltd. Emotion-based content selection method, content selection device, and non-transitory computer-readable recording medium storing content selection program
JP2022536356A (ja) * 2019-06-11 2022-08-15 エイチアイ エルエルシー プライミング効果の自覚によるユーザーの精神状態の検出及び変調のための非侵襲的システム並びに方法
WO2022190686A1 (ja) 2021-03-10 2022-09-15 ソニーグループ株式会社 コンテンツリコメンデーションシステム、コンテンツリコメンデーション方法、コンテンツライブラリ、コンテンツライブラリの生成方法及びターゲットインプットユーザインタフェース
WO2023139849A1 (ja) * 2022-01-18 2023-07-27 パナソニックIpマネジメント株式会社 感情推定方法、コンテンツ決定方法、プログラム、感情推定システム、及びコンテンツ決定システム
JP2023180124A (ja) * 2022-06-08 2023-12-20 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7402577B1 (ja) * 2023-06-16 2023-12-21 株式会社ファーストスター・ヘルスケア 音楽提供システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107731225A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客系统
CN110947075A (zh) * 2019-11-27 2020-04-03 华南理工大学 基于脑波音乐的个性化精神状态调节系统及调节方法
US20220122569A1 (en) * 2020-10-16 2022-04-21 Matthew Caren Method and Apparatus for the Composition of Music
WO2022195661A1 (ja) * 2021-03-15 2022-09-22 三菱電機株式会社 感情推定装置および感情推定方法
CN114949531A (zh) * 2022-05-13 2022-08-30 青岛大学 基于生理信号的vr双模式情绪自动控制系统
US20230368794A1 (en) * 2022-05-13 2023-11-16 Sony Interactive Entertainment Inc. Vocal recording and re-creation
WO2024006950A1 (en) * 2022-06-29 2024-01-04 Deepwell Dtx Dynamically neuro-harmonized audible signal feedback generation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003310761A (ja) * 2002-04-19 2003-11-05 Itoki Crebio Corp ワークスペースシステムの制御装置、及びその運用プログラムの記録媒体
JP2013054447A (ja) * 2011-09-01 2013-03-21 Hitachi Ltd 気分改善システムおよび気分改善方法
JP2016002109A (ja) * 2014-06-13 2016-01-12 パナソニックIpマネジメント株式会社 活動評価装置、評価処理装置、プログラム
US20160188674A1 (en) * 2014-12-31 2016-06-30 Electronics And Telecommunications Research Institute Emotion-based content recommendation apparatus and method
JP2016146173A (ja) * 2015-01-30 2016-08-12 パナソニック株式会社 刺激提示システム、刺激提示方法、コンピュータ、および制御方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155157A (ja) 2004-11-29 2006-06-15 Sanyo Electric Co Ltd 自動選曲装置
JP5149017B2 (ja) * 2005-02-14 2013-02-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンテンツアイテムを選択するための電子装置及び方法
US7764996B2 (en) * 2006-10-31 2010-07-27 Cardiac Pacemakers, Inc. Monitoring of chronobiological rhythms for disease and drug management using one or more implantable device
US20100191037A1 (en) * 2007-06-01 2010-07-29 Lorenzo Cohen Iso music therapy program and methods of using the same
EP2180922A4 (en) * 2007-08-20 2010-09-29 Univ Laval ARTIFICIAL LIGHT DEVICE AND ITS USE FOR INFLUENCING A CONDITION OF A PERSON
CN101149950A (zh) * 2007-11-15 2008-03-26 北京中星微电子有限公司 实现分类播放的媒体播放器及分类播放方法
US20130090520A1 (en) * 2009-06-19 2013-04-11 Randall Redfield Bone Conduction Apparatus and Multi-sensory Brain Integration Method
US20130297599A1 (en) * 2009-11-10 2013-11-07 Dulcetta Inc. Music management for adaptive distraction reduction
US20110295843A1 (en) * 2010-05-26 2011-12-01 Apple Inc. Dynamic generation of contextually aware playlists
JP5594532B2 (ja) * 2010-11-09 2014-09-24 ソニー株式会社 情報処理装置および方法、情報処理システム、並びに、プログラム
US9098579B2 (en) * 2011-06-07 2015-08-04 Kodak Alaris Inc. Automatically selecting thematically representative music
EP3865056A1 (en) * 2012-09-14 2021-08-18 InteraXon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US10009644B2 (en) * 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data
US9788777B1 (en) * 2013-08-12 2017-10-17 The Neilsen Company (US), LLC Methods and apparatus to identify a mood of media
TWI603213B (zh) * 2014-01-23 2017-10-21 國立交通大學 基於臉部辨識的音樂選取方法、音樂選取系統及電子裝置
US10754890B2 (en) * 2014-03-18 2020-08-25 Timothy Chester O'Konski Method and system for dynamic playlist generation
US10321842B2 (en) * 2014-04-22 2019-06-18 Interaxon Inc. System and method for associating music with brain-state data
CN105212948A (zh) * 2014-05-26 2016-01-06 南京专创知识产权服务有限公司 情绪监控及辅助调节系统
KR20170082571A (ko) * 2014-11-02 2017-07-14 엔고글 인크. 스마트 오디오 헤드폰 시스템
US20160136384A1 (en) * 2014-11-18 2016-05-19 Treasure Vox Llc System, method and kit for reminiscence therapy for people with dementia
KR101637282B1 (ko) * 2014-12-09 2016-07-07 현대자동차 주식회사 음악 플레이리스트 생성방법, 및 음악 플레이리스트 생성장치
CN104491969A (zh) * 2014-12-10 2015-04-08 深圳市量子智慧文化发展有限公司 一种基于声音的身心调节方法及系统
US9792084B2 (en) * 2015-01-02 2017-10-17 Gracenote, Inc. Machine-led mood change
US20170352283A1 (en) * 2016-06-07 2017-12-07 Cerekinetic, Inc. Self-administered evaluation and training method to improve mental state
CN106264571A (zh) * 2016-08-29 2017-01-04 无锡卓信信息科技股份有限公司 一种服刑人员情绪调节方法及系统
CN106345034A (zh) * 2016-11-09 2017-01-25 武汉智普天创科技有限公司 基于脑电采集终端的用于认知情绪调节的装置
EP3550450A4 (en) * 2016-12-29 2019-11-06 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR ADJUSTING THE HUMOR BEHAVIOR OF A USER

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003310761A (ja) * 2002-04-19 2003-11-05 Itoki Crebio Corp ワークスペースシステムの制御装置、及びその運用プログラムの記録媒体
JP2013054447A (ja) * 2011-09-01 2013-03-21 Hitachi Ltd 気分改善システムおよび気分改善方法
JP2016002109A (ja) * 2014-06-13 2016-01-12 パナソニックIpマネジメント株式会社 活動評価装置、評価処理装置、プログラム
US20160188674A1 (en) * 2014-12-31 2016-06-30 Electronics And Telecommunications Research Institute Emotion-based content recommendation apparatus and method
JP2016146173A (ja) * 2015-01-30 2016-08-12 パナソニック株式会社 刺激提示システム、刺激提示方法、コンピュータ、および制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川頭 匠: "情動誘導映像の設計", 映像情報メディア学会技術報告, vol. 37, no. 17, JPN6020037125, 8 March 2013 (2013-03-08), JP, pages 131 - 134, ISSN: 0004357597 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020080398A1 (ja) 2018-10-16 2020-04-23 日本ケミファ株式会社 アルコール飲料摂取による悪酔い又は二日酔いの抑制剤
WO2020080394A1 (ja) 2018-10-16 2020-04-23 日本ケミファ株式会社 睡眠の質の改善剤
JP2020149241A (ja) * 2019-03-12 2020-09-17 Necソリューションイノベータ株式会社 生活習慣表現装置、生活習慣表現方法、プログラムおよび記録媒体
JP7381045B2 (ja) 2019-03-12 2023-11-15 Necソリューションイノベータ株式会社 生活習慣表現装置、生活習慣表現方法、プログラムおよび記録媒体
JP7090573B2 (ja) 2019-03-15 2022-06-24 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP2020149592A (ja) * 2019-03-15 2020-09-17 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP2020154870A (ja) * 2019-03-20 2020-09-24 ヤフー株式会社 選択装置、選択方法及び選択プログラム
JP7175810B2 (ja) 2019-03-20 2022-11-21 ヤフー株式会社 選択装置、選択方法及び選択プログラム
US11379094B2 (en) 2019-06-06 2022-07-05 Panasonic Intellectual Property Management Co., Ltd. Emotion-based content selection method, content selection device, and non-transitory computer-readable recording medium storing content selection program
JP7496514B2 (ja) 2019-06-06 2024-06-07 パナソニックIpマネジメント株式会社 コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム
JP2022536356A (ja) * 2019-06-11 2022-08-15 エイチアイ エルエルシー プライミング効果の自覚によるユーザーの精神状態の検出及び変調のための非侵襲的システム並びに方法
WO2021261123A1 (ja) * 2020-06-25 2021-12-30 ソニーグループ株式会社 コンテンツ提示システム、コンテンツ提示装置、及びコンテンツ提示方法
US11983305B2 (en) 2020-06-25 2024-05-14 Sony Group Corporation Content presentation system, content presentation device, and content presentation method
WO2022190686A1 (ja) 2021-03-10 2022-09-15 ソニーグループ株式会社 コンテンツリコメンデーションシステム、コンテンツリコメンデーション方法、コンテンツライブラリ、コンテンツライブラリの生成方法及びターゲットインプットユーザインタフェース
WO2023139849A1 (ja) * 2022-01-18 2023-07-27 パナソニックIpマネジメント株式会社 感情推定方法、コンテンツ決定方法、プログラム、感情推定システム、及びコンテンツ決定システム
JP2023180124A (ja) * 2022-06-08 2023-12-20 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7408103B2 (ja) 2022-06-08 2024-01-05 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7402577B1 (ja) * 2023-06-16 2023-12-21 株式会社ファーストスター・ヘルスケア 音楽提供システム

Also Published As

Publication number Publication date
CN108939251B (zh) 2021-08-13
US20180336276A1 (en) 2018-11-22
US10853414B2 (en) 2020-12-01
JP6839818B2 (ja) 2021-03-10
CN108939251A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
JP6839818B2 (ja) コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
US20200012682A1 (en) Biometric-music interaction methods and systems
JP6592441B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および、情報処理方法
US9330680B2 (en) Biometric-music interaction methods and systems
CN103415248B (zh) 睡眠评价装置和睡眠评价方法
US20160116326A1 (en) Interactive body weight scale system and method
JP6604113B2 (ja) 飲食行動検出装置、飲食行動検出方法及び飲食行動検出用コンピュータプログラム
US9607595B2 (en) System and method for creation of musical memories
CN107463646A (zh) 一种助眠音乐智能推荐方法及装置
JP2019204444A (ja) 睡眠評価レポート生成装置、及び睡眠評価レポート生成方法
WO2015168299A1 (en) Biometric-music interaction methods and systems
KR20200072172A (ko) 인지 능력 평가 방법, 이의 시스템 및 이를 위한 웨어러블 디바이스
JP4941966B2 (ja) 感情の判別方法、感情判別装置、雰囲気情報通信端末
US12102472B2 (en) Detecting subjects with disordered breathing
US11397799B2 (en) User authentication by subvocalization of melody singing
CN114795159A (zh) 一种睡前状态检测方法及设备
JP7307507B2 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
JP4241079B2 (ja) 笑い検出装置、情報処理装置および笑い検出方法
JP6217003B2 (ja) 端末装置、睡眠言動記録方法及び睡眠言動記録プログラム
KR20130032998A (ko) 이동 단말기와 주변기기를 이용한 사용자의 감성인지 시스템
JP7402577B1 (ja) 音楽提供システム
JP7400832B2 (ja) 情報処理装置、制御方法及びプログラム
JP6963669B1 (ja) ソリューション提供システム及び携帯端末
JP2018108280A (ja) ユーザ端末装置およびデータ送信方法
JP2024076835A (ja) 読経支援装置、読経支援方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210129

R151 Written notification of patent or utility model registration

Ref document number: 6839818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151