JP2018102617A - 感情推定装置、方法およびプログラム - Google Patents
感情推定装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2018102617A JP2018102617A JP2016252368A JP2016252368A JP2018102617A JP 2018102617 A JP2018102617 A JP 2018102617A JP 2016252368 A JP2016252368 A JP 2016252368A JP 2016252368 A JP2016252368 A JP 2016252368A JP 2018102617 A JP2018102617 A JP 2018102617A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- subject
- learning data
- information representing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 239
- 238000000034 method Methods 0.000 title claims description 42
- 238000005259 measurement Methods 0.000 claims abstract description 100
- 230000000694 effects Effects 0.000 claims abstract description 68
- 230000037007 arousal Effects 0.000 claims abstract description 38
- 230000033001 locomotion Effects 0.000 claims abstract description 17
- 230000004424 eye movement Effects 0.000 claims abstract description 14
- 230000015654 memory Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 abstract description 16
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 238000000611 regression analysis Methods 0.000 abstract description 4
- 230000003334 potential effect Effects 0.000 abstract 2
- 238000013500 data storage Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000037081 physical activity Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000001149 cognitive effect Effects 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02405—Determining heart rate variability
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/053—Measuring electrical impedance or conductance of a portion of the body
- A61B5/0531—Measuring skin impedance
- A61B5/0533—Measuring galvanic skin response
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/398—Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/486—Bio-feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6803—Head-worn items, e.g. helmets, masks, headphones or goggles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/681—Wristwatch-type devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
- A61B5/748—Selection of a region of interest, e.g. using a graphics tablet
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0095—Automatic control mode change
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Educational Technology (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Pulmonology (AREA)
Abstract
【課題】外的事象を監視する手段を必要とすることなく被験者の感情を推定できるようにし、構成が簡単で広範囲の用途に適用可能とする。
【解決手段】学習モードにおいて、感情入力デバイス2により入力された被験者の感情を表す情報を教師データとし、それと並行して計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量を変数として、重回帰分析により、感情の変化を感情の活性度(Arousal)およびその強度(Valence)別に推定するための回帰式を生成する。そして、被験者の感情の変化を推定する際に、計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量の変化と、上記回帰式とを用いて、被験者の感情の変化を推定する。
【選択図】図2
【解決手段】学習モードにおいて、感情入力デバイス2により入力された被験者の感情を表す情報を教師データとし、それと並行して計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量を変数として、重回帰分析により、感情の変化を感情の活性度(Arousal)およびその強度(Valence)別に推定するための回帰式を生成する。そして、被験者の感情の変化を推定する際に、計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量の変化と、上記回帰式とを用いて、被験者の感情の変化を推定する。
【選択図】図2
Description
この発明は、被験者の感情を推定する感情推定装置、方法およびプログラムに関する。
従来、車両運転中の安全性向上のために、人の心理状態を推定する技術が提案されている。例えば特許文献1には、被験者の心拍数や血圧等の生体情報を計測すると共に、被験者の心理状態に影響を与える可能性のある外的事象を受けたときの被験者の認知反応を取得し、この認知反応をもとに被験者の心理状態の変化への影響度を取得して、この影響度と上記生体情報とに基づいて被験者の心理状態を推定する技術が記載されている。
しかし、特許文献1に記載された技術では、被験者の心理状態を推定する場合、被験者の心理状態に影響を与える可能性のある外的事象の発生を検出し、さらにその時の被験者の認知反応を検出する必要がある。例えば、車両の運転中であれば、渋滞や割り込み、道路の状況等を、VICS(登録商標)情報の取得手段や車速センサ、車間距離検出用のレーダセンサ、カメラ等を用いて検出し、さらにその時の被験者の認知反応を生体センサにより検出しなければならない。このため、外的事象を監視する手段を備える装置であることが前提となり、用途が限定されると共に装置の複雑化や大型化が避けられない。
この発明は上記事情に着目してなされたもので、外的事象の情報を必要とすることなく被験者の感情を推定できるようにし、構成が簡単で広範囲の用途に適用可能とした感情推定装置、方法およびプログラムを提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、被験者の感情を表す情報を取得すると共に、前記被験者の活動状態を表す情報を取得し、取得された前記被験者の感情を表す情報と、前記被験者の活動状態を表す情報との関連性を表す学習データを生成してメモリに記憶する。そしてこの状態で、取得された前記被験者の現在の活動状態を表す情報と、前記メモリに記憶された学習データとに基づいて、前記被験者の現在の感情を推定するようにしたものである。
この発明の第2の態様は、前記学習データを生成する際に、取得された前記被験者の感情を表す情報を正解値とすると共に、同時に取得された前記被験者の活動状態を表す情報を変数として、前記被験者の感情を表す情報と前記活動状態を表す情報との関係性を表す回帰式を生成し、当該生成された回帰式を前記学習データとして前記メモリに記憶するようにしたものである。
この発明の第3の態様は、前記被験者の感情を表す情報として、感情の活性度(Arousal)とその強度(Valence)とにより表した情報を取得する。そして、前記被験者の感情を表す情報と前記活動状態を表す情報との関係性を表す回帰式を、前記感情の活性度(Arousal)および強度(Valence)の各々について生成し、当該生成された各回帰式を前記学習データとして前記メモリに記憶するようにしたものである。
この発明の第4の態様は、前記学習データを生成する際に、時系列方向に所定の単位時間幅を有するウィンドウを時間位置をシフトしながら複数設定し、当該ウィンドウごとに、ウィンドウ内における前記被験者の感情を表す情報の変化と前記被験者の活動状態を表す情報の変化との関連性を表す学習データを生成するようにしたものである。
この発明の第5の態様は、前記学習データを生成する際に、前記ウィンドウの単位時間幅および時系列方向へのシフト量の少なくとも一方を一定量可変するごとに、当該ウィンドウ内における前記被験者の感情を表す情報の変化と前記被験者の活動状態を表す情報の変化との関連性を表す学習データをそれぞれ生成する。そして、前記生成された学習データごとに、当該学習データに基づいて得られる推定値としての感情を表す情報の変化と、前記第1の取得部により取得された正解値としての感情を表す情報の変化との差を算出し、当該差が最小となるときの前記ウィンドウの単位時間幅およびシフト量の少なくとも一方を選択するようにしたものである。
この発明の第6の態様は、前記被験者の活動状態を表す情報として、心電、皮膚電位、眼球運動、モーションおよび活動量のうちの少なくとも1つを計測して得られた計測情報を取得するようにしたものである。
この発明の第7の態様は、前記感情推定部により推定された感情の値を感情の正解値の範囲と比較し、その比較結果に応じて、前記メモリに記憶された学習データを更新する学習データ更新部を、さらに具備するようにしたものである。
この発明の第1の態様によれば、先ず同一時間帯に取得された被験者の感情を表す情報と活動状態を表す情報とをもとに学習データが生成されメモリに記憶される。そしてこの状態で、被験者の現在の活動状態を表す情報が取得されると、当該現在の活動状態を表す情報と上記学習データとから被験者の現在の感情が推定される。すなわち、被験者の活動状態を表す情報が取得されるごとに、当該活動状態を表す情報と事前に生成しておいた学習データとをもとにこの時の被験者の感情がリアルタイムに推定される。従って、被験者の活動状態を表す情報を取得するだけで、被験者周辺の環境条件などの外的事象を監視することなく被験者の感情を推定できるようになる。また、被験者の外的事象を監視する手段が不要になることから、比較的簡単な構成で広範囲の用途に適用することができる。
この発明の第2の態様によれば、取得された被験者の感情を表す情報を正解値とし、同時に取得された被験者の活動状態を表す情報を変数とする回帰式が生成され、この回帰式が学習データとして記憶される。このため、大量の学習データを記憶しておくことなく、回帰式を用いた演算処理により被験者の感情を推定することが可能となる。
この発明の第3の態様によれば、感情の活性度(Arousal)とその強度(Valence)のそれぞれについて、被験者の感情を表す情報と活動状態を表す情報との関係性を表す回帰式が生成される。このため、被験者の感情を活性度(Arousal)と強度(Valence)に分けて推定することができ、被験者の感情の推定結果を、上記活性度(Arousal)と強度(Valence)とにより表される情報として出力することが可能となる。
この発明の第4の態様によれば、時系列上において所定の単位時間幅を有するウィンドウが時間位置をシフトしながら複数設定され、これらのウィンドウごとに被験者の感情を表す情報の変化と活動状態を表す情報の変化との関連性を表す学習データが生成される。このため、被験者の感情の変化を時間帯別に推定することが可能となる。
この発明の第5の態様によれば、上記ウィンドウの単位時間幅および時系列方向へのシフト量の少なくとも一方を一定量可変するごとに対応する学習データが生成され、この生成された学習データごとに、当該学習データに基づいて得られる推定値としての感情を表す情報の変化と、正解値としての感情を表す情報の変化との差が算出されて、当該差が最小となるときのウィンドウの単位時間幅又はシフト量が選択される。このため、感情の推定結果を正解値により近づけることができ、これにより被験者の感情の変化をより高精度に推定することが可能となる。
この発明の第6の態様によれば、被験者の活動状態を表す情報として、感情と相関を有する心電、皮膚電位、眼球運動、モーションおよび活動量のうち少なくとも1つが計測され、その計測データが学習データの生成および感情の推定処理に利用される。このため、被験者の感情を非侵襲で推定することが可能となる。この場合、上記複数の状態を2つ以上同時に計測すると、より精度の高い推定が可能となる。
この発明の第7の態様によれば、感情の推定値がその時の被験者の感情の正解値の範囲からずれた場合には、学習データが更新される。このようにすると、学習データが経年または時系列で変化したとしても、この変化に追従して学習データを更新することができ、これによりその時々で常に正解値に近い推定値を得ることが可能となる。
すなわちこの発明の各態様によれば、外的事象の情報を必要とすることなく被験者の感情を推定できるようになり、構成が簡単で広範囲の用途に適用可能とした感情推定装置、方法およびプログラムを提供することができる。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
図1は、この発明の一実施形態に係る感情推定装置を備えたシステムの全体構成を示す図である。この一実施形態に係る感情推定システムは、感情推定装置1と、感情入力デバイス2と、計測デバイス3とを備える。上記感情入力デバイス2および計測デバイス3と、感情推定装置1との間は、通信ネットワーク4を介して通信可能となっている。
[一実施形態]
(構成)
図1は、この発明の一実施形態に係る感情推定装置を備えたシステムの全体構成を示す図である。この一実施形態に係る感情推定システムは、感情推定装置1と、感情入力デバイス2と、計測デバイス3とを備える。上記感情入力デバイス2および計測デバイス3と、感情推定装置1との間は、通信ネットワーク4を介して通信可能となっている。
感情入力デバイス2は、例えばスマートフォンまたはタブレット型端末を使用し、アプリケーションプログラムの制御の下で感情入力画面を表示する。感情入力画面は、感情の活性度(Arousal)を縦軸にとり、活性度の強度(Valence)を横軸にとることで、感情を二次元座標平面で表したものである。上記感情入力画面上において、被験者が自身のその時の感情に対応する位置をプロットすると、感情入力デバイス2はこのプロットされた位置座標を被験者の感情を表す情報として認識する。なお、上記感情をArousalとValenceとからなる二次元座標平面で表す手法は、ラッセルの円環モデルとして知られている。図7にその概要を示す。
図8は感情入力デバイス2による時間帯別の感情の入力結果の一例を示したもので、活性度(Arousal)により「やる気」のあるなしとその程度が表され、活性度の強度(Valence)により「気分」がワクワクかイライラかとその程度が表される。
感情入力デバイス2は、上記感情を表す情報として検出した位置座標を、ArousalとValenceとで表される二次元座標平面の象限とArousalおよびValenceの各値に変換する。そして、この変換後のデータに入力日時を表すタイムスタンプデータを付与し、これを感情入力データ(以後スケールデータと呼ぶ)として、無線インタフェースを使用することにより通信ネットワーク4を介して感情推定装置1へ送信する。
計測デバイス3は、例えばウェアラブル端末に内蔵され、図1に示すように被験者の手首に装着される。計測デバイス3は、人の感情と相関を持つ人の活動状態を表す情報を計測する。人の活動状態を表す情報としては生体情報と行動情報がある。これらの生体情報および行動情報を計測するために、計測デバイス3は複数種類の生体センサおよび行動センサを内蔵する。これらの生体センサおよび行動センサは、例えば、心電H、皮膚電位G、モーションBMおよび活動量Exを計測するセンサからなる。
心電センサは、予め設定した周期或いは任意のタイミングで被験者の心電Hの波形データを計測し、その計測データを出力する。皮膚電位センサは、例えばポリグラフ計からなり、上記予め設定した周期或いは任意のタイミングで被験者の皮膚電位Gを計測し、その計測データを出力する。モーションBMを計測するセンサとしては、例えば3軸加速度センサが用いられ、3軸加速度の計測データを出力する。活動量Exを計測するセンサとしては活動量計が用いられ、身体活動の強度(メッツ)と、身体活動の量(エクササイズ)を表す計測データを出力する。
なお、人の感情と相関を持つ生体情報を計測するセンサとしては、他に、眼球運動EMを計測するセンサがある。このセンサは、小型イメージセンサからなり、例えばメガネ又はゴーグルのフレームに設置される。
計測デバイス3は、上記各センサにより得られた各計測データに計測日時を表すタイムスタンプデータを付与し、この計測データを、無線インタフェースにより通信ネットワーク4を介して感情推定装置1へ送信する。なお、計測デバイス3はウェアラブル端末に内蔵する以外に、衣服やベルト、ヘルメット等に取着するタイプでもよい。
また、上記感情入力デバイス2および計測デバイス3が計測データを送信するために使用する無線インタフェースとしては、例えば、無線LAN(Local Area Network)やBluetooth(登録商標)等の小電力型無線データ通信規格を採用した無線インタフェースが使用される。なお、感情入力デバイス2と通信ネットワーク4との間を接続するインタフェースとしては、公衆移動通信ネットワークやUSB(Universal Serial Bus)等の有線信号ケーブルを使用してもよい。
感情推定装置1は、例えばパーソナルコンピュータまたはサーバコンピュータからなり、次のように構成される。図2はその機能構成を示すブロック図である。すなわち、感情推定装置1は、制御ユニット10と、記憶ユニット20と、インタフェースユニット30とを備える。
インタフェースユニット30は、通信ネットワーク4により規定された通信プロトコルに従ってデータ通信を行うもので、上記感情入力デバイス2および計測デバイス3が送信したスケールデータおよび計測データを、通信ネットワーク4を介してそれぞれ受信する。なお、インタフェースユニット30は入出力インタフェース機能も備え、この入出力インタフェース機能により、キーボードやマウス等の入力デバイスから出力されたデータを受信し、かつ制御ユニット10から出力された表示データを図示しないディスプレイへ出力して表示させる。
記憶ユニット20は、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書き込み読み出しが可能な不揮発性メモリを使用したもので、一実施形態を実施する上で必要な記憶領域として、スケールデータ記憶部21と、計測データ記憶部22と、学習データ記憶部23とを備えている。
スケールデータ記憶部21は、上記感情入力デバイス2から送信された、被験者の感情を表すスケールデータを記憶するために使用される。計測データ記憶部22は、上記計測デバイス3から送信された計測データを記憶するために使用される。学習データ記憶部23は、制御ユニット10により生成された学習データを記憶するために使用される。
制御ユニット10は、CPU(Central Processing Unit)および作業用メモリを有し、一実施形態を実施する上で必要な制御機能として、スケールデータ取得制御部11と、計測データ取得制御部12と、特徴量抽出部13と、学習データ生成部14と、感情推定部15と、推定結果出力部16とを備えている。これらの制御機能はいずれも、図示しないプログラムメモリに格納されたアプリケーションプログラムを上記CPUに実行させることにより実現される。
スケールデータ取得制御部11は、インタフェースユニット30と共同して第1の取得部の機能を実現するもので、感情入力デバイス2において感情の入力操作が行われた場合に、当該感情入力デバイス2から送信されたスケールデータをインタフェースユニット30を介して取得し、取得したスケールデータをスケールデータ記憶部21に記憶させる処理を行う。
計測データ取得制御部12は、インタフェースユニット30と共同して第2の取得部の機能を実現するもので、上記計測デバイス3から送信された計測データをインタフェースユニット30を介して取得し、取得した計測データを計測データ記憶部22に記憶させる処理を行う。
特徴量抽出部13は、時系列上の異なる複数の時間位置に設定されるウィンドウごとに、上記スケールデータ記憶部21および計測データ記憶部22からそれぞれ上記ウィンドウに含まれるスケールデータおよび各計測データを読み込む。そして、読み込んだスケールデータおよび各計測データのそれぞれについて、特徴量を抽出してその変化量を算出し、その算出結果を学習データ生成部14に渡す。
なお、ウィンドウは所定の単位時間幅を有し、時系列上で隣り合うウィンドウ同士が互いに重ならないように上記単位時間幅ずつシフトすることにより設定されるか、又は時系列上で隣り合うウィンドウ同士が部分的に重なるように上記単位時間幅より短い時間ずつ順次シフトすることにより設定される。また、ウィンドウの単位時間幅は所定の範囲で一定量ずつ可変可能である。
学習データ生成部14は、学習モードにおいて、上記特徴量抽出部13によりウィンドウごとに抽出されたスケールデータのArousalおよびValence別の特徴量の変化量を正解値(教師データ)とし、各計測データの特徴量の変化量を変数として、重回帰分析を行うことで、被験者の感情と各計測データの特徴量との関係性を表す回帰式をArousalおよびValence別に生成する。そして、生成した回帰式を、どの時間位置のウィンドウであるかを示すウィンドウ識別情報と対応付けて、感情推定に使用する学習データとして学習データ記憶部23に記憶させる。
また学習データ生成部14は、上記ArousalおよびValence別の回帰式を、ウィンドウの単位時間幅を一定量ずつ可変するごとにそれぞれ生成する。そして、この生成された回帰式を用いて算出した感情の推定値の時系列方向の合計と、教師データとして与えられたスケールデータの感情情報の正解値の合計との差分が最も小さくなるときのウィンドウの単位時間幅とシフト量を選択し、この選択したウィンドウの単位時間幅とシフト量、それに対応する回帰式を感情推定部15に提供する。
感情推定部15は、上記学習データが記憶された後の感情推定モードにおいて、特徴量抽出部13からウィンドウごとに各計測データから抽出された特徴量の変化量を読み込むと共に、上記学習データ記憶部23から上記ウィンドウに対応するArousalおよびValence別の回帰式を読み込む。そして、上記各計測データの特徴量の変化と上記回帰式を用いて、ArousalおよびValence別に感情変化の推定値を算出し、その算出結果を推定結果出力部16へ出力する。
推定結果出力部16は、上記感情推定部15から出力されたArousalおよびValence別の感情変化の推定値をもとに、被験者のこの時の感情の変化を表す表示情報を生成し、インタフェースユニット30から通知先の管理装置へ送信する。
(動作)
次に、以上のように構成された感情推定装置1の動作を、システム全体の動作と共に説明する。
(1)学習データの生成
被験者の感情推定処理に先立ち、感情推定装置1は学習モードを設定し、以下のように被験者固有の学習データを生成する。図3はその処理手順と処理内容を示すフローチャートである。
次に、以上のように構成された感情推定装置1の動作を、システム全体の動作と共に説明する。
(1)学習データの生成
被験者の感情推定処理に先立ち、感情推定装置1は学習モードを設定し、以下のように被験者固有の学習データを生成する。図3はその処理手順と処理内容を示すフローチャートである。
例えば、製造設備の作業者を被験者とし、当該被験者に実際に作業をしてもらいながら、所定の時間間隔又は任意のタイミングでその時々の被験者自身の感情を、感情入力デバイス2により入力してもらう。
(1−1)被験者の感情情報の入力および被験者の活動状態を表す生体・行動情報の計測と、その入力データおよび計測データの収集
感情入力デバイス2は、先に述べたように感情を活性度(Arousal)とその強度(Valence)とからなる二次元座標平面で表したもので、被験者がプロットした二次元座標平面における座標値を検出する。また、このとき感情入力デバイス2は、上記二次元座標平面を図9に示すように4つの象限“1”,“2”,“3”,“4”に分け、さらにArousalおよびValenceの各軸の値を図10に示すように交点を0として、−100〜+100により表している。感情入力デバイス2は、上記検出した座標値を、上記象限を表す情報と、上記ArousalおよびValenceの各軸の値に変換する。そして、この変換後の情報に入力日時を表すタイムスタンプデータを付加し、これをスケールデータとして感情推定装置1へ送信する。
感情入力デバイス2は、先に述べたように感情を活性度(Arousal)とその強度(Valence)とからなる二次元座標平面で表したもので、被験者がプロットした二次元座標平面における座標値を検出する。また、このとき感情入力デバイス2は、上記二次元座標平面を図9に示すように4つの象限“1”,“2”,“3”,“4”に分け、さらにArousalおよびValenceの各軸の値を図10に示すように交点を0として、−100〜+100により表している。感情入力デバイス2は、上記検出した座標値を、上記象限を表す情報と、上記ArousalおよびValenceの各軸の値に変換する。そして、この変換後の情報に入力日時を表すタイムスタンプデータを付加し、これをスケールデータとして感情推定装置1へ送信する。
またそれと並行して計測デバイス3では、上記作業中の被験者の心電H、皮膚電位G、モーションBMおよび活動量Exが一定の時間間隔で計測され、その各計測データが計測時刻を表すタイムスタンプデータと共に感情推定装置1へ送信される。また、被験者の眼球運動EMが図示しないイメージセンサにより計測され、その計測データもタイムスタンプデータと共に感情推定装置1へ送信される。
感情推定装置1は、上記感情入力デバイス2から送信されるスケールデータを、ステップS11により、スケールデータ取得制御部11の制御の下でインタフェースユニット30を介して受信し、この受信したスケールデータをスケールデータ記憶部21に記憶させる。またそれと共に、上記計測デバイス3およびイメージセンサから送信される各計測データを、ステップS12により、計測データ取得制御部12の制御の下でインタフェースユニット30を介して受信し、この受信した各計測データを計測データ記憶部22に記憶させる。
(1−2)学習データの生成
上記スケールデータおよび各計測データが一定期間分(例えば1日分又は1週間分)蓄積されると、感情推定装置1はステップS13により、特徴量抽出部13および学習データ生成部14の制御の下、学習データの生成処理を以下のように実行する。図4および図5はその処理手順と処理内容を示すフローチャートである。
上記スケールデータおよび各計測データが一定期間分(例えば1日分又は1週間分)蓄積されると、感情推定装置1はステップS13により、特徴量抽出部13および学習データ生成部14の制御の下、学習データの生成処理を以下のように実行する。図4および図5はその処理手順と処理内容を示すフローチャートである。
すなわち、先ずステップS131によりウィンドウWi(i=1,2,3,…)の単位時間幅を初期値に設定し、ステップS132によりi=1番目のウィンドウを選択する。次に特徴量抽出部13が、ステップS133により、上記1番目のウィンドウの期間に含まれる複数のスケールデータを上記スケールデータ記憶部21から読み込み、ステップS134によりArousalおよびValence別にその特徴量の変化量を算出する。例えば、いま図10に示すように1つのウィンドウの期間内にスケールデータK1,K2が入力された場合には、象限が“3”→“4”、Arousal+20、Valence+50のように変化量が算出される。なお、象限が“3”→“2”のように対角状に変化した場合にも、ArousalおよびValence別にその特徴量の変化量を算出すればよい。
特徴量抽出部13は、続いてステップS135により、上記1番目のウィンドウの期間に計測された各計測データ、つまり心電H、皮膚電位G、モーションBM、活動量Exおよび眼球運動EMの全計測データを上記計測データ記憶部22から読み込み、ステップS136においてこれらの計測データから特徴量を抽出する。
例えば、心電Hの特徴量としては、心拍の間隔(R-R Interval:RRI )、当該RRI のパワースペクトルの高周波成分(HF)および低周波成分(LF)が抽出される。皮膚電位Gの特徴量としては、皮膚電気抵抗(Galvanic Skin Response:GSR)が抽出される。眼球運動EMの特徴量としては、視線速度や瞳孔サイズが抽出される。モーションBMの特徴量としては例えば手の動きの速度が抽出される。手の動きの速度は、例えば3軸加速度センサにより計測される3軸加速度から算出できる。活動量Exの特徴量は、身体活動の強度(METs)とエクササイズ(EX)により表される。エクササイズ(EX)は、身体活動の強度(METs)×身体活動の実施時間により算出される。
そして特徴量抽出部13は、上記抽出された心電H、皮膚電位G、モーションBM、活動量Exおよび眼球運動EMの各特徴量の、上記ウィンドウの期間内における変化量をそれぞれ算出する。
次に学習データ生成部14は、ステップS137において、上記ステップS134で算出されたスケールデータの特徴量の変化量と、上記ステップS136により算出された各計測データの特徴量の変化量とに基づいて、ArousalおよびValence別に学習データを生成する。例えば、スケールデータのArousalおよびValence別の特徴量の変化量を教師データとし、各計測データの特徴量の変化量を一次指標となる独立変数として、重回帰分析を行う。そして、被験者の感情の変化と各生体・行動情報の変化との関係性を表す回帰式をArousalおよびValence別に生成する。
以下にi番目のウィンドウに対応する回帰式を示す。
A^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi )
V^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi )
但し、A^i ,V^i はArousalおよびValenceの変化の推定値、α1,α2,α3 ,α4,α5 はそれぞれ計測データHi ,Gi ,EMi ,BMi ,Exの特徴量に対する重み付け係数、fは一次指標である計測データHi ,Gi ,EMi ,BMi ,Exの特徴量から得られる指標の総合計を示す。重み付け係数は、例えば学習段階で得られる母集団データの中の比率などを考慮して加重平均などにより設定してもよい。なお、A^iおよびV^i の“^”は、「ハット」と読み、本来はA、Vの頭部に記述される記号である。
A^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi )
V^i =f(α1Hi ,α2Gi ,α3EMi ,α4BMi ,α5Exi )
但し、A^i ,V^i はArousalおよびValenceの変化の推定値、α1,α2,α3 ,α4,α5 はそれぞれ計測データHi ,Gi ,EMi ,BMi ,Exの特徴量に対する重み付け係数、fは一次指標である計測データHi ,Gi ,EMi ,BMi ,Exの特徴量から得られる指標の総合計を示す。重み付け係数は、例えば学習段階で得られる母集団データの中の比率などを考慮して加重平均などにより設定してもよい。なお、A^iおよびV^i の“^”は、「ハット」と読み、本来はA、Vの頭部に記述される記号である。
学習データ生成部14は、上記生成されたi番目のウィンドウに対応するArousalおよびValenceの回帰式を、ステップS138により学習データ記憶部23に保存する。そして、ステップS139により、すべてのウィンドウWiについて回帰式の生成処理が終了したか否かを判定し、未選択のウィンドウが残っていればステップS132に戻り、次の未選択のウィンドウを選択してステップS133〜S139による一連の学習データ生成処理を繰り返す。
(1−3)ウィンドウの単位時間幅とシフト量の最適値の決定
特徴量抽出部13および学習データ生成部14は、ウィンドウの単位時間幅とシフト量の最適値を決定するために、ウィンドウの単位時間幅を一定量ずつ可変すると共に、ウィンドウの時系列方向へのシフト量を一定量ずつ可変する。そして、そのすべての組み合わせの中で、回帰式により得られる感情推定値と、感情入力デバイス2により入力された感情情報の正解値との差分が最も小さい組み合わせを選択し、この選択したウィンドウの単位時間幅とシフト量、およびこの組み合わせのときに生成された回帰式を感情推定モード用として設定する。
特徴量抽出部13および学習データ生成部14は、ウィンドウの単位時間幅とシフト量の最適値を決定するために、ウィンドウの単位時間幅を一定量ずつ可変すると共に、ウィンドウの時系列方向へのシフト量を一定量ずつ可変する。そして、そのすべての組み合わせの中で、回帰式により得られる感情推定値と、感情入力デバイス2により入力された感情情報の正解値との差分が最も小さい組み合わせを選択し、この選択したウィンドウの単位時間幅とシフト量、およびこの組み合わせのときに生成された回帰式を感情推定モード用として設定する。
以上の処理を以下に説明する。図5はその処理手順と処理内容を示すフローチャートである。
すなわち、学習データ生成部14は、ステップS141により、ウィンドウWiごとに生成された各回帰式をもとに感情の推定値A^i ,V^iをそれぞれ算出し、算出されたすべてのA^i ,V^iの合計A^,V^を算出する。そして、ステップS142により、感情入力デバイス2により入力された感情情報の真値の合計A,Vと、上記感情の推定値の合計A^,V^との差分を
Σ(A−A^),Σ(V−V^)
により算出し、その算出結果を学習データ記憶部23に保存する。なお、図5では図示の簡単のためΣ(A−A^)のみを代表して示している。
すなわち、学習データ生成部14は、ステップS141により、ウィンドウWiごとに生成された各回帰式をもとに感情の推定値A^i ,V^iをそれぞれ算出し、算出されたすべてのA^i ,V^iの合計A^,V^を算出する。そして、ステップS142により、感情入力デバイス2により入力された感情情報の真値の合計A,Vと、上記感情の推定値の合計A^,V^との差分を
Σ(A−A^),Σ(V−V^)
により算出し、その算出結果を学習データ記憶部23に保存する。なお、図5では図示の簡単のためΣ(A−A^)のみを代表して示している。
学習データ生成部14は、次にステップS143において、ウィンドウの単位時間幅とシフト量の可変を終了したか否か、つまりウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理を終了したか否かを判定する。この判定の結果、まだ終了していなければ、ステップS144によりウィンドウWiの単位時間幅とシフト量を一定量可変し、図4に示すステップS132に戻る。そして、ステップS132〜S143による処理を実行する。以後、ウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理が終了するまで、上記ステップS132〜S144による処理を繰り返す。
そして、ウィンドウの単位時間幅とシフト量のすべての組み合わせについて回帰式の生成処理が終了すると、学習データ生成部14はステップS145に移行し、上記ウィンドウの単位時間幅とシフト量のすべての組み合わせについて計算された、感情情報の真値の合計A,Vと、上記感情の推定値の合計A^,V^との差分をΣ(A−A^),Σ(V−V^)を比較する。そして、Σ(A−A^),Σ(V−V^)がいずれも最小となるウィンドウの単位時間幅とシフト量の組み合わせを選択する。
学習データ生成部14は、続いてステップS146において、上記選択されたウィンドウの単位時間幅とシフト量の組み合わせを特徴量抽出部13に設定すると共に、ステップS147において上記選択した組み合わせに対応する回帰式を学習データ記憶部23に記憶させる。かくして、学習データの生成を終了する。
(2)感情の推定
上記学習データの生成が終了すると、感情推定装置1はこの学習データを用いて、以後被験者の作業中の感情の推定を行う。図6はその処理手順と処理内容を示すフローチャートである。
上記学習データの生成が終了すると、感情推定装置1はこの学習データを用いて、以後被験者の作業中の感情の推定を行う。図6はその処理手順と処理内容を示すフローチャートである。
計測デバイス3は、被験者の作業中に所定の時間間隔又はタイミングにおいて被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exを計測し、その計測データを感情推定装置1へ送信する。
感情推定装置1は、上記計測デバイス3およびイメージセンサから送信される各計測データを、ステップS21により、計測データ取得制御部12の制御の下で、インタフェースユニット30を介して受信して計測データ記憶部22に記憶させる。そして感情推定装置1は、特徴量抽出部13により、上記学習データ生成処理において設定されたウィンドウの単位時間幅で、上記各計測データを計測データ記憶部22から読み込み、この計測データから特徴量を抽出する。このとき抽出される特徴量は、学習モードで抽出されるものと同じであるため、ここでの説明は省略する。
感情推定装置1は、次にステップS22において、感情推定部15の制御の下、上記計測データが得られた時間帯に対応するArousalおよびValence別の回帰式を学習データ記憶部23から読み出す。続いてステップS23において、上記測定データの特徴量と上記回帰式に基づいて、上記測定データが得られた時間帯における被験者の感情の推定値A^i ,V^iを算出する。そして、推定結果出力部16がステップS24において、上記算出されたArousalおよびValence別の感情推定値A^i ,V^iをもとに、被験者のこの時の感情を表す表示データを生成し、当該表示データを例えば管理者の端末へ送信して表示させる。
管理者は、端末に表示された被験者の感情の推定結果に応じて、被験者に対し休憩を指示したり、作業の継続を指示する。
(効果)
以上詳述したように一実施形態では、学習モードにおいて、感情入力デバイス2により入力された被験者の感情を表す情報を教師データとし、それと同一時間帯に計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量を変数として、重回帰分析により、感情の変化を感情の活性度(Arousal)およびその強度(Valence)別に推定するための回帰式を生成する。そして、被験者の感情の変化を推定する際に、計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量の変化と、上記回帰式とを用いて、被験者の感情の変化を推定するようにしている。
以上詳述したように一実施形態では、学習モードにおいて、感情入力デバイス2により入力された被験者の感情を表す情報を教師データとし、それと同一時間帯に計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量を変数として、重回帰分析により、感情の変化を感情の活性度(Arousal)およびその強度(Valence)別に推定するための回帰式を生成する。そして、被験者の感情の変化を推定する際に、計測デバイス3により計測された被験者の心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データの特徴量の変化と、上記回帰式とを用いて、被験者の感情の変化を推定するようにしている。
従って、推定モードにおいては、被験者の生体情報および行動情報の計測データと、学習データとして事前に生成した回帰式とをもとに、その時の被験者の感情変化をリアルタイムに推定することができる。このため、被験者周辺の環境条件などの外的事象を監視することなく被験者の感情変化を推定できるようになり、また被験者の外的事象を監視する手段が不要になることから、比較的簡単な構成で広範囲の用途に適用することができる。
また、感情の変化を、ArousalとValenceとから構成される二次元座標平面の象限と、ArousalおよびValenceの各変化量により表すようにしているので、感情の変化を簡単かつ的確に表すことができる。
さらに、時系列データからなる各計測データをもとに感情変化を推定するために、時系列上にウィンドウを設定し、このウィンドウに対し回帰式を生成するようにしたので、被験者の感情の変化を時間帯ごとに適切に推定することが可能となる。しかも、ウィンドウを設定する際に、ウィンドウの単位時間幅とシフト量をそれぞれ一定量ずつ可変してそのすべての組み合わせについて回帰式を生成し、これらの回帰式により得られる感情の推定値と、感情入力デバイス2により入力された感情の真値との差分が最小となるウィンドウの単位時間幅とシフト量の組み合わせを選択し設定するようにしている。このため、被験者の感情変化を高精度に推定することが可能となる。
[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、人の感情と生体情報および行動情報との関係性は、月日や曜日、季節、環境の変化等により変化する場合がある。そこで、学習データは、定期的又は必要時に更新することが望ましい。例えば、感情推定部15により得られた感情の推定値を感情の正解値と比較してその差を算出し、算出された差が予め設定された正解値の範囲を超える場合には、上記学習データ記憶部23に記憶されている学習データを更新する処理を行う。この場合、上記正解値は感情の推定値の変化の傾向から推定することができる。または、被験者が定期的に感情入力デバイス2により感情の正解値を入力し、この入力された値を使用してもよい。
なお、この発明は上記実施形態に限定されるものではない。例えば、人の感情と生体情報および行動情報との関係性は、月日や曜日、季節、環境の変化等により変化する場合がある。そこで、学習データは、定期的又は必要時に更新することが望ましい。例えば、感情推定部15により得られた感情の推定値を感情の正解値と比較してその差を算出し、算出された差が予め設定された正解値の範囲を超える場合には、上記学習データ記憶部23に記憶されている学習データを更新する処理を行う。この場合、上記正解値は感情の推定値の変化の傾向から推定することができる。または、被験者が定期的に感情入力デバイス2により感情の正解値を入力し、この入力された値を使用してもよい。
また、一実施形態では被験者の感情を表す情報を、スマートフォンまたはタブレット型端末からなる感情入力デバイス2を用いて感情推定装置1に入力する場合を例にとって説明した。しかし、これに限定されるものではなく、例えば被験者がアンケート用紙等の紙媒体に記載した自身の感情情報をスキャナ等を用いて読み取り、その情報を感情推定装置1に入力するようにしてもよい。
さらに、被験者の顔の表情をカメラ等により検出し、この顔表情の検出情報を感情を表す情報として感情推定装置1に入力するようにしてもよい。またさらに、被験者の音声をマイクロフォンにより検出し、その検出情報を感情を表す情報として感情推定装置1に入力するようにしてもよい。また、不特定多数の人の感情を表す情報をアンケート等により収集して、収集した情報の平均等を母集団データとして個人の感情情報を補正するようにしてもよい。その他、人の感情を表す情報を感情推定装置1に入力するための手法については、如何なる手法を用いてもよい。
また一実施形態では、被験者の感情を表す情報を、感情の活性度(Arousal)とその強度(Valence)とにより2次元平面で表した場合を例にとって説明した。しかし、これについても他の表現手法を採用してもよい。
さらに一実施形態では、被験者の活動状態を表す情報として、心電H、皮膚電位G、眼球運動EM、モーションBMおよび活動量Exの各計測データを感情推定装置1に入力し、これらをすべて用いて感情を推定するようにした。しかし、それに限らず、上記各計測データのうちの少なくとも1つの計測データを用いて感情を推定するようにしてもよい。例えば、心電Hは生体情報の中でも感情に対する寄与率が高いので、心電Hの計測データのみを用いて感情を推定することは十分に可能である。なお、ここに例示した生体情報以外の他の生体情報を用いてもよいことは言うまでもない。
さらには、感情推定装置をスマートフォンやウェアラブル端末により構成し、これらの端末に計測デバイスの機能を収容するようにしてもよく、また感情推定装置に感情入力デバイスの機能を備えるようにしてもよい。
その他、被験者の活動状態を表す情報としての生態・行動情報の種類や、感情変化と生体・行動情報の変化との関係性を表すモデルの構成、学習データの生成処理手順とその処理内容、勘定の推定処理とその処理内容、感情推定装置の種類や構成等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られるものではない。
(付記1)
被験者の感情を活性度(Arousal)とその強度(Valence)とにより表される情報として入力することが可能な感情入力デバイスと、前記被験者の状態を表す情報を計測してその計測情報を出力する計測デバイスとの間で、情報伝送が可能な感情推定装置であって、ハードウェアプロセッサと、メモリとを有し、
前記ハードウェアプロセッサは、
前記感情入力デバイスから、入力された感情情報を取得し、
前記計測デバイスから、前記計測情報を取得し、
学習モードにおいて、前記取得された感情情報を第1の感情情報とすると共に、前記取得された計測情報を第1の計測情報とし、当該第1の感情情報と第1の計測情報との関連性を表す学習データを生成して前記メモリに記憶し、
前記学習データが生成された後の感情推定モードにおいて、前記取得された計測情報を第2の計測情報とし、当該第2の計測情報と前記メモリに記憶された学習データとに基づいて、前記第2の計測情報に対応する第2の感情情報を推定するように構成される感情推定装置。
(付記1)
被験者の感情を活性度(Arousal)とその強度(Valence)とにより表される情報として入力することが可能な感情入力デバイスと、前記被験者の状態を表す情報を計測してその計測情報を出力する計測デバイスとの間で、情報伝送が可能な感情推定装置であって、ハードウェアプロセッサと、メモリとを有し、
前記ハードウェアプロセッサは、
前記感情入力デバイスから、入力された感情情報を取得し、
前記計測デバイスから、前記計測情報を取得し、
学習モードにおいて、前記取得された感情情報を第1の感情情報とすると共に、前記取得された計測情報を第1の計測情報とし、当該第1の感情情報と第1の計測情報との関連性を表す学習データを生成して前記メモリに記憶し、
前記学習データが生成された後の感情推定モードにおいて、前記取得された計測情報を第2の計測情報とし、当該第2の計測情報と前記メモリに記憶された学習データとに基づいて、前記第2の計測情報に対応する第2の感情情報を推定するように構成される感情推定装置。
(付記2)
少なくとも1つのハードウェアプロセッサおよびメモリを備える装置が実行する感情推定方法であって、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、被験者の感情を活性度(Arousal)とその強度(Valence)とにより表される情報として入力することが可能な感情入力デバイスから、入力された感情情報を取得する感情情報取得過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、前記被験者の状態を表す情報を計測する計測デバイスから、計測情報を取得する計測情報取得過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、学習モードにおいて、前記取得された感情情報を第1の感情情報とすると共に、前記取得された計測情報を第1の計測情報とし、当該第1の感情情報と第1の計測情報との関連性を表す学習データを生成して、前記メモリに記憶する学習データ生成過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、前記学習データが生成された後の推定モードにおいて、前記取得された計測情報を第2の計測情報とし、当該第2の計測情報と前記メモリに記憶された学習データとに基づいて、前記第2の計測情報に対応する第2の感情情報を推定する感情推定過程と
を具備する感情推定方法。
少なくとも1つのハードウェアプロセッサおよびメモリを備える装置が実行する感情推定方法であって、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、被験者の感情を活性度(Arousal)とその強度(Valence)とにより表される情報として入力することが可能な感情入力デバイスから、入力された感情情報を取得する感情情報取得過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、前記被験者の状態を表す情報を計測する計測デバイスから、計測情報を取得する計測情報取得過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、学習モードにおいて、前記取得された感情情報を第1の感情情報とすると共に、前記取得された計測情報を第1の計測情報とし、当該第1の感情情報と第1の計測情報との関連性を表す学習データを生成して、前記メモリに記憶する学習データ生成過程と、
前記少なくとも1つのハードウェアプロセッサおよびメモリを用いて、前記学習データが生成された後の推定モードにおいて、前記取得された計測情報を第2の計測情報とし、当該第2の計測情報と前記メモリに記憶された学習データとに基づいて、前記第2の計測情報に対応する第2の感情情報を推定する感情推定過程と
を具備する感情推定方法。
1…感情推定装置、2…感情入力デバイス、3…計測デバイス、4…通信ネットワーク、10…制御ユニット、11…スケールデータ取得制御部、12…計測データ取得制御部、13…特徴量抽出部、14…学習データ生成部、15…感情推定部、16…推定結果出力部、20…記憶ユニット、21…スケールデータ記憶部、22…計測データ記憶部、23…学習データ記憶部、30…インタフェースユニット。
Claims (9)
- 被験者の感情を表す情報を取得する第1の取得部と、
前記被験者の活動状態を表す情報を取得する第2の取得部と、
前記第1の取得部により取得された前記被験者の感情を表す情報と、前記第2の取得部により取得された前記被験者の活動状態を表す情報との関連性を表す学習データを生成して、メモリに記憶する学習データ生成部と、
前記学習データが生成された後に、前記第2の取得部により取得された前記被験者の現在の活動状態を表す情報と、前記メモリに記憶された学習データとに基づいて、前記被験者の現在の感情を推定する感情推定部と
を具備する感情推定装置。 - 前記学習データ生成部は、前記第1の取得部により取得された前記被験者の感情を表す情報を正解値とすると共に、前記第2の取得部により同時に取得された前記被験者の活動状態を表す情報を変数として、前記被験者の感情を表す情報と前記活動状態を表す情報との関係性を表す回帰式を生成し、当該生成された回帰式を前記学習データとして前記メモリに記憶する請求項1に記載の感情推定装置。
- 前記第1の取得部は、前記被験者の感情を表す情報として、感情の活性度(Arousal)とその強度(Valence)とにより表した情報を取得し、
前記学習データ生成部は、前記被験者の感情を表す情報と前記活動状態を表す情報との関係性を表す回帰式を、前記感情の活性度(Arousal)および強度(Valence)の各々について生成し、当該生成された各回帰式を前記学習データとして前記メモリに記憶する請求項2に記載の感情推定装置。 - 前記学習データ生成部は、時系列方向に所定の単位時間幅を有するウィンドウを時間位置をシフトしながら複数設定し、当該ウィンドウごとに、ウィンドウ内における前記被験者の感情を表す情報の変化と前記被験者の活動状態を表す情報の変化との関連性を表す学習データを生成する請求項1に記載の感情推定装置。
- 前記学習データ生成部は、
前記ウィンドウの単位時間幅および時系列方向へのシフト量の少なくとも一方を一定量可変するごとに、当該ウィンドウ内における前記被験者の感情を表す情報の変化と前記被験者の活動状態を表す情報の変化との関連性を表す学習データをそれぞれ生成する生成部と、
前記生成された学習データごとに、当該学習データに基づいて得られる推定値としての感情を表す情報の変化と、前記第1の取得部により取得された正解値としての感情を表す情報の変化との差を算出し、当該差が最小となるときの前記ウィンドウの単位時間幅およびシフト量の少なくとも一方を選択する選択部と
を備える請求項4に記載の感情推定装置。 - 前記第2の取得部は、前記被験者の活動状態を表す情報として、心電、皮膚電位、眼球運動、モーションおよび活動量のうちの少なくとも1つを計測して得られた計測情報を取得する請求項1乃至5のいずれかに記載の感情推定装置。
- 前記感情推定部により推定された感情の値を感情の正解値の範囲と比較し、その比較結果に応じて、前記メモリに記憶された学習データを更新する学習データ更新部を、さらに具備する請求項1乃至6のいずれかに記載の感情推定装置。
- プロセッサとメモリを備える感情推定装置が実行する感情推定方法であって、
前記感情推定装置が、被験者の感情を表す情報を取得する過程と、
前記感情推定装置が、前記被験者の活動状態を表す情報を取得する過程と、
前記感情推定装置が、前記取得された前記被験者の感情を表す情報と、前記取得された前記被験者の活動状態を表す情報との関連性を表す学習データを生成して、前記メモリに記憶する過程と、
前記感情推定装置が、前記学習データが生成された後に、前記被験者の現在の活動状態を表す情報を取得し、当該取得された現在の活動状態を表す情報と、前記メモリに記憶された学習データとに基づいて、前記被験者の現在の感情を推定する過程と
を具備する感情推定方法。 - 請求項1乃至請求項7のいずれかに記載の感情推定装置が具備する各部としてプロセッサを機能させる感情推定プログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016252368A JP2018102617A (ja) | 2016-12-27 | 2016-12-27 | 感情推定装置、方法およびプログラム |
PCT/IB2017/055272 WO2018122633A1 (en) | 2016-12-27 | 2017-09-01 | Emotion estimation apparatus, method, and program |
CN201780064807.3A CN109890289A (zh) | 2016-12-27 | 2017-12-27 | 情绪估计设备、方法和程序 |
US16/341,958 US20190239795A1 (en) | 2016-12-27 | 2017-12-27 | Emotion estimation apparatus, method, and program |
PCT/IB2017/058414 WO2018122729A2 (en) | 2016-12-27 | 2017-12-27 | Emotion estimation apparatus, method, and program |
EP17836057.4A EP3562398A2 (en) | 2016-12-27 | 2017-12-27 | Emotion estimation apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016252368A JP2018102617A (ja) | 2016-12-27 | 2016-12-27 | 感情推定装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018102617A true JP2018102617A (ja) | 2018-07-05 |
Family
ID=60001951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016252368A Pending JP2018102617A (ja) | 2016-12-27 | 2016-12-27 | 感情推定装置、方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190239795A1 (ja) |
EP (1) | EP3562398A2 (ja) |
JP (1) | JP2018102617A (ja) |
CN (1) | CN109890289A (ja) |
WO (2) | WO2018122633A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109646023A (zh) * | 2019-01-29 | 2019-04-19 | 深圳鸿鹏新能源科技有限公司 | 调节生产线工人身心的方法和系统 |
KR20200009595A (ko) * | 2018-07-19 | 2020-01-30 | 한국전자통신연구원 | 온바디 센서 기반 감정-섭식 패턴 자동 생성 서버 및 그 방법 |
WO2021182628A1 (ja) | 2020-03-13 | 2021-09-16 | ヤマハ発動機株式会社 | 位置対応感情評価装置及び位置対応感情評価システム |
KR20220122870A (ko) * | 2021-02-26 | 2022-09-05 | 한국광기술원 | 스마트 미러 |
JP7160160B1 (ja) | 2021-08-19 | 2022-10-25 | 凸版印刷株式会社 | 心理状態推定装置、心理状態推定システム、および、心理状態推定プログラム |
WO2024122350A1 (ja) * | 2022-12-05 | 2024-06-13 | ソニーグループ株式会社 | 信号処理装置および方法 |
WO2024219300A1 (ja) * | 2023-04-19 | 2024-10-24 | パナソニックIpマネジメント株式会社 | エンゲージメント推定方法、プログラム及びエンゲージメント推定システム |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11052252B1 (en) | 2017-06-07 | 2021-07-06 | Hrl Laboratories, Llc | Transcranial intervention to weaken an undesirable memory |
US10877444B1 (en) * | 2017-06-07 | 2020-12-29 | Hrl Laboratories, Llc | System and method for biofeedback including relevance assessment |
CN116541498A (zh) * | 2018-01-04 | 2023-08-04 | 微软技术许可有限责任公司 | 在会话中提供情感关怀 |
WO2019220428A1 (en) * | 2018-05-16 | 2019-11-21 | Moodify Ltd. | Emotional state monitoring and modification system |
US20200275875A1 (en) * | 2019-02-28 | 2020-09-03 | Social Health Innovations, Inc. | Method for deriving and storing emotional conditions of humans |
US11385884B2 (en) * | 2019-04-29 | 2022-07-12 | Harman International Industries, Incorporated | Assessing cognitive reaction to over-the-air updates |
KR102685114B1 (ko) * | 2019-06-26 | 2024-07-12 | 현대자동차주식회사 | 오류 모니터링을 이용한 모빌리티 제어 방법 및 장치 |
CN110327061B (zh) * | 2019-08-12 | 2022-03-08 | 北京七鑫易维信息技术有限公司 | 一种基于眼动追踪技术的性格确定装置、方法及设备 |
FR3100972B1 (fr) | 2019-09-20 | 2021-09-10 | Ovomind K K | Système de détermination d’une émotion d’un utilisateur |
KR20210047477A (ko) * | 2019-10-22 | 2021-04-30 | 현대자동차주식회사 | 오류 모니터링을 이용한 운전자 숙련용 주행 모델 생성 장치 및 방법 |
CN111214249B (zh) * | 2020-01-14 | 2023-03-24 | 中山大学 | 基于便携式设备获取情绪信息的环境参数阈值探测方法及应用 |
US11702103B2 (en) * | 2020-04-02 | 2023-07-18 | Harman International Industries, Incorporated | Affective-cognitive load based digital assistant |
FR3114232A1 (fr) | 2020-09-23 | 2022-03-25 | Ovomind K.K | Equipement électrodermal |
CN113081656B (zh) * | 2021-03-31 | 2023-04-07 | 中国科学院心理研究所 | 智能按摩椅及其控制方法 |
CN113143274B (zh) * | 2021-03-31 | 2023-11-10 | 中国科学院心理研究所 | 基于摄像头的情绪预警方法 |
CN113119860B (zh) * | 2021-05-18 | 2022-08-19 | 刘宇晟 | 一种基于云计算的司机智能辅助驾驶系统 |
US20240050003A1 (en) * | 2021-09-09 | 2024-02-15 | GenoEmote LLC | Method and system for validating the response of a user using chatbot |
JP2023106888A (ja) * | 2022-01-21 | 2023-08-02 | オムロン株式会社 | 情報処理装置および情報処理方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4603264B2 (ja) * | 2002-02-19 | 2010-12-22 | ボルボ テクノロジー コーポレイション | 運転者注意負荷の監視と管理とを行なうシステムおよび方法 |
CZ2004770A3 (cs) * | 2004-06-29 | 2006-02-15 | Pavelka@Miloslav | Zpusob detekce únavy operátora ze svalové cinnosti a zarízení k provádení tohoto zpusobu |
JP2006201866A (ja) * | 2005-01-18 | 2006-08-03 | Ricoh Co Ltd | 作業指示システム |
JP4748084B2 (ja) | 2007-03-06 | 2011-08-17 | トヨタ自動車株式会社 | 心理状態推定装置 |
US20090066521A1 (en) * | 2007-09-12 | 2009-03-12 | Dan Atlas | Method and system for detecting the physiological onset of operator fatigue |
US8781796B2 (en) * | 2007-10-25 | 2014-07-15 | Trustees Of The Univ. Of Pennsylvania | Systems and methods for individualized alertness predictions |
US9665563B2 (en) * | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
KR101830767B1 (ko) * | 2011-07-14 | 2018-02-22 | 삼성전자주식회사 | 사용자의 감정 인식 장치 및 방법 |
CN202619669U (zh) * | 2012-04-27 | 2012-12-26 | 浙江吉利汽车研究院有限公司杭州分公司 | 驾驶员情绪监控装置 |
CN102874259B (zh) * | 2012-06-15 | 2015-12-09 | 浙江吉利汽车研究院有限公司杭州分公司 | 一种汽车驾驶员情绪监视及车辆控制系统 |
KR20140080727A (ko) * | 2012-12-14 | 2014-07-01 | 한국전자통신연구원 | 운전자 감성제어 장치 및 그 방법 |
US9521976B2 (en) * | 2013-01-24 | 2016-12-20 | Devon Greco | Method and apparatus for encouraging physiological change through physiological control of wearable auditory and visual interruption device |
US9196248B2 (en) * | 2013-02-13 | 2015-11-24 | Bayerische Motoren Werke Aktiengesellschaft | Voice-interfaced in-vehicle assistance |
US20140240132A1 (en) * | 2013-02-28 | 2014-08-28 | Exmovere Wireless LLC | Method and apparatus for determining vehicle operator performance |
JP6556436B2 (ja) * | 2014-09-22 | 2019-08-07 | 株式会社日立システムズ | 作業管理装置、感情解析端末、作業管理プログラムおよび作業管理方法 |
JP6388824B2 (ja) * | 2014-12-03 | 2018-09-12 | 日本電信電話株式会社 | 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム |
JP5987922B2 (ja) * | 2015-01-08 | 2016-09-07 | マツダ株式会社 | ドライバ感情に基づく運転支援装置 |
-
2016
- 2016-12-27 JP JP2016252368A patent/JP2018102617A/ja active Pending
-
2017
- 2017-09-01 WO PCT/IB2017/055272 patent/WO2018122633A1/en active Application Filing
- 2017-12-27 WO PCT/IB2017/058414 patent/WO2018122729A2/en unknown
- 2017-12-27 CN CN201780064807.3A patent/CN109890289A/zh active Pending
- 2017-12-27 US US16/341,958 patent/US20190239795A1/en not_active Abandoned
- 2017-12-27 EP EP17836057.4A patent/EP3562398A2/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200009595A (ko) * | 2018-07-19 | 2020-01-30 | 한국전자통신연구원 | 온바디 센서 기반 감정-섭식 패턴 자동 생성 서버 및 그 방법 |
KR102588194B1 (ko) * | 2018-07-19 | 2023-10-13 | 한국전자통신연구원 | 온바디 센서 기반 감정-섭식 패턴 자동 생성 서버 및 그 방법 |
CN109646023A (zh) * | 2019-01-29 | 2019-04-19 | 深圳鸿鹏新能源科技有限公司 | 调节生产线工人身心的方法和系统 |
WO2021182628A1 (ja) | 2020-03-13 | 2021-09-16 | ヤマハ発動機株式会社 | 位置対応感情評価装置及び位置対応感情評価システム |
KR20220122870A (ko) * | 2021-02-26 | 2022-09-05 | 한국광기술원 | 스마트 미러 |
KR102513289B1 (ko) * | 2021-02-26 | 2023-03-24 | 한국광기술원 | 스마트 미러 |
JP7160160B1 (ja) | 2021-08-19 | 2022-10-25 | 凸版印刷株式会社 | 心理状態推定装置、心理状態推定システム、および、心理状態推定プログラム |
JP2023028552A (ja) * | 2021-08-19 | 2023-03-03 | 凸版印刷株式会社 | 心理状態推定装置、心理状態推定システム、および、心理状態推定プログラム |
WO2024122350A1 (ja) * | 2022-12-05 | 2024-06-13 | ソニーグループ株式会社 | 信号処理装置および方法 |
WO2024219300A1 (ja) * | 2023-04-19 | 2024-10-24 | パナソニックIpマネジメント株式会社 | エンゲージメント推定方法、プログラム及びエンゲージメント推定システム |
Also Published As
Publication number | Publication date |
---|---|
WO2018122729A2 (en) | 2018-07-05 |
WO2018122633A1 (en) | 2018-07-05 |
US20190239795A1 (en) | 2019-08-08 |
EP3562398A2 (en) | 2019-11-06 |
WO2018122729A3 (en) | 2018-08-23 |
CN109890289A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018102617A (ja) | 感情推定装置、方法およびプログラム | |
Gravina et al. | Emotion-relevant activity recognition based on smart cushion using multi-sensor fusion | |
EP2698112B1 (en) | Real-time stress determination of an individual | |
JP2018142259A (ja) | 作業管理装置、方法およびプログラム | |
JP2018142258A (ja) | 生産管理装置、方法およびプログラム | |
EP3229202A1 (en) | Information processing device, information processing method, and program | |
CN110659677A (zh) | 一种基于可移动传感器组合设备的人体跌倒检测方法 | |
US20200060546A1 (en) | A System and Method for Monitoring Human Performance | |
CN106030246A (zh) | 用于对对象的周期性运动的循环数目进行计数的设备、方法和系统 | |
CN118248176A (zh) | 一种基于助听器的老人情绪识别方法及系统 | |
Mesanza et al. | Machine learning based fall detector with a sensorized tip | |
KR101747866B1 (ko) | 가속도 센서를 이용한 파킨슨병 지표 평가 장치 및 방법 | |
JP2019072371A (ja) | システム及び意思疎通を図るために行うアクションの評価方法 | |
Poli et al. | ADLs Monitoring by accelerometer-based wearable sensors: effect of measurement device and data uncertainty on classification accuracy | |
WO2023108173A1 (en) | System and method for clinical disorder assessment | |
CN110090029A (zh) | 情绪测量系统、智能手环和便携终端 | |
Cai et al. | IoT-based gait monitoring system for static and dynamic classification of data | |
Nalepa et al. | AfCAI systems: A ective Computing with Context Awareness for Ambient Intelligence. Research proposal. | |
JP2023552023A (ja) | 睡眠者タイプに基づくユーザ分類により睡眠データの測定を改善する方法およびシステム | |
JP2018190176A (ja) | 画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法 | |
EP4356834A1 (en) | Sleep/waking determination system, sleep/waking determination method, and program | |
CN111820869A (zh) | 一种认知评估方法及装置 | |
US20230210503A1 (en) | Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort | |
CN112515688A (zh) | 专注力自动侦测方法和系统 | |
JP5921973B2 (ja) | シンクロ行動の検出方法、検出装置及び検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190312 |