[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2022195661A1 - 感情推定装置および感情推定方法 - Google Patents

感情推定装置および感情推定方法 Download PDF

Info

Publication number
WO2022195661A1
WO2022195661A1 PCT/JP2021/010340 JP2021010340W WO2022195661A1 WO 2022195661 A1 WO2022195661 A1 WO 2022195661A1 JP 2021010340 W JP2021010340 W JP 2021010340W WO 2022195661 A1 WO2022195661 A1 WO 2022195661A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
emotion
subjects
acquisition unit
biometric information
Prior art date
Application number
PCT/JP2021/010340
Other languages
English (en)
French (fr)
Inventor
政郎 弓削
幸大 栗原
幸治 太田
典子 長田
匡史 杉本
帆 張
Original Assignee
三菱電機株式会社
学校法人関西学院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社, 学校法人関西学院 filed Critical 三菱電機株式会社
Priority to US18/278,003 priority Critical patent/US12097031B2/en
Priority to PCT/JP2021/010340 priority patent/WO2022195661A1/ja
Priority to CN202180095436.1A priority patent/CN116963667B/zh
Priority to JP2021550162A priority patent/JP6976498B1/ja
Publication of WO2022195661A1 publication Critical patent/WO2022195661A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/332Portable devices specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesizing signals from measured signals

Definitions

  • the present disclosure relates to an emotion estimation device and an emotion estimation method for estimating a person's comfort.
  • Patent Document 1 discloses an emotion determination device that estimates brain activity of a subject based on acquired facial skin temperature data or facial blood circulation data, and determines the subject's emotion based on the estimated brain activity. is described.
  • the emotion determination device has an emotion memory unit that associates and stores brain activity estimation results and emotion data representing human emotions.
  • the emotion determination device determines the subject's emotion by extracting emotion data associated with brain activity estimated based on facial skin temperature data or facial blood circulation data in the emotion storage unit. It should be noted that the estimation results of brain activity stored in the emotion memory unit are associated with emotion data. It is based on brain activity data collected when given for a period of time.
  • the emotion determination device collects brain activity amount data after putting a person in one of the states of "emotions, anger, romance, and pleasure" by some method, and associates the emotion data with brain activity estimation results. Is going.
  • a database is constructed that associates emotional information that indicates emotions after the change with biometric information such as the results of brain activity estimation after the change in emotions. is doing.
  • the database used for estimating emotions is obtained from experiments in which specific stimuli are given to people or experiments in which specific environmental factors are varied, differences between the experimental environment and the daily environment, or individual differences There is a possibility that emotions cannot be estimated with high accuracy due to influences such as the above.
  • the present disclosure has been made to solve the above problems, and aims to provide an emotion estimation device and an emotion estimation method that can improve the estimation accuracy of estimating a subject's emotion.
  • An emotion estimating device is an emotion estimating device that estimates emotions of a plurality of subjects present in an estimation space, and includes: a preliminary biological information acquisition unit that acquires and analyzes first biological information indicating a state; a preliminary emotion information acquisition unit that acquires emotion information indicative of the emotions of each of the plurality of subjects present in the preparation space; a relationship building unit that builds related information in which the first biometric information and the emotional information corresponding to the first biometric information are associated with each other; and one of the plurality of subjects, an estimated biometric information acquisition unit for acquiring and analyzing second biometric information indicating the state of the body of any of the subjects present in the estimated space; and the first biometric information equal to the second biometric information. and an estimating unit that extracts the emotion information associated in the related information and estimates the emotion of any of the subjects present in the estimation space based on the extracted emotion information.
  • An emotion estimation method is an emotion estimation method executed by an emotion estimation device for estimating emotions of a plurality of subjects present in an estimation space, wherein the plurality of subjects present in a preparation space a preparation biometric information acquisition step of acquiring and analyzing first biometric information indicating the state of the body of each of the subjects; an emotion information acquisition step; an association construction step of constructing related information in which the first biometric information and the emotion information corresponding to the first biometric information are associated with each other; and any one of the plurality of subjects.
  • an estimation step of extracting the emotion information associated with the first biometric information in the related information, and estimating the emotion of any of the subjects present in the estimation space based on the extracted emotion information includes.
  • FIG. 1 is a diagram illustrating functional blocks of an emotion estimation device according to Embodiment 1;
  • FIG. 1 is a schematic diagram illustrating a hardware configuration of an emotion estimation device according to Embodiment 1;
  • FIG. 4 is a flowchart illustrating emotion estimation processing by the emotion estimation device according to Embodiment 1;
  • 10 is a flowchart illustrating emotion estimation processing according to Embodiment 2;
  • 14 is a flowchart illustrating emotion estimation processing according to Embodiment 3;
  • Emotion estimation apparatus 100 is an apparatus for estimating the emotion of a subject in a specific room such as a room in an office building, or in a space such as an interior, based on biometric information of the subject, which will be described later. be. Below, the space such as the specific room or indoor space may be referred to as an estimated space.
  • FIG. 1 is a diagram illustrating functional blocks of an emotion estimation device according to Embodiment 1.
  • the emotion estimation device 100 includes a storage unit 1 , a preliminary biometric information acquisition unit 2 , a preliminary emotion information acquisition unit 3 , a relation building unit 4 , an estimated biometric information acquisition unit 5 , an estimation unit 6 and an output unit 7 .
  • the storage unit 1 stores related information for the emotion estimation device 100 to estimate the subject's emotion.
  • Emotion estimation apparatus 100 refers to the related information when estimating the subject's emotion.
  • the preparation biological information acquisition unit 2 includes one or more sensors. Below, the sensor concerned may be described as a sensor for preparation.
  • the preparation biometric information acquisition unit 2 acquires first biometric information as a sample from each of a plurality of subjects present in the preparation space using one or more preparation sensors.
  • a preparation space is a space, such as a test room, for acquiring first biological information from a plurality of subjects.
  • the preparation space may be the same space as the estimated space described above, a space whose purpose of being in the room is the same as that of the estimated space, or a space similar to the estimated space.
  • the space similar to the estimated space may be a space in which the temperature difference from the estimated space is equal to or less than a predetermined temperature difference threshold, or a space in which the humidity difference from the estimated space is equal to or less than a predetermined temperature difference threshold.
  • the space may be equal to or less than the humidity difference threshold.
  • the similar space may be a space in which the illuminance difference from the estimated space is equal to or less than a predetermined illuminance difference threshold, or the area difference from the estimated space is the predetermined area difference. It may be a space that is below a threshold. Note that the similar spaces described above are examples, and the estimated spaces and similar spaces are not limited to those described above.
  • the preparation space described above is an example, and the preparation space is not limited to the one described above.
  • the emotion estimation device 100 can The first biometric information can be acquired without imposing a particular burden on the person.
  • the preparation space is not the same space as the estimated space, the purpose of being in the room is not the same as the purpose of being in the estimated space, or the space is not similar to the estimated space, the first biological information obtained by the emotion estimation device 100 can be easier to obtain.
  • the first biological information is information that serves as an index of the state of the human body.
  • the first biometric information is indicated by a numerical value, and has various values depending on the state of the human body.
  • the first biological information includes, for example, body surface temperature, heartbeat, pulse wave, electrical skin response, temporal change in body surface temperature, difference in surface temperature of each of a plurality of parts of the body, and frequency analysis of heartbeat. It is information indicating at least one of index values obtained by
  • the preparatory biological information acquiring unit 2 receives, for example, first biological information indicating at least one of body surface temperature, heart rate, pulse wave, and electrodermal response from the one or more preparatory sensors. Get by.
  • the preliminary biometric information acquisition unit 2 may acquire the first biometric information from one part of the human body by any one type of detection method.
  • the prepared biological information acquisition unit 2 obtains one type of first biological information or each of two or more types of first biological information from one part of the human body by each of two or more arbitrary types of detection methods. may be obtained.
  • the prepared biological information acquisition unit 2 obtains one type of first biological information or each of two or more types of first biological information from a plurality of parts of the human body by each of two or more arbitrary types of detection methods. may be obtained.
  • the preliminary biological information acquisition unit 2 in Embodiment 1 analyzes the first biological information acquired by the one or more preliminary sensors. Specifically, the preliminary biological information acquisition unit 2 uses the first biological information acquired by the one or more preliminary sensors to determine the amount of change in body surface temperature over time, the surface temperature of each of a plurality of parts of the body, First biometric information indicating at least one of a temperature difference, an index value obtained by heartbeat frequency analysis, and the like is generated. For example, when the first biological information obtained by one or more preparation sensors is the body surface temperature, the preliminary biological information obtaining unit 2 may calculate the difference in the surface temperatures of a plurality of parts of the body. good. Alternatively, when the first biometric information acquired by one or more preparatory sensors is data related to heartbeat, such as electrocardiographic data, the preparatory biological information acquisition unit 2 performs frequency analysis to determine the state of heartbeat. You may acquire the index value which shows.
  • the prepared emotion information acquisition unit 3 acquires, from each of the plurality of subjects present in the preparation space, emotion information indicating the emotions of each of the plurality of subjects.
  • the emotion information is information indicating the emotion such as the degree of comfort, the degree of exhilaration, or the degree of sedation by numerical values.
  • Prepared emotion information acquisition unit 3 includes an input device such as a keyboard, touch panel, button, or mouse for each of a plurality of subjects to input emotion information to emotion estimation device 100 .
  • the preparation emotion information acquisition unit 3 in Embodiment 1 acquires emotion information from each of a plurality of subjects present in the preparation space based on the experience extraction method.
  • the prepared emotion information acquisition unit 3 obtains, from each of the plurality of subjects present in the preparation space, the plurality of subjects at each of the plurality of points of time within a predetermined period. acquire emotion information indicating the emotion of each of the
  • the prepared emotion information acquisition unit 3 acquires emotion information at each of a plurality of points in time during the period of, for example, two days or longer, based on the experience extraction method.
  • the prepared emotion information acquisition unit 3 acquires emotion information at one or more predetermined times or random times on each day within the period. It is desirable that the prepared emotion information acquisition unit 3 acquires emotion information over a period of five days or more. The reason for this is that events that occur on weekdays or on days of the week are often different, and the prepared emotion information acquisition unit 3 evenly acquires emotion information that indicates the state of mind and body caused by the event. be.
  • the emotional information obtained at each of the multiple time points has the recall bias of each subject reduced.
  • the emotion information acquired at each point in time accurately indicates the emotion of each subject affected by the event that occurred at each point in time.
  • the collection of emotional information acquired at each of multiple time points by the experience extraction method is not biased information that indicates only specific emotions caused by specific events in daily life, but is caused by a wide variety of events. It also shows the wide variety of emotions of each subject.
  • the relationship construction unit 4 constructs related information that associates the first biological information analyzed by the preliminary biological information acquisition unit 2 with the emotion information corresponding to the first biological information.
  • the emotional information corresponding to the first biometric information is the prepared emotional information at the same point in time when the preliminary biometric information acquisition unit 2 acquires the first biometric information from each subject by one or more preparation sensors. It is information indicating an emotion, such as the degree of comfort, the degree of exhilaration, or the degree of sedation, obtained using the emotion information acquired from each subject by the acquisition unit 3 .
  • the term "the same time as a certain time point” refers to a time point within a predetermined period of time before or after the certain time point.
  • the predetermined period of time refers to a period of time, obtained in advance through experiments or the like, during which a person's emotional state and physical state do not change.
  • the emotion information corresponding to the first biometric information may be the emotion information acquired at the same time as the first biometric information, may be obtained by regression analysis, or may be the value of the emotion information for each of the first biometric information. may be obtained by averaging
  • the first biological information is the amount of change in body surface temperature over time.
  • the first biometric information indicating 0.5 [°C] is obtained from a plurality of subjects, at the same point in time when the 0.5 [°C] is obtained, it is obtained from the plurality of subjects
  • the value of the emotional information obtained or the average value of the values of the emotional information is an example of "the emotional information corresponding to the first biometric information indicating the 0.5[°C]."
  • the relationship between the value of the first biometric information and the value of the emotion information is represented by a mathematical formula by regression analysis using each value of the first biometric information and the value of the emotion information obtained from a plurality of subjects, the 0
  • the value of emotional information obtained when 0.5[°C] is substituted into the formula is an example of "emotional information corresponding to the first biometric information indicating 0.5[°C]".
  • the emotion information corresponding to the first biometric information is generally the emotion of the plurality of subjects at the same point in time when the first biometric information was obtained for the first biometric information indicating the physical state of the plurality of subjects. It becomes the one that has become.
  • emotional information with a numerical value indicating a high comfort level is obtained from a plurality of subjects at all times when the first biological information indicating the above 0.5 [° C.] is obtained from the plurality of subjects
  • "emotional information corresponding to the first biological information indicating the 0.5 [°C]” is a numerical value indicating a high degree of comfort.
  • the high degree of comfort is considered to generally indicate the emotions of a plurality of subjects at the time when the first biometric information indicating 0.5[°C] was acquired.
  • the related information may be, for example, a mathematical formula based on the above-described regression analysis that associates the first biometric information with the emotion information corresponding to the first biometric information.
  • the related information may be information indicating the value of the first biometric information and the value of the emotion information corresponding to the first biometric information, for example, in tabular form. Note that the related information is not limited to the above-mentioned information as long as it is information that associates the first biometric information with the emotion information corresponding to the first biometric information.
  • the estimated biological information acquisition unit 5 includes one or more sensors. Below, the sensor may be described as an estimation sensor. The one or more inferring sensors may be the same as the one or more preparatory sensors described above.
  • the estimated biometric information acquisition unit 5 acquires second biometric information from one of the above-described plurality of subjects existing in the estimation space by using the one or more estimation sensors. It should be noted that, as described above, the estimation space refers to a space for emotion estimation device 100 to estimate the emotion of each of the plurality of subjects. The estimated space may be the same space as the preparation space, or may be a different space.
  • the second biological information is information that serves as an index of the state of the human body. The second biometric information is indicated by a numerical value, and has various values depending on the state of the human body.
  • the second biological information includes, for example, body surface temperature, heartbeat, pulse wave, electrical skin response, temporal change in body surface temperature, difference in surface temperature of each of a plurality of parts of the body, and frequency analysis of heartbeat. It is information indicating at least one of index values obtained by The estimated biological information acquisition unit 5 according to the first embodiment, for example, obtains second biological information indicating at least one of body surface temperature, heart rate, pulse wave, and electrodermal response from the one or more estimation sensors. Get by.
  • the estimated biometric information acquisition unit 5 may acquire biometric information from one part of the human body by any one type of detection method. Alternatively, the estimated biometric information acquisition unit 5 may acquire one type of biometric information or each of two or more types of biometric information from one part of the human body by any two or more types of detection methods. good. Alternatively, the estimated biological information acquisition unit 5 may acquire one type of biological information or each of two or more types of biological information from a plurality of parts of the human body by each of two or more arbitrary types of detection methods. good.
  • the estimated biological information acquisition unit 5 in Embodiment 1 analyzes the second biological information acquired by the one or more estimation sensors. Specifically, the estimated biological information acquisition unit 5 uses the second biological information acquired by the one or more estimation sensors to determine the amount of change in body surface temperature over time, the surface temperature of each of a plurality of parts of the body, Second biometric information indicating at least one of a temperature difference, an index value obtained by heartbeat frequency analysis, and the like is generated.
  • the second biometric information generated by the estimated biometric information acquisition unit 5 is the same type of information as the first biometric information included in the related information. For example, when the first biological information included in the related information is the amount of temporal change in body surface temperature, the second biological information generated by the estimated biological information acquisition unit 5 is the temporal change in body surface temperature. amount.
  • the estimation unit 6 uses the related information to extract emotion information associated with the first biometric information that is the same as the second biometric information analyzed by the estimated biometric information acquisition unit 5 .
  • the related information is information indicating the value of the first biometric information and the value of the emotion information corresponding to the first biometric information in, for example, a tabular format
  • the second biometric information is equal to the second biometric information.
  • the first biometric information indicates the smallest difference from the second biometric information.
  • the estimation unit 6 estimates the emotion indicated by the extracted emotion information as the emotion of the subject from whom the second biometric information is obtained.
  • the output unit 7 communicates with external equipment.
  • external devices include terminals such as personal computers, workstations, tablet terminals, and smart phones.
  • Other examples of such external devices include display devices such as liquid crystal displays, CRTs (Cathode Ray Tubes), and organic EL (Electro Luminescence) displays.
  • the external equipment includes, for example, an environment adjustment device such as an air conditioner or an air cleaner that adjusts the environment of the estimated space.
  • the external device includes an audio output device including a speaker.
  • the estimation unit 6 controls the output unit 7 to transmit the extracted emotional information to the terminal.
  • the estimation unit 6 controls the output unit 7 to transmit the emotional information and the display instruction information instructing display of the emotional information to the display device.
  • the estimation unit 6 transmits the emotion information to the environment adjustment device together with an instruction to cause the environment adjustment device to perform an operation according to the emotion information.
  • the output unit 7 is controlled so as to Note that the operation of the environment adjusting device according to emotion information refers to an operation that improves the emotional state of the subject in the estimated space.
  • the estimation unit 6 controls the output unit 7 to transmit the emotional information and an instruction to output the emotional information by voice to the voice output device. .
  • FIG. 2 is a schematic diagram illustrating the hardware configuration of the emotion estimation device according to Embodiment 1.
  • the emotion estimation device 100 includes, for example, a processor 11, a memory 12, a storage device 13, a first input interface circuit 14, a sensor 15, a second input interface circuit 16, an input device 17, and an output interface circuit 18. and so on.
  • Processor 11 , memory 12 , storage device 13 , first input interface circuit 14 , second input interface circuit 16 and output interface circuit 18 are connected by bus 19 .
  • the processor 11 includes, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit).
  • Examples of the memory 12 include ROM (Read Only Memory) and RAM (Random Access Memory).
  • Examples of the storage device 13 include HDD (Hard Disk Drive) and SSD (Solid State Drive).
  • Examples of the sensor 15 include infrared sensors and wearable sensors.
  • the input device 17 may be, for example, a keyboard or a touch panel.
  • the first input interface circuit 14 is an input interface circuit that mediates between the processor 11 and the sensor 15 .
  • the second input interface circuit 16 is an input interface circuit that mediates between the processor 11 and the input device 17 .
  • the function of the storage unit 1 can be realized by the storage device 13.
  • Each function of the relation construction unit 4 and the estimation unit 6 is that the processor 11 reads and executes various programs such as an emotion estimation program for estimating emotions stored in the memory 12 or the storage device 13. It can be realized by
  • the first biometric information acquisition function by the preliminary biometric information acquisition unit 2 and the second biometric information acquisition function by the estimated biometric information acquisition unit 5 can be realized by the first input interface circuit 14 and the sensor 15 .
  • the analysis function of the first biometric information by the preliminary biometric information acquisition unit 2 and the analysis function of the second biometric information by the estimated biometric information acquisition unit 5 are performed by various programs such as the emotion estimation program stored in the memory 12 or the storage device 13.
  • the program can be realized by the processor 11 reading and executing it.
  • the function of the prepared emotion information acquisition unit 3 acquiring emotion information at each of a plurality of points in time can be realized by the processor 11 , the second input interface circuit 16 and the input device 17 . It should be noted that until the relationship construction unit 4 generates related information from the emotion information acquired by the prepared emotion information acquisition unit 3 from each of the plurality of subjects at each of a plurality of time points, the relationship construction unit 4 or the prepared emotion Functions held by the information acquisition unit 3 can be realized by the memory 12 or the storage device 13 .
  • the first biological information acquired and analyzed by the prepared biological information acquiring unit 2 from each of the plurality of subjects at each of the plurality of time points until the relationship building unit 4 generates related information, the relationship building unit 4 or functions held by the preliminary biometric information acquisition unit 2 can be realized by the memory 12 or the storage device 13 .
  • the function of the output unit 7 can be realized by the output interface circuit 18.
  • the output interface circuit 18 is a communication interface circuit when the external device is a terminal.
  • the output interface circuit 18 is an output interface that mediates between the device and the processor 11. circuit.
  • the emotion estimation device 100 may include multiple first input interface circuits 14 and multiple sensors 15, respectively. With this, emotion estimation apparatus 100 simultaneously obtains the first biometric information and the second Each biometric information can be acquired. Emotion estimation device 100 may include a plurality of second input interface circuits 16 and input devices 17, respectively. Thereby, emotion estimation apparatus 100 can simultaneously acquire emotion information from each of the plurality of subjects when each of the plurality of subjects is in a separate position in the preparation space. All or part of the functions of emotion estimation device 100 may be realized by dedicated hardware.
  • step S1 the prepared emotion information acquisition unit 3 determines whether or not the current time is the timing to acquire emotion information. Below, the said timing is described as the acquisition timing. If the current time is not the acquisition timing (step S1: NO), the prepared emotion information acquiring section 3 returns the emotion estimation process to step S1.
  • the prepared emotion information acquisition unit 3 acquires emotion information from each of the plurality of subjects in step S2.
  • the preliminary biometric information acquiring unit 2 analyzes the first biometric information acquired from each subject at the same point in time as the emotion information is acquired.
  • the preparatory biometric information acquiring unit 2 may acquire the first biometric information from each subject at the same time as the emotion information is acquired, or acquire the first biometric information continuously from each subject. It's okay. If the first biometric information is continuously acquired from each subject, the preliminary biometric information acquiring unit 2 may analyze the continuously acquired first biometric information.
  • step S4 the prepared emotion information acquisition unit 3 determines whether or not the period has ended. If the period has not ended (step S4: NO), the prepared emotion information acquiring section 3 returns the emotion estimation process to step S1.
  • step S5 the relationship building unit 4 uses the emotional information and the first biological information acquired over the period to generate the first biological information, Related information is constructed by associating emotional information corresponding to the first biometric information.
  • step S ⁇ b>6 the relationship construction unit 4 stores the constructed related information in the storage unit 1 .
  • step S7 the estimated biometric information acquisition unit 5 acquires the second biometric information of any one of the plurality of subjects.
  • the estimated biometric information acquiring unit 5 analyzes the acquired second biometric information.
  • the estimation unit 6 refers to the related information and extracts emotion information associated with the first biometric information that is the same as the analyzed second biometric information.
  • the estimation unit 6 estimates the emotion indicated by the extracted emotion information as the subject's emotion.
  • step S10 the estimation unit 6 instructs the output unit 7 to output the extracted emotion information to an external device.
  • the output unit 7 outputs the emotion information to an external device according to the instruction from the estimation unit 6 .
  • the emotion estimation process ends.
  • emotion estimation apparatus 100 executes the process from step S7.
  • Emotion estimation apparatus 100 includes preliminary biometric information acquisition unit 2 , preliminary emotion information acquisition unit 3 , association building unit 4 , estimated biometric information acquisition unit 5 and estimation unit 6 .
  • the preparation biometric information acquisition unit 2 acquires and analyzes first biometric information indicating the physical condition of each of a plurality of subjects present in the preparation space.
  • the prepared emotion information acquisition unit 3 acquires emotion information indicating the emotions of each of a plurality of subjects present in the prepared space.
  • the relationship building unit 4 builds related information in which the first biometric information and the emotion information corresponding to the first biometric information are associated with each other.
  • the estimated biometric information acquisition unit 5 acquires and analyzes second biometric information indicating the physical state of one of the plurality of subjects present in the estimated space.
  • the estimating unit 6 extracts emotion information associated with the first biological information equal to the second biological information in the related information constructed by the relation building unit 4 . Then, the estimating unit 6 estimates the emotion of any of the subjects present in the estimation space based on the extracted emotion information. This improves the accuracy of emotion estimation.
  • the relation building unit 4 in the first embodiment includes the emotion information acquired from each of the plurality of subjects by the prepared emotion information acquiring unit 3, and the prepared biological information acquiring unit 2 at the same point in time when the emotion information is acquired.
  • the related information is constructed using the first biometric information obtained from each of the plurality of subjects.
  • the time point at which the emotion information is acquired and the same time point refer to a time point within a predetermined time before or after the time point at which the prepared emotion information acquisition unit 3 acquires the emotion information from each of the plurality of subjects as a starting point. .
  • the emotion information and the first biometric information acquired immediately before the acquisition of the emotion information are reflected in the related information, improving the accuracy of the related information. Therefore, the emotion estimation accuracy using the related information by the emotion estimation device 100 is improved.
  • the prepared emotion information acquisition unit 3 obtains a plurality of emotions at each of a plurality of time points within a predetermined period from each of a plurality of subjects present in the preparation space. Emotion information indicating each emotion of the subject is acquired.
  • the relationship building unit 4 obtains the first biological information obtained from each of the plurality of subjects by the prepared biological information obtaining unit 2 at each of the plurality of time points, and the prepared emotion information obtaining unit 3 at each of the plurality of time points.
  • Related information is constructed using the emotion information acquired from each of the plurality of subjects. This reduces the recall bias of the emotion information acquired by the prepared emotion information acquisition unit 3 .
  • the correlation between the first biometric information and the emotion information corresponding to the first biometric information in the related information does not depend on specific events such as climate change, physical condition change, or emotional change. Therefore, the related information is less affected by the event and is more accurate. Therefore, the estimation accuracy of emotion by the estimation unit 6 is improved.
  • the above period in Embodiment 1 is a period of 5 days or more.
  • the prepared emotion information acquisition unit 3 acquires emotion information from each of a plurality of subjects at one or more predetermined times or at one or more random times on each day.
  • the related information does not depend on the weather, physical condition, mood, or the like for each day of the five weekdays, each day of the week, or each season. Therefore, the related information is less affected by various events, and the accuracy is improved. Therefore, the estimation accuracy of emotion by the estimation unit 6 is improved.
  • the emotion estimation device 100 further includes an output unit 7 that communicates with an external device.
  • the estimation unit 6 controls the output unit 7 to transmit the extracted emotion information to the external device.
  • the external device is a terminal, display device, or audio output device
  • the user of the terminal, display device, or audio output device can know the emotion of the subject.
  • the environment adjustment device performs an action according to the emotions of the subject, for example, to improve the comfort level of the subject, or improve the comfort level. It is possible to improve the intellectual productivity of the correlated subject.
  • Embodiment 2 Emotion estimation apparatus 100 according to Embodiment 2 constructs related information that associates first biometric information and emotion information corresponding to the first biometric information for each subject. The emotion estimating apparatus 100 further accurately estimates the emotion of each subject by using the related information.
  • Embodiment 2 will be described below.
  • the same reference numerals as in the first embodiment are given to the same constituent elements as in the first embodiment.
  • descriptions of the same contents as those of the first embodiment will be omitted unless there are special circumstances.
  • the functional blocks included in emotion estimation device 100 according to Embodiment 2 are the same as the functional blocks in emotion estimation device 100 according to Embodiment 1 illustrated in FIG.
  • the preparatory biological information acquisition unit 2 in Embodiment 2 includes sensors such as wearable sensors assigned to each of a plurality of subjects. Sensor identification information for identifying the sensor is assigned to the sensor assigned to each subject.
  • the preliminary biometric information acquisition unit 2 in Embodiment 2 includes a camera and a sensor that recognizes each face of a plurality of subjects. Based on these, the preliminary biometric information acquiring unit 2 identifies each subject. It should be noted that the preparatory biometric information acquiring unit 2 is not limited to the above as long as it can identify each subject.
  • the prepared emotion information acquisition unit 3 in Embodiment 2 includes, for example, a terminal assigned to each of a plurality of subjects. An ID (Identifier) for identifying the terminal is assigned to the terminal. Alternatively, the prepared emotion information acquisition unit 3 in Embodiment 2 acquires identification information for identifying each subject together with emotion information from each subject.
  • each subject is identified by the ID of each subject's terminal, the above identification information of each subject, the sensor identification information of the sensor assigned to each subject, and the face data of each subject. Information is collectively described as identification information.
  • the relationship building unit 4 generates, for each subject's identification information, first biometric information indicating the subject's body, indicating the subject's emotion, and emotion information corresponding to the first biometric information. and generate related information associated with. That is, the relationship construction unit 4 corresponds to the identification information of each subject, the first biometric information indicating the physical condition of each subject, and the first biometric information indicating the physical condition of each subject. Related information is generated by associating emotional information with .
  • the emotional information corresponding to the first biometric information indicating the physical condition of each subject may be emotional information obtained from each subject at the same time as the first biometric information.
  • it may be information obtained by the regression analysis or the average calculation process using emotion information obtained from each subject at the same time as the first biometric information.
  • the first biological information is the amount of change in body surface temperature over time.
  • emotional information acquired from a certain subject at the same time as the first biometric information indicating 0.5[°C] indicates a high degree of comfort.
  • the numerical value indicating the high degree of comfort, or the average of the numerical values is "the temporal change in body surface temperature of the subject of the certain type, which is 0.5 [°C].
  • the emotion information corresponding to the first biometric information indicating the physical condition of each subject indicates a generalized emotion of each subject. For example, if emotional information with a numerical value indicating a high degree of comfort is obtained from the certain subject at all times when the first biological information indicating 0.5 [°C] is obtained, Emotional information corresponding to the first biological information indicating the physical condition of the subject, that is, the amount of temporal change in the body surface temperature of 0.5 [° C.] indicates a high degree of comfort for the subject. become a thing.
  • the high degree of comfort is considered to generally indicate the emotion of the certain subject at the time when the first biometric information indicating the 0.5[°C] was obtained.
  • the estimating unit 6 is associated with the identification information of each subject and the first biological information equal to the second biological information indicating the physical condition of each subject acquired by the estimated biological information acquiring unit 5 in the related information. Extract emotional information. Then, the estimation unit 6 estimates the emotion indicated by the extracted emotion information as the emotion of each subject.
  • FIG. 4 is a flowchart illustrating emotion estimation processing according to the second embodiment. Since the processing in step S21 is the same as the processing in step S1, description thereof will be omitted. If the current time is not the acquisition timing in step S21 (step S21: NO), the prepared emotion information acquiring section 3 returns the emotion estimation process to step S21. In step S21, if the current time is the acquisition timing (step S21: YES), the prepared emotion information acquisition unit 3 acquires identification information and emotion information from a plurality of subjects in step S22. In step S23, the preliminary biometric information acquiring unit 2 analyzes the first biometric information acquired from each subject at the same time as the emotion information is acquired from each subject.
  • the preparation biometric information acquiring unit 2 acquires the identification information such as the sensor identification information or the face data for identifying each subject together with the first biometric information from each subject.
  • the preparatory biometric information acquiring unit 2 may acquire the first biometric information from each subject at the same time as the emotion information is acquired, or may continuously acquire the first biometric information from each subject. . If the first biometric information is continuously acquired from each subject, the preliminary biometric information acquiring unit 2 may analyze the continuously acquired first biometric information.
  • step S24 the prepared emotion information acquisition unit 3 determines whether or not the period has ended. If the period has not ended (step S24: NO), the prepared emotion information acquiring section 3 returns the emotion estimation process to step S21.
  • step S24: YES the relationship building unit 4 generates the identification information of each subject, the first biometric information indicating the physical condition of each subject, Relevant information that indicates the subject's emotion and is associated with the emotion information corresponding to the first biometric information is constructed. Since the processing in step S26 is the same as the processing in step S6, description thereof will be omitted.
  • step S27 the estimated biometric information acquiring unit 5 acquires the second biometric information from one of the above subjects among the plurality of subjects.
  • the estimated biometric information acquisition unit 5 acquires the identification information such as the sensor identification information or the face data for identifying one of the subjects, together with the second biometric information. Since the process of step S28 is the same as the process of step S8, description thereof is omitted.
  • step S29 the estimating unit 6 refers to the relevant information and extracts the identification information of any of the subjects and emotion information associated with the first biometric information equal to the second biometric information after the analysis.
  • the estimation unit 6 estimates the emotion indicated by the extracted emotion information as the subject's emotion. Since the processing in step S30 is the same as the processing in step S10, description thereof is omitted. After the process of step S30, the emotion estimation process ends. When the emotion estimation process is executed again, emotion estimation apparatus 100 executes the process from step S27.
  • the preliminary biometric information acquisition unit 2 and the preliminary emotion information acquisition unit 3 in Embodiment 2 acquire identification information for identifying each of the plurality of subjects.
  • the relationship construction unit 4 includes identification information of each subject, first biometric information indicating the physical state of each subject, and first biometric information indicating the emotion of each subject and indicating the physical state of each subject. Construct related information that associates emotional information corresponding to .
  • the related information indicates the correlation between the physical condition and emotion for each subject. Therefore, the estimation unit 6 can estimate the emotion of each subject by using the related information. Therefore, the emotion estimating apparatus 100 can highly accurately estimate the emotion of each target person, even if each target person has different characteristics such as being sensitive to heat or being sensitive to cold.
  • Embodiment 3 Emotion estimation apparatus 100 according to Embodiment 3 acquires emotion information based on the evaluation grid method and performs cluster analysis to classify subjects in constructing estimation information.
  • Embodiment 3 will be described below.
  • the same reference numerals as those in the first and second embodiments are attached to the same components as those in the first and second embodiments.
  • descriptions of the same contents as those of the first and second embodiments will be omitted unless there are special circumstances.
  • the functional blocks included in emotion estimation device 100 according to Embodiment 3 are the same as the functional blocks in emotion estimation device 100 according to Embodiments 1 and 2 illustrated in FIG.
  • the prepared emotion information acquisition unit 3 in Embodiment 3 acquires emotion information from each of a plurality of subjects based on the evaluation grid method.
  • the preparatory emotion information acquisition unit 3 acquires the comfort level, which serves as an index of the comfort level, as the emotion information based on the scoring method.
  • the prepared emotion information acquisition unit 3 acquires factor information indicating factors of the comfort level together with the comfort level based on the free description method.
  • the relationship construction unit 4 uses the comfort level and factor information acquired by the prepared emotion information acquisition unit 3 to perform cluster analysis. Specifically, the relationship construction unit 4 classifies each target person into one of a plurality of types using the factor information from each target person. For example, the association construction unit 4 classifies a subject whose main factor of comfort is a thermal factor as a "thermal type” or the like. In addition, the relation construction unit 4 classifies subjects whose main factor of comfort level is an internal factor such as mental and physical condition as an "internal type” or the like. Furthermore, the relation construction unit 4 classifies subjects whose comfort levels are affected by various factors as "balanced type” or the like. Here, what factors influence the comfort level of each subject is determined by the factor information acquired from each subject.
  • the relationship construction unit 4 classifies the certain subject as the above-mentioned "thermal type". do.
  • the predetermined ratio is 70% or 80% in the third embodiment, but may be 50% or 60%.
  • the number of types, the names of types, and the like are not limited to those described above, and can be set as appropriate.
  • the relationship construction unit 4 classifies each subject into types as described above based on the factor information from each subject, and also determines how comfortable or displeasing each subject is with what according to the degree of comfort from each subject. You may analyze how you feel. For example, if the factor information from a certain subject indicates coldness, and the degree of comfort acquired from the certain subject along with the factor information is low, the relation construction unit 4 determines that the certain subject is "cold.” It can be analyzed as "Gari type”. Then, the relation construction unit 4 may classify the target person as a "hot type” and a "cold sensitive type", for example, as compared to the case where only the factor information is used, and perform more detailed classification.
  • the relationship construction unit 4 may classify each subject by type using not only factor information from each subject but also biometric information from each subject. For example, when the biological information from a certain subject indicates hypothermia, and the factor information obtained from the certain subject at the same time as the biological information indicates "coldness," the relationship construction unit 4 The certain subject may be analyzed as a "cold type".
  • the relationship building unit 4 in Embodiment 3 includes type information indicating a type, first biometric information indicating the physical state of one or more subjects of the type, and physical state of the one or more subjects.
  • Related information is constructed by associating emotion information corresponding to the first biometric information with the emotion information.
  • the emotional information corresponding to the first biometric information indicating the physical state of one or more subjects of the type may be emotional information obtained from the one or more subjects at the same time as the first biometric information. . Alternatively, it may be information obtained by the regression analysis or the average calculation process using emotion information obtained from the one or more subjects at the same time point as the first biometric information.
  • Emotional information corresponding to the first biometric information indicating the physical state of the one or more subjects of the relevant type generalizes the emotions of the one or more subjects of the relevant type.
  • the first biometric information is the amount of temporal change in body surface temperature
  • the first biological information indicating 0.5 [°C] was obtained from the five subjects at the same time point.
  • the numerical value indicating the high degree of comfort, or the average of the numerical values is "0.5 [°C] of the 5 subjects of the certain type.
  • Temporal change in body surface temperature This is an example of "emotional information corresponding to a quantity", that is, "emotional information corresponding to biometric information indicating the physical condition of five subjects of a certain type”.
  • the value of emotional information obtained by substituting 0.5 [°C] into the formula is an example of "emotional information corresponding to biometric information indicating the physical state of five subjects of the certain type". .
  • the high degree of comfort is considered to generally indicate the certain type of emotions of the five subjects at the time when the first biometric information indicating 0.5[°C] was obtained.
  • the relationship building unit 4 in Embodiment 3 includes identification information of each subject, type information indicating the type of each subject, first biometric information indicating the physical state of each subject, and each subject Related information may be constructed in which emotion information corresponding to the first biometric information indicating the physical condition of the person is associated with the emotion information.
  • the estimating unit 6 obtains the second biological information acquired by the estimated biological information acquiring unit 5. Emotional information associated with the first biometric information equal to the biometric information is extracted. In the third embodiment, it is assumed that the type information is uniquely determined by the value of the first biometric information.
  • the estimating unit 6 may extract the type information associated with the first biometric information that is the same as the second biometric information, and estimate the type of the subject from whom the second biometric information was obtained.
  • the estimation unit 6 determines that the estimated biometric information acquisition unit 5 Emotion information associated with the acquired identification information and the first biometric information equal to the second biometric information acquired by the estimated biometric information acquisition unit 5 is extracted.
  • the estimating unit 6 extracts the identification information and the type information associated with the first biometric information equal to the second biometric information, and estimates the type of the subject from whom the second biometric information is obtained. good.
  • the estimating unit 6 When the estimating unit 6 extracts type information, it instructs the output unit 7 to output the extracted type information to an external device.
  • the output unit 7 outputs the type information to an external device.
  • the external device is the display device described above, the type information acquired from the output unit 7 is displayed.
  • the external device is the above-described audio output device, the type information acquired from the output unit 7 is output as audio.
  • the external device is the terminal described above, the type information acquired from the output unit 7 is displayed or output by voice. Thereby, the subject can know the type of the subject.
  • the target person can also know the type of the target person by referring to the storage unit 1 using the terminal connected to the emotion estimation device 100 .
  • the subject If the subject knows his or her own type, the subject inputs type information indicating the type to an input device such as a keyboard or touch panel (not shown) when acquiring the second biometric information. good too. Then, the estimation unit 6 may extract the identification information and the type information of the target person, or the emotion information associated with the type information, and estimate the emotion of the target person.
  • FIG. 5 is a flowchart illustrating emotion estimation processing according to the third embodiment.
  • the case where the preliminary biometric information acquisition unit 2 and the preliminary emotion information acquisition unit 3 acquire identification information for identifying each subject will be described as an example. Since each process in steps S41 to S44 is the same as each process in steps S21 to S24, description thereof will be omitted.
  • step S44 the relationship construction unit 4 performs cluster analysis in step S45 to classify each subject into one of a plurality of types.
  • step S46 the relationship building unit 4 indicates the type information, the first biological information indicating the physical state of one or more subjects of the type indicated by the type information, and the emotions of the one or more subjects, 1. Construct related information that associates emotional information corresponding to biometric information.
  • step S46 the relationship building unit 4 generates identification information for each subject, type information indicating the type of each subject, first biometric information indicating the physical condition of each subject, and Related information that indicates the person's emotion and is associated with the emotion information corresponding to the first biometric information is constructed.
  • step S47 is the same as the processing in step S6, description thereof is omitted. Since the processing in step S48 is the same as the processing in step S7 or step S27, the description is omitted. Since the processing in step S49 is the same as the processing in step S8, description thereof is omitted.
  • step S50 the estimation unit 6 extracts emotion information and type information associated with the first biometric information that is the same as the second biometric information analyzed in step S49.
  • the estimating unit 6 uses the identification information for identifying any of the subjects from which the second biometric information is obtained, and the first biometric information equal to the second biometric information, and the emotion information and type Extract information and
  • step S51 the estimation unit 6 instructs the output unit 7 to output the extracted emotion information and type information to an external device.
  • the emotion estimation process ends.
  • emotion estimation apparatus 100 executes the process from step S48.
  • the prepared emotion information acquisition unit 3 in Embodiment 3 acquires, as emotion information, a comfort level indicating the comfort level of each of the plurality of subjects from each of the plurality of subjects based on the evaluation grid method, and , to acquire factor information indicating factors of the comfort level of each of the plurality of subjects.
  • the prepared emotion information acquisition unit 3 acquires the degree of comfort based on the scoring method, and acquires the factor information based on the free description method.
  • the relationship construction unit 4 performs cluster analysis using the factor information from each of the plurality of subjects, and classifies each of the plurality of subjects into one of a plurality of types.
  • the relationship building unit 4 includes type information indicating a type, first biometric information indicating the physical state of one or more subjects out of a plurality of subjects classified into the type, and Relevant information is constructed in which emotional information indicating an emotion and corresponding to the first biometric information indicating the physical state of the one or more subjects is associated with the emotional information.
  • the estimating unit 6 extracts emotion information and type information associated with the first biometric information that is the same as any of the second biometric information indicating the physical condition of the subject from the related information.
  • the estimating unit 6 estimates the emotion of the subject from the extracted emotion information, and estimates the type of the subject from the extracted type information.
  • the related information indicates the correlation between the first biological information and the emotion information, which is peculiar to the type such as the "thermal type” or the "internal type.” Therefore, the estimating unit 6 can highly accurately estimate the emotion of the subject using the second biometric information according to the type of the subject.
  • the prepared emotion information acquisition unit 3 in Embodiment 3 acquires, as emotion information, a comfort level indicating the comfort level of each of the plurality of subjects from each of the plurality of subjects based on the evaluation grid method, and , to acquire factor information indicating factors of the comfort level of each of the plurality of subjects.
  • the prepared emotion information acquisition unit 3 acquires the degree of comfort based on the scoring method, and acquires the factor information based on the free description method.
  • the preparation biometric information acquisition unit 2 and the preparation emotion information acquisition unit 3 acquire identification information for identifying each of a plurality of subjects.
  • the relationship construction unit 4 performs cluster analysis using the factor information from each of the plurality of subjects, and classifies each of the plurality of subjects into one of a plurality of types.
  • the relationship construction unit 4 includes identification information for each of the plurality of subjects, type information indicating the type of each of the plurality of subjects, first biometric information indicating the physical condition of each of the plurality of subjects, and a plurality of related information that indicates the emotion of each of the subjects and associates the emotional information corresponding to the first biometric information that indicates the physical state of each of the plurality of subjects.
  • the estimating unit 6 extracts emotion information and type information associated with any of the subject identification information and the first biometric information equal to the second biometric information in the related information.
  • the estimating unit 6 estimates the emotion of the subject from the extracted emotion information, and estimates the type of the subject from the extracted type information.
  • the related information indicates the correlation between the physical condition and emotion for each subject. Therefore, the estimation unit 6 can estimate the emotion of each subject by using the related information. Therefore, the emotion estimation apparatus 100 can highly accurately estimate the emotion of each target person according to the type.
  • the relationship building unit 4 in Embodiment 3 performs cluster analysis using at least one of the factor information from each subject, the first biological information from each subject, and the comfort level from each subject. and classify each subject into one of a plurality of types. As a result, the relationship construction unit 4 can classify each subject in detail by type. Therefore, the accuracy of related information is further improved. Therefore, the accuracy of emotion estimation by emotion estimation device 100 is improved.
  • the emotion estimation device 100 further includes an output unit 7 that communicates with an external device.
  • the estimation unit 6 controls the output unit 7 to transmit the extracted emotion information and type information to an external device.
  • an external device such as a terminal, display device, or audio output device to know the emotion and type of any subject.
  • the user is one of the target persons, the one of the target persons can know his/her own type.
  • Embodiment 4 Emotion estimation apparatus 100 according to Embodiment 4 estimates the subject's emotion with even higher accuracy.
  • the fourth embodiment will be described below. The same reference numerals as the reference numerals are attached. Further, in the contents of the fourth embodiment, descriptions of the same contents as those of the first to third embodiments will be omitted unless there are special circumstances.
  • the functional blocks included in emotion estimation device 100 according to Embodiment 4 are the same as the functional blocks in emotion estimation device 100 according to Embodiments 1 to 3 illustrated in FIG. It should be noted that the prepared emotion information acquisition unit 3 in the fourth embodiment acquires emotion information in the same manner as in the first embodiment.
  • the preparatory biometric information acquiring unit 2 in Embodiment 4 acquires first biometric information including at least one of face temperature, electrocardiogram data, electrodermal response data, etc., of each of a plurality of subjects. .
  • the preliminary biometric information acquiring unit 2 detects the face temperature, for example, using an infrared sensor.
  • the preparatory biological information acquisition unit 2 acquires electrocardiogram data or electrodermal response data using, for example, a wearable sensor.
  • the preparatory biometric information acquisition unit 2 Based on the acquired first biometric information, the preparatory biometric information acquisition unit 2 obtains, for each of the plurality of subjects, a difference from the facial temperature at rest, a temperature difference between the cheeks and the forehead, an electrocardiogram index value, and First biometric information including at least one of a value indicating an electrodermal response is calculated. It is assumed that the preliminary biometric information obtaining unit 2 has previously obtained the resting face temperature when calculating the difference from the resting face temperature.
  • the estimated biometric information acquiring unit 5 acquires second biometric information including at least one of face temperature, electrocardiogram data, electrodermal response data, etc. of any one of the plurality of subjects. do.
  • the estimated biometric information acquisition unit 5 detects the face temperature using, for example, an infrared sensor.
  • the estimated biological information acquiring unit 5 acquires electrocardiogram data or electrodermal response data by using, for example, a wearable sensor.
  • the estimated biometric information acquiring unit 5 calculates the difference from the facial temperature at rest, the temperature difference between the cheek and the forehead, the value of the electrocardiographic index, and the skin temperature of the subject. Second biological information including at least one of values indicating an electrical response is calculated.
  • a high frequency band, a low frequency band, a very low frequency band, or the standard deviation of heartbeat intervals is preferable because it is strongly correlated with emotions.
  • the amount of perspiration, reaction amplitude, appearance frequency, reaction time, recovery time, or the like is preferable as the value indicating the electrodermal response, since these values are strongly correlated with emotions.
  • the emotion estimation process by emotion estimation apparatus 100 in Embodiment 4 is the same as the emotion estimation process according to Embodiments 1 to 3 described with reference to FIGS. 3 to 5 except for the following points. .
  • the preparation biometric information acquiring unit 2 acquires first biometric information including the face temperature of each of a plurality of subjects.
  • the prepared biological information acquisition unit 2 uses the face temperature of each subject to determine the difference between the face temperature of each subject from the facial temperature at rest of each subject, or the cheek temperature of each subject.
  • a first biometric information including the temperature difference of the forehead is calculated.
  • the relation building unit 4 builds related information by associating the first biometric information calculated by the preliminary biometric information acquisition unit 2 and the emotion information corresponding to the first biometric information.
  • the estimated biometric information acquisition unit 5 acquires second biometric information including the face temperature of one of the plurality of subjects.
  • the estimated biological information acquisition unit 5 uses the facial temperature of the subject to determine the difference between the face temperature of the subject and the face temperature of the subject at rest, or A second biometric information including the temperature difference between the cheek and the forehead of any subject is calculated.
  • the estimating unit 6 extracts emotion information associated with the first biometric information that is equal to the second biometric information calculated by the estimated biometric information acquisition unit 5, and estimates the emotion of one of the subjects based on the extracted emotion information. .
  • the difference from resting face temperature and the temperature difference between cheeks and forehead are strongly correlated with emotions. Therefore, by using the difference or the temperature difference as the first biometric information and the second biometric information, the emotion estimation accuracy of the emotion estimation device 100 is improved.
  • the preliminary biometric information acquisition unit 2 in Embodiment 4 acquires first biometric information including electrocardiographic data for each of a plurality of subjects.
  • the preparatory biological information acquiring unit 2 uses the electrocardiographic data of each subject to calculate the first biological information including the value of the electrocardiogram index of each subject.
  • the relation building unit 4 builds related information by associating the first biometric information calculated by the preliminary biometric information acquisition unit 2 and the emotion information corresponding to the first biometric information.
  • the estimated biological information acquiring unit 5 acquires second biological information including electrocardiogram data of one of the plurality of subjects.
  • the estimated biological information acquiring unit 5 uses the electrocardiographic data of the subject to calculate the second biological information including the value of the electrocardiographic index of the subject.
  • the estimating unit 6 extracts emotion information associated with the first biometric information that is equal to the second biometric information calculated by the estimated biometric information acquisition unit 5, and estimates the emotion of one of the subjects based on the extracted emotion information. .
  • ECG indicators are strongly correlated with emotions. Therefore, by using the electrocardiographic index as the first biological information and the second biological information, the estimation accuracy of the emotion estimation device 100 is improved.
  • the preliminary biometric information acquisition unit 2 in Embodiment 4 acquires first biometric information including electrodermal response data for each of a plurality of subjects.
  • the preparation biometric information acquiring unit 2 uses the electrodermal response data of each subject to calculate first biometric information including a value indicating the electrodermal response of each subject.
  • the relation building unit 4 builds related information by associating the first biometric information calculated by the preliminary biometric information acquisition unit 2 and the emotion information corresponding to the first biometric information.
  • the estimated biological information acquisition unit 5 acquires second biological information including electrodermal response data of one of the plurality of subjects.
  • the estimated biometric information acquiring unit 5 uses the electrodermal response data of any of the subjects to calculate second biometric information including a value indicating the electrodermal response of any of the subjects.
  • the estimating unit 6 extracts emotion information associated with the first biometric information that is equal to the second biometric information calculated by the estimated biometric information acquisition unit 5, and estimates the emotion of one of the subjects based on the extracted emotion information. . Electrodermal responses are strongly correlated with emotions. Therefore, by using values indicating the electrodermal response as the first biological information and the second biological information, the estimation accuracy of the emotion estimation device 100 is improved.
  • the preparation biometric information acquisition unit 2 and the estimated biometric information acquisition unit 5 each have a wearable sensor. Thereby, the preliminary biometric information acquisition unit 2 can routinely acquire the first biometric information from each of the plurality of subjects. Therefore, the related information shows in detail the correlation between the physical condition and emotion of each subject in daily life.
  • the estimated biometric information acquiring unit 5 can acquire the second biometric information in the daily life of any one of the subjects described above. As a result, the emotion estimation device 100 can accurately estimate the subject's daily emotion.
  • 1 storage unit 2 preliminary biometric information acquisition unit, 3 preliminary emotion information acquisition unit, 4 relationship construction unit, 5 estimated biometric information acquisition unit, 6 estimation unit, 7 output unit, 11 processor, 12 memory, 13 storage device, 14th 1 input interface circuit, 15 sensor, 16 second input interface circuit, 17 input device, 18 output interface circuit, 19 bus, 100 emotion estimation device.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Dermatology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

感情推定装置は、準備生体情報取得部と準備感情情報取得部と関連構築部と推定生体情報取得部と推定部とを備える。準備生体情報取得部は、準備空間内の複数の対象者の各々から、各対象者の身体の状態を示す第1生体情報を取得して解析する。準備感情情報取得部は、当該複数の対象者の各々の感情を示す感情情報を取得する。関連構築部は、第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部は、推定空間内に存在するいずれかの対象者の身体の状態を示す第2生体情報を取得する。推定部は、関連情報において、当該第2生体情報と等しい第1生体情報と関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。

Description

感情推定装置および感情推定方法
 本開示は、人の快適感を推定する、感情推定装置および感情推定方法に関するものである。
 人の感情を推定する装置が知られている。例えば、特許文献1には、取得した顔面皮膚温度データまたは顔面血行量データに基づき、対象者の脳活動を推定し、推定した当該脳活動に基づき、当該対象者の感情を判定する感情判定装置について記載されている。
 具体的には、当該感情判定装置は、脳活動の推定結果と、人の感情を示す感情データとを関連付けて記憶する感情記憶部を有する。感情判定装置は、当該感情記憶部において、顔面皮膚温度データまたは顔面血行量データに基づいて推定された脳活動に関連付けられている感情データを抽出することによって、対象者の感情を判定する。なお、感情記憶部に記憶されている、脳活動の推定結果と、感情データとの関連付けは、例えば、人を「喜怒哀楽」のいずれかの状態にし、当該人に脳機能賦活課題を一定期間与えた際に収集された脳活動量のデータに基づくものである。
特開2017-74214号公報
 ここで、上記感情判定装置は、何らかの方法によって、人を「喜怒哀楽」のいずれかの状態にした上で脳活動量のデータを収集し、感情データと脳活動の推定結果との関連付けを行っている。すなわち、外部からの何らかの刺激によって人の感情を変化させた上で、変化後の感情を示す感情情報と、感情の変化後における脳活動の推定結果などの生体情報と、を関連付けたデータベースを構築している。しかし、感情の推定に用いるデータベースが、人に特定の刺激を与える実験、または、特定の環境要因を変動させる実験等によって得られている場合には、実験環境と日常環境の違い、または個人差等の影響によって、感情を精度良く推定できない可能性がある。
 本開示は、上記課題を解決するためになされたものであり、対象者の感情を推定する推定精度を向上し得る感情推定装置および感情推定方法を提供することを目的とする。
 本開示の一側面に係る感情推定装置は、推定空間内に存在する複数の対象者の感情を推定する感情推定装置であって、準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得部と、前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得部と、前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築部と、前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得部と、前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定部と、を備えるものである。
 本開示の一側面に係る感情推定方法は、推定空間内に存在する複数の対象者の感情を推定する感情推定装置が実行する感情推定方法であって、準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得ステップと、前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得ステップと、前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築ステップと、前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得ステップと、前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定ステップと、を含むものである。
 本開示においては、対象者の感情を推定する推定精度を向上し得る感情推定装置および感情推定方法を提供することが可能となる。
実施の形態1に係る感情推定装置の機能ブロックを例示する図である。 実施の形態1に係る感情推定装置のハードウェア構成を例示する模式図である。 実施の形態1に係る感情推定装置による感情推定処理を例示するフローチャートである。 実施の形態2に係る感情推定処理を例示するフローチャートである。 実施の形態3に係る感情推定処理を例示するフローチャートである。
 以下、図面を参照し、実施の形態に係る感情推定装置および感情推定方法について詳述する。
 実施の形態1.
 実施の形態1に係る感情推定装置100は、例えばオフィスビルの一室などの特定の室内または屋内等の空間における対象者の感情を、当該対象者の後述する生体情報に基づいて推定する装置である。以下では、当該特定の室内または屋内等の空間を、推定空間と記載する場合もある。図1は、実施の形態1に係る感情推定装置の機能ブロックを例示する図である。感情推定装置100は、記憶部1、準備生体情報取得部2、準備感情情報取得部3、関連構築部4、推定生体情報取得部5、推定部6、および出力部7を備える。
 記憶部1は、感情推定装置100が対象者の感情を推定するための関連情報を保存する。感情推定装置100は、対象者の感情を推定する際に、当該関連情報を参照する。
 準備生体情報取得部2は、1以上のセンサを含む。以下では、当該センサを準備用センサと記載する場合もある。準備生体情報取得部2は、1以上の準備用センサによって、準備空間内に存在する複数の対象者の各々から、サンプルとなる第1生体情報を取得する。準備空間とは、例えば試験室など、複数の対象者から第1生体情報を取得するための空間である。準備空間は、上述の推定空間と同一の空間、在室目的が当該推定空間の在室目的と同一の空間、または、当該推定空間と類似の空間であってもよい。なお、当該推定空間と類似の空間とは、推定空間との気温差が、予め定められた温度差閾値以下である空間であってもよいし、推定空間との湿度差が、予め定められた湿度差閾値以下である空間であってもよい。あるいは、当該類似の空間とは、推定空間との照度差が、予め定められた照度差閾値以下である空間であってもよいし、推定空間との面積の差が、予め定められた面積差閾値以下である空間であってもよい。なお、上述の類似の空間は例であって、推定空間と類似の空間は上述のものに限定されない。また、上述の準備空間は例であって、準備空間は上述のものに限定されない。準備空間が、推定空間と同一の空間、在室目的が推定空間の在室目的と同一の空間、または、推定空間と類似の空間である場合には、感情推定装置100は、上記複数の対象者に特段の負担を与えることなく、第1生体情報を取得できる。一方、準備空間が、推定空間と同一の空間、在室目的が推定空間の在室目的と同一の空間、または、推定空間と類似の空間でない場合には、感情推定装置100による第1生体情報の取得が容易になり得る。第1生体情報は、人体の状態の指標となる情報である。第1生体情報は、数値によって示され、人体の状態に応じて様々な値となる。第1生体情報は、例えば、体表温度、心拍、脈波、皮膚電気反応、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す情報である。実施の形態1における準備生体情報取得部2は、例えば、体表温度、心拍、脈波、および皮膚電気反応等の少なくともいずれか1つを示す第1生体情報を、上記1以上の準備用センサによって取得する。
 準備生体情報取得部2は、人体における1つの部分から、任意の1種類の検知方法によって、第1生体情報を取得してもよい。あるいは、準備生体情報取得部2は、人体における1つの部分から、任意の2種類以上の検知方法の各々によって、1種類の第1生体情報、または、2種類以上の第1生体情報の各々を取得してもよい。または、準備生体情報取得部2は、人体における複数の部分から、任意の2種類以上の検知方法の各々によって、1種類の第1生体情報、または、2種類以上の第1生体情報の各々を取得してもよい。
 実施の形態1における準備生体情報取得部2は、上記1以上の準備用センサによって取得した第1生体情報を解析する。具体的には、準備生体情報取得部2は、上記1以上の準備用センサによって取得した第1生体情報を用いて、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す第1生体情報を生成する。例えば、準備生体情報取得部2は、1以上の準備用センサによって取得した第1生体情報が体表温度である場合には、体における複数の部位の各々の表面温度の差を演算してもよい。あるいは、準備生体情報取得部2は、1以上の準備用センサによって取得した第1生体情報が、例えば心電データなどの、心拍に関するデータである場合には、周波数解析を行い、心拍の状態を示す指標値を取得してもよい。
 準備感情情報取得部3は、準備空間内に存在する上記複数の対象者の各々から、当該複数の対象者の各々の感情を示す感情情報を取得する。ここで、感情情報は、快適度合い、高揚度合い、または鎮静度合い等の感情を、数値によって示した情報である。準備感情情報取得部3は、複数の対象者の各々が感情推定装置100に感情情報を入力するための、キーボード、タッチパネル、ボタン、またはマウス等の入力装置を含む。
 実施の形態1における準備感情情報取得部3は、経験抽出法に基づいて準備空間内に存在する複数の対象者の各々から、感情情報を取得する。すなわち、準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、当該複数の時点の各々における当該複数の対象者の各々の感情を示す感情情報を取得する。
 準備感情情報取得部3は、経験抽出法に基づいて、感情情報を、例えば2日以上の上記期間における複数の時点の各々において取得する。準備感情情報取得部3は、当該期間内の各日にちにおける1以上の、予め定められた時刻、または、ランダムな時刻において、感情情報を取得する。準備感情情報取得部3は、5日以上の期間に亘り、感情情報を取得することが望ましい。その理由は、平日の曜日毎、または、1週間における曜日毎に生じる事象は異なることが多く、当該事象によって生じる心身の状態を示す感情情報を、準備感情情報取得部3が満遍なく取得するためである。
 経験抽出法によって、複数の時点の各々において取得された感情情報は、各対象者の想起バイアスが低減されたものとなる。すなわち、各時点において取得された感情情報は、当該各時点において発生した事象によって影響を受けた、各対象者の感情を精度良く示すものとなる。また、経験抽出法によって、複数の時点の各々において取得された感情情報の集まりは、例えば日常生活における特定の事象によって生じた特定の感情のみを示す偏った情報ではなく、多種多様の事象によって生じた、各対象者の多種多様な感情を示すものとなる。
 関連構築部4は、準備生体情報取得部2による解析後の第1生体情報と、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ここで、第1生体情報に対応する感情情報とは、準備生体情報取得部2が各対象者から当該第1生体情報を1以上の準備用センサによって取得した時点と同時点において、準備感情情報取得部3が当該各対象者から取得した感情情報を用いて得られた、上記快適度合い、高揚度合い、または鎮静度合い等の、感情を示す情報である。なお、或る時点と同時点とは、当該或る時点を起点に、前後予め定められた時間以内における時点を指すものとする。当該予め定められた時間とは、実験などによって予め得られた、人の感情の状態と身体の状態とが変化しない時間を指す。
 第1生体情報に対応する感情情報は、当該第1生体情報と同時点に取得された感情情報でもよいし、回帰分析によって得られるものでもよいし、第1生体情報毎に、感情情報の値を平均して得られるものでもよい。以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。例えば0.5[℃]を示す第1生体情報が、複数の対象者から取得された場合において、当該0.5[℃]が取得された時点と同時点において、当該複数の対象者から取得した感情情報の値、または、当該感情情報の値の平均値が、「当該0.5[℃]を示す第1生体情報に対応する感情情報」の例となる。また、複数の対象者から得られた第1生体情報と感情情報の各値を用いた回帰分析により、第1生体情報の値と感情情報の値との関係を数式化した場合において、当該0.5[℃]を当該数式に代入した場合に得られる感情情報の値が、「当該0.5[℃]を示す第1生体情報に対応する感情情報」の例となる。
 第1生体情報に対応する感情情報は、複数の対象者の身体状態を示す第1生体情報に対して、当該第1生体情報が取得された時点と同時点における複数の対象者の感情を一般化したものとなる。例えば、複数の対象者から上記0.5[℃]を示す第1生体情報が取得された全ての時点において、当該複数の対象者から高い快適度合いを示す数値の感情情報が得られた場合には、「当該0.5[℃]を示す第1生体情報に対応する感情情報」は、高い快適度合いを示す数値となる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における複数の対象者の感情を一般的に示すものと考えられる。
 関連情報は、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付ける、例えば上記回帰分析による数式でもよい。あるいは、関連情報は、第1生体情報の値と、当該第1生体情報に対応する感情情報の値とを、例えば表形式で示す情報であってもよい。なお、関連情報は、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付ける情報であれば、上述のものに限定されない。
 推定生体情報取得部5は、1以上のセンサを含む。以下では、当該センサを推定用センサと記載する場合もある。1以上の推定用センサは、上述の1以上の準備用センサと同じものであってもよい。推定生体情報取得部5は、当該1以上の推定用センサによって、推定空間内に存在する、上述の複数の対象者のうちのいずれかの対象者から第2生体情報を取得する。なお、上述のように、推定空間とは、感情推定装置100が、当該複数の対象者の各々の感情を推定するための空間を指す。推定空間は、上記準備空間と同じ空間であってもよいし、異なる空間であってもよい。第2生体情報は、人体の状態の指標となる情報である。第2生体情報は、数値によって示され、人体の状態に応じて様々な値となる。第2生体情報は、例えば、体表温度、心拍、脈波、皮膚電気反応、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す情報である。実施の形態1における推定生体情報取得部5は、例えば、体表温度、心拍、脈波、および皮膚電気反応等の少なくともいずれか1つを示す第2生体情報を、当該1以上の推定用センサによって取得する。
 推定生体情報取得部5は、人体における1つの部分から、任意の1種類の検知方法によって、生体情報を取得してもよい。あるいは、推定生体情報取得部5は、人体における1つの部分から、任意の2種類以上の検知方法の各々によって、1種類の生体情報、または、2種類以上の生体情報の各々を取得してもよい。または、推定生体情報取得部5は、人体における複数の部分から、任意の2種類以上の検知方法の各々によって、1種類の生体情報、または、2種類以上の生体情報の各々を取得してもよい。
 実施の形態1における推定生体情報取得部5は、当該1以上の推定用センサによって取得した第2生体情報を解析する。具体的には、推定生体情報取得部5は、当該1以上の推定用センサによって取得した第2生体情報を用いて、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す第2生体情報を生成する。なお、推定生体情報取得部5が生成する第2生体情報は、関連情報が含む第1生体情報と同じ種類の情報である。関連情報が含む第1生体情報が、例えば、体表温度の時間的な変化量である場合には、推定生体情報取得部5が生成する第2生体情報は、体表温度の時間的な変化量となる。
 推定部6は、関連情報を用いて、推定生体情報取得部5が解析した第2生体情報と等しい第1生体情報と関連付けられた感情情報を抽出する。ここで、関連情報が、第1生体情報の値と、当該第1生体情報に対応する感情情報の値とを、例えば表形式などで示す情報である場合には、第2生体情報と等しい第1生体情報とは、当該第2生体情報との差の大きさが最小のものを指すものとする。推定部6は、抽出した感情情報が示す感情を、当該第2生体情報の取得元の上記対象者の感情と推定する。
 出力部7は、外部の機器と通信する。当該外部の機器としては、例えば、パーソナルコンピュータ、ワークステーション、タブレット端末、またはスマートフォン等の端末が挙げられる。他にも、当該外部の機器として、例えば、液晶ディスプレイ、CRT(Cathode Ray Tube)、または有機EL(Electro Luminescence)ディスプレイ等の表示装置が挙げられる。また更に、当該外部の機器として、例えば、空気調和機または空気清浄機等の、推定空間の環境を調整する環境調整装置が挙げられる。この他、当該外部の機器として、スピーカなどを含む音声出力装置が挙げられる。
 推定部6は、当該外部の機器が端末である場合には、当該端末に、抽出した感情情報を送信するよう出力部7を制御する。推定部6は、当該外部の機器が表示装置である場合には、当該感情情報、および、当該感情情報の表示を指示する表示指示情報を、当該表示装置に送信するよう出力部7を制御する。推定部6は、当該外部の機器が環境調整装置である場合には、当該感情情報に応じた動作を当該環境調整装置に実行させるための指示と共に、当該感情情報を、当該環境調整装置に送信するよう出力部7を制御する。なお、感情情報に応じた環境調整装置の動作とは、推定空間における対象者の感情の状態を向上させる動作を指す。推定部6は、当該外部の機器が音声出力装置である場合には、当該感情情報、および、当該感情情報を音声によって出力する指示を、当該音声出力装置に送信するよう出力部7を制御する。
 以下、実施の形態1に係る感情推定装置100のハードウェア構成について説明する。図2は、実施の形態1に係る感情推定装置のハードウェア構成を例示する模式図である。感情推定装置100は、例えば、プロセッサ11と、メモリ12と、記憶装置13と、第1入力インターフェース回路14と、センサ15と、第2入力インターフェース回路16と、入力装置17と、出力インターフェース回路18等とによって構成可能である。なお、プロセッサ11と、メモリ12と、記憶装置13と、第1入力インターフェース回路14と、第2入力インターフェース回路16と、出力インターフェース回路18とは、バス19によって接続されている。
 プロセッサ11としては、例えば、CPU(Central Processing Unit)またはMPU(Micro Processing Unit)などが挙げられる。メモリ12としては、例えば、ROM(Read Only Memory)またはRAM(Random Access Memory)などが挙げられる。記憶装置13としては、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などが挙げられる。センサ15としては、例えば、赤外線センサまたはウェアラブルセンサなどが挙げられる。入力装置17としては、例えば、キーボードまたはタッチパネルなどがあげられる。第1入力インターフェース回路14は、プロセッサ11とセンサ15とを仲立ちする入力インターフェース回路である。第2入力インターフェース回路16は、プロセッサ11と入力装置17とを仲立ちする入力インターフェース回路である。
 記憶部1の機能は、記憶装置13によって実現できる。関連構築部4および推定部6の各機能は、メモリ12または記憶装置13に記憶されている、例えば、感情を推定するための感情推定プログラムなどの各種プログラムを、プロセッサ11が読み出して実行することにより実現できる。準備生体情報取得部2による第1生体情報の取得機能と、推定生体情報取得部5による第2生体情報の取得機能は、第1入力インターフェース回路14およびセンサ15によって実現できる。準備生体情報取得部2による第1生体情報の解析機能と、推定生体情報取得部5による第2生体情報の解析機能は、メモリ12または記憶装置13に記憶されている上記感情推定プログラムなどの各種プログラムを、プロセッサ11が読み出して実行することにより実現できる。準備感情情報取得部3が複数の時点の各々において感情情報を取得する機能は、プロセッサ11、第2入力インターフェース回路16、および入力装置17によって実現できる。なお、複数の時点の各々において複数の対象者の各々から準備感情情報取得部3が取得した感情情報を、関連構築部4が関連情報を生成するまでの間、当該関連構築部4または準備感情情報取得部3が保持する機能は、メモリ12または記憶装置13によって実現できる。当該複数の時点の各々において複数の対象者の各々から準備生体情報取得部2が取得して解析した第1生体情報を、関連構築部4が関連情報を生成するまでの間、当該関連構築部4または準備生体情報取得部2が保持する機能は、メモリ12または記憶装置13によって実現できる。
 出力部7の機能は、出力インターフェース回路18によって実現できる。なお、出力インターフェース回路18は、上記外部の機器が、端末である場合には、通信インターフェース回路である。一方、出力インターフェース回路18は、当該外部の機器が、表示装置、音声出力装置、および環境調整装置のいずれかの装置である場合には、当該いずれかの装置とプロセッサ11とを仲立ちする出力インターフェース回路である。
 感情推定装置100は、第1入力インターフェース回路14およびセンサ15を、それぞれ複数含んでもよい。これにより、感情推定装置100は、準備空間および推定空間の各々において、複数の対象者の各々が別個の位置にいる場合において、当該複数の対象者の各々から同時に、第1生体情報と第2生体情報の各々を取得できる。感情推定装置100は、第2入力インターフェース回路16および入力装置17を、それぞれ複数含んでもよい。これにより、感情推定装置100は、準備空間において複数の対象者の各々が、別個の位置にいる場合において、当該複数の対象者の各々から同時に感情情報を取得できる。感情推定装置100の全部または一部の機能は、専用のハードウェアによって実現されてもよい。
 次に、実施の形態1に係る感情推定装置100による感情推定処理について、図3を参照して説明する。図3は、実施の形態1に係る感情推定装置による感情推定処理を例示するフローチャートである。ステップS1において準備感情情報取得部3は、現時点が、感情情報の取得のタイミングであるか否かを判定する。以下では、当該タイミングを取得用タイミングと記載する。現時点が取得用タイミングでない場合には(ステップS1:NO)、準備感情情報取得部3は、感情推定処理をステップS1に戻す。
 現時点が取得用タイミングである場合には(ステップS1:YES)、ステップS2において準備感情情報取得部3は、複数の対象者の各々から感情情報を取得する。ステップS3において準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から取得した第1生体情報を解析する。なお、準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から第1生体情報を取得するものでもよいし、各対象者から連続的に第1生体情報を取得するものでもよい。準備生体情報取得部2は、各対象者から連続的に第1生体情報を取得するものである場合には、連続的に取得した第1生体情報を解析するものでもよい。
 ステップS4において準備感情情報取得部3は、上記期間が終了したか否かを判定する。当該期間が終了していない場合には(ステップS4:NO)、準備感情情報取得部3は、感情推定処理をステップS1に戻す。上記期間が終了した場合には(ステップS4:YES)、ステップS5において関連構築部4は、当該期間に亘って取得された感情情報と第1生体情報とを用いて、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付けた関連情報を構築する。ステップS6において関連構築部4は、構築した関連情報を記憶部1に記憶する。
 ステップS7において推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者の第2生体情報を取得する。ステップS8において推定生体情報取得部5は、取得した当該第2生体情報を解析する。ステップS9において推定部6は、関連情報を参照し、解析後の当該第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、抽出した感情情報が示す感情を、当該対象者の感情と推定する。ステップS10において推定部6は、抽出した感情情報を、外部の機器に出力するよう出力部7に指示を行う。出力部7は、推定部6からの指示に従い、当該感情情報を外部の機器に出力する。ステップS10の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS7の処理から実行する。
 以下、実施の形態1に係る感情推定装置100による効果について説明する。実施の形態1に係る感情推定装置100は、準備生体情報取得部2、準備感情情報取得部3、関連構築部4、推定生体情報取得部5、および推定部6を備える。準備生体情報取得部2は、準備空間内に存在する複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する。準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々の感情を示す感情情報を取得する。関連構築部4は、第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、推定空間内に存在する、当該複数の対象者のうちのいずれかの対象者の身体の状態を示す第2生体情報を取得して解析する。推定部6は、関連構築部4が構築した関連情報において第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。そして、推定部6は、抽出した当該感情情報によって当該推定空間内に存在する当該いずれかの対象者の感情を推定する。これにより、感情の推定精度が向上する。
 実施の形態1における関連構築部4は、準備感情情報取得部3が複数の対象者の各々から取得した感情情報と、当該感情情報が取得された時点と同時点において準備生体情報取得部2が複数の対象者の各々から取得した第1生体情報と、を用いて前記関連情報を構築する。なお、感情情報が取得された時点と同時点とは、準備感情情報取得部3が複数の対象者の各々から当該感情情報を取得した時点を起点として前後予め定められた時間以内の時点を指す。これにより、感情情報と、当該感情情報の取得時点の直近において取得された第1生体情報とが関連情報において反映され、関連情報の精度が向上する。従って、感情推定装置100による当該関連情報を用いての、感情の推定精度が向上する。
 実施の形態1における準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、当該複数の時点の各々における複数の対象者の各々の感情を示す感情情報を取得する。関連構築部4は、当該複数の時点の各々において準備生体情報取得部2が当該複数の対象者の各々から取得した第1生体情報と、当該複数の時点の各々において準備感情情報取得部3が当該複数の対象者の各々から取得した感情情報と、を用いて関連情報を構築する。これにより、準備感情情報取得部3が取得する感情情報の想起バイアスが低減する。また、関連情報における、第1生体情報と、当該第1生体情報に対応する感情情報との相関は、気候変動、体調変化、または心情の変化等の特定の事象に依存しないものとなる。従って、関連情報は、当該事象による影響が低減され、精度が向上する。よって、推定部6による感情の推定精度が向上する。
 実施の形態1における上記期間は、5日以上の期間である。前記準備感情情報取得部3は、各日にちにおける、予め定められた1以上の時刻、または、ランダムな1以上の時刻において、複数の対象者の各々から感情情報を取得する。これにより、関連情報は、平日の5日間における各日にち、一週間における各日にち、または各季節等における、天候、体調、または心情等に依らないものとなる。従って、関連情報は、種々の事象による影響が低減されたものとなり、精度が向上する。よって、推定部6による感情の推定精度が向上する。
 実施の形態1に係る感情推定装置100は、外部の機器と通信する出力部7を更に備える。推定部6は、抽出した感情情報を、当該外部の機器に送信するよう出力部7を制御する。これにより、外部の機器が端末、表示装置、または音声出力装置である場合には、当該端末、表示装置、または音声出力装置のユーザは、対象者の感情について知ることができる。また、外部の機器が上記環境調整装置である場合には、当該環境調整装置は、対象者の感情に応じた動作を行うことにより、例えば、対象者の快適度合いを向上させたり、快適度と相関する対象者の知的生産性を向上させたりすることができる。
 実施の形態2.
 実施の形態2に係る感情推定装置100は、対象者毎の、第1生体情報と、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。そして、当該感情推定装置100は、当該関連情報を用いることにより、各対象者の感情を更に精度良く推定するものである。以下、実施の形態2について説明する。なお、実施の形態2における構成要素において、上記実施の形態1における構成要素と同様のものには、上記実施の形態1における符号と同様の符号を付す。また、実施の形態2の内容において、上記実施の形態1の内容と同様のものについては、特段の事情が無い限り説明を省略する。
 実施の形態2に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1に係る感情推定装置100における機能ブロックと同様である。
 実施の形態2における準備生体情報取得部2は、複数の対象者のそれぞれに割り当てられた例えばウェアラブルセンサなどのセンサを含む。各対象者に割り当てられたセンサには、当該センサを識別するためのセンサ識別情報が割り当てられている。あるいは、実施の形態2における準備生体情報取得部2は、カメラを含み、複数の対象者の各々の顔を認識するセンサを含む。これらにより、準備生体情報取得部2は各対象者を識別する。なお、準備生体情報取得部2は、各対象者を識別できれば、上述のものに限定されない。
 実施の形態2における準備感情情報取得部3は、複数の対象者のそれぞれに割り当てられた例えば端末を含む。当該端末には、当該端末を識別するためのID(Identifier)が割り当てられている。あるいは、実施の形態2における準備感情情報取得部3は、各対象者から感情情報と共に、当該各対象者を識別する識別情報を取得する。各対象者の端末のID、または、当該各対象者の識別情報等と、当該各対象者に割り当てられたセンサのセンサ識別情報、または、当該各対象者の顔のデータ等とは、感情推定装置100において関係付けられているものとする。以下では、各対象者の端末のID、各対象者の上記識別情報、各対象者に割り当てられたセンサのセンサ識別情報、および、各対象者の顔のデータ等の、各対象者を識別する情報をまとめて識別情報と記載する。
 実施の形態2における関連構築部4は、対象者の識別情報毎に、当該対象者の身体を示す第1生体情報と、当該対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を生成する。すなわち、関連構築部4は、各対象者の識別情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の身体の状態を示す当該第1生体情報に対応する感情情報と、を関連付けた関連情報を生成する。
 ここで、当該各対象者の身体の状態を示す第1生体情報に対応する感情情報は、各対象者から当該第1生体情報と同時点において取得された感情情報でもよい。あるいは、各対象者から当該第1生体情報と同時点において取得された感情情報を用いて、上記回帰分析もしくは上記平均算出処理により得られた情報でもよい。以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。或る対象者から、0.5[℃]を示す第1生体情報が取得された時点と同時点において取得された感情情報が、高い快適度合いを示したとする。この場合には、当該高い快適度合いを示す数値、または、当該数値を平均したものが、「当該或るタイプの対象者の、0.5[℃]である、体表温度の時間的な変化量と対応する感情情報」、すなわち「当該或る対象者の身体の状態を示す第1生体情報と対応する感情情報」の例となる。また、或る対象者から得られた第1生体情報と感情情報の各値を用いて、回帰分析などにより第1生体情報と感情情報との関係が数式化された場合には、当該数式に当該0.5[℃]と代入して得られる感情情報の値が、「当該或る対象者の身体の状態を示す第1生体情報と対応する感情情報」の例となる。
 当該各対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該各対象者の感情を一般化して示すものである。例えば、上記0.5[℃]を示す第1生体情報が取得された全ての時点において、上記或る対象者から、高い快適度合いを示す数値の感情情報が得られた場合には、当該或る対象者の身体の状態を示す第1生体情報、すなわち、0.5[℃]の体表温度の時間的変化量、に対応する感情情報は、当該或る対象者の高い快適度合いを示すものとなる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における当該或る対象者の感情を一般的に示すものと考えられる。
 推定部6は、各対象者の識別情報、および、推定生体情報取得部5が取得した当該各対象者の身体状態を示す第2生体情報と等しい第1生体情報と、関連情報において関連付けられた感情情報を抽出する。そして、推定部6は、抽出した当該感情情報が示す感情を、当該各対象者の感情と推定する。
 図4は、実施の形態2に係る感情推定処理を例示するフローチャートである。ステップS21における処理は、上記ステップS1における処理と同様であるため、説明を省略する。なお、ステップS21において現時点が取得用タイミングでない場合には(ステップS21:NO)、準備感情情報取得部3は、感情推定処理をステップS21に戻す。ステップS21において、現時点が取得用タイミングである場合には(ステップS21:YES)、ステップS22において準備感情情報取得部3は、複数の対象者から、識別情報および感情情報を取得する。ステップS23において準備生体情報取得部2は、各対象者から感情情報を取得した時点と同時点において当該各対象者から取得した第1生体情報を解析する。なお、準備生体情報取得部2は、各対象者から、第1生体情報と共に、当該各対象者を識別するための上記センサ識別情報または上記顔データ等の上記識別情報を取得している。準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から第1生体情報を取得するものでもよいし、各対象者から連続的に第1生体情報を取得するものでもよい。準備生体情報取得部2は、各対象者から連続的に第1生体情報を取得するものである場合には、連続的に取得した第1生体情報を解析するものでもよい。
 ステップS24において準備感情情報取得部3は、上記期間が終了したか否かを判定する。当該期間が終了していない場合には(ステップS24:NO)、準備感情情報取得部3は、感情推定処理をステップS21に戻す。上記期間が終了した場合には(ステップS24:YES)、ステップS25において関連構築部4は、各対象者の識別情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ステップS26における処理は、上記ステップS6における処理と同様であるため、説明を省略する。
 ステップS27において推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者から第2生体情報を取得する。この際において推定生体情報取得部5は、当該第2生体情報と共に、当該いずれかの対象者を識別するための上記センサ識別情報または上記顔データ等の上記識別情報を取得する。ステップS28の処理は、ステップS8の処理と同様であるため、説明を省略する。ステップS29において推定部6は、関連情報を参照し、当該いずれかの対象者の識別情報と、解析後の当該第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、抽出した感情情報が示す感情を、当該対象者の感情と推定する。ステップS30における処理は、ステップS10における処理と同様であるため、説明を省略する。ステップS30の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS27の処理から実行する。
 以下、実施の形態2に係る感情推定装置100による効果について記載する。実施の形態2における準備生体情報取得部2および準備感情情報取得部3は、前記複数の対象者の各々を識別するための識別情報を取得する。関連構築部4は、各対象者の識別情報と、各対象者の身体の状態を示す第1生体情報と、各対象者の感情を示し、各対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の識別情報、および、当該いずれかの対象者の身体の状態を示す第2生体情報と等しい第1生体情報に、関連付けられた感情情報を抽出し、抽出した当該感情情報によって当該いずれかの対象者の感情を推定する。これにより、関連情報は、対象者毎に、身体の状態と、感情との相関を示すものとなる。従って、推定部6は、当該関連情報を用いることにより、対象者毎に感情を推定することができる。よって、感情推定装置100は、対象者毎に暑がりまたは寒がりなどの特性の違いがあっても、対象者に応じて高精度に感情を推定することができる。
 実施の形態3.
 実施の形態3に係る感情推定装置100は、推定用情報の構築において、評価グリッド法に基づいて感情情報を取得し、クラスター分析を行って対象者を分類するものである。以下、実施の形態3について説明する。なお、実施の形態3における構成要素において、実施の形態1および実施の形態2における構成要素と同様のものには、実施の形態1および実施の形態2における符号と同様の符号を付す。また、実施の形態3の内容において、実施の形態1および実施の形態2の内容と同様のものについては、特段の事情が無い限り説明を省略する。
 実施の形態3に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1および実施の形態2に係る感情推定装置100における機能ブロックと同様である。
 実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から感情情報を取得する。この場合において準備感情情報取得部3は、評点法に基づいて、感情情報として、快適度合いの指標となる快適度を取得する。また、準備感情情報取得部3は、自由記述法に基づいて、当該快適度の要因を示す要因情報を、快適度と共に取得する。
 関連構築部4は、準備感情情報取得部3が取得した、快適度および要因情報を用いて、クラスター分析を行う。具体的には、関連構築部4は、各対象者からの要因情報を用いて、各対象者を複数のタイプのいずれかに分類する。例えば、関連構築部4は、快適度の主要因が温熱要因となる対象者を、「温熱タイプ」などと分類する。また、関連構築部4は、快適度の主要因が、心身の状態など内的要因となる対象者を、「内的タイプ」などと分類する。更に、関連構築部4は、様々な要因が快適度に影響する対象者を、「バランスタイプ」などと分類する。ここで、各対象者の快適度がどのような要因によって影響を受けるかは、当該各対象者から取得した要因情報によって定まる。例えば、或る対象者からの要因情報のうち、予め定められた割合以上の要因情報が気温に関する内容であれば、関連構築部4は、当該或る対象者を上記「温熱タイプ」などと分類する。なお、当該予め定められた割合は、実施の形態3では、7割または8割であるとするが、5割または6割などであってもよい。タイプの数、および、タイプの名称等は、上述したものに限られず、適宜設定することができる。
 関連構築部4は、各対象者からの要因情報によって、各対象者を上述のようにタイプ分けすると共に、各対象者からの快適度によって、各対象者が何に対してどの程度の快不快を感じるかを分析してもよい。例えば、或る対象者からの要因情報が寒さを示し、当該或る対象者から当該要因情報と共に取得された快適度が低い場合には、関連構築部4は、当該或る対象者を「寒がりタイプ」と分析してもよい。そして、関連構築部4は、当該或る対象者を「温熱タイプ」で「寒がりタイプ」と分類するなど、要因情報のみを用いる場合に比べて、更に詳細な分類を行ってもよい。また、関連構築部4は、各対象者からの要因情報のみならず、各対象者からの生体情報を用いて、各対象者をタイプ分けしてもよい。例えば、或る対象者からの生体情報が低体温を示し、当該或る対象者から当該生体情報と同時点において取得された要因情報が「寒さ」を示す場合には、関連構築部4は、当該或る対象者を「冷え性タイプ」と分析してもよい。
 実施の形態3における関連構築部4は、タイプを示すタイプ情報と、当該タイプの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。なお、当該タイプの1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該1以上の対象者から当該第1生体情報と同時点において取得された感情情報でもよい。あるいは、当該1以上の対象者から当該第1生体情報と同時点において取得された感情情報を用いて、上記回帰分析もしくは上記平均算出処理により得られた情報でもよい。当該タイプの1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該タイプの1以上の対象者の感情を一般化して示すものである。
 以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。或るタイプに分類された対象者が5人であった場合において、当該5人の対象者から、0.5[℃]を示す第1生体情報が取得された時点と同時点において取得された感情情報が、高い快適度合いを示したとする。この場合において当該高い快適度合いを示す数値、または、当該数値を平均したものが、「当該或るタイプの5人の対象者の、0.5[℃]である、体表温度の時間的変化量と対応する感情情報」、すなわち「当該或るタイプの5人の対象者の身体の状態を示す生体情報に対応する感情情報」の例となる。また、当該5人の対象者から得られた第1生体情報と感情情報の各値を用いて、回帰分析などにより第1生体情報と感情情報との関係が数式化された場合には、当該数式に当該0.5[℃]と代入して得られる感情情報の値が、「当該或るタイプの5人の対象者の身体の状態を示す生体情報に対応する感情情報」の例となる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における当該或るタイプの当該5人の対象者の感情を一般的に示すものと考えられる。
 実施の形態3における関連構築部4は、各対象者の識別情報と、当該各対象者のタイプを示すタイプ情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築してもよい。
 推定部6は、関連情報において、タイプ情報と、第1生体情報と、当該第1生体情報に対応する感情情報とが関連付けられている場合には、推定生体情報取得部5が取得した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。なお、実施の形態3では、第1生体情報の値によって、タイプ情報が一意的に決まるものとする。推定部6は、当該第2生体情報と等しい第1生体情報と関連付けられたタイプ情報を抽出し、当該第2生体情報の取得元の対象者のタイプを推定してもよい。
 推定部6は、関連情報において、識別情報と、タイプ情報と、第1生体情報と、当該第1生体情報に対応する感情情報とが関連付けられている場合には、推定生体情報取得部5が取得した識別情報、および、推定生体情報取得部5が取得した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、当該識別情報、および、当該第2生体情報と等しい第1生体情報に関連付けられたタイプ情報を抽出し、当該第2生体情報の取得元の対象者のタイプを推定してもよい。
 推定部6は、タイプ情報を抽出した場合には、抽出した当該タイプ情報を外部の機器に出力するよう出力部7に指示する。出力部7は、当該タイプ情報を外部の機器に出力する。当該外部の機器が、上述の表示装置である場合には、出力部7から取得したタイプ情報を表示する。当該外部の機器が、上述の音声出力装置である場合には、出力部7から取得したタイプ情報を音声出力する。当該外部の機器が、上述の端末である場合には、出力部7から取得したタイプ情報を表示または音声出力する。これにより、対象者は、当該対象者のタイプを知ることができる。なお、対象者は、感情推定装置100と接続された当該端末を用いて記憶部1を参照することによって、当該対象者のタイプを知ることもできる。
 対象者が自己のタイプを知る場合には、当該対象者は、第2生体情報の取得の際において、不図示の、キーボードまたはタッチパネル等の入力装置に、当該タイプを示すタイプ情報を入力してもよい。そして、推定部6は、当該対象者の識別情報および当該タイプ情報、または、当該タイプ情報と関連付けられた感情情報を抽出し、当該対象者の感情を推定してもよい。
 図5は、実施の形態3に係る感情推定処理を例示するフローチャートである。ここでは、準備生体情報取得部2および準備感情情報取得部3は、各対象者を識別する識別情報を取得する場合を例に挙げて説明する。ステップS41~ステップS44における各処理は、上記ステップS21~およびステップS24における各処理と同様であるため、説明を省略する。
 ステップS44において上記期間が終了した場合には(ステップS44:YES)、ステップS45において関連構築部4は、クラスター分析を行い、各対象者を複数のタイプのいずれかに分類する。ステップS46において関連構築部4は、タイプ情報と、当該タイプ情報が示すタイプの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。あるいは、ステップS46において関連構築部4は、各対象者の識別情報と、当該各対象者のタイプを示すタイプ情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ステップS47における処理は、ステップS6における処理と同様であるため、説明を省略する。ステップS48における処理は、ステップS7またはステップS27における処理と同様であるため、説明を省略する。ステップS49における処理は、ステップS8における処理と同様であるため、説明を省略する。
 ステップS50において推定部6は、ステップS49において解析された第2生体情報と等しい第1生体情報と関連付けられた感情情報とタイプ情報とを抽出する。あるいは、推定部6は、当該第2生体情報の取得元の上記いずれかの対象者を識別する識別情報と、当該第2生体情報に等しい第1生体情報と、に関連付けられた感情情報とタイプ情報とを抽出する。ステップS51において推定部6は、抽出した感情情報およびタイプ情報を、外部の機器に出力するよう出力部7に指示を行う。ステップS51の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS48の処理から実行する。
 以下、実施の形態3に係る感情推定装置200による効果について説明する。実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から、感情情報として、当該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、当該複数の対象者の各々の当該快適度の要因を示す要因情報を取得する。準備感情情報取得部3は、快適度を評点法に基づいて取得し、要因情報を自由記述法に基づいて取得する。関連構築部4は、複数の対象者の各々からの要因情報を用いてクラスター分析を行い、当該複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類する。関連構築部4は、タイプを示すタイプ情報と、当該タイプに分類された複数の対象者のうちの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の感情を示し、該1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の身体の状態を示す第2生体情報と等しい第1生体情報に関連付けられた感情情報およびタイプ情報を抽出する。推定部6は、抽出した当該感情情報によって当該いずれかの対象者の感情を推定し、且つ、抽出した当該タイプ情報によって当該いずれかの対象者のタイプを推定する。これにより、関連情報は、「温熱タイプ」または「内的タイプ」等のタイプに特有の、第1生体情報と感情情報との相関を示すものとなる。従って、推定部6は、対象者のタイプに応じて、第2生体情報を用いて、対象者の感情を高精度に推定できる。
 実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から、感情情報として、当該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、当該複数の対象者の各々の当該快適度の要因を示す要因情報を取得する。準備感情情報取得部3は、快適度を評点法に基づいて取得し、要因情報を自由記述法に基づいて取得する。準備生体情報取得部2および準備感情情報取得部3は、複数の対象者の各々を識別するための識別情報を取得する。関連構築部4は、複数の対象者の各々からの要因情報を用いてクラスター分析を行い、当該複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類する。関連構築部4は、複数の対象者の各々の識別情報と、複数の対象者の各々のタイプを示すタイプ情報と、複数の対象者の各々の身体の状態を示す第1生体情報と、複数の対象者の各々の感情を示し、複数の対象者の各々の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の識別情報、および、第2生体情報と等しい第1生体情報に、関連付けられた感情情報およびタイプ情報を抽出する。推定部6は、抽出した当該感情情報によって当該いずれかの対象者の感情を推定し、且つ、抽出した当該タイプ情報によって当該いずれかの対象者のタイプを推定する。これにより、関連情報は、対象者毎に、身体の状態と、感情との相関を示すものとなる。従って、推定部6は、当該関連情報を用いることにより、対象者毎に感情を推定することができる。よって、感情推定装置100は、対象者毎にタイプに応じて高精度に感情を推定することができる。
 実施の形態3における関連構築部4は、各対象者からの要因情報と共に、各対象者からの第1生体情報、および、各対象者からの快適度のうちの少なくとも一方を用いてクラスター分析を行い、各対象者を、複数のタイプのうちのいずれかのタイプに分類する。これにより、関連構築部4は、各対象者を詳細にタイプ分類することができる。従って、関連情報の精度が更に向上する。よって、感情推定装置100による感情の推定精度が向上する。
 実施の形態3に係る感情推定装置100は、外部の機器と通信する出力部7を更に備える。推定部6は、抽出した感情情報およびタイプ情報を、外部の機器に送信するよう出力部7を制御する。これにより、端末、表示装置、または音声出力装置等の、外部の機器のユーザは、当該いずれかの対象者の感情とタイプとを知ることができる。なお、当該ユーザが、当該いずれかの対象者である場合には、当該いずれかの対象者は、自己のタイプを知ることができる。
 実施の形態4.
 実施の形態4に係る感情推定装置100は、対象者の感情を、更に高い精度で推定するものである。以下、実施の形態4について説明する、なお、実施の形態4における構成要素において、実施の形態1~実施の形態3における構成要素と同様のものには、実施の形態1~実施の形態3における符号と同様の符号を付す。また、実施の形態4の内容において、実施の形態1~実施の形態3の内容と同様のものについては、特段の事情が無い限り説明を省略する。
 実施の形態4に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1~実施の形態3に係る感情推定装置100における機能ブロックと同様である。なお、実施の形態4における準備感情情報取得部3は、上記実施の形態1と同様に感情情報を取得する。
 人の身体状態を示す生体情報のうち、安静時における顔温度との差分、頬と額の温度差、心電指標の値、または、皮膚電気反応を示す値が、当該人の感情と強く相関する。実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、顔温度、心電データ、および皮膚電気反応データ等のうちの、少なくとも1つを含む第1生体情報を取得する。準備生体情報取得部2は、例えば赤外線センサによって、顔温度を検知する。また、準備生体情報取得部2は、例えばウェアラブルセンサによって、心電データまたは皮膚電気反応データを取得する。
 準備生体情報取得部2は、取得した第1生体情報に基づいて、当該複数の対象者の各々の、安静時における顔温度との差分、頬と額の温度差、心電指標の値、および皮膚電気反応を示す値等のうちの少なくとも1つを含む第1生体情報を演算する。なお、準備生体情報取得部2は、安静時における顔温度との差分を演算する場合には、安静時における顔温度を予め取得しているものとする。
 推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者の、顔温度、心電データ、および皮膚電気反応データ等のうちの少なくとも1つを含む第2生体情報を取得する。推定生体情報取得部5は、例えば赤外線センサによって、顔温度を検知する。また、推定生体情報取得部5は、例えばウェアラブルセンサによって、心電データまたは皮膚電気反応データを取得する。
 推定生体情報取得部5は、取得した第2生体情報に基づいて、当該いずれかの対象者の、安静時における顔温度との差分、頬と額の温度差、心電指標の値、および皮膚電気反応を示す値等のうちの少なくとも1つを含む第2生体情報を演算する。
 上記心電指標としては、高周波数帯域、低周波数帯域、超低周波数帯域、または心拍間隔の標準偏差等が、感情と強く相関するため、好ましい。また、皮膚電気反応を示す値としては、発汗量、反応振幅、出現頻度、反応時間、または回復時間等が、感情と強く相関するため、好ましい。
 実施の形態4における感情推定装置100による感情推定処理は、図3~図5を参照して説明した、実施の形態1~実施の形態3に係る感情推定処理と以下の点以外において同様である。
 以下、実施の形態4に係る感情推定装置100による効果について説明する。準備生体情報取得部2は、複数の対象者の各々の、顔温度を含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の顔温度を用いて、当該各対象者の顔温度の、当該各対象者の安静時における顔温度からの差分、または、当該各対象者の頬と額の温度差を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の顔温度を含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の顔温度を用いて、当該いずれかの対象者の顔温度の、当該いずれかの対象者の安静時における顔温度からの差分、または、当該いずれかの対象者の頬と額の温度差を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。安静時における顔温度からの差分、および、頬と額の温度差は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該差分または当該温度差を用いることにより、感情推定装置100による感情の推定精度が向上する。
 実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、心電データを含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の心電データを用いて、当該各対象者の心電指標の値を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の心電データを含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の心電データを用いて、当該いずれかの対象者の心電指標の値を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。心電指標は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該心電指標を用いることにより、感情推定装置100による推定精度が向上する。
 実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、皮膚電気反応データを含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の皮膚電気反応データを用いて、当該各対象者の皮膚電気反応を示す値を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の皮膚電気反応データを含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の皮膚電気反応データを用いて、当該いずれかの対象者の皮膚電気反応を示す値を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。皮膚電気反応は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該皮膚電気反応を示す値を用いることにより、感情推定装置100による推定精度が向上する。
 準備生体情報取得部2および推定生体情報取得部5は、それぞれウェアラブルセンサを有する。これにより、準備生体情報取得部2は、複数の対象者の各々から日常的に第1生体情報を取得することができる。従って、関連情報は、日常における各対象者の身体状態と感情との相関を詳細に示すものとなる。また、推定生体情報取得部5は、上記いずれかの対象者の日常における第2生体情報を取得することができる。これにより、感情推定装置100は、日常における対象者の感情を精度良く推定できる。
 以上、実施の形態について説明したが、本開示の内容は、実施の形態に限定されるものではなく、想定しうる均等の範囲を含む。
 1 記憶部、2 準備生体情報取得部、3 準備感情情報取得部、4 関連構築部、5 推定生体情報取得部、6 推定部、7 出力部、11 プロセッサ、12 メモリ、13 記憶装置、14 第1入力インターフェース回路、15 センサ、16 第2入力インターフェース回路、17 入力装置、18 出力インターフェース回路、19 バス、100 感情推定装置。

Claims (19)

  1.  推定空間内に存在する複数の対象者の感情を推定する感情推定装置であって、
     準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得部と、
     前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得部と、
     前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築部と、
     前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得部と、
     前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定部と、
     を備える、感情推定装置。
  2.  前記関連構築部は、
     前記準備感情情報取得部が前記複数の対象者の各々から取得した前記感情情報と、前記準備感情情報取得部が前記複数の対象者の各々から該感情情報を取得した時点を起点として前後予め定められた時間以内に前記準備生体情報取得部が前記複数の対象者の各々から取得した前記第1生体情報と、を用いて前記関連情報を構築する、請求項1に記載の感情推定装置。
  3.  前記準備感情情報取得部は、
     前記準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、該複数の時点の各々における前記複数の対象者の各々の感情を示す前記感情情報を取得し、
     前記関連構築部は、
     前記複数の時点の各々において前記準備生体情報取得部が前記複数の対象者の各々から取得した前記第1生体情報と、前記複数の時点の各々において前記準備感情情報取得部が前記複数の対象者の各々から取得した前記感情情報と、を用いて前記関連情報を構築する、請求項1または請求項2に記載の感情推定装置。
  4.  前記期間は、2日以上の期間であって、
     前記準備感情情報取得部は、
     各日にちにおける、予め定められた1以上の時刻、または、ランダムな1以上の時刻において、前記複数の対象者の各々から前記感情情報を取得する、請求項3に記載の感情推定装置。
  5.  前記期間は5日以上である、請求項4に記載の感情推定装置。
  6.  外部の機器と通信する出力部を更に備え、
     前記推定部は、
     抽出した前記感情情報を、前記外部の機器に送信するよう前記出力部を制御する、請求項1~請求項5のいずれか一項に記載の感情推定装置。
  7.  前記準備生体情報取得部および前記準備感情情報取得部は、
     前記複数の対象者の各々を識別するための識別情報を取得し、
     前記関連構築部は、
     前記複数の対象者の各々の前記識別情報と、前記複数の対象者の各々の身体の状態を示す前記第1生体情報と、前記複数の対象者の各々の感情を示し、前記複数の対象者の各々の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
     前記推定部は、
     前記関連情報において、前記いずれかの対象者の前記識別情報、および、前記第2生体情報と等しい前記第1生体情報に、関連付けられた前記感情情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定する、請求項1~請求項5のいずれか一項に記載の感情推定装置。
  8.  前記準備感情情報取得部は、
     評価グリッド法に基づいて、前記複数の対象者の各々から、前記感情情報として、該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、該複数の対象者の各々の該快適度の要因を示す要因情報を取得する、請求項1~請求項5のいずれか一項に記載の感情推定装置。
  9.  前記準備感情情報取得部は、
     前記快適度を評点法に基づいて取得し、
     前記要因情報を自由記述法に基づいて取得する、請求項8に記載の感情推定装置。
  10.  前記関連構築部は、
     前記複数の対象者の各々からの前記要因情報を用いてクラスター分析を行い、前記複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類し、
     前記タイプを示すタイプ情報と、該タイプに分類された前記複数の対象者のうちの1以上の対象者の身体の状態を示す第1生体情報と、該1以上の対象者の感情を示し、該1以上の対象者の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
     前記推定部は、
     前記関連情報において、前記いずれかの対象者の身体の状態を示す前記第2生体情報と等しい前記第1生体情報に関連付けられた、前記感情情報および前記タイプ情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定し、且つ、抽出した該タイプ情報によって前記いずれかの対象者の前記タイプを推定する、請求項8または請求項9に記載の感情推定装置。
  11.  前記準備生体情報取得部および前記準備感情情報取得部は、
     前記複数の対象者の各々を識別するための識別情報を取得し、
     前記関連構築部は、
     前記複数の対象者の各々からの前記要因情報を用いてクラスター分析を行い、前記複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類し、
     前記複数の対象者の各々の前記識別情報と、前記複数の対象者の各々の前記タイプを示すタイプ情報と、前記複数の対象者の各々の身体の状態を示す前記第1生体情報と、前記複数の対象者の各々の感情を示し、前記複数の対象者の各々の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
     前記推定部は、
     前記関連情報において、前記いずれかの対象者の前記識別情報、および、前記第2生体情報と等しい前記第1生体情報に関連付けられた、前記感情情報および前記タイプ情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定し、且つ、抽出した該タイプ情報によって前記いずれかの対象者の前記タイプを推定する、請求項8または請求項9に記載の感情推定装置。
  12.  前記関連構築部は、
     前記複数の対象者の各々からの前記要因情報と共に、前記複数の対象者の各々からの前記第1生体情報、および、前記複数の対象者の各々からの前記快適度のうちの少なくとも一方を用いてクラスター分析を行い、前記複数の対象者の各々を、前記複数のタイプのうちのいずれかの前記タイプに分類する、請求項10または請求項11に記載の感情推定装置。
  13.  外部の機器と通信する出力部を更に備え、
     前記推定部は、
     抽出した前記感情情報および前記タイプ情報を、前記外部の機器に送信するよう前記出力部を制御する、請求項11または請求項12に記載の感情推定装置。
  14.  前記準備生体情報取得部は、
     前記複数の対象者の各々の、顔温度を含む前記第1生体情報を取得し、
     前記複数の対象者の各々の前記顔温度を用いて、該複数の対象者の各々の前記顔温度の、該複数の対象者の各々の安静時における前記顔温度からの差分、または、前記複数の対象者の各々の頬と額の温度差を含む、前記第1生体情報を演算し、
     前記関連構築部は、
     前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
     前記推定生体情報取得部は、
     前記いずれかの対象者の顔温度を含む前記第2生体情報を取得し、
     前記いずれかの対象者の前記顔温度を用いて、該いずれかの対象者の前記顔温度の、該いずれかの対象者の安静時における前記顔温度からの差分、または、前記いずれかの対象者の頬と額の温度差を含む前記第2生体情報を演算し、
     前記推定部は、
     前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の感情を推定する、請求項1~請求項13のいずれか一項に記載の感情推定装置。
  15.  前記準備生体情報取得部および前記推定生体情報取得部は、それぞれ赤外線センサを有し、
     前記赤外線センサは、前記顔温度を検知する、請求項14に記載の感情推定装置。
  16.  前記準備生体情報取得部は、
     前記複数の対象者の各々の、心電データを含む前記第1生体情報を取得し、
     前記複数の対象者の各々の前記心電データを用いて、該複数の対象者の各々の心電指標の値を含む前記第1生体情報を演算し、
     前記関連構築部は、
     前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
     前記推定生体情報取得部は、
     前記いずれかの対象者の心電データを含む前記第2生体情報を取得し、
     前記いずれかの対象者の前記心電データを用いて、該いずれかの対象者の心電指標の値を含む前記第2生体情報を演算し、
     前記推定部は、
     前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の感情を推定する、請求項1~請求項13のいずれか一項に記載の感情推定装置。
  17.  前記準備生体情報取得部は、
     前記複数の対象者の各々の、皮膚電気反応データを含む前記第1生体情報を取得し、
     前記複数の対象者の各々の前記皮膚電気反応データを用いて、該複数の対象者の各々の皮膚電気反応を示す値を含む前記第1生体情報を演算し、
     前記関連構築部は、
     前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
     前記推定生体情報取得部は、
     前記いずれかの対象者の皮膚電気反応データを含む前記第2生体情報を取得し、
     前記いずれかの対象者の前記皮膚電気反応データを用いて、該いずれかの対象者の皮膚電気反応を示す値を含む前記第2生体情報を演算し、
     前記推定部は、
     前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の前記感情を推定する、請求項1~請求項13のいずれか一項に記載の感情推定装置。
  18.  前記準備生体情報取得部および前記推定生体情報取得部は、それぞれウェアラブルセンサを有する、請求項16または請求項17に記載の感情推定装置。
  19.  推定空間内に存在する複数の対象者の感情を推定する感情推定装置が実行する感情推定方法であって、
     準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得ステップと、
     前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得ステップと、
     前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築ステップと、
     前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得ステップと、
     前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定ステップと、
     を含む、感情推定方法。
PCT/JP2021/010340 2021-03-15 2021-03-15 感情推定装置および感情推定方法 WO2022195661A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/278,003 US12097031B2 (en) 2021-03-15 2021-03-15 Emotion estimation apparatus and emotion estimation method
PCT/JP2021/010340 WO2022195661A1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法
CN202180095436.1A CN116963667B (zh) 2021-03-15 2021-03-15 情绪推测装置以及情绪推测方法
JP2021550162A JP6976498B1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010340 WO2022195661A1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法

Publications (1)

Publication Number Publication Date
WO2022195661A1 true WO2022195661A1 (ja) 2022-09-22

Family

ID=78815494

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010340 WO2022195661A1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法

Country Status (4)

Country Link
US (1) US12097031B2 (ja)
JP (1) JP6976498B1 (ja)
CN (1) CN116963667B (ja)
WO (1) WO2022195661A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043061A1 (ja) * 2016-09-01 2018-03-08 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP2018187044A (ja) * 2017-05-02 2018-11-29 国立大学法人東京工業大学 感情推定装置、感情推定方法およびコンピュータプログラム
JP2019126657A (ja) * 2018-01-26 2019-08-01 富士ゼロックス株式会社 検出装置、及び検出プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840644B1 (ko) * 2011-05-31 2018-03-22 한국전자통신연구원 감성인지 기반 보디가드 시스템, 감성인지 디바이스, 영상 및 센서 제어 장치, 신변 보호 관리 장치 및 그 제어 방법
JP6096857B1 (ja) 2015-10-15 2017-03-15 ダイキン工業株式会社 感情判定装置
US10709338B2 (en) 2015-10-15 2020-07-14 Daikin Industries, Ltd. Useful information presentation device
US20200060597A1 (en) * 2016-12-14 2020-02-27 Mitsubishi Electric Corporation State estimation device
JP6839818B2 (ja) * 2017-05-17 2021-03-10 パナソニックIpマネジメント株式会社 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
CN107679067A (zh) * 2017-08-04 2018-02-09 平安科技(深圳)有限公司 信息推荐方法及移动终端
JP6906197B2 (ja) * 2017-09-29 2021-07-21 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN108095740B (zh) * 2017-12-20 2021-06-22 姜涵予 一种用户情绪评估方法和装置
CN108154398B (zh) * 2017-12-27 2021-01-12 Oppo广东移动通信有限公司 信息显示方法、装置、终端及存储介质
EP4000520A1 (en) * 2020-11-12 2022-05-25 Koninklijke Philips N.V. Method and system for sensor signals dependent dialog generation during a medical imaging process

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043061A1 (ja) * 2016-09-01 2018-03-08 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP2018187044A (ja) * 2017-05-02 2018-11-29 国立大学法人東京工業大学 感情推定装置、感情推定方法およびコンピュータプログラム
JP2019126657A (ja) * 2018-01-26 2019-08-01 富士ゼロックス株式会社 検出装置、及び検出プログラム

Also Published As

Publication number Publication date
US12097031B2 (en) 2024-09-24
CN116963667B (zh) 2025-01-28
US20240032835A1 (en) 2024-02-01
JPWO2022195661A1 (ja) 2022-09-22
CN116963667A (zh) 2023-10-27
JP6976498B1 (ja) 2021-12-08

Similar Documents

Publication Publication Date Title
Nkurikiyeyezu et al. The effect of person-specific biometrics in improving generic stress predictive models
CN109009017B (zh) 一种智能健康监测系统及其数据处理方法
US20160321403A1 (en) Data collection method and apparatus
US7621871B2 (en) Systems and methods for monitoring and evaluating individual performance
JP7534789B2 (ja) 血圧推定システム、血圧推定方法、学習装置、学習方法及びプログラム
CN107405072A (zh) 用于生成个体的压力水平信息和压力弹性水平信息的系统和方法
JP7338886B2 (ja) エリア別環境管理システム及び方法とプログラム
CN113096808B (zh) 事件提示方法、装置、计算机设备及存储介质
US20240282469A1 (en) Monitoring a person using machine learning
JP2016129629A (ja) 生体状態推定装置
CN111265209A (zh) 一种基于心电图和脑电图来评判着装接触舒适度的方法
WO2022195661A1 (ja) 感情推定装置および感情推定方法
JP7625203B2 (ja) 熱ストレスの影響推定装置、熱ストレスの影響推定方法、及び、コンピュータプログラム
TW202247816A (zh) 非接觸式心律類別監測系統及方法
JP7001469B2 (ja) 肌状態認識システム
JP2019017946A (ja) 気分推定システム
EP4012722A1 (en) Sleep quality analysis
JP2018190176A (ja) 画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法
CN115280355A (zh) 舒适性解析装置以及环境控制用指令装置
KR102427263B1 (ko) 빅데이터를 이용한 맞춤형 물리치료장치 및 그 제어방법
JP7280333B2 (ja) 画像表示装置
Fernandeza et al. Application of heart rate variability for thermal comfort in office buildings in real-life conditions
WO2023074283A1 (ja) 健康状態判定方法、及び、健康状態判定システム
CN118866354A (zh) 神经发育评估方法、装置、设备及存储介质
WO2023074284A1 (ja) 健康状態判定方法、及び、健康状態判定システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021550162

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21931417

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18278003

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180095436.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21931417

Country of ref document: EP

Kind code of ref document: A1