JP2007296169A - Mental condition judging apparatus, and program - Google Patents
Mental condition judging apparatus, and program Download PDFInfo
- Publication number
- JP2007296169A JP2007296169A JP2006127306A JP2006127306A JP2007296169A JP 2007296169 A JP2007296169 A JP 2007296169A JP 2006127306 A JP2006127306 A JP 2006127306A JP 2006127306 A JP2006127306 A JP 2006127306A JP 2007296169 A JP2007296169 A JP 2007296169A
- Authority
- JP
- Japan
- Prior art keywords
- excitement
- voice
- subject
- biological
- mental state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003340 mental effect Effects 0.000 title abstract 5
- 230000006996 mental state Effects 0.000 claims description 79
- 208000019901 Anxiety disease Diseases 0.000 claims description 20
- 230000008451 emotion Effects 0.000 description 18
- 230000036506 anxiety Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000017531 blood circulation Effects 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 230000004800 psychological effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000002889 sympathetic effect Effects 0.000 description 3
- 206010003591 Ataxia Diseases 0.000 description 2
- 206010003694 Atrophy Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- UCTWMZQNUQWSLP-UHFFFAOYSA-N adrenaline Chemical compound CNCC(O)C1=CC=C(O)C(O)=C1 UCTWMZQNUQWSLP-UHFFFAOYSA-N 0.000 description 2
- 230000037444 atrophy Effects 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000007177 brain activity Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000005556 hormone Substances 0.000 description 2
- 229940088597 hormone Drugs 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 210000005037 parasympathetic nerve Anatomy 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000028327 secretion Effects 0.000 description 2
- 238000010206 sensitivity analysis Methods 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000009423 ventilation Methods 0.000 description 2
- 208000000059 Dyspnea Diseases 0.000 description 1
- 206010013975 Dyspnoeas Diseases 0.000 description 1
- 206010049816 Muscle tightness Diseases 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 108010064719 Oxyhemoglobins Proteins 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 208000034804 Product quality issues Diseases 0.000 description 1
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- 210000004727 amygdala Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000133 brain stem Anatomy 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 210000001638 cerebellum Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000001079 digestive effect Effects 0.000 description 1
- 210000002249 digestive system Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002124 endocrine Effects 0.000 description 1
- 230000029142 excretion Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000001320 hippocampus Anatomy 0.000 description 1
- 210000003016 hypothalamus Anatomy 0.000 description 1
- 210000000987 immune system Anatomy 0.000 description 1
- 210000003715 limbic system Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 210000002751 lymph Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000005259 peripheral blood Anatomy 0.000 description 1
- 239000011886 peripheral blood Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 229920006327 polystyrene foam Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、心的状態判定装置、およびプログラムに関する。 The present invention relates to a mental state determination device and a program.
従来、心拍などの生体情報に基づいて、被験者の精神状態を推定する技術が知られている。例えば、特許文献1には、心拍数が高いほど、被験者の興奮度が高いと判断するとの記載がある。
なお、本発明者は、特許文献2において、被験者の音声信号に基づいて、被験者の精神状態を推定する技術を開示している。
In addition, in this patent document, this inventor is disclosing the technique which estimates a test subject's mental state based on a test subject's audio | voice signal.
一般に、不安のような心理的なストレスがかかると、被験者の生理的な興奮度は高まり、心拍数が増加する。また、強い怒りを感じる状況においても、被験者の生理的な興奮度は同様に高まり、心拍数が増加する。そのため、心拍などの生体情報のみでは、不安/怒りといった心的状態を的確に区別することが難しかった。
そこで、本発明では、被験者の心的状態を的確に区別する技術を提供する。
In general, when psychological stress such as anxiety is applied, the subject's physiological excitement increases and the heart rate increases. Also in a situation where a strong anger is felt, the physiological excitement level of the subject similarly increases and the heart rate increases. For this reason, it is difficult to accurately distinguish mental states such as anxiety / anger by using only biological information such as heartbeats.
Therefore, the present invention provides a technique for accurately distinguishing the mental state of the subject.
《1》 本発明の心的状態判定装置は、生体興奮度判定部、音声興奮度判定部、対応記憶部、および推定部を備える。
生体興奮度判定部は、生理的な興奮や緊張のレベルを反映する生体情報を取得し、生体情報に基づいて被験者の生理的な興奮度(以下『生体興奮度』という)を判断する。
音声興奮度判定部は、被験者の音声信号に基づいて、被験者の音声的な興奮度(以下『音声興奮度』という)を判断する。
対応記憶部は、予め定められた『生体興奮度および音声興奮度』と『心的状態』との対応関係を保持する。
推定部は、対応関係に基づいて、被験者の生体興奮度および音声興奮度から、被験者の心的状態を推定する。
《2》 なお好ましくは、上記の推定部は、生体興奮度が高いと判断され、かつ音声興奮度が低いと判断された場合に、被験者は不安の状態にあると推定する。
《3》 また好ましくは、上記の推定部は、生体興奮度が高いと判断され、かつ音声興奮度が高いと判断された場合、被験者は怒りまたは極度の不安の状態と推定する。
《4》 なお好ましくは、上記の推定部は、生体興奮度が低いと判断され、かつ音声興奮度が低いと判断された場合、被験者は鬱または恐怖の状態であると推定する。
《5》 本発明のプログラムは、コンピュータを、請求項1ないし請求項5のいずれか1項に記載の心的状態判定装置として機能させるためのプログラムである。
<< 1 >> The mental state determination device of the present invention includes a biological excitement level determination unit, a voice excitement level determination unit, a correspondence storage unit, and an estimation unit.
The biological excitement level determination unit acquires biological information reflecting the level of physiological excitement and tension, and determines the physiological excitement level of the subject (hereinafter referred to as “biological excitement level”) based on the biological information.
The voice excitement level determination unit determines the voice excitement level of the subject (hereinafter referred to as “voice excitement level”) based on the voice signal of the subject.
The correspondence storage unit holds a correspondence relationship between a predetermined “biological excitement level and voice excitement level” and “mental state”.
An estimation part estimates a test subject's mental state from a test subject's biological excitement degree and audio | voice excitement degree based on a correspondence.
<< 2 >> Preferably, the estimation unit estimates that the subject is in an anxiety state when it is determined that the degree of biological excitement is high and the degree of voice excitement is low.
<< 3 >> Preferably, the estimation unit determines that the subject is angry or extremely uneasy when it is determined that the biological excitement level is high and the voice excitement level is high.
<< 4 >> Preferably, the estimation unit estimates that the subject is depressed or terrified when it is determined that the biological excitement level is low and the voice excitement level is low.
<< 5 >> The program of the present invention is a program for causing a computer to function as the mental state determination device according to any one of claims 1 to 5.
[1] 上述した本発明では、被験者の興奮度を、生体情報と音声信号の2種類の切り口からそれぞれ判断する。
この内、生体情報は、血圧や心拍のように、意志によるコントロールが困難な不随意の情報である。この生体情報からは、不随意に人体に現れる興奮や緊張、すなわち生体興奮度を判断することができる。
一方、音声信号は、被験者の感情や意志を反映して変化する情報である。この音声信号からは、被験者の感情や意志をよく反映した興奮度、すなわち音声興奮度を判断することができる。
通常、これら2種類の生体興奮度と音声興奮度は同一傾向を示し、正の相関を強く示すと考えられる。しかしながら、本発明者は、ストレスや意志などを原因として、生体興奮度と音声興奮度は別の傾向を示すことに気が付いた。
このことから、生体興奮度と音声興奮度が同一傾向を示す場合、被験者は、感情を表白できる素直な心的状態にあると判断できる。一方、生体興奮度と音声興奮度が別の傾向を示す場合、被験者は、不安定な心的状態(強い情動、ストレス、ひらめき、演技、または、嘘など)にあると判断できる。
本発明は、このような現象を活用して、生体興奮度および音声興奮度を比較対照することによって、心的状態をより詳細に区分することに成功している。
[1] In the present invention described above, the degree of excitement of the subject is determined from two types of cuts, that is, biological information and audio signals.
Among these, biometric information is involuntary information that is difficult to control by will, such as blood pressure and heart rate. From this biological information, it is possible to determine the excitement and tension that appear involuntarily in the human body, that is, the degree of biological excitement.
On the other hand, the audio signal is information that changes reflecting the emotion and will of the subject. From this voice signal, it is possible to determine the degree of excitement that reflects the subject's emotions and intentions, that is, the degree of voice excitement.
Normally, it is considered that these two types of biological excitement and voice excitement show the same tendency and strongly show a positive correlation. However, the present inventor has noticed that the degree of biological excitement and the degree of voice excitement show different tendencies due to stress and will.
From this, when the degree of biological excitement and the degree of voice excitement show the same tendency, it can be determined that the subject is in an honest mental state that can express emotions. On the other hand, when the biological excitement level and the voice excitement level show different tendencies, it can be determined that the subject is in an unstable mental state (strong emotion, stress, inspiration, acting, lie, etc.).
The present invention has succeeded in classifying mental states in more detail by comparing and contrasting the degree of biological excitement and the degree of voice excitement by utilizing such a phenomenon.
[2] なお、不随意な人体の興奮や緊張が高い一方で、感情や意志を反映する音声興奮度が低いケースが起こりうる。このようなケースは、被験者が不安(心配)を抱えた心的状態にあると考えられる。すなわち、不安による生命危機に対抗するために交感神経が活性化し、生体興奮度は上昇する。一方、不安によって精神が萎縮するため、音声興奮度は下がる。
そこで、生体興奮度が高いと判断され、かつ音声興奮度が低いと判断された場合は、被験者は不安の状態にあると推定することが好ましい。
[2] In addition, while the involuntary human excitement and tension are high, there may be cases where the degree of voice excitement reflecting emotions and intentions is low. Such a case is considered to be in a mental state in which the subject has anxiety (anxiety). That is, the sympathetic nerve is activated to counter the life crisis due to anxiety, and the biological excitement level is increased. On the other hand, the degree of voice excitement decreases because the anxiety causes atrophy.
Therefore, when it is determined that the degree of biological excitement is high and the degree of voice excitement is low, it is preferable to estimate that the subject is in an anxiety state.
[3] また、不随意な人体の興奮や緊張が高く、かつ感情や意志を反映する音声興奮度も高いケースが起こりうる。もしも生体興奮度および音声興奮度が正常範囲にあれば、このケースは、怒りなどの興奮感情を素直に表白する心的状態にあると考えられる。そこで、2種類の興奮度が正常範囲内で揃って高ければ、怒りの状態と推定することが好ましい。
なお、このケースにおいて音声興奮度が顕著に高いような場合、不安情動が強いために感情の萎縮状態を超えて失調(分裂)状態に移行した可能性もありうる。そこで、2種類の興奮度が高く、かつ音声興奮度が予め定められた正常範囲を超えて高いと判断された場合は、極度な不安の状態と推定することが好ましい。
また、上述した2つの可能性を区別する必要がなければ、被験者は怒りまたは極度の不安のいずれかの状態にあると推定することが好ましい。
[3] In addition, there may be cases where involuntary human body excitement and tension are high, and voice excitement level reflecting emotions and intentions is also high. If the biological excitement level and the voice excitement level are in the normal range, this case is considered to be in a mental state in which excitement emotions such as anger are obediently expressed. Therefore, if the two types of excitement are high within a normal range, it is preferable to estimate an angry state.
In this case, when the degree of voice excitement is remarkably high, there is a possibility that the anxiety emotion is so strong that the emotional atrophy is exceeded and the state is shifted to the ataxia (split) state. Therefore, when it is determined that the two types of excitement levels are high and the voice excitement level is higher than a predetermined normal range, it is preferable to estimate the state of extreme anxiety.
Also, if it is not necessary to distinguish between the two possibilities described above, it is preferable to estimate that the subject is in an angry state or an extreme anxiety state.
[4] なお、不随意な人体の興奮や緊張が低く、かつ感情や意志を反映する音声興奮度も低いケースが起こりうる。このようなケースは、被験者が心底から凍り付いている状態であり、鬱または恐怖の状態であると考えられる。
そこで、生体興奮度が低いと判断され、かつ音声興奮度が低いと判断された場合に、被験者は鬱または恐怖のいずれかの状態にあると推定することが好ましい。
[4] It should be noted that there may be cases where involuntary human excitement and tension are low and voice excitement level reflecting emotions and intentions is also low. Such a case is a state in which the subject is frozen from the bottom of the heart, and is considered to be a state of depression or fear.
Therefore, when it is determined that the degree of biological excitement is low and the degree of voice excitement is low, it is preferable to estimate that the subject is in a state of depression or fear.
《構成説明》
図1は、心的状態判定装置11の構成を示すブロック図である。
図1に示すように、心的状態判定装置11は下記の構成要件を備える。
(1)生体興奮度判定部12…被験者の生体情報に基づいて、生体興奮度のレベルを判断する。
(2)音声解析部14…音声信号を解析し、抑揚およびピッチ周波数の少なくとも一方を含む音声パラメータを検出する。
(3)音声興奮度判定部15…音声パラメータに基づいて、被験者の音声興奮度のレベルを判断する。
(4)対応記憶部18…『生体興奮度のレベル』と『音声興奮度のレベル』の組み合わせごとに、『心的状態の推定結果』が予め設定される。この対応関係は、複数人による心的状態の自己申告と、生体興奮度および音声興奮度の判断結果とを対応付けることによって実験的に作成することが好ましい。
(5)推定部17…被験者の『生体興奮度のレベル』および『音声興奮度のレベル』を、対応記憶部18内の対応関係に当てはめ、被験者の心的状態を推定する。
<Description of configuration>
FIG. 1 is a block diagram illustrating a configuration of the mental
As shown in FIG. 1, the mental
(1) Living body excitement
(2)
(3) Voice excitement
(4) Corresponding
(5) Estimating unit 17: The “biological excitement level” and “voice excitement level” of the subject are applied to the correspondence in the
なお、上述した構成要件については、その一部または全部をハードウェア的に構成してもよい。また、コンピュータにおいてプログラムを実行することにより、これら構成要件の一部または全部をソフトウェア的に実現してもよい。 Note that some or all of the above-described configuration requirements may be configured in hardware. Moreover, you may implement | achieve part or all of these structural requirements like software by running a program in a computer.
《動作説明》
図2は、心的状態判定装置11の動作を説明する流れ図である。
以下、図2に沿って、心的状態の推定動作を具体的に説明する。
<Operation description>
FIG. 2 is a flowchart for explaining the operation of the mental
The mental state estimation operation will be specifically described below with reference to FIG.
ステップS1: 生体興奮度判定部12は、心拍計、心電計、血圧計、体温計、皮膚抵抗計、またはカメラなどから、下記の生体情報を少なくとも1つ取得する。
Step S1: The biological excitement
(1)心拍(脈拍)数・・興奮や緊張により体内のアドレナリン分泌量が増すことによって心臓の拍動が増加し、心拍数は増加する。心拍計などにより計測可能である。 (1) Heart rate (pulse rate) ··· Increased adrenaline secretion in the body due to excitement and tension increases the heart beat and increases the heart rate. It can be measured with a heart rate monitor.
(2)心拍変動・・心電波形を周波数解析することにより得られる。低周波成分LF(例えば0.04〜0.14Hz〉は主に交感神経の活動に伴って増え、高周波成分HF(例えば0.14〜0.5Hz)は、副交感神経の活動に伴って増える。低周波成分LFと高周波成分HFの量を対比することにより、興奮や緊張のレベルを判断することができる。心電波形については心電計により計測可能である。心電波形の周波数成分についてはFFT装置や周波数フィルタなどによって解析可能である。 (2) Obtained by frequency analysis of heartbeat variability / electrocardiogram waveform. The low frequency component LF (for example, 0.04 to 0.14 Hz) mainly increases with the activity of the sympathetic nerve, and the high frequency component HF (for example, 0.14 to 0.5 Hz) increases with the activity of the parasympathetic nerve. By comparing the amount of the low-frequency component LF and the high-frequency component HF, the level of excitement and tension can be determined, and the electrocardiogram waveform can be measured by an electrocardiograph. It can be analyzed by an FFT device or a frequency filter.
(3)血圧・・興奮や緊張に伴って血管が収縮すると、血流抵抗が増して血圧が増加する。血圧計により計測可能である。 (3) Blood pressure: When blood vessels contract with excitement or tension, blood flow resistance increases and blood pressure increases. It can be measured with a sphygmomanometer.
(4)体温・・興奮や緊張によって心拍増加、血糖値上昇、筋肉の緊張などが生じ、体内で熱が生成されて体温が上昇する。体温計により計測可能である。 (4) Body temperature: Increased heart rate, blood sugar level, muscle tension, etc. occur due to excitement and tension, and heat is generated in the body to increase body temperature. It can be measured with a thermometer.
(5)発汗量(皮膚抵抗,皮膚電位)・・興奮や緊張によって発汗が促進され、皮膚抵抗が下がる。皮膚抵抗計などにより計測可能である。 (5) Sweating volume (skin resistance, skin potential)-Sweat is promoted by excitement and tension, and skin resistance decreases. It can be measured with a skin resistance meter.
(6)眼球の運動・・興奮や緊張により眼球の運動が激しくなる。眼電位計やカメラ撮影などにより計測可能である。 (6) Eye movements: The eye movements become intense due to excitement and tension. It can be measured by an electrooculometer or camera photography.
(7)瞳孔径・・興奮や緊張により、瞳孔が拡大する。カメラ撮影などにより計測可能である。 (7) Pupil diameter: The pupil expands due to excitement and tension. It can be measured by camera photography.
(8)まばたき数・・興奮や緊張により、まばたきの回数が増える。眼電位計やカメラ撮影などにより計測可能である。 (8) Number of blinks ... The number of blinks increases due to excitement and tension. It can be measured by an electrooculometer or camera photography.
(9)吐息・・興奮や緊張により、吐息の回数,速度,量が上昇する。呼吸量や呼吸音により計測可能である。 (9) Exhalation: The number, speed, and amount of exhalation increase due to excitement and tension. It can be measured by breathing volume and breathing sound.
(10)ホルモン、生体分子などの体内分泌物・・興奮や緊張により、体内におけるホルモンや生体分子の分泌量または質が変化する。唾液、血液、リンパ液、汗、消化液、または尿などの化学分析により計測可能である。また、抹消血管、消化系、筋電位、末梢皮膚温度、血流量、または免疫系などからも分析や計測が可能である。 (10) Endocrine secretions of hormones, biomolecules, etc .. The excretion or tension changes the amount or quality of hormones or biomolecules secreted in the body. It can be measured by chemical analysis such as saliva, blood, lymph, sweat, digestive fluid, or urine. Analysis and measurement are also possible from peripheral blood vessels, digestive system, myoelectric potential, peripheral skin temperature, blood flow, immune system, and the like.
(11)脳波・・興奮や緊張により脳波が変化する。脳波計や光学的脳活動計を用いて計測可能である。 (11) Brain wave: The brain wave changes due to excitement and tension. It can be measured using an electroencephalograph or an optical brain activity meter.
(12)fMRI(functional MRI)情報・・興奮や緊張により脳内の活動部位が変化する。特に、情動レベルの興奮も緊張は、辺縁系(扁桃体)、視床下部、小脳、脳幹、または海馬等に血流量の変化となって現れる。このような血流量の変化は、酸化ヘモグロビンの脳内分布を変化させるため、MRI(磁気共鳴画像装置)などを用いて計測可能である。 (12) fMRI (functional MRI) information: The active site in the brain changes due to excitement and tension. In particular, emotional excitement and tension appear as changes in blood flow in the limbic system (amygdala), hypothalamus, cerebellum, brain stem, hippocampus, and the like. Such a change in blood flow can be measured using an MRI (magnetic resonance imaging apparatus) or the like in order to change the brain distribution of oxyhemoglobin.
なお、上記の生体情報に限らず、交感神経や副交感神経などの生理作用に応じて変化する身体の計測情報であれば、生体情報として使用することができる。 Not only the above-described biological information but also body measurement information that changes according to physiological actions such as sympathetic nerves and parasympathetic nerves can be used as biological information.
ステップS2: 生体興奮度判定部12は、生体情報を閾値判定し、生体興奮度の高低を判断する。
なお、生体情報は個人差が大きいため、被験者別の閾値Th1,Th2を次のように決定することが好ましい。
まず、被験者について生体情報を所定時間に渡って蓄積し、図3に示すような生体情報の度数分布を作成する。この度数分布を統計解析して標準偏差σを求める。この標準偏差σに比例定数Aを乗じることにより、生体興奮度が平常を示す範囲A・σを定める。なお、比例定数Aの値については、複数人による生体興奮度の自己申告と合致するように、実験的に予め決定しておけばよい。
このような範囲A・σの上限を閾値Th1に設定し、下限を閾値Th2に設定する。生体情報が閾値Th1を上回った場合には、生体興奮度が高いと判断する。逆に、生体情報が閾値Th2を下回った場合には、生体興奮度が低いと判断する。
Step S2: The biological excitement
In addition, since biometric information has a large individual difference, it is preferable to determine threshold values Th1 and Th2 for each subject as follows.
First, biological information is accumulated for a subject over a predetermined time, and a frequency distribution of biological information as shown in FIG. 3 is created. The frequency distribution is statistically analyzed to obtain a standard deviation σ. By multiplying this standard deviation σ by a proportionality constant A, a range A · σ where the degree of biological excitement is normal is determined. Note that the value of the proportionality constant A may be experimentally determined in advance so as to match the self-report of the degree of biological excitement by a plurality of persons.
The upper limit of such a range A · σ is set to the threshold value Th1, and the lower limit is set to the threshold value Th2. When the biometric information exceeds the threshold Th1, it is determined that the bioexcitability is high. Conversely, when the biological information falls below the threshold Th2, it is determined that the degree of biological excitement is low.
ステップS3: 音声解析部14は、被験者の音声信号を解析し、抑揚またはピッチ周波数を少なくとも含む音声パラメータを求める。
この抑揚の算出手順については、本発明者の特許第3676969号公報に開示される。すなわち、音声信号の単語内の強度変化パターンから同一周波数成分の領域を検出し、その同一周波数成分の領域が出現する時間間隔を検出して抑揚とする。
一方、ピッチ周波数の算出手順については、次のように実施される。まず、音声信号を周波数スペクトルに変換する。この周波数スペクトルを周波数軸上でずらしながら自己相関波形を求める。求めた自己相関波形のローカルな山と山または谷と谷の間隔に基づいてピッチ周波数を求める。
なお、公知のケプストラム(cepstrum)手法を組み合わせて、音声信号の周波数解析を行ってもよい。
Step S3: The
This inflection calculation procedure is disclosed in Japanese Patent No. 3676969 of the present inventor. That is, the region of the same frequency component is detected from the intensity change pattern in the word of the speech signal, and the time interval in which the region of the same frequency component appears is detected as inflection.
On the other hand, the pitch frequency calculation procedure is performed as follows. First, an audio signal is converted into a frequency spectrum. An autocorrelation waveform is obtained while shifting the frequency spectrum on the frequency axis. A pitch frequency is obtained based on the local peak-to-peak or valley-to-valley interval of the obtained autocorrelation waveform.
Note that frequency analysis of an audio signal may be performed by combining known cepstrum techniques.
ステップS4: 一般に、抑揚が示す『同一周波数成分の出現間隔』が密になるほど、被験者の音声興奮度は高い。また、ピッチ周波数が高いほど、被験者の音声興奮度は高い。
そこで、音声興奮度判定部15は、図4に示すように、抑揚またはピッチ周波数を閾値判定し、音声興奮度の高低を判断する。この場合の閾値Th3,Th4は、ステップS2と同様の統計解析を用いて設定することが好ましい。
Step S4: Generally, the voice excitement level of the subject is higher as the “appearance interval of the same frequency component” indicated by the intonation becomes denser. Further, the higher the pitch frequency, the higher the voice excitement level of the subject.
Therefore, as shown in FIG. 4, the voice excitement
ステップS5: 推定部17は、ステップS2,S4で判断された『生体興奮度のレベル』および『音声興奮度のレベル』を取り込む。推定部17は、これらを対応記憶部18内の対応関係に当てはめ、心的状態の推定結果を求める。
図5は、この対応関係の一例を示す図である。以下、この図に示す組み合わせごとに、心的状態の推定動作を具体的に説明する。
Step S5: The
FIG. 5 is a diagram showing an example of this correspondence. Hereinafter, the mental state estimation operation will be described in detail for each combination shown in this figure.
[その1]生体興奮度が高く、かつ音声興奮度が低いと判断されたケース
このケースは、被験者の内面は興奮状態や緊張状態を示すが、それに反して外面に現れる音声は萎縮した状態を示す。この歪んだ矛盾状態は、一種のストレス状態であり、被験者が不安(心配)を抱えた心的状態であると考えられる。
[Part 1] A case in which the degree of biological excitement is high and the degree of voice excitement is low. In this case, the inner surface of the subject shows an excitement state and a tension state, but the sound that appears on the outer surface on the contrary shows Show. This distorted contradiction state is a kind of stress state and is considered to be a mental state in which the subject has anxiety (anxiety).
[その2]生体興奮度が高く、かつ音声興奮度が高いと判断されたケース
このケースは、人体の興奮や緊張の高まりと共に、音声も一緒に興奮しており、感情を素直に外面に出させる心的状態にあると考えられる。このような状態は、怒りといった比較的原始的な感情状態にあることが多い。なお、音声興奮度が格別に高い場合は、極度の不安によって、一種の失調(分裂)状態になったと考えることもできる。
[Part 2] A case in which the degree of biological excitement is high and the degree of voice excitement is judged to be high. In this case, the excitement and tension of the human body are accompanied by the excitement of the voice. It is thought that it is in the mental state to let you. Such a state is often in a relatively primitive emotional state such as anger. In addition, when the voice excitement level is exceptionally high, it can be considered that a kind of ataxia (split) state is caused by extreme anxiety.
[その3]生体興奮度が低く、かつ音声興奮度が低いと判断されたケース
このケースは、被験者が心底から凍り付いている状態であり、鬱または恐怖の状態であると考えられる。
[No. 3] Case where it is determined that the degree of biological excitement is low and the degree of voice excitement is low. This case is a state in which the subject is frozen from the bottom of the heart, and is considered to be a state of depression or fear.
[その4]生体興奮度が低く、かつ音声興奮度が高いと判断されたケース
このケースは、人体の興奮は落ち着いているのに、それに反して音声が一方的に興奮している状態である。このような状態は、被験者が作為的に音声を興奮させている状態であり、無理に演技(嘘)を行っている状態と考えられる。
[Part 4] Case in which the degree of biological excitement is low and the degree of voice excitement is high. In this case, the excitement of the human body is calm, but the voice is unilaterally excited. . Such a state is a state in which the subject is intentionally excited by voice, and is considered to be a state in which acting (lie) is forcibly performed.
ステップS6: 心的状態判定装置11は、ステップS5で求めた心的状態の推定結果を外部に出力する。
Step S6: The mental
《実施形態の効果など》
従来、心拍数による感情検出では、怒り感情による興奮状態と、不安情動による興奮状態とを区別することができなかった。
一方、本実施形態では、被験者の興奮状態を、血圧や心拍から判断される生理的(不随意)な生体興奮度と、被験者の感情や意志をよく反映する音声興奮度とに区別して判断する。その結果、図5に示すように、不安/怒りと言った心的状態をより的確に判別することに可能になった。
<< Effects of the embodiment >>
Conventionally, emotion detection based on heart rate cannot distinguish between an excitement state due to an anger emotion and an excitement state due to anxiety emotion.
On the other hand, in this embodiment, the state of excitement of the subject is determined by distinguishing between a physiological (involuntary) biological excitement determined from blood pressure and heart rate and a voice excitement that well reflects the subject's emotions and intentions. . As a result, as shown in FIG. 5, it is possible to more accurately determine the mental state such as anxiety / anger.
《実施形態の補足事項》
なお、上述した実施形態では、生体興奮度と音声興奮度をそれぞれ高低2段階にレベル分けし、これらレベルの組み合わせによって、2×2=4種類に心的状態を区別している。しかしながら、実施形態はこれに限定されるものではない。
例えば、興奮度の平常範囲(図3,図4参照)を新たなレベルとすることにより、3×3=9種類に心的状態を区別することもできる。また、生体興奮度や音声興奮度を更に複数段階にレベル分けすることにより、被験者の心的状態を更に細かく区別することが可能になる。また、興奮度以外のパラメータを追加することにより、被験者の心的状態を更に細かく区別することが可能になる。
このように被験者の心的状態を細かく区別することにより、怒りと不安が混合した中間的な心的状態や、そこから自然に移行するであろう焦燥感や哀しみといった新たな心的状態を推定することも可能になる。
<< Additional items of embodiment >>
In the above-described embodiment, the biological excitement level and the voice excitement level are divided into two levels, high and low, and the mental states are distinguished into 2 × 2 = 4 types by combining these levels. However, the embodiment is not limited to this.
For example, by setting the normal range of excitement level (see FIGS. 3 and 4) to a new level, 3 × 3 = 9 types of mental states can be distinguished. Further, by dividing the biological excitement level and the voice excitement level into a plurality of levels, it becomes possible to further distinguish the mental state of the subject. Further, by adding parameters other than the degree of excitement, it becomes possible to further distinguish the mental state of the subject.
By subdividing the subject's mental state in this way, an intermediate mental state in which anger and anxiety are mixed, and a new mental state such as frustration and sadness that would naturally shift from there is estimated. It is also possible to do.
なお、上述した実施形態では、説明を簡明にするために、具体的な推定ルール(図5参照)を挙げて説明した。しかしながら、本実施形態はこの推定ルールに限定されるものではない。例えば、この種の推定ルールについては、例えば、上記の興奮度などで区別される心的状態と、複数の被験者の自己申告による心的状態とを統計的に合わせることによって具体的に定めればよい。 In the above-described embodiment, a specific estimation rule (see FIG. 5) has been described in order to simplify the description. However, the present embodiment is not limited to this estimation rule. For example, this type of estimation rule can be specifically defined by statistically combining the mental state distinguished by the above excitement level and the mental state by self-reporting of a plurality of subjects, for example. Good.
また、上述した実施形態では、音声興奮度と相関の強い抑揚やピッチ周波数を音声パラメータとして使用している。しかしながら、実施形態はこれに限定されるものではない。抑揚やピッチ周波数以外にも、音声信号の波形的特徴(立ち上がり時間Attack,持続時間Keep,減衰時間Decay)や音量パワーなどを音声パラメータに含めてもよい。このように音声パラメータを増やすことによって、より正確な音声興奮度を判断することが可能になる。 Further, in the above-described embodiment, an inflection or pitch frequency having a strong correlation with the voice excitement level is used as the voice parameter. However, the embodiment is not limited to this. In addition to the inflection and pitch frequency, the audio parameters may include waveform characteristics of the audio signal (rise time Attack, duration Keep, decay time Decay), volume power, and the like. By increasing the voice parameters in this way, it is possible to determine a more accurate voice excitement level.
また、上述した実施形態では、生体興奮度や音声興奮度のレベル判定の閾値th1〜4を、統計解析により決定している。しかしながら、実施形態はこれに限定されるものではない。例えば、これらの閾値を任意に初期設定し、心的状態判定装置11による心的状態の推定結果の成績に応じて、閾値を増減調整することによって、試行錯誤的に適切な閾値を決定することも可能である。
In the above-described embodiment, the thresholds th1 to th4 for determining the level of biological excitement and voice excitement are determined by statistical analysis. However, the embodiment is not limited to this. For example, these threshold values are arbitrarily initialized, and an appropriate threshold value is determined on a trial and error basis by adjusting the threshold value according to the result of the mental state estimation result by the mental
《心的状態の応用分野の例》
(1) 一般に、心的状態の推定結果は、心的状態に反応して処理を変化させる製品全般に使用が可能である。例えば、相手の心的状態に応じて応答(性格、会話特性、心理特性、感性、感情パターン、または会話分岐パターンなど)を変化させる仮想人格(エージェント、キャラクターなど)をコンピュータ上で構築することが可能である。また例えば、お客様の心的状態に柔軟に応じて、商品検索、商品クレーム対応、コールセンタ業務、受付システム、顧客感性分析、顧客管理、ゲーム、パチンコ、パチスロ、コンテンツ配信、コンテンツ作成、ネット検索、携帯電話サービス、商品説明、プレゼンテーション、または教育支援などを実現するシステムにも応用が可能となる。
《Examples of mental state application fields》
(1) In general, the mental state estimation result can be used for all products that change processing in response to the mental state. For example, it is possible to construct a virtual personality (agent, character, etc.) on the computer that changes the response (personality, conversational characteristics, psychological characteristics, sensitivity, emotional pattern, conversational branching pattern, etc.) according to the other person's mental state Is possible. In addition, for example, depending on the customer's mental state, product search, product complaint handling, call center operation, reception system, customer sensitivity analysis, customer management, game, pachinko, pachislot, content distribution, content creation, net search, mobile phone It can also be applied to a system that realizes telephone service, product description, presentation, or educational support.
(2) また、心的状態の推定結果は、心的状態をユーザーに関する校正情報とすることで処理の正確性を高める製品全般にも使用が可能である。例えば、音声認識システムにおいて、認識された語彙の候補の中から、発話者の心的状態に対して親和度の高い語彙を選択することにより、音声認識の精度を高めることが可能になる。 (2) The mental state estimation result can also be used for all products that improve the processing accuracy by using the mental state as calibration information about the user. For example, in the speech recognition system, it is possible to improve the accuracy of speech recognition by selecting a vocabulary having high affinity for the mental state of the speaker from the recognized vocabulary candidates.
(3) さらに、心的状態の推定結果は、心的状態からユーザーの不正意図を推測することにより、セキュリティを高める製品全般にも使用が可能である。例えば、ユーザー認証システムでは、不安または演技などの心的状態を示すユーザーに対して、認証拒否をしたり、追加の認証を要求することによってセキュリティを高めることが可能になる。さらには、このような高セキュリティーな認証技術を基礎として、ユビキタスシステムを構築することも可能である。 (3) Furthermore, the estimation result of the mental state can be used for all products that enhance security by estimating the user's unauthorized intention from the mental state. For example, in a user authentication system, it is possible to increase security by rejecting authentication or requesting additional authentication for a user who shows a mental state such as anxiety or performance. Furthermore, it is possible to construct a ubiquitous system based on such high security authentication technology.
(4) また、心的状態の推定結果は、心的状態を操作入力として扱う製品全般にも使用が可能である。例えば、心的状態を操作入力として処理(制御、音声処理、画像処理、またはテキスト処理など)を実行するシステムを実現することができる。また例えば、心的状態を操作入力としてキャラクター動作をコントロールすることによって、ストーリーを展開させるストーリー創作支援システムを実現することが可能になる。また例えば、心的状態を操作入力として、音律、キー、または楽器構成などを変更することにより、心的状態に沿った音楽創作や編曲を行う音楽創作支援システムを実現することも可能になる。また例えば、心的状態を操作入力として、照明、BGMなどの周辺環境をコントロールする演出装置を実現することも可能である。 (4) The mental state estimation result can also be used for all products that handle the mental state as an operation input. For example, it is possible to realize a system that executes processing (control, voice processing, image processing, text processing, or the like) using a mental state as an operation input. In addition, for example, it is possible to realize a story creation support system that develops a story by controlling a character action using a mental state as an operation input. Further, for example, it is possible to realize a music creation support system that performs music creation and arrangement according to the mental state by changing the temperament, the key, or the musical instrument configuration using the mental state as an operation input. In addition, for example, it is possible to realize an effect device that controls the surrounding environment such as lighting and BGM using the mental state as an operation input.
(5) さらに、心的状態の推定結果は、精神分析、感情分析、感性分析、性格分析、または心理分析を目的とする装置全般にも使用が可能である。 (5) Furthermore, the estimation result of the mental state can be used for all apparatuses for the purpose of psychoanalysis, emotion analysis, sensitivity analysis, personality analysis, or psychological analysis.
(6) また、心的状態の推定結果は、音、音声、音楽、香り、色、映像、文字、振動、または光などの表現手段を用いて、心的状態を外部出力する装置全般にも使用が可能である。このような装置を使用することで、対人間における心情のコミュニケーションを支援することが可能になる。 (6) In addition, the estimation result of the mental state is also applied to all devices that externally output the mental state using expression means such as sound, voice, music, fragrance, color, video, text, vibration, or light. Can be used. By using such a device, it becomes possible to support emotional communication with humans.
(7) さらに、心的状態の推定結果は、心的状態を情報通信する通信システム全般にも使用が可能である。例えば、感性通信、または感性感情共鳴通信などに応用することができる。 (7) Furthermore, the mental state estimation result can be used for all communication systems that communicate information on the mental state. For example, it can be applied to emotional communication or emotional emotion resonance communication.
(8) また、心的状態の推定結果は、映像や音楽などのコンテンツが人間に与える心理的な効果を判定(評価)する装置全般にも使用が可能である。さらに、この心理効果を項目としてコンテンツを分類することで、心理効果の面からコンテンツ検索が可能になるデータベースシステムを構築することも可能になる。
なお、映像や音楽などのコンテンツそのものを、音声信号と同様に分析することにより、コンテンツ出演者や楽器演奏者の音声興奮度や感情傾向などを検出することも可能である。また、コンテンツの音声を音声認識または音素片認識することでコンテンツの特徴を検出することも可能である。このような検出結果に従ってコンテンツを分類することで、コンテンツの特徴を切り口にしたコンテンツ検索が可能になる。
(8) The mental state estimation result can also be used for all devices that determine (evaluate) the psychological effects of content such as video and music on humans. Furthermore, by classifying content using this psychological effect as an item, it is possible to construct a database system that enables content search from the aspect of psychological effect.
In addition, by analyzing the content itself such as video and music in the same manner as the audio signal, it is also possible to detect the degree of voice excitement and the emotion tendency of the content performer and the musical instrument player. It is also possible to detect the feature of the content by recognizing the voice of the content or recognizing the phoneme. By classifying content according to such detection results, it becomes possible to search for content based on the features of the content.
(9) さらに、心的状態の推定結果は、商品使用時におけるユーザー満足度などを心的状態によって客観的に判定する装置全般にも使用が可能である。このような装置を使用することにより、ユーザーにとって親しみやすい製品開発や仕様作成が容易になる。 (9) Furthermore, the mental state estimation result can be used for all devices that objectively determine the user satisfaction level and the like when using a product according to the mental state. By using such an apparatus, product development and specification creation that are familiar to the user are facilitated.
(10) さらに、心的状態の推定結果は、下記の分野などにも応用が可能である。
介護支援システム、カウンセリングシステム、カーナビゲーション、自動車制御、運転者の状態監視、ユーザーインターフェース、オペレーションシステム、ロボット、アバター、ネットショッピングモール、通信教育システム、Eラーニング、学習システム、マナー研修、ノウハウ学習システム、能力判定、意味情報判断、人工知能分野、ニューラルネットワーク(ニューロンも含む)への応用、確率モデルが必要なシミュレーションやシステムなどの判断基準や分岐基準、経済・金融などの市場シミュレーションへの心理要素入力、アンケート収集、芸術家の感情や感性の解析、金融信用調査、与信管理システム、占いなどのコンテンツ、ウェアラブルコンピュータ、ユビキタスネットワーク商品、人間の知覚判断の支援、広告業務、ビルやホールなどの管理、フィルタリング、ユーザーの判断支援、キッチンやバスやトイレなどの制御、ヒューマンデバイス、柔らかさ、通気性が変化する繊維との連動による被服、癒しやコミュニケーションを目的とした仮想ペットやロボット、プランニングシステム、コーディネーターシステム、交通支援制御システム、料理支援システム、演奏支援、DJ映像効果、カラオケ装置、映像制御システム、個人認証、デザイン、設計シミュレーター、購買意欲を刺激するシステム、人事管理システム、オーディション、仮想の顧客集団市場調査、陪審員・裁判員シミュレーションシステム、スポーツや芸術や営業や戦略などのイメージトレーニング、故人や先祖のメモリアルコンテンツ作成支援、生前の感情や感性のパターンを保存するシステムやサービス、ナビゲーション・コンシェルジェサービス、ブログ作成支援、メッセンジャーサービス、目覚まし時計、健康器具、マッサージ器具、歯ブラシ、医療器具、生体デバイス、スイッチング技術、制御技術、ハブ、分岐システム、コンデンサシステム、分子コンピュータ、量子コンピュータ、ノイマン型コンピュータ、生体素子コンピュータ、ボルツマンシステム、AI制御、ファジー制御。
(10) Further, the mental state estimation result can be applied to the following fields.
Nursing care support system, counseling system, car navigation, car control, driver status monitoring, user interface, operation system, robot, avatar, online shopping mall, distance learning system, e-learning, learning system, manner training, know-how learning system, Psychological element input to ability judgment, semantic information judgment, artificial intelligence field, application to neural network (including neurons), judgment criteria and branching criteria for simulations and systems that require a probabilistic model, market simulation such as economy and finance , Questionnaire collection, analysis of artist's feelings and sensibility, financial credit survey, credit management system, content such as fortune telling, wearable computer, ubiquitous network products, support for human perception judgment, advertising business, building Management of halls, filtering, user judgment support, control of kitchens, baths, toilets, etc., human devices, clothing in conjunction with fibers that change softness and breathability, virtual pets and robots for healing and communication purposes , Planning system, coordinator system, traffic support control system, cooking support system, performance support, DJ video effects, karaoke equipment, video control system, personal authentication, design, design simulator, system to stimulate purchasing, personnel management system, audition , Virtual customer group market research, jury / judgment simulation system, sports / art / sales / strategy image training, creation of memorial content for deceased and ancestors, system for storing patterns of emotions and emotions Services, navigation and concierge services, blog creation support, messenger services, alarm clocks, health appliances, massage appliances, toothbrushes, medical appliances, biological devices, switching technologies, control technologies, hubs, branch systems, capacitor systems, molecular computers, quantum Computer, Neumann computer, bio-element computer, Boltzmann system, AI control, fuzzy control.
《備考:fMRI情報の計測環境における音声信号の取得について》
MRIのガントリー内はジェット機なみの騒音レベルに達するため、ガントリー内の被験者から音声信号を良好に取得することは難しい。そのため、脳内活動の計測と、音声信号の取得とを同時並行に実施することは不可能となる。
本発明者は、この問題を解決するため、次のような計測環境を構築した。
まず、被験者の後頭部を、熱塑性などで後頭部の形状に整形した発泡スチロールなどの固定具にあてがう。この状態で、被験者の頭部(眉毛の上)をナイロンベルトなどでガントリーベットに固定する。
この状態で、下記構造の防音マスクを被験者の口に装着する。
<< Remarks: Acquisition of audio signal in fMRI information measurement environment >>
Since the noise level of an MRI gantry reaches a noise level similar to that of a jet aircraft, it is difficult to obtain a sound signal from a subject in the gantry. For this reason, it is impossible to simultaneously measure brain activity and acquire voice signals.
In order to solve this problem, the present inventor has constructed the following measurement environment.
First, the subject's occipital region is applied to a fixture such as polystyrene foam shaped into the shape of the occipital region by thermoplasticity. In this state, the subject's head (above the eyebrows) is fixed to the gantry bed with a nylon belt or the like.
In this state, a soundproof mask having the following structure is attached to the subject's mouth.
まず、防音マスクの基材として防毒マスク(TOYO SAFETY No1880-1)を調達する。この防毒マスクは、口に接して覆う部分がゴム製である。このゴムは周辺騒音によって振動するため、周辺騒音がマスク内に侵入する。そこで、このゴム部分にシリコン(日新レジン株式会社製、クイックシリコーン、ライトグレー液状、比重1.3)を注入して重くする。 さらに、防毒マスクの通気フィルタには、キッチンペーパー5枚以上とスポンジを多層に重ねて密閉性を高める。この状態のマスク室の中央部分に小型マイクをフィットさせて設ける。このように準備された防音マスクは、シリコンの自重と異質物の積層構造によって周辺騒音の振動を効果的に減衰させることができる。その結果、被験者の口周辺にマスク形態の小型防音室を設けることに成功し、周辺騒音の影響を抑えつつ、被験者の音声を良好に集音できるようになる。
さらに、同様の防音対策を施したヘッドホンを被験者の耳に装着することにより、周辺騒音の影響をさほど受けずに、被験者と会話を行うことが可能になる。
First, a gas mask (TOYO SAFETY No1880-1) will be procured as the base material for the sound mask. This gas mask is made of rubber at the portion covering the mouth. Since this rubber vibrates due to ambient noise, the ambient noise enters the mask. Therefore, silicon (Nisshin Resin Co., Ltd., quick silicone, light gray liquid, specific gravity 1.3) is injected into the rubber part to make it heavy. In addition, the gas filter ventilation filter enhances airtightness by stacking five or more kitchen papers and sponges in multiple layers. A small microphone is fitted in the central portion of the mask chamber in this state. The soundproof mask prepared as described above can effectively attenuate the vibration of the surrounding noise by the laminated structure of the weight of the silicon and the foreign material. As a result, a small soundproof room in the form of a mask is successfully provided around the subject's mouth, and the subject's voice can be collected well while suppressing the influence of ambient noise.
Furthermore, by wearing headphones with similar soundproofing measures on the subject's ears, it is possible to have a conversation with the subject without much influence from ambient noise.
なお、ピッチ周波数の検出には、上記の防音マスクが有効である。ただし、防音マスクの密閉空間が狭いために、音声がこもりやすい傾向となる。そのため、ピッチ周波数以外の周波数解析や音色の分析には適さない。そのような用途には、マスク同様の防音処理を施したパイプラインを防音マスクに通し、防音環境の外界(空気室)と通気させることが好ましい。この場合、呼吸に支障がないため、口だけでなく鼻も含めてマスクすることができる。この通気設備の追加によって、防音マスクにおける音声のこもりを低減することができる。さらに、被験者にとって息苦しさなどの不快感が少ないため、より自然な状態の音声を集音できるようになる。 The above-described soundproof mask is effective for detecting the pitch frequency. However, since the sealed space of the soundproof mask is narrow, there is a tendency that the sound tends to be trapped. Therefore, it is not suitable for frequency analysis other than pitch frequency or tone color analysis. For such applications, it is preferable to pass a soundproofing pipeline similar to the mask through the soundproofing mask to vent the outside environment (air chamber) of the soundproofing environment. In this case, since there is no trouble in breathing, not only the mouth but also the nose can be masked. By adding this ventilation equipment, it is possible to reduce the volume of sound in the soundproof mask. Furthermore, since there is little discomfort such as breathlessness for the subject, it is possible to collect more natural sound.
以上の計測設備によって、fMRI情報による生体興奮度の検出と、音声信号による音声興奮度の検出とが同時並行に初めて実施可能となり、被験者の心的状態を推定することができるようになった。 With the above measurement equipment, the detection of the degree of biological excitement based on the fMRI information and the detection of the degree of voice excitement based on the audio signal can be performed simultaneously for the first time, and the mental state of the subject can be estimated.
なお、本発明は、その精神または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、前述の実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、すべて本発明の範囲内のものである。 The present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiments are merely examples in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
以上説明したように、本発明は、心的状態判定装置やプログラムなどに利用可能な技術である。 As described above, the present invention is a technique that can be used for a mental state determination device, a program, and the like.
11…心的状態判定装置,12…生体興奮度判定部,14…音声解析部,15…音声興奮度判定部,17…推定部,18…対応記憶部
DESCRIPTION OF
Claims (5)
前記被験者の音声信号に基づいて、前記被験者の音声的な興奮度(以下『音声興奮度』という)を判断する音声興奮度判定部と、
予め定められた『前記生体興奮度および前記音声興奮度』と『心的状態』との対応関係を保持する対応記憶部と、
前記対応関係に基づいて、前記被験者の前記生体興奮度および前記音声興奮度から、前記被験者の心的状態を推定する推定部と
を備えたことを特徴とする心的状態判定装置。 A biological excitement determination unit that acquires biological information that reflects the level of physiological excitement and tension, and determines the physiological excitement level of the subject (hereinafter referred to as “biological excitement level”) based on the biometric information;
A voice excitement level determination unit that determines a voice excitement level of the subject (hereinafter referred to as “voice excitement level”) based on the voice signal of the subject;
A correspondence storage unit that holds a correspondence relationship between the predetermined “excited degree of biological excitement and voice excitement” and “mental state”;
A mental state determination apparatus comprising: an estimation unit configured to estimate the mental state of the subject from the biological excitement level and the voice excitement level of the subject based on the correspondence relationship.
前記推定部は、
前記生体興奮度が高いと判断され、かつ前記音声興奮度が低いと判断された場合に、前記被験者は不安の状態にあると推定する
ことを特徴とする心的状態判定装置。 The mental state determination device according to claim 1,
The estimation unit includes
The mental state determination device, wherein when the biological excitement level is determined to be high and the voice excitement level is determined to be low, the subject is estimated to be in an anxiety state.
前記推定部は、
前記生体興奮度が高いと判断され、かつ前記音声興奮度が高いと判断された場合、前記被験者は怒りまたは極度の不安の状態と推定する
ことを特徴とする心的状態判定装置。 In the mental state determination device according to claim 1 or 2,
The estimation unit includes
When it is determined that the living body excitement level is high and the voice excitement level is high, the subject is estimated to be in an angry state or an extreme anxiety state.
前記推定部は、
前記生体興奮度が低いと判断され、かつ前記音声興奮度が低いと判断された場合、前記被験者は鬱または恐怖の状態であると推定する
ことを特徴とする心的状態判定装置。 The mental state determination device according to any one of claims 1 to 3,
The estimation unit includes
When it is determined that the biological excitement level is low and the voice excitement level is low, it is estimated that the subject is in a depressed state or a fear state.
The program for functioning a computer as a mental state determination apparatus of any one of Claims 1 thru | or 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006127306A JP4704952B2 (en) | 2006-05-01 | 2006-05-01 | Mental state determination device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006127306A JP4704952B2 (en) | 2006-05-01 | 2006-05-01 | Mental state determination device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007296169A true JP2007296169A (en) | 2007-11-15 |
JP4704952B2 JP4704952B2 (en) | 2011-06-22 |
Family
ID=38766190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006127306A Active JP4704952B2 (en) | 2006-05-01 | 2006-05-01 | Mental state determination device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4704952B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012243043A (en) * | 2011-05-18 | 2012-12-10 | Panasonic Corp | Content evaluation device, method, and program thereof |
JP2014075008A (en) * | 2012-10-03 | 2014-04-24 | Toyota Motor Corp | Driving support device and driving support method |
KR101448793B1 (en) | 2013-06-04 | 2014-10-08 | 현대자동차 주식회사 | Safe driving device and Method using voice signal |
US8892424B2 (en) | 2011-09-27 | 2014-11-18 | Fuji Xerox Co., Ltd. | Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person |
CN105792758A (en) * | 2013-12-05 | 2016-07-20 | Pst株式会社 | Estimation device, program, estimation method, and estimation system |
US9653097B2 (en) | 2014-08-07 | 2017-05-16 | Sharp Kabushiki Kaisha | Sound output device, network system, and sound output method |
JP2018072876A (en) * | 2016-10-24 | 2018-05-10 | 富士ゼロックス株式会社 | Emotion estimation system and emotion estimation model generation system |
JP2018515155A (en) * | 2015-03-09 | 2018-06-14 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System, device, and method for remotely monitoring a user's goodness using a wearable device |
JP2019017499A (en) * | 2017-07-12 | 2019-02-07 | パラマウントベッド株式会社 | Recuperation support system |
JP2019134884A (en) * | 2018-02-05 | 2019-08-15 | 株式会社疲労科学研究所 | Information processor, fatigue evaluation method and program |
WO2020013302A1 (en) | 2018-07-13 | 2020-01-16 | 株式会社生命科学インスティテュート | Mental/nervous system disorder estimation system, estimation program, and estimation method |
JP2020067844A (en) * | 2018-10-25 | 2020-04-30 | マツダ株式会社 | Well-being value estimation system |
JP2021083060A (en) * | 2019-11-22 | 2021-05-27 | トヨタ自動車株式会社 | Information processing device, information processing method, and system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005244375A (en) * | 2004-02-25 | 2005-09-08 | Sanyo Electric Co Ltd | Communication apparatus, communication method, communication program, and communication system employing this apparatus |
-
2006
- 2006-05-01 JP JP2006127306A patent/JP4704952B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005244375A (en) * | 2004-02-25 | 2005-09-08 | Sanyo Electric Co Ltd | Communication apparatus, communication method, communication program, and communication system employing this apparatus |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012243043A (en) * | 2011-05-18 | 2012-12-10 | Panasonic Corp | Content evaluation device, method, and program thereof |
US8892424B2 (en) | 2011-09-27 | 2014-11-18 | Fuji Xerox Co., Ltd. | Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person |
JP2014075008A (en) * | 2012-10-03 | 2014-04-24 | Toyota Motor Corp | Driving support device and driving support method |
KR101448793B1 (en) | 2013-06-04 | 2014-10-08 | 현대자동차 주식회사 | Safe driving device and Method using voice signal |
CN105792758B (en) * | 2013-12-05 | 2019-05-03 | Pst株式会社 | Estimating device, recording medium and deduction system |
CN105792758A (en) * | 2013-12-05 | 2016-07-20 | Pst株式会社 | Estimation device, program, estimation method, and estimation system |
US10485467B2 (en) | 2013-12-05 | 2019-11-26 | Pst Corporation, Inc. | Estimation device, program, estimation method, and estimation system |
US9653097B2 (en) | 2014-08-07 | 2017-05-16 | Sharp Kabushiki Kaisha | Sound output device, network system, and sound output method |
US11026613B2 (en) | 2015-03-09 | 2021-06-08 | Koninklijke Philips N.V. | System, device and method for remotely monitoring the well-being of a user with a wearable device |
JP2018515155A (en) * | 2015-03-09 | 2018-06-14 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System, device, and method for remotely monitoring a user's goodness using a wearable device |
JP2018072876A (en) * | 2016-10-24 | 2018-05-10 | 富士ゼロックス株式会社 | Emotion estimation system and emotion estimation model generation system |
JP2019017499A (en) * | 2017-07-12 | 2019-02-07 | パラマウントベッド株式会社 | Recuperation support system |
JP2022095619A (en) * | 2017-07-12 | 2022-06-28 | パラマウントベッド株式会社 | Recuperation support system |
JP7265313B2 (en) | 2017-07-12 | 2023-04-26 | パラマウントベッド株式会社 | medical support system |
JP7422797B2 (en) | 2017-07-12 | 2024-01-26 | パラマウントベッド株式会社 | Medical treatment support system |
JP2019134884A (en) * | 2018-02-05 | 2019-08-15 | 株式会社疲労科学研究所 | Information processor, fatigue evaluation method and program |
JP7112851B2 (en) | 2018-02-05 | 2022-08-04 | 株式会社疲労科学研究所 | Information processing device, fatigue evaluation method and program |
WO2020013302A1 (en) | 2018-07-13 | 2020-01-16 | 株式会社生命科学インスティテュート | Mental/nervous system disorder estimation system, estimation program, and estimation method |
JP2020067844A (en) * | 2018-10-25 | 2020-04-30 | マツダ株式会社 | Well-being value estimation system |
JP7132546B2 (en) | 2018-10-25 | 2022-09-07 | マツダ株式会社 | Well-being value estimation system |
JP2021083060A (en) * | 2019-11-22 | 2021-05-27 | トヨタ自動車株式会社 | Information processing device, information processing method, and system |
Also Published As
Publication number | Publication date |
---|---|
JP4704952B2 (en) | 2011-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4704952B2 (en) | Mental state determination device and program | |
Can et al. | Stress detection in daily life scenarios using smart phones and wearable sensors: A survey | |
Blankertz et al. | The Berlin brain–computer interface: non-medical uses of BCI technology | |
Nacke | An introduction to physiological player metrics for evaluating games | |
US10376197B2 (en) | Diagnosing system for consciousness level measurement and method thereof | |
US20090318773A1 (en) | Involuntary-response-dependent consequences | |
Fritz et al. | Leveraging biometric data to boost software developer productivity | |
Timmons et al. | Using multimodal wearable technology to detect conflict among couples | |
JP2005237561A (en) | Information processing device and method | |
JP2004310034A (en) | Interactive agent system | |
CN107809951A (en) | (detecting a lie) method and apparatus are detected using the psychology physiological to distortion for going out physiological signal based on video detection | |
Gnacek et al. | emteqpro—fully integrated biometric sensing array for non-invasive biomedical research in virtual reality | |
KR102379132B1 (en) | device and method for providing digital therapeutics information | |
Bong et al. | Methods and approaches on inferring human emotional stress changes through physiological signals: A review | |
Dávila-Montero et al. | Review and challenges of technologies for real-time human behavior monitoring | |
Guthier et al. | Affective computing in games | |
Handouzi et al. | Objective model assessment for short-term anxiety recognition from blood volume pulse signal | |
Zhang | Stress recognition from heterogeneous data | |
KR102437264B1 (en) | Physician Emergence Devices, Physician Emergence Methods, and Physician Emergence Programs | |
Przybyło et al. | Eyetracking-based assessment of affect-related decay of human performance in visual tasks | |
CN113397548A (en) | Technique for separating driving emotion from media-induced emotion in driver monitoring system | |
KR20190054357A (en) | An user stress relieving method and system using virtual reality and biofeedback | |
Tivatansakul et al. | Healthcare system design focusing on emotional aspects using augmented reality—Relaxed service design | |
Ye et al. | Techniques in pattern recognition for school bullying prevention: Review and outlook | |
Manohare et al. | Electroencephalography based classification of emotions associated with road traffic noise using Gradient boosting algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4704952 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S201 | Request for registration of exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R314201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140318 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R314531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |