[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017023548A - Estimation method and estimation system - Google Patents

Estimation method and estimation system Download PDF

Info

Publication number
JP2017023548A
JP2017023548A JP2015146988A JP2015146988A JP2017023548A JP 2017023548 A JP2017023548 A JP 2017023548A JP 2015146988 A JP2015146988 A JP 2015146988A JP 2015146988 A JP2015146988 A JP 2015146988A JP 2017023548 A JP2017023548 A JP 2017023548A
Authority
JP
Japan
Prior art keywords
subject
brain activity
state
brain
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015146988A
Other languages
Japanese (ja)
Other versions
JP6583719B2 (en
Inventor
雅彦 春野
Masahiko Haruno
雅彦 春野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2015146988A priority Critical patent/JP6583719B2/en
Publication of JP2017023548A publication Critical patent/JP2017023548A/en
Application granted granted Critical
Publication of JP6583719B2 publication Critical patent/JP6583719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】被験者の状態を従来よりも正確に推定する推定方法を提供する。【解決手段】被験者が有する状態を推定するための推定方法は、当該状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得するステップ(S1)と、各被験者について、当該被験者の脳内の各領域から得られた脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ知覚刺激の時間的な変化との間のそれぞれの類似度からなる類似度群を算出するステップ(S3)と、予め定量化されている各被験者の状態と、各被験者に対応する類似度群とを用いて、類似度群と被験者の状態との間の相関関係を学習するステップ(S4)とを備える。【選択図】図1An object of the present invention is to provide an estimation method for estimating the state of a subject more accurately than in the past. An estimation method for estimating a state of a subject includes time-series brain activity information measured when a perceptual stimulus that can be correlated with the state is given to each subject. (S1) to acquire each different region in the brain, and for each subject, each temporal change in brain activity information obtained from each region in the subject's brain, and perceptual stimulation given to the subject Using a step (S3) of calculating a similarity group consisting of the respective similarities between changes in time of each of the above, the state of each subject quantified in advance, and the similarity group corresponding to each subject And learning a correlation between the similarity group and the state of the subject (S4). [Selection] Figure 1

Description

本開示は、被験者の脳内から得られた脳活動情報を用いて、被験者の状態を推定する技術に関する。   The present disclosure relates to a technique for estimating a state of a subject using brain activity information obtained from the subject's brain.

機能的核磁気共鳴画像法(functional Magnetic Resonance Imaging;以下「fMRI」ともいう。)等を用いて被験者の脳活動を計測する磁気共鳴装置が普及している。近年では、何らかの知覚刺激を被験者に与えて被験者の脳活動の変化を磁気共鳴装置で計測し、当該脳活動の変化から被験者の状態を推定する技術が知られている。   2. Description of the Related Art Magnetic resonance apparatuses that measure a subject's brain activity using functional magnetic resonance imaging (hereinafter, also referred to as “fMRI”) have become widespread. In recent years, a technique has been known in which a subject is given some kind of perceptual stimulus, changes in the brain activity of the subject are measured with a magnetic resonance apparatus, and the state of the subject is estimated from the changes in the brain activity.

当該技術に関し、特開2014−133080号公報(特許文献1)は、被験者に知覚刺激を与えて得られる脳活動情報から当該被験者のストレスを評価する情報取得方法を開示している。より具体的には、当該情報取得方法は、被験者の大脳皮質視覚野、大脳皮質聴覚野、大脳皮質平衡感覚野のうち少なくともいずれか一つの領野に対して知覚刺激を与える工程(1)と、知覚刺激を与えているときに当該領野のうち、同一でない複数の領域における脳活動を計測する工程(2)と、当該複数の領域の脳活動のデータに基づいて、知覚刺激が被験者に与えるストレスを評価する工程(3)を含む。   Regarding this technology, Japanese Patent Application Laid-Open No. 2014-133080 (Patent Document 1) discloses an information acquisition method for evaluating the stress of a subject from brain activity information obtained by giving a perceptual stimulus to the subject. More specifically, the information acquisition method includes a step (1) of providing a sensory stimulus to at least one of the cortex visual cortex, cerebral cortex auditory cortex, and cerebral cortex equilibrium sensory area of the subject; The step (2) of measuring brain activity in a plurality of non-identical areas in the area when the sensory stimulus is given, and the stress that the sensory stimulus gives to the subject based on the brain activity data of the plurality of areas The process (3) which evaluates is included.

特開2014−133080号公報JP 2014-133080 A

特許文献1に開示される情報取得方法は、脳内の特定の部分における脳活動情報を用いて被験者のストレスを評価する。しかしながら、知覚刺激に対する脳内の活動部分は、被験者に与える知覚刺激の種類によって変わる。そのため、当該情報取得方法は、被験者のストレスを評価することができても、被験者の他の状態については推定することができない。したがって、被験者に与える知覚刺激に反応する脳内の活動部分を特定し、当該活動部分における脳活動情報から被験者の状態を推定することが可能な推定方法が望まれている。   The information acquisition method disclosed in Patent Document 1 evaluates the stress of a subject using brain activity information in a specific part in the brain. However, the active part of the brain for sensory stimuli varies depending on the type of sensory stimulus given to the subject. Therefore, even if the information acquisition method can evaluate the stress of the subject, it cannot estimate the other state of the subject. Therefore, an estimation method capable of specifying an active part in the brain that responds to a sensory stimulus given to the subject and estimating the state of the subject from the brain activity information in the active part is desired.

本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、被験者の状態を従来よりも正確に推定することが可能な推定方法を提供することである。他の局面における目的は、被験者の状態を従来よりも正確に推定することが可能な推定システムを提供することである。   The present disclosure has been made to solve the above-described problems, and an object in one aspect thereof is to provide an estimation method capable of estimating the state of a subject more accurately than in the past. . The objective in the other situation is to provide the estimation system which can estimate a test subject's state more correctly than before.

ある局面に従うと、被験者が有する状態を推定するための推定方法が提供される。当該推定方法は、当該状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得するステップと、各被験者について、当該被験者の脳内の各領域から得られた脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ知覚刺激の時間的な変化との間のそれぞれの類似度からなる類似度群を算出するステップと、予め定量化されている各被験者の状態と、各被験者に対応する類似度群とを用いて、類似度群と被験者の状態との間の相関関係を学習するステップとを備える。   According to an aspect, an estimation method for estimating a state of a subject is provided. The estimation method includes obtaining time-series brain activity information measured when a perceptual stimulus that can be correlated with the state is given to each subject for each different region in the subject's brain; For each subject, the degree of similarity between each temporal change in brain activity information obtained from each region in the subject's brain and the temporal change in sensory stimulation given to the subject The correlation between the similarity group and the state of the subject is learned using the step of calculating the similarity group, the state of each subject quantified in advance, and the similarity group corresponding to each subject. Steps.

好ましくは、推定方法は、相関関係を利用して、新たな被験者について算出された類似度群から当該新たな被験者の状態を推定するステップをさらに備える。   Preferably, the estimation method further includes a step of estimating the state of the new subject from the similarity group calculated for the new subject using the correlation.

好ましくは、各被験者の各脳活動情報は、時系列の第1数値群として表される。各被験者に与えた知覚刺激は、時系列の第2数値群として表される。算出するステップは、第1数値群と第2数値群とのうち互いに同じ時刻に対応する数値同士のそれぞれを掛け合わせ、当該掛け合わせた結果を足し合わせて類似度を算出する。   Preferably, each brain activity information of each subject is represented as a time-series first numerical value group. The perceptual stimulus given to each subject is represented as a second numerical group in time series. The calculating step multiplies the numerical values corresponding to the same time in the first numerical value group and the second numerical value group, and adds the multiplied results to calculate the similarity.

他の局面に従うと、被験者が有する状態を推定するための推定システムが提供される。当該推定システムは、状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得する取得部と、各被験者について、当該被験者の脳内の各領域から得られた脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ知覚刺激の時間的な変化との間のそれぞれの類似度からなる類似度群を算出する算出部と、予め定量化されている各被験者の状態と、各被験者に対応する類似度群とを用いて、類似度群と被験者の状態との間の相関関係を学習部とを備える。   According to another aspect, an estimation system for estimating a state of a subject is provided. The estimation system includes: an acquisition unit that acquires time-series brain activity information measured when a sensory stimulus that can be correlated to a state is given to each subject for each different region in the subject's brain; For each subject, the degree of similarity between each temporal change in brain activity information obtained from each region in the subject's brain and the temporal change in sensory stimulation given to the subject Learning the correlation between the similarity group and the subject's state using the calculation unit for calculating the similarity group, the state of each subject that has been quantified in advance, and the similarity group corresponding to each subject A part.

ある局面において、被験者の状態を従来よりも正確に推定することができる。
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
In one aspect, the state of the subject can be estimated more accurately than before.
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

学習処理を概略的に示す概念図である。It is a conceptual diagram which shows a learning process roughly. 推定処理を概略的に示す概念図である。It is a conceptual diagram which shows an estimation process roughly. MATLAB(登録商標)のコードを示す図である。It is a figure which shows the code | symbol of MATLAB (trademark). 推定システムの主要なハードウェア構成を示すブロック図である。It is a block diagram which shows the main hardware structures of an estimation system. 情報処理装置の主要なハードウェア構成を示すブロック図である。It is a block diagram which shows the main hardware constitutions of information processing apparatus. 不平等感に対する脳の反応を調べるための最後通牒ゲームの手順を概略的に示す概念図である。It is a conceptual diagram which shows roughly the procedure of the last common game for investigating the reaction of the brain with respect to inequality. 推定されたBDI(The Beck Depression Inventory)スコアと実際のBDIスコアとの対比を示す図である。It is a figure which shows contrast with the estimated BDI (The Beck Depression Inventory) score and an actual BDI score. 不平等感に対する脳内の活動領域を示す図である。It is a figure which shows the active region in the brain with respect to an inequality feeling. 不平等感を被験者に与えた場合における扁桃体の脳活動パターンを示す図である。It is a figure which shows the brain activity pattern of the amygdala when a subject is provided with inequality.

以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。また、以下で説明する各実施の形態または変形例は、適宜選択的に組み合わされてもよい。   Embodiments according to the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated. Each embodiment or modification described below may be selectively combined as appropriate.

[被験者の状態の推定方法]
図1および図2を参照して、被験者の状態の推定方法について説明する。当該推定を行う推定システム100(図3参照)は、学習処理および推定処理を実行する。図1は、学習処理を概略的に示す概念図である。図2は、推定処理を概略的に示す概念図である。
[Method of estimating the subject's condition]
With reference to FIG. 1 and FIG. 2, a method for estimating the state of the subject will be described. The estimation system 100 (see FIG. 3) that performs the estimation executes a learning process and an estimation process. FIG. 1 is a conceptual diagram schematically showing the learning process. FIG. 2 is a conceptual diagram schematically showing the estimation process.

学習処理では、推定システム100は、任意の知覚刺激によって被験者から得られる脳活動情報と、当該被験者の状態との間の相関関係を学習する。知覚刺激とは、視覚や聴覚等の感覚器を通して被験者に与えられる刺激のことをいう。被験者の状態とは、たとえば、被験者の現在または将来の傾向等を含む。当該傾向は、被験者の病気の傾向(たとえば、鬱傾向等)を含む。   In the learning process, the estimation system 100 learns a correlation between brain activity information obtained from a subject by an arbitrary sensory stimulus and the state of the subject. The perceptual stimulus refers to a stimulus given to the subject through a sensory organ such as vision and hearing. The state of the subject includes, for example, the present or future tendency of the subject. The tendency includes a tendency of the subject's illness (for example, depression tendency, etc.).

推定処理では、推定システム100は、学習処理と同一種類の知覚刺激を検査対象の被験者に与えるとともに当該被験者から脳活動情報を取得し、学習処理で得られた相関関係を利用して、取得された脳活動情報から検査対象の被験者の状態を推定する。   In the estimation process, the estimation system 100 obtains the same type of perceptual stimulus as the learning process to the subject to be examined, acquires brain activity information from the subject, and uses the correlation obtained in the learning process. The state of the subject to be examined is estimated from the obtained brain activity information.

以下では、学習処理および推定処理について順に説明する。
(学習処理)
まず、図1を参照して、学習処理について説明する。図1に示されるように、学習処理は、主として、ステップS1〜S4の処理を含む。
Below, a learning process and an estimation process are demonstrated in order.
(Learning process)
First, the learning process will be described with reference to FIG. As shown in FIG. 1, the learning process mainly includes the processes of steps S1 to S4.

ステップS1において、推定システム100は、被験者が有する状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得する。以下では、典型例として、知覚刺激として画像15(すなわち、視覚に対する刺激)を用いる場合について説明する。   In step S <b> 1, the estimation system 100 acquires brain activity information measured when a subject is given a sensory stimulus that can be correlated with a state of the subject for each different region in the subject's brain. . Below, the case where the image 15 (namely, irritation | stimulation with respect to vision) is used as a perceptual stimulus is demonstrated as a typical example.

画像15は、たとえば、被験者に不平等の感覚を与えるためのものである。詳細については後述するが、画像15は被験者間での分配金を表わし、不平等感は、分配金の差によって与えられる。   The image 15 is, for example, for giving the subject a sense of inequality. Although details will be described later, the image 15 represents a distribution between subjects, and the inequality is given by the difference in distribution.

推定システム100は、画像15を順次表示することにより被験者1に不平等感を与えると同時に被験者1の脳活動情報を計測することで、被験者1から脳活動画像1A〜1Cを得る。同様に、推定システム100は、被験者2から脳活動画像2A〜2Cを得る。同様に、推定システム100は、被験者3から脳活動画像3A〜3Cを得る。脳活動画像1A〜3Cは、1次元で表わされてもよいし、複数次元で表わされてもよい。脳活動画像1A〜3Cは、たとえば、fMRI計測によって得られる。脳活動画像1A〜3Cの各画素は、被験者の脳内の各領域における脳活動情報を表わす。各脳活動情報は、たとえば、対応する脳内部分の血流量を表わす。好ましくは、推定システム100は、不平等を感じたときに反応する脳内の扁桃体から脳活動画像1A〜3Cを取得する。   The estimation system 100 obtains brain activity images 1 </ b> A to 1 </ b> C from the subject 1 by measuring the brain activity information of the subject 1 at the same time that the subject 1 is inequalized by sequentially displaying the images 15. Similarly, the estimation system 100 obtains brain activity images 2A to 2C from the subject 2. Similarly, the estimation system 100 obtains brain activity images 3 </ b> A to 3 </ b> C from the subject 3. The brain activity images 1A to 3C may be expressed in one dimension or may be expressed in a plurality of dimensions. The brain activity images 1A to 3C are obtained by, for example, fMRI measurement. Each pixel of the brain activity images 1A to 3C represents brain activity information in each region in the subject's brain. Each brain activity information represents, for example, the blood flow volume of the corresponding part in the brain. Preferably, the estimation system 100 acquires the brain activity images 1A to 3C from the amygdala in the brain that reacts when feeling inequality.

ステップS2において、推定システム100は、被験者1に与えた知覚刺激の変化を数値群12として数値化する。数値群12の各数値は、画像15によって被験者1に想起させる感情の度合いを表わす。たとえば、画像15によって不平等感が被験者1に与えられる場合には、数値群12の各数値は、不平等感の度合いを表わす。一例として、不平等感の度合いは、各被験者の分配される金額差に相当する。   In step S <b> 2, the estimation system 100 digitizes the change in the perceptual stimulus given to the subject 1 as the numerical value group 12. Each numerical value of the numerical value group 12 represents the degree of emotion that the subject 1 is reminded by the image 15. For example, when inequality is given to the subject 1 by the image 15, each numerical value of the numerical value group 12 represents the degree of inequality. As an example, the degree of inequality corresponds to the amount of money distributed to each subject.

ステップS3において、推定システム100は、与えた知覚刺激に反応する脳内の活動領域を特定する。より具体的には、推定システム100は、脳活動画像1A〜1Cの同一画素における時系列の脳活動情報と数値群12との間の類似度を、脳活動画像の各画素について算出する。   In step S3, the estimation system 100 identifies an active region in the brain that responds to the applied sensory stimulus. More specifically, the estimation system 100 calculates the similarity between the time-series brain activity information and the numerical value group 12 in the same pixel of the brain activity images 1A to 1C for each pixel of the brain activity image.

被験者1の脳内の所定部分から得られた時系列の脳活動情報11A〜11Cを例に挙げて類似度の算出方法について説明する。推定システム100は、脳活動情報11A〜11Cと数値群12との間の相関値を類似度16Aとして算出する。脳活動情報11A〜11Cが知覚刺激に連動しているほど、類似度16Aの値は大きくなる。   A method of calculating the similarity will be described by taking time series brain activity information 11A to 11C obtained from a predetermined part in the brain of the subject 1 as an example. The estimation system 100 calculates the correlation value between the brain activity information 11A to 11C and the numerical value group 12 as the similarity 16A. As the brain activity information 11A to 11C is linked to the perceptual stimulus, the value of the similarity 16A increases.

脳活動情報11A〜11Cは、被験者の脳内における所定部分の血流量を示し、時系列の数値群として示される。推定システム100は、数値群として示される脳活動情報11A〜11Cと、数値群12とのうち互いに同じ時刻に対応する数値同士のそれぞれを掛け合わせ、当該掛け合わせた結果を足し合わせて類似度16Aを算出する。すなわち、類似度16Aは、数値群として示される脳活動情報11A〜11Cと、数値群12との内積に相当する。   The brain activity information 11 </ b> A to 11 </ b> C indicates a blood flow volume in a predetermined portion in the subject's brain, and is shown as a time-series numerical group. The estimation system 100 multiplies each of the numerical values corresponding to the same time among the brain activity information 11A to 11C shown as a numerical value group and the numerical value group 12, and adds up the results of the multiplications to obtain a similarity 16A. Is calculated. That is, the similarity 16 </ b> A corresponds to the inner product of the brain activity information 11 </ b> A to 11 </ b> C shown as a numerical value group and the numerical value group 12.

推定システム100は、類似度16Aと同様に、当該類似度を被験者1の脳内の各領域について算出する。被験者1の脳内の各領域について算出された類似度群は、脳活動パターンXとして表される。被験者2についても同様に、推定システム100は、脳活動画像2A〜2Cにおける同一画素の脳活動情報と数値群13との間の類似度を被験者2の脳内の各領域について算出し、当該類似度群からなる脳活動パターンXを生成する。被験者3についても同様に、推定システム100は、脳活動画像3A〜3Cにおける同一画素の脳活動情報と数値群14との間の類似度を被験者3の脳内の各領域について算出し、当該類似度群からなる脳活動パターンXを生成する。 The estimation system 100 calculates the similarity for each region in the brain of the subject 1 like the similarity 16A. Similarity group calculated for each region of the brain of the subject 1 is represented as a brain activity pattern X 1. Similarly for the subject 2, the estimation system 100 calculates the similarity between the brain activity information of the same pixel in the brain activity images 2 </ b> A to 2 </ b> C and the numerical value group 13 for each region in the brain of the subject 2. generating a brain activity pattern X 2 consisting degrees group. Similarly for the subject 3, the estimation system 100 calculates the similarity between the brain activity information of the same pixel in the brain activity images 3 </ b> A to 3 </ b> C and the numerical value group 14 for each region in the brain of the subject 3. generating a brain activity pattern X 3 consisting degrees group.

ステップS4において、推定システム100の学習部20は、予め定量化されている各被験者の状態と、各被験者に対応する脳活動パターンX〜X(以下、「脳活動パターンX」と総称することもある。)とを用いて、被験者の状態と脳活動パターンXとの間の相関関係を学習する。学習に用いられる被験者の状態は、たとえば、BDIスコアとして定量化されている。BDIスコアは、鬱の度合いを示し、各被験者について実施されたBDIテストの結果から定量化される。BDIテストは、脳活動パターンX〜Xを得るための試験が行われてから所定期間が経過した後(たとえば、1年後)に実施される。 In step S4, the learning unit 20 of the estimation system 100 collectively refers to the state of each subject that has been quantified in advance and the brain activity patterns X 1 to X 3 (hereinafter referred to as “brain activity pattern X”) corresponding to each subject. To learn the correlation between the state of the subject and the brain activity pattern X. The state of the subject used for learning is quantified as a BDI score, for example. The BDI score indicates the degree of depression and is quantified from the results of the BDI test performed on each subject. The BDI test is performed after a predetermined period of time has elapsed since the test for obtaining the brain activity patterns X 1 to X 3 was performed (for example, one year later).

学習部20は、各被験者の実際のBDIスコアを含む教師データ22を用いて、脳活動パターンXと被験者の将来の鬱度合いとの間の相関関係を学習する。教師データ22に示されるの「Y」は、n番目の被験者における実際のBDIスコアを表わす。 The learning unit 20 learns a correlation between the brain activity pattern X and the future depression degree of the subject using the teacher data 22 including the actual BDI score of each subject. “Y n ” shown in the teacher data 22 represents the actual BDI score in the nth subject.

一例として、t番目の被験者のBDIスコアZは、標準ライブラリ「sparse Bayesia」に含まれるカーネル法を用いて推定される。BDIスコアZは、たとえば、以下の式(1)で示される。 As an example, the BDI score Z t of the t th subject is estimated using the kernel method included in the standard library “sparse Bayesia”. The BDI score Z t is represented by the following formula (1), for example.

式(1)の「X」は、i番目の被験者の脳活動パターンを示す。「X」は、注目しているt番目の被験者の脳活動パターンを示す。「K(X,X)」は、脳活動パターンXと脳活動パターンXとの間の類似度を示す。当該類似度は、たとえば、脳活動パターンXと脳活動パターンXとの内積に相当する。 “X i ” in Equation (1) indicates the brain activity pattern of the i-th subject. “X t ” indicates the brain activity pattern of the t-th subject of interest. “K (X i , X t )” indicates the similarity between the brain activity pattern X i and the brain activity pattern X t . The similarity is equivalent to, for example, the inner product of the brain activity pattern X i and the brain activity pattern X t .

学習部20は、実際のBDIスコアYと推定されたBDIスコアZとの間の差(=Z−Y)を最小化するように重みwを学習する。学習部20による学習方法の詳細については後述する。 The learning unit 20 learns the weight w i so as to minimize the difference (= Z t −Y t ) between the actual BDI score Y t and the estimated BDI score Z t . Details of the learning method by the learning unit 20 will be described later.

当該学習によって、学習結果25が得られる。学習結果25において、被験者の脳活動パターンX〜Xのそれぞれと各被験者について得られた重みw〜wのそれぞれとが互いに対応付けられる。 The learning result 25 is obtained by the learning. In the learning result 25, they are associated with each other and respective weight w 1 to w n obtained for each and each subject's brain activity patterns X 1 to X n of the subject.

以上のようにして、学習処理では、推定システム100は、被験者が有する状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得する。その後、推定システム100は、各被験者について、当該被験者の脳内の各領域から得られた脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ知覚刺激の時間的な変化との間のそれぞれの類似度からなる脳活動パターンX(類似度群)を算出する。推定システム100は、予め定量化されている各被験者の状態と、各被験者に対応する脳活動パターンXとを用いて、脳活動パターンXと被験者の状態との間の相関関係を学習する。   As described above, in the learning process, the estimation system 100 uses the time-series brain activity information measured when a perceptual stimulus that can be correlated with the state of the subject is given to each subject, It acquires about each mutually different area | region. Thereafter, the estimation system 100 determines, for each subject, between each temporal change in brain activity information obtained from each region in the subject's brain and temporal change in sensory stimulation given to the subject. The brain activity pattern X (similarity group) consisting of the respective similarities is calculated. The estimation system 100 learns the correlation between the brain activity pattern X and the state of the subject using the state of each subject that has been quantified in advance and the brain activity pattern X corresponding to each subject.

脳活動パターンXは、知覚刺激に連動している度合いを脳内の各領域について表わしているため、知覚刺激に反応している部分が容易に特定され得る。これにより、推定システム100は、知覚刺激の種類が変わった場合でも脳内の活動部分を正確に特定することができる。推定システム100は、知覚刺激に連動している脳内部分の脳活動情報を利用して後述の推定処理で被験者の状態を推定するため、被験者の状態を正確に推定することが可能になる。   Since the brain activity pattern X represents the degree of interlocking with the perceptual stimulus for each region in the brain, the part responding to the perceptual stimulus can be easily identified. As a result, the estimation system 100 can accurately identify the active part in the brain even when the type of the perceptual stimulus changes. Since the estimation system 100 estimates the state of the subject in the estimation process described later using the brain activity information in the brain linked to the perceptual stimulus, it is possible to accurately estimate the state of the subject.

また、脳活動パターンXは、知覚刺激に対する連動度合いを示すため、知覚刺激の種類が同じであれば、知覚刺激の内容が変わったとしても、脳活動パターンXは被験者間で同様の傾向になる。したがって、各被験者に与える知覚刺激の試行回数や内容を任意に変えることができるので、汎用性の高い学習機能が実現され得る。   In addition, since the brain activity pattern X indicates the degree of interlocking with the perceptual stimulus, if the perceptual stimulus type is the same, even if the content of the perceptual stimulus changes, the brain activity pattern X has the same tendency among subjects. . Therefore, the number of trials and contents of the perceptual stimulus given to each subject can be arbitrarily changed, so that a highly versatile learning function can be realized.

なお、上述では、知覚刺激として、被験者に視覚刺激を与える例について説明を行ったが、知覚刺激の種類は、視覚刺激に限定されない。たとえば、被験者に与える知覚刺激は、聴覚への刺激や触覚への刺激等も含む。   In addition, although the example which gives a visual stimulus to a test subject as a perceptual stimulus was demonstrated above, the kind of perceptual stimulus is not limited to a visual stimulus. For example, the sensory stimulation given to the subject includes auditory stimulation, tactile stimulation, and the like.

また、上述では、被験者に不平等感を伴わせる視覚刺激を与える例について説明を行ったが、知覚刺激は、他の感情を伴わせる視覚刺激であってもよい。たとえば、当該知覚刺激は、幸福感、嫌悪感等を伴わせる視覚刺激等を含む。   Moreover, although the example which gives the test subject the visual stimulus accompanied with an unequal feeling was demonstrated above, the perceptual stimulus may be a visual stimulus accompanied with another emotion. For example, the perceptual stimulus includes a visual stimulus accompanied with a sense of well-being, a sense of disgust, and the like.

さらに、上述では、不平等感を伴わせるための知覚刺激を与えた場合の脳活動パターンと鬱状態との間の相関関係を学習する例について説明を行ったが、相関関係を学習する対象は、これらに限定されない。すなわち、推定システム100は、任意の知覚刺激を与えた場合の脳活動パターンと、被験者が有する任意の状態との相関関係を学習することができる。たとえば、推定システム100がマーケティングに用いられる場合には、商品を見せたときの脳活動パターンと当該商品に対するアンケート結果とを学習データとして、脳活動パターンと被験者の購買意欲との相関関係を学習することもできる。   Furthermore, in the above description, an example of learning a correlation between a brain activity pattern and a depression state when a perceptual stimulus for giving an unequal feeling was given was explained. However, it is not limited to these. That is, the estimation system 100 can learn a correlation between a brain activity pattern when an arbitrary sensory stimulus is given and an arbitrary state of the subject. For example, when the estimation system 100 is used for marketing, the correlation between the brain activity pattern and the purchase will of the subject is learned using the brain activity pattern when the product is shown and the questionnaire result for the product as learning data. You can also.

(推定処理)
図2を参照して、本実施の形態に従う推定方法における推定処理について説明する。推定処理では、推定システム100は、脳活動パターンXと被験者の状態との間の相関関係(すなわち、学習結果25)を利用して、検査対象の被験者について算出された脳活動パターンXから当該被験者の状態を推定する。推定処理は、主として、ステップS11〜S14の処理を含む。
(Estimation process)
With reference to FIG. 2, estimation processing in the estimation method according to the present embodiment will be described. In the estimation process, the estimation system 100 uses the correlation between the brain activity pattern X and the state of the subject (that is, the learning result 25), and the subject from the brain activity pattern X calculated for the subject to be examined. The state of is estimated. The estimation process mainly includes the processes of steps S11 to S14.

ステップS11において、推定システム100は、学習処理と同一種類の知覚刺激(たとえば、画像15の表示)を被験者Tに対して与えるとともに被験者Tから脳活動画像5A〜5Cを取得する。   In step S <b> 11, the estimation system 100 gives the subject T the same type of perceptual stimulus (for example, display of the image 15) as the learning process, and acquires brain activity images 5 </ b> A to 5 </ b> C from the subject T.

ステップS12において、推定システム100は、学習処理と同一の方法で、被験者Tに与えた知覚刺激の変化を数値群18として数値化する。   In step S <b> 12, the estimation system 100 digitizes the change in the perceptual stimulus given to the subject T as the numerical group 18 by the same method as the learning process.

ステップS13において、推定システム100は、数値群18と、脳活動画像5A〜5Cの同一画素における時系列の脳活動情報との類似度を各画素について算出する。脳活動画像5A〜5Cの所定画素における脳活動情報17A〜17Cに注目すると、推定システム100は、数値群として示される脳活動情報17A〜17Cと、数値群18とのうち互いに同じ時刻に対応する数値同士のそれぞれを掛け合わせ、当該掛け合わせた結果を足し合わせて類似度19Aを算出する。推定システム100は、脳活動画像5A〜5Cの各画素について類似度19Aを算出し、脳活動パターンXを生成する。 In step S13, the estimation system 100 calculates the similarity between the numerical value group 18 and time-series brain activity information in the same pixel of the brain activity images 5A to 5C for each pixel. When attention is paid to the brain activity information 17A to 17C in the predetermined pixels of the brain activity images 5A to 5C, the estimation system 100 corresponds to the brain activity information 17A to 17C shown as a numerical group and the numerical group 18 at the same time. Each of the numerical values is multiplied and the result of the multiplication is added to calculate the similarity 19A. Estimation system 100 calculates the similarity 19A for each pixel of brain activity image 5A-5C, generates a brain activity pattern X T.

ステップS14において、推定システム100の推定部30は、学習処理で得られた学習結果25を用いて、被験者Tの状態(たとえば、鬱傾向)を推定する。より具体的には、推定部30は、学習結果25に含まれる脳活動パターンX〜Xのそれぞれと、検査対象の被験者Tの脳活動パターンXとの間のそれぞれの類似度を算出する。推定部30は、算出された類似度のそれぞれに重みw〜wのそれぞれを掛け合わせ、掛け合わせた結果を総和して被験者TのBDIスコアの変化を推定する。推定されたBDIスコアの変化が正の値を示せば、そのことは、現在よりも被験者Tが鬱になる可能性が高いことを示す。推定されたBDIスコアの変化度が負の値を示せば、そのことは、被験者Tの鬱度合いが現在よりも改善される可能性が高いことを示す。 In step S14, the estimation unit 30 of the estimation system 100 estimates the state (for example, depression tendency) of the subject T using the learning result 25 obtained by the learning process. More specifically, the estimation unit 30 calculates each and brain activity pattern X 1 to X n included in the learning result 25, each of the similarity between the brain activity pattern X T of the subject T to be inspected To do. Estimating unit 30 multiplies the respective weight w 1 to w n to each of the calculated degree of similarity, and summing the results of multiplying to estimate the change in BDI score of the subject T. If the estimated change in the BDI score shows a positive value, this indicates that the subject T is more likely to become depressed than at present. If the estimated degree of change in the BDI score is a negative value, this indicates that the degree of depression of the subject T is likely to be improved over the current level.

[学習部20]
以下では、学習部20(図1参照)による学習処理についてさらに詳細に説明する。
[Learning unit 20]
Hereinafter, the learning process by the learning unit 20 (see FIG. 1) will be described in more detail.

学習部20による学習方法として、たとえば、ベイジアンカーネル法(Baysian kernel method)が用いられる。ベイジアンカーネル法では、上記式(1)に示されるように、推定されるBDIスコアZが、(n−1)個のカーネル関数の合計を重み付けすることで算出される。 As a learning method by the learning unit 20, for example, a Bayesian kernel method is used. In the Bayesian kernel method, as shown in the above equation (1), the estimated BDI score Z t is calculated by weighting the sum of (n−1) kernel functions.

上述したように、式(1)のカーネル関数K(X,X)によって、i番目の被験者の脳活動パターンXと、注目しているt番目の被験者の脳活動パターンXとの間の類似度が算出される。式(1)の重みwは、調整され得るパラメータであり、ベイズ法により、実際のBDIスコアYと推定されたBDIスコアZとの間の差(=Z−Y)を最小化するように調整される。このモデルは、式(1)に示されるパラメータに対して線形であり、効率的な計算が実現される。その一方で、カーネル関数は、非線形であり、複合関数にもなり得る。 As described above, by the kernel function K (X i , X t ) of Equation (1), the brain activity pattern X i of the i th subject and the brain activity pattern X t of the t th subject of interest are Similarity between them is calculated. The weight w i in equation (1) is a parameter that can be adjusted, and the difference (= Z t −Y t ) between the actual BDI score Y t and the estimated BDI score Z t is minimized by the Bayesian method. It is adjusted to become. This model is linear with respect to the parameters shown in Equation (1), and an efficient calculation is realized. On the other hand, kernel functions are non-linear and can be complex functions.

疎なベイジアン法(sparse Baysian methodology)を実現するためのポイントは、以下の式(2)のモデルパラメータw(wのセット)に基づいてハイパーパラメータ化された事前分布を定義することである。 The point to realize the sparse Baysian methodology is to define a hyperparameterized prior distribution based on the model parameter w (set of w i ) in the following equation (2).

このタイプの事前分布は、データのフィット性とまばら性との両方で有利に働く。異なる言い方をすれば、事前分布により、ほとんどの事前分布の確率質量がw=0になる。このことは、本学習において、wが0ではない被験者は少数であることを意味し、少数の被験者に対応するwだけが推定に利用されていることを意味する。上記ベイズ法によって、ハイパーパラメータαに基づいて事後分布が計算され、周辺尤度関数を最大化することによって、最も可能性の高い値が出力される。結果として、ほとんどが0に設定されたパラメータwに基づいた事後分布が得られる。 This type of prior distribution favors both the fit and sparseness of the data. In other words, due to the prior distribution, the probability mass of most prior distributions is w i = 0. This means that in this learning, there are a small number of subjects whose w i is not 0, and only w i corresponding to the small number of subjects is used for estimation. By the Bayesian method, the posterior distribution is calculated based on the hyperparameter α i and the most likely value is output by maximizing the marginal likelihood function. As a result, the posterior distribution based on the set parameters w i almost to zero is obtained.

現在の実装では、最適化は、MATLABに搭載されているソフトウェア「SparseBayes」(バージョン2.0)を用いて行われ、Kは、線形スプラインカーネルK(X,X)に基づいて計算される。線形スプラインカーネルK(X,X)は、図3に示されるMATLABのコードのようにXおよびXのためにバプニック(Vapnik)等によって提案された。図3に示されるコードの「lengthScale」は、正規化されたパラメータであり、10分割交差確認法(10-fold cross-validation procedure)によって決定される。 In the current implementation, optimization is performed using the software “SparseBays” (version 2.0) installed in MATLAB, where K is calculated based on the linear spline kernel K (X i , X t ). The A linear spline kernel K (X i , X t ) was proposed by Vapnik et al. For X i and X t like the MATLAB code shown in FIG. “LengthScale” of the code shown in FIG. 3 is a normalized parameter, and is determined by a 10-fold cross-validation procedure.

(変形例)
以下では、推定システム100の学習部20(図1参照)による学習処理の変形例について説明する。
(Modification)
Below, the modification of the learning process by the learning part 20 (refer FIG. 1) of the estimation system 100 is demonstrated.

上述のベイジアンカーネル法では、目的関数がカーネル関数の総計として表され、限られた被験者だけが推定時に用いられていた。そこで、発明者らは、ベイジアンカーネル法の代わりに、ベイシアン一般化加法モデル(Bayesian generalized additive model)の適用可能性について調べた。ベイシアン一般化加法モデルは、各被験者の多項式表現X(たとえば、x、x 、...、x )を入力として、以下の式(3)に示されるように、これらの成分の重み加算として推定モデルを出力する。 In the Bayesian kernel method described above, the objective function is expressed as the sum of kernel functions, and only a limited number of subjects are used for estimation. Therefore, the inventors investigated the applicability of a Bayesian generalized additive model instead of the Bayesian kernel method. The Basisian generalized additive model takes each subject's polynomial representation X i (eg, x i , x i 2 ,..., X i p ) as input, as shown in equation (3) below, The estimation model is output as the component weight addition.

式(3)の「Xi p」は、i番目の入力ベータ値のp乗の項を表わす。式(3)の「wi p」は、当該項のための調整可能なパラメータである。このモデルは、一般化加法モデルと呼ばれ、入力変数の相互作用項を必要としない非線形の関数を表わすのに十分に有効である。ベイシアンカーネル法と同じ最適化と事前分布とが一般化加法モデルに適用される。そのため、wi pが0とならない被験者は、少数となる。最適化も、MATLABに搭載されているソフトウェア「SparseBayes」(バージョン2.0)を用いて行われた。 “X i p ” in Expression (3) represents a term of p-th power of the i-th input beta value. “W i p ” in Equation (3) is an adjustable parameter for the term. This model is called a generalized additive model and is sufficiently effective to represent non-linear functions that do not require interaction terms for input variables. The same optimizations and prior distributions as the Bayesian kernel method are applied to the generalized additive model. Therefore, there are a small number of subjects whose w i p is not zero. The optimization was also performed using the software “Sparse Bayes” (version 2.0) installed in MATLAB.

疎なカーネル(または一般化加法モデルの次数)における正規化されたパラメータと主成分分析(PCA:Principal Component. Analysis)の次元とのために、実際のBDIスコアの変化値と推定される変化値との間の平均平方誤差が、10分割交差確認法を用いたカーネルパラメータおよび主成分の数に対してプロットされ、最適な値のセットが決定される。拡散係数は、推定値Zと回帰線との間の絶対値差の平均として定義される。   Due to normalized parameters and principal component analysis (PCA) dimensions in a sparse kernel (or generalized additive model order), actual BDI score changes and estimated change values Is plotted against the kernel parameters and the number of principal components using a 10-fold cross validation method to determine the optimal set of values. The diffusion coefficient is defined as the average of the absolute value differences between the estimated value Z and the regression line.

[推定システム100]
図4を参照して、本実施の形態に従う推定システム100の装置構成の概要について説明する。図4は、推定システム100の主要なハードウェア構成を示すブロック図である。図4に示されるように、推定システム100は、fMRI装置200と、情報処理装置400とを含む。
[Estimation system 100]
With reference to FIG. 4, an outline of a device configuration of estimation system 100 according to the present embodiment will be described. FIG. 4 is a block diagram illustrating a main hardware configuration of the estimation system 100. As illustrated in FIG. 4, the estimation system 100 includes an fMRI apparatus 200 and an information processing apparatus 400.

fMRI装置200は、被験者Sの脳活動情報を取得したい領域に向けて、共鳴周波数の高周波電磁場を印加するともに、特定の原子核(例えば、水素原子核)の共鳴により生じる電磁波を検出することで、脳活動情報を計測する。一例として、fMRI装置200には、シーメンス社製の「Trio TIM 3T スキャナ」が用いられる。fMRI装置200のイメージング方法には、たとえば、EPI(Echo Planar Imaging)法が用いられる。EPI法によって得られた画像は、2×2×2mmのボクセルに分けられ、6mmの半値幅(FWHM:Full Width at Half Maximum)の等方性のガウシアンカーネルで平滑化される。当該データは、SPM8のデフォルト設定を用いることで高周波がフィルタリングされる(カットオフ周波数:128s)。   The fMRI apparatus 200 applies a high-frequency electromagnetic field having a resonance frequency toward a region where the brain activity information of the subject S is desired to be acquired, and detects an electromagnetic wave generated by resonance of a specific nucleus (for example, a hydrogen nucleus). Measure activity information. As an example, a “Trio TIM 3T scanner” manufactured by Siemens is used for the fMRI apparatus 200. As the imaging method of the fMRI apparatus 200, for example, an EPI (Echo Planar Imaging) method is used. An image obtained by the EPI method is divided into 2 × 2 × 2 mm voxels and smoothed by an isotropic Gaussian kernel having a full width at half maximum (FWHM) of 6 mm. The data is filtered by high frequency by using the default setting of SPM 8 (cut-off frequency: 128 s).

fMRI装置200は、静磁場磁石101と、傾斜磁場コイル102と、送信部103と、送信コイル104と、受信コイル105と、受信部106と、表示部109と、電源110と、寝台115と、天板116と、データ処理部150とを含む。   The fMRI apparatus 200 includes a static magnetic field magnet 101, a gradient magnetic field coil 102, a transmission unit 103, a transmission coil 104, a reception coil 105, a reception unit 106, a display unit 109, a power source 110, a bed 115, A top plate 116 and a data processing unit 150 are included.

データ処理部150は、推定システム100の全体制御を行う。たとえば、データ処理部150は、fMRI装置200の各部を駆動することで、脳活動情報の収集等を行う。データ処理部150としては、専用のコンピュータであってもよいし、記憶部153等に格納された制御プログラムを実行することで、所定の処理を実現する汎用コンピュータであってもよい。データ処理部150は、シーケンス制御部151と、画像再構成部152と、記憶部153と、表示制御部154と、インターフェイス155と、表示部156と、入力部157とを含む。   The data processing unit 150 performs overall control of the estimation system 100. For example, the data processing unit 150 collects brain activity information by driving each unit of the fMRI apparatus 200. The data processing unit 150 may be a dedicated computer or a general-purpose computer that realizes predetermined processing by executing a control program stored in the storage unit 153 or the like. The data processing unit 150 includes a sequence control unit 151, an image reconstruction unit 152, a storage unit 153, a display control unit 154, an interface 155, a display unit 156, and an input unit 157.

静磁場磁石101は、中空の円筒形状に形成された磁石であり、内部の空間に一様な静磁場を発生する。静磁場磁石101としては、たとえば、永久磁石、超伝導磁石等が用いられる。   The static magnetic field magnet 101 is a magnet formed in a hollow cylindrical shape, and generates a uniform static magnetic field in an internal space. As the static magnetic field magnet 101, for example, a permanent magnet, a superconducting magnet, or the like is used.

傾斜磁場コイル102は、中空の円筒形状に形成されたコイルであり、静磁場磁石101の内側に配置される。この傾斜磁場コイル102は、互いに直交するx,y,z軸にそれぞれ対応する3つのコイルが組み合わされて形成されている。これら3つのコイルは、電源110から個別に電流供給を受けて、x,y,z軸のそれぞれに沿って磁場強度を変化させるための傾斜磁場を発生する。   The gradient magnetic field coil 102 is a coil formed in a hollow cylindrical shape, and is disposed inside the static magnetic field magnet 101. The gradient coil 102 is formed by combining three coils respectively corresponding to x, y, and z axes orthogonal to each other. These three coils are individually supplied with current from the power supply 110 and generate gradient magnetic fields for changing the magnetic field strength along the x, y, and z axes.

傾斜磁場コイル102によって発生するx,y,z軸の各々の傾斜磁場は、たとえば、スライス選択用の傾斜磁場Gs、位相エンコード用の傾斜磁場Gp、およびリードアウト用の傾斜磁場Grにそれぞれ対応する。スライス選択用の傾斜磁場Gsは、被験者Sの撮像スライス面を任意に決めるために利用される。位相エンコード用の傾斜磁場Gpは、磁気共鳴信号の位相を変化させるために利用される。リードアウト用の傾斜磁場Grは、磁気共鳴信号の周波数を変化させるために利用される。   The gradient magnetic fields of the x, y, and z axes generated by the gradient coil 102 correspond to, for example, the gradient magnetic field Gs for slice selection, the gradient magnetic field Gp for phase encoding, and the gradient magnetic field Gr for readout. . The slice selection gradient magnetic field Gs is used to arbitrarily determine the imaging slice plane of the subject S. The phase encoding gradient magnetic field Gp is used to change the phase of the magnetic resonance signal. The gradient magnetic field Gr for readout is used for changing the frequency of the magnetic resonance signal.

送信部103は、シーケンス制御部151による制御に基づいて、ラーモア周波数に対応する高周波信号を送信コイル104に送信する。送信コイル104は、傾斜磁場コイル102の内側に配置され、送信部103から出力されるラジオ波を被験者Sに照射する。   The transmission unit 103 transmits a high frequency signal corresponding to the Larmor frequency to the transmission coil 104 based on the control by the sequence control unit 151. The transmission coil 104 is disposed inside the gradient magnetic field coil 102 and irradiates the subject S with a radio wave output from the transmission unit 103.

受信コイル105は、たとえば、複数のチャンネルの磁気共鳴信号を受信することが可能なものが用いられる。受信コイル105で検出された磁気共鳴信号は、受信部106に送信される。   As the receiving coil 105, for example, a coil capable of receiving magnetic resonance signals of a plurality of channels is used. The magnetic resonance signal detected by the receiving coil 105 is transmitted to the receiving unit 106.

受信部106は、シーケンス制御部151による制御に基づいて、受信コイル105から出力される磁気共鳴信号をA/D(Analog-to-Digital)変換する。スライス選択用の傾斜磁場Gs、位相エンコード用の傾斜磁場Gp、およびリードアウト用の傾斜磁場Grが印加されながら、磁気共鳴信号が収集されることで、受信部106によって収集される信号データに信号源の位置情報がエンコードされる。   The receiving unit 106 performs A / D (Analog-to-Digital) conversion on the magnetic resonance signal output from the receiving coil 105 based on the control by the sequence control unit 151. A magnetic resonance signal is collected while a gradient magnetic field Gs for slice selection, a gradient magnetic field Gp for phase encoding, and a gradient magnetic field Gr for readout are being applied. Source location information is encoded.

本実施の形態に従う推定システム100においては、図1のステップS1に示されるように、被験者Sが画像15を見たときの脳活動情報が計測される。そのため、被験者Sが画像15を見ることができるように構成される。その一例として、表示部109がfMRI装置200の空洞内に設けられる。画像15が表示部109に表示されることにより、被験者Sに対して視覚刺激が与えられる。   In estimation system 100 according to the present embodiment, as shown in step S1 of FIG. 1, brain activity information when subject S views image 15 is measured. Therefore, the subject S is configured to be able to see the image 15. As an example, the display unit 109 is provided in the cavity of the fMRI apparatus 200. By displaying the image 15 on the display unit 109, a visual stimulus is given to the subject S.

寝台115には、被験者Sが載置される天板116が取り付けられている。天板116は、被験者Sが載置された状態で傾斜磁場コイル102の空洞内へ挿入される。通常、この寝台115は、長手方向が静磁場磁石101の中心軸と平行になるように設置される。   A couchtop 116 on which the subject S is placed is attached to the bed 115. The top plate 116 is inserted into the cavity of the gradient coil 102 with the subject S placed thereon. Normally, the bed 115 is installed such that the longitudinal direction is parallel to the central axis of the static magnetic field magnet 101.

シーケンス制御部151は、データ処理部150で生成されるシーケンス実行データにしたがって送信部103、受信部106、および電源110を駆動することで、被験者Sの脳活動画像を生成するためのデータを収集する。シーケンス実行データとは、被験者Sから生データを収集するためのパルスシーケンスを定義する情報である。より具体的には、シーケンス実行データは、電源110によって傾斜磁場コイル102に供給される電源の強さや電力を供給するタイミング、送信部103が送信コイル104に送信する高周波信号のレベルや高周波信号を送信するタイミング、受信部106が磁気共鳴信号を検出するタイミング等、データ収集を行うための手順を定義した情報である。   The sequence control unit 151 collects data for generating a brain activity image of the subject S by driving the transmission unit 103, the reception unit 106, and the power source 110 according to the sequence execution data generated by the data processing unit 150. To do. The sequence execution data is information that defines a pulse sequence for collecting raw data from the subject S. More specifically, the sequence execution data includes the strength of the power supplied to the gradient coil 102 by the power supply 110 and the timing of supplying power, the level of the high-frequency signal transmitted from the transmission unit 103 to the transmission coil 104, and the high-frequency signal. This is information defining a procedure for collecting data such as a transmission timing and a timing at which the receiving unit 106 detects a magnetic resonance signal.

画像再構成部152は、受信部106が受信したk空間の磁気共鳴信号に対してフーリエ変換等の再構成処理を実行し、被験者Sの脳活動画像を生成する。記憶部153は、fMRI計測にかかる処理を実行するための制御プログラム、パラメータ、画像データ(3次元モデル像等)、その他の電子データ等を格納する。表示制御部154は、送信部103を介してから表示部109の表示を切り替えたり、表示部156の表示を切り替えたりする。   The image reconstruction unit 152 performs a reconstruction process such as Fourier transform on the k-space magnetic resonance signal received by the reception unit 106 to generate a brain activity image of the subject S. The storage unit 153 stores a control program, parameters, image data (such as a three-dimensional model image), other electronic data, and the like for executing processing related to fMRI measurement. The display control unit 154 switches the display of the display unit 109 or switches the display of the display unit 156 through the transmission unit 103.

インターフェイス155は、情報処理部210と情報処理装置400とを互いに通信接続するための通信インターフェイスである。情報処理部210および情報処理装置400は、インターフェイス155を介して無線または有線で接続される。表示部156は、被験者Sの関心領域に関する各種画像および各種情報を画面表示する。入力部157は、操作者(図示しない)から各種操作や情報入力を受付ける。   The interface 155 is a communication interface for connecting the information processing unit 210 and the information processing apparatus 400 to each other. The information processing unit 210 and the information processing apparatus 400 are connected via an interface 155 wirelessly or by wire. The display unit 156 displays various images and various information related to the region of interest of the subject S on the screen. The input unit 157 receives various operations and information inputs from an operator (not shown).

[情報処理装置400]
図5を参照して、推定システム100を構成する情報処理装置400(図4参照)のハードウェア構成の一例について説明する。図5は、情報処理装置400の主要なハードウェア構成を示すブロック図である。
[Information processing apparatus 400]
With reference to FIG. 5, an example of the hardware configuration of the information processing apparatus 400 (see FIG. 4) constituting the estimation system 100 will be described. FIG. 5 is a block diagram illustrating a main hardware configuration of the information processing apparatus 400.

図5に示されるように、情報処理装置400は、ROM(Read Only Memory)401と、CPU402と、RAM(Random Access Memory)403と、ネットワークインターフェイス405と、表示部406と、記憶装置410とを含む。   As illustrated in FIG. 5, the information processing apparatus 400 includes a ROM (Read Only Memory) 401, a CPU 402, a RAM (Random Access Memory) 403, a network interface 405, a display unit 406, and a storage device 410. Including.

ROM401は、オペレーティングシステム、推定システム100で実行される推定プログラム等を格納する。CPU402は、オペレーティングシステムや推定システム100の推定プログラム等の各種プログラムを実行することで、推定システム100の動作を制御する。CPU402は、機能構成として、上述の学習部20と上述の推定部30とを含む。RAM403は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。   The ROM 401 stores an operating system, an estimation program executed by the estimation system 100, and the like. The CPU 402 controls the operation of the estimation system 100 by executing various programs such as an operating system and an estimation program of the estimation system 100. The CPU 402 includes the learning unit 20 and the estimation unit 30 described above as functional configurations. The RAM 403 functions as a working memory and temporarily stores various data necessary for program execution.

コントロールインターフェイス404は、fMRI装置200のデータ処理部150との間でデータを遣り取りする。ネットワークインターフェイス405は、外部装置(たとえば、クラウド上のデータサーバ装置等)との間でデータを遣り取りする。コントロールインターフェイス404およびネットワークインターフェイス405は、有線LAN(Local Area Network)、無線LAN、USB(Universal Serial Bus)、Bluetooth(登録商標)等の任意の通信コンポーネントで構成される。推定システム100は、ネットワークインターフェイス405を介して、本実施の形態に従う各種の処理を実現するための推定プログラム412をダウンロードできるように構成されてもよい。   The control interface 404 exchanges data with the data processing unit 150 of the fMRI apparatus 200. The network interface 405 exchanges data with an external device (for example, a data server device on the cloud). The control interface 404 and the network interface 405 are configured by arbitrary communication components such as a wired LAN (Local Area Network), a wireless LAN, a USB (Universal Serial Bus), and Bluetooth (registered trademark). The estimation system 100 may be configured to be able to download an estimation program 412 for realizing various processes according to the present embodiment via the network interface 405.

表示部406は、たとえば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、またはその他の表示機器等を含む。表示部406は、タッチセンサ(図示しない)と組み合わされてタッチパネルとして構成されてもよい。表示部406には、被験者に知覚刺激を与えるための画像と同一の画像が表示され得る。   Display unit 406 includes, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or other display devices. The display unit 406 may be configured as a touch panel in combination with a touch sensor (not shown). The display unit 406 can display the same image as an image for applying a perceptual stimulus to the subject.

記憶装置410は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置410は、上述の学習処理で用いられる教師データ22、当該学習処理における学習結果25、本実施の形態に従う推定プログラム412等を保持する。   The storage device 410 is a storage medium such as a hard disk or an external storage device. As an example, the storage device 410 holds teacher data 22 used in the above-described learning process, a learning result 25 in the learning process, an estimation program 412 according to the present embodiment, and the like.

推定プログラム412は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従うイメージングが実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う推定システム100の趣旨を逸脱するものではない。さらに、本実施の形態に従う推定プログラム412によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、推定システム100とサーバとが協働して、本実施の形態に従うイメージングを実現するようにしてもよい。さらに、少なくとも1つのサーバが本実施の形態に従うイメージングを実現する、所謂クラウドサービスの形態で推定システム100が構成されてもよい。   The estimation program 412 may be provided in a part of an arbitrary program, not as a single program. In this case, imaging according to the present embodiment is realized in cooperation with an arbitrary program. Even such a program that does not include some modules does not depart from the spirit of the estimation system 100 according to the present embodiment. Furthermore, part or all of the functions provided by the estimation program 412 according to the present embodiment may be realized by dedicated hardware. Furthermore, the estimation system 100 and the server may cooperate to realize imaging according to the present embodiment. Furthermore, the estimation system 100 may be configured in the form of a so-called cloud service in which at least one server realizes imaging according to the present embodiment.

[実験]
(実験内容)
図6を参照して、発明者らが実施した実験の内容について説明する。発明者らは、不平等感に対する脳の反応を調べるために、最後通牒ゲーム(Ultimatum game)を被験者に対して実施した。
[Experiment]
(Experiment contents)
The content of the experiment conducted by the inventors will be described with reference to FIG. The inventors performed a final game (Ultimatum game) on the subjects in order to examine the brain's response to inequality.

最後通牒ゲームは、2人の被験者間で不平等感を生じさせるためのゲームである。より具体的には、まず、一方の被験者(以下、「第1被験者」ともいう。)は、他方の被験者(以下、「第2被験者」ともいう。)にM円のうちX円を与えることを提案する。第2被験者は、第1被験者の提案を受諾するか拒否するかを決定する。提案が受諾された場合には、第1被験者には(M−X)円が支払われ、第2被験者にはM円が支払われる。提案が拒否された場合には、第1被験者および第2被験者の両方は、お金を得ることができない。第1被験者から提案される分配金に差があるほど、第2被験者は、不平等を感じる。このような分配金の表示により不平等を伴う知覚刺激が与えられる。分配金の差が不平等の度合いとして数値化される(図1のステップS2参照)。   The last game is a game for creating an inequality between two subjects. More specifically, first, one subject (hereinafter also referred to as “first subject”) gives the other subject (hereinafter also referred to as “second subject”) an X circle out of M circles. Propose. The second subject determines whether to accept or reject the first subject's proposal. If the proposal is accepted, the first subject is paid (MX) yen and the second subject is paid M yen. If the proposal is rejected, both the first subject and the second subject cannot get money. The greater the difference in the distribution proposed by the first subject, the more the second subject feels inequality. Such a display of distributions gives a perceptual stimulus with inequality. The distribution difference is digitized as the degree of inequality (see step S2 in FIG. 1).

図6は、不平等感に対する脳の反応を調べるための最後通牒ゲーム(Ultimatum game)の手順を概略的に示す概念図である。最後通牒ゲームでは、画像15A〜15Eが順に表示される。画像15A〜15Eは、図1および図2に示される画像15に対応する。   FIG. 6 is a conceptual diagram schematically showing the procedure of an ultimate game for examining the brain's response to inequality. In the last game, images 15A to 15E are displayed in order. Images 15A to 15E correspond to the image 15 shown in FIGS.

図6に示されるように、まず、開始を示す画像15Aが表示される。その後、分配金の提案者である第1被験者の顔と名前とが画像15Bとして1秒間表示される。提案者の顔および名前は、提案者ごとに1回だけ表示される。   As shown in FIG. 6, first, an image 15A indicating the start is displayed. Thereafter, the face and name of the first subject who is the proposer of the distribution money are displayed as an image 15B for one second. The face and name of the proposer is displayed only once for each proposer.

次に、第1被験者への分配金と第2被験者への分配金とが画像15Cとして表示される。第1被験者および第2被験者への分配金の合計は、たとえば500円である。提案可能な分配は、たとえば、「350円−150円」、「300円−200円」、「250円−250円」、「200円−300円」、「150円−350円」、「100円−400円」、「50円−450円」である。第1被験者によって選択された分配には、±25円以内のノイズがランダムに付与される。これにより、最後通牒ゲームに被験者を没頭させることができる。   Next, the distribution to the first subject and the distribution to the second subject are displayed as an image 15C. The total distribution to the first subject and the second subject is, for example, 500 yen. Possible distributions are, for example, “350 yen-150 yen”, “300 yen-200 yen”, “250 yen-250 yen”, “200 yen-300 yen”, “150 yen-350 yen”, “100 yen” Yen-400 Yen "and" 50 Yen-450 Yen ". The distribution selected by the first subject is randomly given noise within ± 25 yen. Thereby, a test subject can be immersed in the last game.

分配金を表示する画像15Cは、約6秒間表示される。その後、第2被験者は、第1被験者からの提案を承諾するか拒否するかをボタンの押下によって選択する。第2被験者が提案を承諾した場合には、承諾を示す画像15Dが表示される。その後、次の試行の開始を示す画像15Eが表示される。   The image 15C displaying the distribution money is displayed for about 6 seconds. Thereafter, the second subject selects whether to accept or reject the proposal from the first subject by pressing a button. When the second subject accepts the proposal, an image 15D indicating acceptance is displayed. Thereafter, an image 15E indicating the start of the next trial is displayed.

1回の試行にかかる時間は、約21秒(たとえば、19〜23秒)であり、56回の試行が順次実施される。すなわち、1回の最後通牒ゲームにかかる時間は、約1176秒(=21秒×56回)である。   The time required for one trial is approximately 21 seconds (for example, 19 to 23 seconds), and 56 trials are sequentially performed. That is, the time required for one last game is about 1176 seconds (= 21 seconds × 56 times).

(実験結果1)
図7および図8を参照して、最後通牒ゲームの実施時に得られた脳活動パターンから鬱傾向を推定した実験結果について説明する。図7は、推定されたBDIスコアと実際のBDIスコアとの対比を示す図である。図8は、不平等感に対する脳内の活動領域を示す図である。
(Experimental result 1)
With reference to FIG. 7 and FIG. 8, the experimental result of estimating the depression tendency from the brain activity pattern obtained when the last game is executed will be described. FIG. 7 is a diagram showing a comparison between an estimated BDI score and an actual BDI score. FIG. 8 is a diagram showing an active region in the brain for inequality.

図7のグラフ(A)には、最後通牒ゲームの実施時に得られた脳活動パターンから推測されたBDIスコアの結果が示される。グラフ(A)のX軸は、BDIスコアの変化量の実測値を表わす。グラフ(A)のY軸は、BDIスコアの変化量の推定値を表わす。グラフ(A)において、実測値と推定値との結果が各被験者についてプロットされている。グラフ(A)には、推定値と実測値との正の相関が示されている(傾き:slope=0.194、相関係数:R=0.41、p値:p=0.00029)。これにより、将来の鬱傾向が脳活動パターンから推定できることが示された。   The graph (A) in FIG. 7 shows the result of the BDI score estimated from the brain activity pattern obtained when the last game was executed. The X axis of the graph (A) represents an actual measurement value of the change amount of the BDI score. The Y axis of the graph (A) represents the estimated value of the change amount of the BDI score. In the graph (A), the results of the actual measurement value and the estimated value are plotted for each subject. The graph (A) shows a positive correlation between the estimated value and the actually measured value (slope: slope = 0.194, correlation coefficient: R = 0.41, p value: p = 0.00029). This indicates that future depression trends can be estimated from brain activity patterns.

このような推定は、提案者の顔の提示では不可能である。そのことを示す結果がグラフ(B)に示される(傾き:slope=0.046、相関係数:R=0.24)。また、このような推定は、申し出の提示では不可能である。そのことを示す結果がグラフ(C)に示される(傾き:slope=0.081、相関係数:R=0.311)。   Such estimation is not possible by presenting the face of the proposer. The result indicating this is shown in graph (B) (slope: slope = 0.046, correlation coefficient: R = 0.24). Also, such an estimation is not possible by presenting the offer. The result indicating this is shown in graph (C) (slope: slope = 0.081, correlation coefficient: R = 0.311).

これらの結果は、ロバストである。なぜならば、発明者らは、カーネルベイシアン法の他にも、ベイシアン一般化加法モデルを用いても同じ結果を得ることを確認したからである。   These results are robust. This is because the inventors have confirmed that the same result can be obtained by using the Beisian generalized additive model in addition to the kernel Bayesian method.

図8に示されるように、発明者らは、不平等に対して脳内の扁桃体の血流量が変化していることを確かめた。破線701〜703で囲まれている領域が扁桃体である。図8の画像(A)は、被験者の脳の水平方向の断面図を示す。図8の画像(B)は、画像(A)のVIII−VIII線に沿った断面図を示す。画像(A),(B)に示されるように、不平等感に対して脳内の扁桃体の血流量が変化している。そのため、鬱状態の推定時には、脳内の中でも扁桃体の脳活動情報を用いて推定することが好ましい。なお、鬱状態の推定において、扁桃体の脳活動情報の代わりに、中前頭回(MFG:Middle Frontal Gyrus)の脳活動パターンが用いられてもよい。   As shown in FIG. 8, the inventors have confirmed that the blood flow in the amygdala in the brain is changed due to inequality. A region surrounded by broken lines 701 to 703 is an amygdala. An image (A) in FIG. 8 shows a horizontal cross-sectional view of the subject's brain. An image (B) in FIG. 8 shows a cross-sectional view along the line VIII-VIII of the image (A). As shown in the images (A) and (B), the blood flow volume of the amygdala in the brain changes due to inequality. Therefore, it is preferable to estimate the depression using brain activity information of the amygdala in the brain. In the estimation of the depression, a brain activity pattern of the middle frontal gyrus (MFG) may be used instead of the brain activity information of the amygdala.

(実験結果2)
発明者らは、さらに、鬱傾向の変化を予測するために寄与している扁桃体の部分を調べた。以下では、図9を参照して、その結果について説明する。図9は、不平等感を被験者に与えた場合における扁桃体の脳活動パターンを示す図である。
(Experimental result 2)
The inventors further examined the part of the amygdala that contributed to predicting changes in depression. Hereinafter, the results will be described with reference to FIG. FIG. 9 is a diagram showing brain activity patterns of the amygdala when inequality is given to the subject.

発明者らは、上述の学習処理で出力された重みwが0ではない被験者について、GLM(Generalized Linear Model)分析を行った。発明者らは、不平等感を与えることによって得られた扁桃体の活動パターンを、重みwがプラスになった被験者(図9の「plus-W」)と重みwがナイナスになった被験者(図9の「minus-W」)との間で比較した。「plus-W」の被験者は、鬱が改善される傾向にある。「minus-W」の被験者は、鬱が悪化する傾向にある。「plus-W」の被験者においては、扁桃体の中心核90Aと外側基底核90Bとが不平等感に相関している。一方で、「plus-W」の被験者においては、境界領域90Cが不平等感に相関している。 The inventors performed GLM (Generalized Linear Model) analysis on subjects whose weights w i output in the learning process are not 0. The inventors of the activity pattern of the amygdala obtained by giving unequal feelings are a subject whose weight w i is positive (“plus-W” in FIG. 9) and a subject whose weight w i is negative. ("Minus-W" in FIG. 9). “Plus-W” subjects tend to improve depression. “Minus-W” subjects tend to get worse. In the subject of “plus-W”, the central nucleus 90A of the amygdala and the outer basal nucleus 90B correlate with inequality. On the other hand, in the subject of “plus-W”, the boundary region 90C correlates with inequality.

扁桃体の各領域のピークボクセルでのベータ値が実験結果92A〜92Cに示されている。実験結果92A〜92Cに示されるように、「plus-W」の被験者と「minus-W」の被験者とは、不平等感に対して、互いに反対のパターンの相関を示している。発明者らのマルチボクセルパターン分析は、推定のために、これらの差を検出および収集する可能性が高い。本実験結果により、中心核90Aおよび外側基底核90Bにおける正相関と、境界領域90Cにおける不平等感に対する相関の減少とが鬱傾向を増加させることが示された。   The beta values at peak voxels in each region of the amygdala are shown in the experimental results 92A to 92C. As shown in the experimental results 92 </ b> A to 92 </ b> C, the “plus-W” subject and the “minus-W” subject show correlations of patterns opposite to each other with respect to inequality. Our multi-voxel pattern analysis is likely to detect and collect these differences for estimation. The results of this experiment showed that the positive correlation in the central nucleus 90A and the outer basal nucleus 90B and the decrease in the correlation with the unequal feeling in the boundary region 90C increase the depression tendency.

[まとめ]
以上のようにして、学習処理では、推定システム100は、被験者が有する状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得する。その後、推定システム100は、各被験者について、当該被験者の脳内の各領域から得られた脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ知覚刺激の時間的な変化との間のそれぞれの類似度からなる脳活動パターンXを算出する。推定システム100は、予め定量化されている各被験者の状態と、各被験者に対応する脳活動パターンXとを用いて、脳活動パターンXと被験者の状態との間の相関関係を学習する。
[Summary]
As described above, in the learning process, the estimation system 100 uses the time-series brain activity information measured when a perceptual stimulus that can be correlated with the state of the subject is given to each subject, It acquires about each mutually different area | region. Thereafter, the estimation system 100 determines, for each subject, between each temporal change in brain activity information obtained from each region in the subject's brain and temporal change in sensory stimulation given to the subject. The brain activity pattern X consisting of the respective similarities is calculated. The estimation system 100 learns the correlation between the brain activity pattern X and the state of the subject using the state of each subject that has been quantified in advance and the brain activity pattern X corresponding to each subject.

脳活動パターンXは、知覚刺激に連動している度合いを脳内の各領域について示しているため、推定システム100は、知覚刺激に反応している部分を容易に特定することができる。これにより、推定システム100は、知覚刺激の種類が変わった場合でも脳内の活動部分を正確に特定することができる。   Since the brain activity pattern X indicates the degree of interlocking with the perceptual stimulus for each region in the brain, the estimation system 100 can easily identify the portion that reacts to the perceptual stimulus. As a result, the estimation system 100 can accurately identify the active part in the brain even when the type of the perceptual stimulus changes.

推定処理では、推定システム100は、脳活動パターンXと被験者の状態との間の相関関係(すなわち、学習結果25)を利用して、検査対象の被験者について算出された脳活動パターンXから当該被験者の状態を推定する。   In the estimation process, the estimation system 100 uses the correlation between the brain activity pattern X and the state of the subject (that is, the learning result 25), and the subject from the brain activity pattern X calculated for the subject to be examined. Is estimated.

推定システム100は、知覚刺激に連動している脳内部分の脳活動情報を利用して被験者の状態を推定するため、被験者の状態を正確に推定することが可能になる。   Since the estimation system 100 estimates the state of the subject using the brain activity information of the part in the brain that is linked to the perceptual stimulus, the state of the subject can be accurately estimated.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1A〜1C,2A〜2C,3A〜3C,5A〜5C 脳活動画像、11A〜11C,17A〜17C 脳活動情報、12〜14,18 数値群、15,15A〜15E 画像、16A,19A 類似度、20 学習部、22 教師データ、25 学習結果、30 推定部、90A 中心核、90B 外側基底核、90C 境界領域、92A〜92C 実験結果、100 推定システム、101 静磁場磁石、102 傾斜磁場コイル、103 送信部、104 送信コイル、105 受信コイル、106 受信部、109,156,406 表示部、110 電源、115 寝台、116 天板、150 データ処理部、151 シーケンス制御部、152 画像再構成部、153 記憶部、154 表示制御部、155 インターフェイス、157 入力部、200 fMRI装置、210 情報処理部、400 情報処理装置、401 ROM、402 CPU、403 RAM、404 コントロールインターフェイス、405 ネットワークインターフェイス、410 記憶装置、412 推定プログラム、701,703 破線。   1A-1C, 2A-2C, 3A-3C, 5A-5C brain activity image, 11A-11C, 17A-17C brain activity information, 12-14, 18 numerical group, 15, 15A-15E image, 16A, 19A similarity , 20 learning unit, 22 teacher data, 25 learning result, 30 estimation unit, 90A central nucleus, 90B outer basal nucleus, 90C boundary region, 92A to 92C experimental result, 100 estimation system, 101 static magnetic field magnet, 102 gradient magnetic field coil, DESCRIPTION OF SYMBOLS 103 Transmission part, 104 Transmission coil, 105 Reception coil, 106 Reception part, 109,156,406 Display part, 110 Power supply, 115 Bed, 116 Top plate, 150 Data processing part, 151 Sequence control part, 152 Image reconstruction part, 153 storage unit, 154 display control unit, 155 interface, 157 input unit, 2 0 fMRI device 210 processing unit, 400 information processing apparatus, 401 ROM, 402 CPU, 403 RAM, 404 control interface, 405 network interface, 410 storage device, 412 estimation program, 701 broken line.

Claims (4)

被験者が有する状態を推定するための推定方法であって、
前記状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得するステップと、
各被験者について、当該被験者の脳内の各領域から得られた前記脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ前記知覚刺激の時間的な変化との間のそれぞれの類似度からなる類似度群を算出するステップと、
予め定量化されている各被験者の状態と、各被験者に対応する前記類似度群とを用いて、前記類似度群と被験者の状態との間の相関関係を学習するステップとを備える、推定方法。
An estimation method for estimating a state of a subject,
Obtaining time-series brain activity information measured when a sensory stimulus that can be correlated with the state is given to each subject for each different region in the subject's brain;
For each subject, the degree of similarity between each temporal change in the brain activity information obtained from each region in the subject's brain and the temporal change in the sensory stimulus given to the subject Calculating a similarity group consisting of:
An estimation method comprising: learning a correlation between the similarity group and the state of the subject using the state of each subject that has been quantified in advance and the similarity group corresponding to each subject. .
前記推定方法は、前記相関関係を利用して、新たな被験者について算出された前記類似度群から当該新たな被験者の状態を推定するステップをさらに備える、請求項1に記載の推定方法。   The estimation method according to claim 1, further comprising estimating a state of the new subject from the similarity group calculated for the new subject using the correlation. 各被験者の各脳活動情報は、時系列の第1数値群として表され、
各被験者に与えた前記知覚刺激は、時系列の第2数値群として表され、
前記算出するステップは、前記第1数値群と前記第2数値群とのうち互いに同じ時刻に対応する数値同士のそれぞれを掛け合わせ、当該掛け合わせた結果を足し合わせて前記類似度を算出する、請求項1または2に記載の推定方法。
Each brain activity information of each subject is represented as a first numerical group of time series,
The sensory stimulus given to each subject is represented as a second numerical group in time series,
The calculating step multiplies each of the numerical values corresponding to the same time in the first numerical value group and the second numerical value group, and adds the multiplied results to calculate the similarity. The estimation method according to claim 1 or 2.
被験者が有する状態を推定するための推定システムであって、
前記状態に相関し得る知覚刺激を各被験者に対して与えたときに計測される時系列の脳活動情報を、当該被験者の脳内の互いに異なる各領域について取得する取得部と、
各被験者について、当該被験者の脳内の各領域から得られた前記脳活動情報のそれぞれの時間的な変化と、当該被験者に与えられ前記知覚刺激の時間的な変化との間のそれぞれの類似度からなる類似度群を算出する算出部と、
予め定量化されている各被験者の状態と、各被験者に対応する前記類似度群とを用いて、前記類似度群と被験者の状態との間の相関関係を学習部とを備える、推定システム。
An estimation system for estimating a state of a subject,
An acquisition unit that acquires time-series brain activity information measured when a sensory stimulus that can be correlated with the state is given to each subject for each different region in the subject's brain;
For each subject, the degree of similarity between each temporal change in the brain activity information obtained from each region in the subject's brain and the temporal change in the sensory stimulus given to the subject A calculation unit for calculating a similarity group consisting of:
An estimation system comprising a learning unit that uses a state of each subject quantified in advance and the similarity group corresponding to each subject to learn a correlation between the similarity group and the state of the subject.
JP2015146988A 2015-07-24 2015-07-24 Information processing apparatus operating method and estimation system Active JP6583719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015146988A JP6583719B2 (en) 2015-07-24 2015-07-24 Information processing apparatus operating method and estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015146988A JP6583719B2 (en) 2015-07-24 2015-07-24 Information processing apparatus operating method and estimation system

Publications (2)

Publication Number Publication Date
JP2017023548A true JP2017023548A (en) 2017-02-02
JP6583719B2 JP6583719B2 (en) 2019-10-02

Family

ID=57944949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015146988A Active JP6583719B2 (en) 2015-07-24 2015-07-24 Information processing apparatus operating method and estimation system

Country Status (1)

Country Link
JP (1) JP6583719B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021037397A (en) * 2018-10-11 2021-03-11 株式会社国際電気通信基礎技術研究所 Brain activity classifier harmonizing system and brain activity classifier program
JP2021519173A (en) * 2018-03-28 2021-08-10 アイカーン スクール オブ メディスン アット マウント シナイ Systems and methods for processing association values between sub-processing areas

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09117430A (en) * 1995-08-11 1997-05-06 Siemens Ag Method and device for time and local resolution display of functional activity of patient's brain
US20020042563A1 (en) * 1999-12-02 2002-04-11 Becerra Lino R. Method and apparatus for objectively measuring pain, pain treatment and other related techniques
JP2003528679A (en) * 2000-03-30 2003-09-30 ザ ゼネラル ホスピタル コーポレーション Method and apparatus for objectively measuring pain
US20150146951A1 (en) * 2012-05-31 2015-05-28 Koninklijke Philips N.V. Method and system for quantitative evaluation of image segmentation
JP2015116213A (en) * 2013-12-16 2015-06-25 株式会社国際電気通信基礎技術研究所 Brain activity training apparatus and brain activity training method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09117430A (en) * 1995-08-11 1997-05-06 Siemens Ag Method and device for time and local resolution display of functional activity of patient's brain
US5662112A (en) * 1995-08-11 1997-09-02 Siemens Aktiengesellschaft Method for time- and location-resolved display of functional brain activities of a patient
US20020042563A1 (en) * 1999-12-02 2002-04-11 Becerra Lino R. Method and apparatus for objectively measuring pain, pain treatment and other related techniques
JP2003528679A (en) * 2000-03-30 2003-09-30 ザ ゼネラル ホスピタル コーポレーション Method and apparatus for objectively measuring pain
US20150146951A1 (en) * 2012-05-31 2015-05-28 Koninklijke Philips N.V. Method and system for quantitative evaluation of image segmentation
JP2015523874A (en) * 2012-05-31 2015-08-20 コーニンクレッカ フィリップス エヌ ヴェ Method, system and storage medium for quantitative evaluation
JP2015116213A (en) * 2013-12-16 2015-06-25 株式会社国際電気通信基礎技術研究所 Brain activity training apparatus and brain activity training method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
春野 雅彦: ""社会行動における意識"", NICT NEWS, JPN6019030213, November 2014 (2014-11-01), pages 1 - 2, ISSN: 0004090963 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021519173A (en) * 2018-03-28 2021-08-10 アイカーン スクール オブ メディスン アット マウント シナイ Systems and methods for processing association values between sub-processing areas
JP7331005B2 (en) 2018-03-28 2023-08-22 アイカーン スクール オブ メディスン アット マウント シナイ Systems and methods for processing association values between sub-processing regions
JP2021037397A (en) * 2018-10-11 2021-03-11 株式会社国際電気通信基礎技術研究所 Brain activity classifier harmonizing system and brain activity classifier program
JP7247159B2 (en) 2018-10-11 2023-03-28 株式会社国際電気通信基礎技術研究所 Brain activity classifier harmonization system and brain activity classifier program

Also Published As

Publication number Publication date
JP6583719B2 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
Hogan et al. Roles of ventromedial prefrontal cortex and anterior cingulate in subjective valuation of prospective effort
De Martino et al. Frequency preference and attention effects across cortical depths in the human primary auditory cortex
Welvaert et al. neuRosim: An R package for generating fMRI data
Goldsmith et al. Longitudinal penalized functional regression for cognitive outcomes on neuronal tract measurements
Rangel et al. The computation of stimulus values in simple choice
Hesselmann et al. Spontaneous local variations in ongoing neural activity bias perceptual decisions
CN111417342B (en) Brain network activity estimation system, method and storage medium
US10136834B2 (en) Neuronal resonance magnetic resonance imaging method
JP6473658B2 (en) Estimation system, estimation method, and estimation apparatus
JP2018187044A (en) Emotion estimation device, emotion estimation method, and computer program
Mas-Herrero et al. Theta oscillations integrate functionally segregated sub-regions of the medial prefrontal cortex
JP6583719B2 (en) Information processing apparatus operating method and estimation system
JP7465970B2 (en) Estimation system, estimation method, program, estimation model, brain activity training device, brain activity training method, and brain activity training program
EP4285132A1 (en) Monitoring of fmri examination
CN109965873B (en) Biological function measurement and analysis system, method and recording medium
EP4364646A1 (en) Migraine management using functional brain imaging
Murawski Neuroeconomics: Investigating the Neurobiology of Choice.
JP7313165B2 (en) Alzheimer&#39;s Disease Survival Analyzer and Alzheimer&#39;s Disease Survival Analysis Program
EP3832336B1 (en) A method of designing a pulse sequence for parallel-transmission mri, and a method of performing parallel-transmission mri using such a pulse sequence
Santos et al. Evaluation of Alzheimer’s disease by analysis of MR images using multilayer perceptrons and committee machines
JP6821171B2 (en) Brain activity state quantification method and brain activity state measurement device
EP3764366A1 (en) Uncertainty maps for deep learning electrical properties tomography
TWI886301B (en) Estimating system, estimating method, program, estimating model, brain activity training apparatus, brain activity training method, and brain activity training program
JP2017021725A (en) Health management support device, health management support system, and health management support method
Hendrikx et al. Derivation of visual timing-tuned neural responses from early visual stimulus representations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6583719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250