JP2021090549A - Determination apparatus, determination method and determination program - Google Patents
Determination apparatus, determination method and determination program Download PDFInfo
- Publication number
- JP2021090549A JP2021090549A JP2019222384A JP2019222384A JP2021090549A JP 2021090549 A JP2021090549 A JP 2021090549A JP 2019222384 A JP2019222384 A JP 2019222384A JP 2019222384 A JP2019222384 A JP 2019222384A JP 2021090549 A JP2021090549 A JP 2021090549A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- gray matter
- brain
- matter volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 19
- 210000004556 brain Anatomy 0.000 claims abstract description 81
- 210000004884 grey matter Anatomy 0.000 claims abstract description 78
- 230000003930 cognitive ability Effects 0.000 claims abstract description 49
- 238000004364 calculation method Methods 0.000 claims abstract description 20
- 238000010801 machine learning Methods 0.000 claims description 13
- 230000001936 parietal effect Effects 0.000 claims description 13
- 210000001159 caudate nucleus Anatomy 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 description 14
- 206010025482 malaise Diseases 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000009792 diffusion process Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 3
- 238000004821 distillation Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000004227 basal ganglia Anatomy 0.000 description 2
- 230000003925 brain function Effects 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 208000013433 lightheadedness Diseases 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 102000006386 Myelin Proteins Human genes 0.000 description 1
- 108010083674 Myelin Proteins Proteins 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000004720 cerebrum Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 208000004209 confusion Diseases 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 206010013395 disorientation Diseases 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical group [H]* 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013425 morphometry Methods 0.000 description 1
- 210000005012 myelin Anatomy 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000001103 thalamus Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
本発明は、判定装置、判定方法及び判定プログラムに関する。 The present invention relates to a determination device, a determination method, and a determination program.
近年、所定の表示装置(例えば、ヘッドマウントディスプレイ(head mounted display(HMD))など)を用いて三次元(3 dimension(3D))映像を知覚させることにより、種々の行為を仮想的にユーザに体験させるxR(仮想現実(Virtual Reality(VR))、拡張現実(Augmented Reality(AR)))、複合現実(Mixed Reality(MR)等の総称)が様々な分野で活用されている。例えば、VRは、ゲームなどのエンターテイメントだけでなく、スポーツ、航空機の操縦及び自動車の運転などのトレーニング、リハビリ、手術支援ロボット(例えば、da Vinci(登録商標))等で活用されている。 In recent years, various actions have been virtually performed by a user by perceiving a three-dimensional (3D) image using a predetermined display device (for example, a head mounted display (HMD)). Experienced xR (Virtual Reality (VR), Augmented Reality (AR)), Mixed Reality (Mixed Reality (MR), etc.) are used in various fields. For example, VR is used not only for entertainment such as games, but also for sports, training such as aircraft operation and automobile driving, rehabilitation, and surgical support robots (for example, da Vinci (registered trademark)).
一方、所定の表示装置を用いて3D映像を知覚するユーザに所定の生体反応(例えば、気持ちの悪さ(Nausea)、目の疲れ(Oculomotor)、ふらつき感(Disorientation)など)が生じる場合があることが知られている(例えば、特許文献1)。当該生体反応は、映像酔い、3D酔い、VR酔い等とも呼ばれる。以下では、説明の便宜上、当該生体反応を「映像酔い」と呼ぶ。 On the other hand, a user who perceives a 3D image using a predetermined display device may experience a predetermined biological reaction (for example, nausea, eyestrain, disorientation, etc.). Is known (for example, Patent Document 1). The biological reaction is also called video sickness, 3D sickness, VR sickness, or the like. Hereinafter, for convenience of explanation, the biological reaction will be referred to as "image sickness".
人間の認知能力(例えば、3D映像に対する受容性)には個人差があり、当該認知能力に関する様々な行為の実施は、全てのユーザに適切に作用するとは限らない。例えば、ユーザが3D映像を用いたトレーニング又はリハビリを実施する場合、映像酔いのために、当該トレーニング又は当該リハビリの実施効果を当該ユーザが十分に得られない恐れがある。したがって、ユーザによる特定の行為(例えば、3D映像を用いた行為)の実施効果を適切に得るために、当該ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能とすることが望まれている。 There are individual differences in human cognitive ability (for example, receptivity to 3D images), and the implementation of various actions related to the cognitive ability does not always work appropriately for all users. For example, when a user performs training or rehabilitation using a 3D image, the user may not be able to sufficiently obtain the effect of the training or the rehabilitation due to image sickness. Therefore, in order to appropriately obtain the effect of the user performing a specific action (for example, an action using 3D images), it is determined whether or not the user has a specific cognitive ability (for example, receptivity to 3D images). It is hoped that it will be possible.
そこで、本発明は、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することを目的の一つとする。 Therefore, one of the objects of the present invention is to provide a determination device, a determination method, and a determination program capable of determining whether or not a person has a specific cognitive ability (for example, receptivity to a 3D image).
本発明の一態様に係る判定装置は、ユーザの脳画像を取得する取得部と、前記脳画像に基づいて、前記ユーザの脳の灰白質体積を演算する演算部と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部と、を備える。 The determination device according to one aspect of the present invention includes an acquisition unit that acquires a user's brain image, an arithmetic unit that calculates the gray matter volume of the user's brain based on the brain image, and the calculated gray matter. A determination unit for determining whether or not the user has a specific cognitive ability based on the volume is provided.
この態様によれば、上記灰白質体積に基づいて上記ユーザが特定の認知能力を有するか否かを判定できる。このため、当該判定結果を考慮して特定の行為を実施することで、当該行為の実施効果を適切に得ることができる。 According to this aspect, it can be determined whether or not the user has a specific cognitive ability based on the gray matter volume. Therefore, by carrying out a specific action in consideration of the determination result, the effect of carrying out the action can be appropriately obtained.
上記態様において、各ユーザの脳画像に基づいて演算される前記所定領域の灰白質体積と各ユーザの前記特定の認知能力に関する所定課題の成績とを用いた機械学習に基づいて生成された予測器を更に備え、前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定してもよい。 In the above embodiment, a predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of a predetermined task related to the specific cognitive ability of each user. Further, the determination unit determines whether or not the user has the specific cognitive ability based on the predicted value of the performance generated by inputting the calculated gray matter volume into the predictor. You may judge.
この態様によれば、上記灰白質体積と上記成績とを用いた機械学習に基づいて生成された予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, since a predictor generated based on machine learning using the gray matter volume and the results is used, it is possible to improve the accuracy of determining whether or not the person has the specific cognitive ability. it can.
上記態様において、前記機械学習には、前記灰白質体積及び前記成績に加えて、各ユーザの前記特定の認知能力に関する主観的指標値が用いられ、前記取得部は、前記脳画像が取得された前記ユーザの主観的指標値を取得し、前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成されてもよい。 In the above aspect, in addition to the gray matter volume and the performance, the subjective index value regarding the specific cognitive ability of each user is used for the machine learning, and the brain image is acquired by the acquisition unit. The subjective index value of the user may be acquired, and the predicted value may be generated by inputting the calculated gray matter volume and the acquired subjective index value into the predictor.
この態様によれば、上記灰白質体積及び上記成績に加えて上記主観的指標値を用いた機械学習により学習済みの予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, since the predictor learned by machine learning using the above subjective index value in addition to the above gray matter volume and the above results is used, the accuracy of determining whether or not the person has the above specific cognitive ability. Can be improved.
上記態様において、前記所定領域は、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。この構成によれば、上頭頂小葉及び尾状核の灰白質体積に基づいてユーザが上記特定の認知能力を有するか否かが判定されるので、当該受容性の判定精度を向上させることができる。 In the above aspect, the predetermined region may be a region corresponding to at least a part of the superior parietal lobule and the caudate nucleus. According to this configuration, it is determined whether or not the user has the specific cognitive ability based on the gray matter volume of the superior parietal lobule and the caudate nucleus, so that the determination accuracy of the acceptability can be improved. ..
上記態様において、前記特定の認知能力は、三次元映像に対する受容性を含んでもよい。この態様によれば、前記ユーザが三次元映像に対する受容性を有するか否かの判定結果を考慮して三次元映像を用いた行為を実施することで、当該行為の実施効果を適切に得ることができる。 In the above aspect, the particular cognitive ability may include receptivity to 3D imaging. According to this aspect, by performing an act using the three-dimensional image in consideration of the determination result of whether or not the user has receptivity to the three-dimensional image, the execution effect of the act can be appropriately obtained. Can be done.
上記態様において、前記三次元映像は、所定の表示装置を用いて前記ユーザによって知覚され、前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備してもよい。 In the above aspect, the three-dimensional image is perceived by the user using a predetermined display device, and the predetermined display device is for the first display unit and the left eye for displaying the two-dimensional image for the right eye of the user. A second display unit for displaying a two-dimensional image may be provided.
上記態様において、前記ユーザの頭部に装着される頭部装着型の表示装置、又は、前記ユーザが右目及び左目により記第1表示部及び前記第2表示部をそれぞれ覗き込む非装着型の表示装置であってもよい。 In the above embodiment, a head-mounted display device worn on the user's head, or a non-wearable display in which the user looks into the first display unit and the second display unit with his / her right eye and left eye, respectively. It may be a device.
本発明の他の態様に係る判定方法は、ユーザの脳画像を取得する工程と、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する工程と、を有する。 The determination method according to another aspect of the present invention includes a step of acquiring a user's brain image, a step of calculating the gray matter volume of a predetermined region of the user's brain based on the brain image, and the above-mentioned calculation. It includes a step of determining whether or not the user has a specific cognitive ability based on the gray matter volume.
本発明の他の態様に係る判定プログラムは、判定装置に備えられた演算部を、ユーザの脳画像を取得する取得部、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部、として機能させる。 In the determination program according to another aspect of the present invention, the calculation unit provided in the determination device is an acquisition unit that acquires a user's brain image, and the gray matter volume of a predetermined region of the user's brain based on the brain image. It functions as a calculation unit for calculating the above and a determination unit for determining whether or not the user has a specific cognitive ability based on the calculated gray matter volume.
本発明によれば、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することができる。 According to the present invention, it is possible to provide a determination device, a determination method, and a determination program capable of determining whether or not a person has a specific cognitive ability (for example, receptivity to a 3D image).
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, those having the same reference numerals have the same or similar configurations.
本実施形態では、脳の所定領域の灰白質の体積(灰白質体積)に基づいて判定される特定の認知能力の一例として、三次元(3D)映像に対する受容性を例示する。なお、特定の認知能力は、3D映像に対する受容性に限られず、脳の所定領域の灰白質体積と相関関係を有するどのような能力であってもよい。 In this embodiment, acceptability to a three-dimensional (3D) image is illustrated as an example of a specific cognitive ability determined based on the volume of gray matter (gray matter volume) in a predetermined region of the brain. The specific cognitive ability is not limited to the receptivity to 3D images, and may be any ability that correlates with the gray matter volume of a predetermined region of the brain.
本実施形態において、ユーザは、所定の表示装置を用いて三次元(3D)映像を知覚する(視認する、認識する等ともいう)。具体的には、当該所定の表示装置は、ユーザの右目用の二次元(2D)映像(右目用映像)を表示する第1表示部と左目用の2D映像(左目用映像)を表示する第2表示部とを具備する。ここで、3D映像とは、ユーザから立体的に見える映像であり、立体映像、3D立体視とも呼ばれる。当該3D映像は、ユーザが奥行きを知覚できる映像ともいえる。例えば、ユーザに左右の眼に視差(parallax)のある映像(すなわち、右目用映像及び左目用映像)を表示すること(両眼視差(binocular parallax)ともいう)、及び/又は、ユーザの頭部運動に合わせて当該映像の見え方を変化させること(運動視差(motion parallax)ともいう)により、3D映像をユーザに知覚させてもよい。なお、3D映像は、両眼視差を利用するものに限られず、ホログラム、体積走査型などであってもよい。また、2D映像とは、ユーザから平面的に見える映像であり、平面映像等とも呼ばれる。 In the present embodiment, the user perceives (also referred to as visual recognition, recognition, etc.) a three-dimensional (3D) image using a predetermined display device. Specifically, the predetermined display device displays a first display unit that displays a two-dimensional (2D) image for the user's right eye (image for the right eye) and a second display unit that displays a 2D image for the left eye (image for the left eye). It is provided with two display units. Here, the 3D image is an image that can be seen stereoscopically by the user, and is also called a stereoscopic image or 3D stereoscopic vision. The 3D image can be said to be an image in which the user can perceive the depth. For example, displaying to the user an image having parallax in the left and right eyes (that is, an image for the right eye and an image for the left eye) (also referred to as binocular parallax), and / or the user's head. The user may perceive the 3D image by changing the appearance of the image according to the movement (also referred to as motion parallax). The 3D image is not limited to one that utilizes binocular parallax, and may be a hologram, a volume scanning type, or the like. Further, the 2D image is an image that can be seen in a plane by the user, and is also called a flat image or the like.
ここで、両眼視差を利用して3D映像を知覚させるための右目用映像及び左目用映像は、同一の対象物を異なる角度で捉えた映像である。ユーザは、右目用の第1表示部に表示される右目用映像と、左目用の第2表示部に表示される左目用映像を脳内で一つに合成して、当該対象物を立体的に知覚する(すなわち、3D映像として知覚する)。 Here, the right-eye image and the left-eye image for perceiving a 3D image using binocular parallax are images in which the same object is captured at different angles. The user synthesizes the image for the right eye displayed on the first display unit for the right eye and the image for the left eye displayed on the second display unit for the left eye into one in the brain, and stereoscopically combines the object. Perceived (that is, perceived as a 3D image).
上記第1表示部及び第2表示部を備える所定の表示装置は、ユーザの所定部位に装着される装着型表示装置であってもよいし、又は、非装着型表示装置であってもよい。装着型表示装置は、例えば、ユーザの頭部に装着されるヘッドマウントディスプレイ(head mounted display(HMD))、VRヘッドセット、ゴーグル等であってもよい。非装着型表示装置は、例えば、Cave Automatic Virtual Environment(CAVE)等の没入型ディスプレイ(immersive display)、立体テレビ、右目用の第1表示部及び左目用の第2表示部を備えたコンソールを含む手術支援ロボット等であってもよい。 The predetermined display device including the first display unit and the second display unit may be a wearable display device mounted on a predetermined portion of the user, or may be a non-wearable display device. The wearable display device may be, for example, a head mounted display (HMD) mounted on the user's head, a VR headset, goggles, or the like. Non-wearable display devices include, for example, a console with an immersive display such as the Cave Automatic Virtual Environment (CAVE), a stereoscopic television, a first display for the right eye and a second display for the left eye. It may be a surgery support robot or the like.
図1は、本実施形態に係る3D映像を用いた行為の一例を示す図である。図1では、上記所定の表示装置として、ユーザの頭部に装着されるHMD100が例示されるが、上記の通り、所定の表示装置はこれに限られない。また、図1では、3D映像を用いた行為の一例としてスポーツ(ここでは、テニス)が示されているが、当該行為は、スポーツ以外の分野の行為(例えば、航空機の操縦、車両の運転、リハビリ、患者の手術)等であってもよい。また、図1では、3D映像は、仮想現実(VR)を実現するものであるが、拡張現実(AR)又は複合現実(MR)を実現するものであってもよい。
FIG. 1 is a diagram showing an example of an act using a 3D image according to the present embodiment. In FIG. 1, the
図1において、ユーザは、HMD100が備える第1表示部101及び第2表示部102にそれぞれ表示される右目用映像及び左目用映像の視差により、3D映像Vを知覚する。例えば、図1では、ユーザは、頭部に装着されたHMD100を用いて知覚される3D映像Vに基づいて、テニスのトレーニングを実施している。
In FIG. 1, the user perceives the 3D image V by the parallax of the right-eye image and the left-eye image displayed on the
また、HMD100は、ユーザの所定部位(例えば、頭、目、手、足など)の動き(motion)を検知するセンサー103を備え、当該動きの解析結果に基づいて右目用映像及び左目用映像を制御するトラッキング機能を有してもよい。当該トラッキング機能は、ヘッドトラッキング、アイトラッキング、モーショントラッキング等とも呼ばれる。当該動きを検出するセンサーは、例えば、方向を検出する磁力計、角度や角速度を検出するジャイロスコープ、加速度を検出する加速度計、赤外線センサー等であってもよい。
Further, the
トラッキング機能により、ユーザの所定の動きに従って当該ユーザが知覚する3D映像が変化する。例えば、図1では、ラケットを操作するユーザの手の動きや、目の方向、頭の動きに応じて、3D映像Vで知覚されるラケットやボールの動き、位置等が変化する。このため、ユーザの臨場感や没入感を向上させることができる。 The tracking function changes the 3D image perceived by the user according to a predetermined movement of the user. For example, in FIG. 1, the movement, position, and the like of the racket and the ball perceived in the 3D image V change according to the movement of the hand of the user who operates the racket, the direction of the eyes, and the movement of the head. Therefore, it is possible to improve the user's sense of presence and immersiveness.
ところで、以上のような3D映像中の視覚的な運動をきっかけとして、「映像酔い」等と呼ばれる所定の生体反応(例えば、気持ちの悪さ、目の疲れ、ふらつき感など)が生じるユーザが存在することが知られている。 By the way, there are users who experience a predetermined biological reaction (for example, feeling unpleasant, eyestrain, light-headedness, etc.) called "image sickness" or the like triggered by the visual movement in the 3D image as described above. It is known.
そこで、所定数の被験者に対して2D映像及び3D映像それぞれ(以下、2D/3D映像と略する)の知覚課題(例えば、2D/3D映像を用いた複数オブジェクト追跡(Multiple Object Tracking(MOT))課題)を実施したところ、2D/3D映像の成績に有意な差がない被験者のグループ(第1の被験者グループ)と、3D映像の成績が2D映像の成績よりも有意に低い被験者のグループ(第2の被験者グループ)とが生じた。なお、MOT課題とは、映像内の複数の物体を追跡する所定のタスクであり、被験者の知覚能力の評価に用いられる。 Therefore, for a predetermined number of subjects, a perception task (for example, Multiple Object Tracking (MOT) using 2D / 3D video) for each of 2D video and 3D video (hereinafter abbreviated as 2D / 3D video) is performed. When the task) was performed, a group of subjects who did not have a significant difference in the results of 2D / 3D images (first subject group) and a group of subjects whose results of 3D images were significantly lower than those of 2D images (first subject group). 2 subject groups) and. The MOT task is a predetermined task of tracking a plurality of objects in an image, and is used for evaluating the perceptual ability of a subject.
第1の被験者グループは、3D映像を用いた知覚課題でも2D映像を用いる場合と同様の成績が出せるので、第2の被験者グループよりも3D映像に対する受容性が高いといえる。一方、第2の被験者グループは、3D映像を用いた知覚課題の成績が2D映像を用いる場合よりも有意に低くなるので、第1の被験者グループよりも3D映像に対する受容性が低いといえる。ここで、3D映像に対する受容性とは、3D映像を知覚しても映像酔いを生じ難く、3D映像を用いた行為の実施効果を適切に得られることをいう。 It can be said that the first subject group is more receptive to the 3D image than the second subject group because the perceptual task using the 3D image can produce the same results as when the 2D image is used. On the other hand, it can be said that the second subject group is less receptive to the 3D image than the first subject group because the performance of the perceptual task using the 3D image is significantly lower than that when the 2D image is used. Here, the receptivity to a 3D image means that even if the 3D image is perceived, the image sickness is unlikely to occur, and the effect of carrying out the act using the 3D image can be appropriately obtained.
図2は、本実施形態に係る3D映像に対する受容性と脳画像の所定領域を関心領域(Region Of Interest(ROI))として演算される灰白質体積との相関関係の一例を示す図である。図2では、人間の脳の側面からみた脳画像I1と、脳画像I1の切断面Xで人間の脳を切断した断面を示す脳画像I2とが示される。脳画像I1に示される上頭頂小葉は、大脳の外側面にある脳回のひとつである。上頭頂小葉は、対象物の位置や動き、奥行きなどの空間に関係する情報を認識するための役割を有する。一方、脳画像I2に示される尾状核は、脳の中心付近、視床の両側に存在する。尾状核は、運動の制御や学習、認知等に関係する。 FIG. 2 is a diagram showing an example of the correlation between the acceptability for a 3D image according to the present embodiment and the gray matter volume calculated by setting a predetermined region of a brain image as a region of interest (ROI). FIG. 2 shows a brain image I1 viewed from the side surface of the human brain and a brain image I2 showing a cross section of the human brain cut at the cut surface X of the brain image I1. The superior parietal lobule shown in brain image I1 is one of the gyruses on the lateral surface of the cerebrum. The superior parietal lobule has a role of recognizing space-related information such as the position, movement, and depth of an object. On the other hand, the caudate nucleus shown in the brain image I2 exists near the center of the brain and on both sides of the thalamus. The caudate nucleus is involved in motor control, learning, cognition, and so on.
図2に示すように、3D映像に対する受容性が相対的に高い(すなわち、2D/3D映像の知覚課題の成績差が相対的に小さい)第1の被験者グループについては、上頭頂小葉の灰白質体積が大きく、尾状核の灰白質体積が小さい傾向がある。一方、3D映像に対する受容性が相対的に高い(すなわち、3D映像の成績が2D映像の成績よりも有意に低い)第2の被験者グループについては、上頭頂小葉の灰白質体積が小さく、尾状核の灰白質体積が大きい傾向がある。 As shown in FIG. 2, for the first subject group, which is relatively highly receptive to 3D images (that is, the difference in performance of perceptual tasks in 2D / 3D images is relatively small), the gray matter of the superior parietal lobule. The volume tends to be large and the gray matter volume of the caudate nucleus tends to be small. On the other hand, for the second group of subjects, who are relatively highly receptive to 3D images (ie, the results of 3D images are significantly lower than those of 2D images), the gray matter volume of the superior parietal lobule is small and caudate. The gray matter volume of the nucleus tends to be large.
このように、3D映像に対する受容性と上頭頂小葉の灰白質体積との間には、正の相関関係がある。一方、3D映像に対する受容性と尾状核の灰白質体積との間には、負の相関関係がある。すなわち、3D映像に対する受容性等の特定の認知能力は、脳の所定領域の灰白質体積の相関関係があると想定される。そこで、本発明者らは、特定の認知能力(例えば、3D映像に対する受容性)と脳の所定領域の灰白質体積との相関関係に着目し、当該所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定することを着想した。 Thus, there is a positive correlation between receptivity to 3D images and the gray matter volume of the superior parietal lobule. On the other hand, there is a negative correlation between receptivity to 3D images and gray matter volume of the caudate nucleus. That is, it is assumed that specific cognitive abilities such as receptivity to 3D images are correlated with the gray matter volume of a predetermined region of the brain. Therefore, the present inventors have focused on the correlation between a specific cognitive ability (for example, receptivity to 3D images) and the gray matter volume of a predetermined region of the brain, and are specific based on the gray matter volume of the predetermined region. The idea was to determine cognitive ability (eg, receptivity to 3D images).
なお、以下では、特定の認知能力(例えば、3D映像に対する受容性)の判定に用いられる脳の所定領域が、上頭頂小葉及び尾状核の少なくとも一つであるものとするが、これに限られない。当該所定領域は、当該特定の認知能力と相関関係を有する脳のどのような領域であってもよい。当該所定領域は、例えば、上記上頭頂小葉及び尾状核の少なくとも一つに代えて又は加えて、角回及び大脳基底核の少なくとも一つを含んでもよい。 In the following, it is assumed that a predetermined region of the brain used for determining a specific cognitive ability (for example, receptivity to 3D images) is at least one of the superior parietal lobule and the caudate nucleus. I can't. The predetermined region may be any region of the brain that correlates with the particular cognitive ability. The predetermined region may include, for example, at least one of the superior parietal lobule and the caudate nucleus, or in addition to the angular gyrus and the basal ganglia.
(判定システムの構成)
図3は、本発明の実施形態に係る判定システム1の一例を示す図である。判定システム1は、予測器14aを用いて特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを予測する判定装置10と、予測器14aに実装される予測モデル22bの学習処理を行う学習装置20と、を有する。なお、予測モデル22bを実装する予測器14aは、予測モデル、予測プログラム、予測アルゴリズム等と言い換えられてもよい。
(Configuration of judgment system)
FIG. 3 is a diagram showing an example of the
また、本例では、学習装置20による機械学習によって学習された予測器14aを用いる判定装置10について説明するが、予測器14aは、必ずしも機械学習によって生成されたものに限られず、脳の所定領域の灰白質体積と特定の認知能力(例えば、3D映像に対する受容性)の関係について理論的に導かれた関係式又は経験的に導かれた関係式に基づいて当該特定の認知能力を判定するものであってもよい。
Further, in this example, the
また、本例では、判定装置10及び学習装置20が別体の場合を示しているが、判定装置10及び学習装置20は一体の装置で構成されてもよい。例えば、判定装置10及び学習装置20は、PLC(Programmable Logic Controller)の異なる動作として実現されてもよい。
Further, in this example, the case where the
<学習装置>
学習装置20は、機能構成として、学習用データ22aを生成する生成部21と、学習用データ22a及び予測モデル22bを記憶する記憶部22と、学習用データ22aを用いた機械学習により予測モデル22bの学習処理を実施する学習部23と、を有する。生成部21は、脳画像取得部211と、灰白質体積演算部212と、成績取得部213と、主観的指標値取得部214と、を有する。
<Learning device>
As a functional configuration, the
脳画像取得部211は、各ユーザの脳画像を取得する。脳画像は、例えば、磁気共鳴画像化(Magnetic Resonance Imaging(MRI))装置により撮像された画像(例えば、図2の脳画像I1、I2など)であってもよい。脳画像は、脳解剖画像等と呼ばれてもよい。当該MRI装置は、例えば、3テスラMRI装置であってもよい。
The brain
灰白質体積演算部212は、脳画像取得部211により取得された脳画像に基づいて、ユーザの脳の所定領域の灰白質体積を演算する。具体的には、灰白質体積演算部212は、当該脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。当該所定領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であるが、これに限られず、角回及び大脳基底核等の少なくとも一部に対応する領域であってもよい。当該灰白質体積は、例えば、Voxel-based-Morp hometry(VBM)を用いて評価されてもよい。
The gray matter
成績取得部213は、各ユーザの特定の認知能力に関する所定課題(例えば、3D映像を用いた知覚課題)の成績(例えば、正答率又は点数)を取得する。当該3D映像を用いた知覚課題の成績は、例えば、3D映像を用いたMOT課題の成績であってもよい。
The
主観的指標値取得部214は、各ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。当該映像酔いに関する主観的指標値は、例えば、Simulator Sickness Questionnaire(SSQ)値を示す情報であってもよい。SSQでは、気持ちの悪さ、目の疲れ、ふらつき感に分類される所定数の質問項目(例えば、16の質問項目)について、所定段階(例えば、4段階)でユーザが回答する。SSQ値は、当該回答に基づいて生成される所定の指標値であってもよい。当該SSQ値は、上記知覚課題を実施した後のユーザの回答に基づいて生成されてもよい。
The subjective index
記憶部22は、生成部21によって生成される学習用データ22aと、学習部23による学習処理によって生成される予測モデル22bとを記憶する。学習用データ22aは、灰白質体積演算部212によって演算される灰白質体積と、成績取得部213によって取得される成績とをユーザ毎に関連付けたデータであってもよい。また、学習用データ22aは、上記灰白質体積及び成績に加えて、主観的指標値取得部214によって取得される主観的指標値をユーザ毎に関連付けたデータであってもよい。
The
学習部23は、記憶部22に記憶された学習用データ22aを用いた機械学習によって予測モデル22bの学習処理を実行する。例えば、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。また、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積及び主観的指標値に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。
The
学習部23によって機械学習される予測モデル22bは、例えば、ニューラルネットワークで構成されてよい。予測モデル22bがニューラルネットワークで構成される場合、学習部23は、例えば、誤差逆伝播法によってニューラルネットワークの学習処理を行ってよい。
The
<判定装置>
判定装置10は、脳画像取得部11と、灰白質体積演算部12と、主観的指標値取得部13と、判定部14と、を備える。脳画像取得部11は、特定の認知能力(例えば、3D映像に対する受容性)の有無の判定対象となるユーザの脳画像を取得する。灰白質体積演算部12は、脳画像取得部11により取得された脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。主観的指標値取得部13は、当該ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。なお、脳画像取得部11、灰白質体積演算部12及び主観的指標値取得部13の詳細は、それぞれ、脳画像取得部211、灰白質体積演算部212及び主観的指標値取得部214で説明した通りである。
<Judgment device>
The
判定部14は、灰白質体積演算部12で演算された灰白質体積に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定する。また、判定部14は、学習装置20における機械学習により生成される予測器14aを含んでもよい。なお、予測器14aは、蒸留(distillation)により生成又は蒸留により生成される新たな予測モデルを実装してもよい。蒸留では、学習装置20で機械学習された予測モデル22bへの入出力データを用いて新たな予測モデルが生成されてもよい。
The
具体的には、判定部14は、灰白質体積演算部12で演算された灰白質体積を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。また、判定部14は、当該灰白質体積に加えて、主観的指標値取得部13で取得される主観的指標値を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。当該予測値は、各ユーザの特定の認知能力に関する所定課題の成績の予測値(例えば、3D映像を用いたMOT課題の正答率の予測値)であってもよい。
Specifically, the
判定部14による判定結果は、後述する出力部10eに出力され、ユーザに表示されてもよい。或いは、当該判定結果は、通信部10cを介して他の装置に送信されてもよい。
The determination result by the
<ハードウェア構成>
次に、判定システム1内の各装置(例えば、判定装置10及び学習装置20の少なくとも一つ)のハードウェア構成を説明する。図4に示すように、判定システム1内の各装置は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶装置10bと、通信部10cと、入力部10dと、出力部10eとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では、判定装置10及び学習装置20は、別々のコンピュータで構成されるが、一台のコンピュータで構成されてもよい。
<Hardware configuration>
Next, the hardware configuration of each device in the determination system 1 (for example, at least one of the
CPU10aは、記憶装置10bに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、脳画像の所定領域を関心領域として演算される灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定するプログラム(判定プログラム)を実行する演算装置(演算部)であってもよい。CPU10aは、入力部10d及び/又は通信部10cから種々の入力データを受け取り、入力データの演算結果を出力部10eに出力(例えば、表示)したり、記憶装置10bに格納したり、又は、通信部10cを介して送信したりする。
The CPU 10a is a control unit that controls execution of a program stored in the
記憶装置10bは、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、の少なくとも一つである。学習装置20の記憶装置10bは、記憶部22を構成してもよい。判定装置10の記憶装置10bは、CPU10aが実行する判定プログラムを記憶してもよい。
The
通信部10cは、判定システム1内の各装置を外部機器に接続するインターフェースである。なお、判定装置10及び学習装置20が一体の装置で構成される場合、通信部10cは、判定装置10として動作するプロセスと、学習装置20として動作するプロセスとの間のプロセス間通信を含んでよい。
The
入力部10dは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード、マウス、タッチパネル、マイクの少なくとも一つを含んでよい。
The
出力部10eは、CPU10aによる演算結果を出力するものであり、例えば、LCD(Liquid Crystal Display)等のディスプレイ及びスピーカの少なくとも一つにより構成されてよい。
The
判定プログラムは、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10cにより接続されるネットワークNを介して提供されてもよい。当該判定プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ、CD−ROM又はDVD等の記憶媒体であってもよい。
The determination program may be stored in a storage medium readable by a computer such as the
判定装置10では、CPU10aが判定プログラムを実行することにより、図3を用いて説明した脳画像取得部11、灰白質体積演算部12、主観的指標値取得部13、判定部14の動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、判定装置10は、CPU10aと記憶装置10bが一体化したLSI(Large-Scale Integration)を備えていてもよい。
In the
また、脳画像取得部11及び211、主観的指標値取得部13及び214、成績取得部213は、それぞれ、通信部10cで受信される脳画像、主観的指標値、特定の認知能力に関する所定課題(例えば、3D映像を用いたMOT課題)の成績を取得してもよいし、又は、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶された脳画像、当該主観的指標値、当該成績を取得してもよい。
Further, the brain
(判定システムの動作)
<学習動作>
図5は、本実施形態に係る学習動作の一例を示すフローチャートである。なお、図5では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を予測する予測モデル22bの学習動作について説明する。
(Operation of judgment system)
<Learning movement>
FIG. 5 is a flowchart showing an example of the learning operation according to the present embodiment. In addition, in FIG. 5, the learning operation of the
図5に示すように、ステップS101において、学習装置20は、各ユーザの脳画像を取得する。例えば、学習装置20は、MRI装置(例えば、3テスラMRI装置)により撮像された脳画像を取得してもよい。ステップS102において、学習装置20は、ステップS101において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。当該関心領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。
As shown in FIG. 5, in step S101, the
ステップS103において、学習装置20は、各ユーザの映像酔いに関する主観的指標値(例えば、SSQ値)を取得する。例えば、知覚課題(例えば、3D映像を用いたMOT課題)後に各ユーザにSSQが実施され、当該SSQの回答に基づいて決定されたSSQ値が主観的指標値として取得されてもよい。
In step S103, the
ステップS104において、学習装置20は、各ユーザの3D映像を用いた知覚課題の成績を取得する。上記の通り、知覚成績情報は、知覚課題(例えば、3D映像を用いたMOT課題)の成績を示す情報(例えば、正答率)であってもよい。
In step S104, the
ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS103で取得された主観的指標値と、ステップS104で取得された知覚成績情報とを関連づけた学習用データ22aを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。
In step S105, the
なお、図5において、ステップS101、S103、S104の順序は問われない。また、図5において、ステップS103は省略されてもよい。ステップS103を省略する場合、ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS104で取得された成績とを関連づけた学習用データを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。
In FIG. 5, the order of steps S101, S103, and S104 does not matter. Further, in FIG. 5, step S103 may be omitted. When step S103 is omitted, in step S105, the
<判定動作>
図6は、本実施形態に係る判定動作の一例を示す図である。なお、図6では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を判定する判定動作について説明する。
<Judgment operation>
FIG. 6 is a diagram showing an example of a determination operation according to the present embodiment. Note that FIG. 6 assumes receptivity to a 3D image as an example of a specific cognitive ability, and describes a determination operation for determining receptivity to the 3D image.
図6に示すように、ステップS201において、判定装置10は、3D映像に対する受容性の判定対象となるユーザの脳画像を取得する。ステップS202において、判定装置10は、ステップS201において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。ステップS203において、判定装置10は、当該ユーザの映像酔いに関する主観的指標値を取得する。なお、ステップS201、S202、S203の詳細は、図5のステップS101、S102、S103と同様である。
As shown in FIG. 6, in step S201, the
ステップS204において、判定装置10は、ステップS202で演算された灰白質体積及びステップS203で取得された主観的指標値を学習済みの予測器14aに入力して、当該予測器14aの出力として3D映像を用いた知覚課題の成績の予測値(成績予測値)を生成してもよい。当該成績予測値は、例えば、MOT課題の正答率又は点数の予測値であってもよい。
In step S204, the
ステップS205において、判定装置10は、ステップS204で生成された成績予測値が所定の条件を満たすか否かを判定する。当該成績予測値が所定の条件を満たす場合、ステップS206において、判定装置10は、当該ユーザが3D映像に対する受容性を有すると判定する。一方、当該成績予測値が所定の条件を満たさない場合、ステップS207において、判定装置10は、当該ユーザが3D映像に対する受容性を有しないと判定する。
In step S205, the
なお、図6において、ステップS201、S203の順序は問われない。また、図6において、ステップS203は省略されてもよい。ステップS203を省略する場合、ステップS204において、判定装置10は、ステップS202で演算された灰白質体積を学習済みの予測器14aに入力して、当該予測器14aの出力として成績予測値を生成してもよい。
In FIG. 6, the order of steps S201 and S203 does not matter. Further, in FIG. 6, step S203 may be omitted. When step S203 is omitted, in step S204, the
図7は、本実施形態に係る知覚課題の成績と3D映像に対する受容性との関係の一例を示す図である。図7に示すように、3D映像に対する受容性の有無の判定に用いられる所定の条件は、所定数の被験者に対する知覚課題の成績分布に基づいて決定されてもよい。図7では、78名の被験者に対して3D映像を用いた知覚課題(ここでは、MOT課題)を実施した場合の成績分布が示される。 FIG. 7 is a diagram showing an example of the relationship between the performance of the perceptual task according to the present embodiment and the receptivity to the 3D image. As shown in FIG. 7, the predetermined conditions used for determining the presence or absence of acceptability for the 3D image may be determined based on the performance distribution of the perceptual task for a predetermined number of subjects. FIG. 7 shows the performance distribution when a perceptual task (here, MOT task) using 3D images is performed on 78 subjects.
例えば、図7に示すように、知覚課題の成績が分布する場合、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることであってもよい。 For example, as shown in FIG. 7, when the grades of the perceptual task are distributed, the predetermined condition for being judged to have receptivity to the 3D image is that the grades have a correct answer rate of 70% or more. Good.
例えば、図7の条件を用いる場合、図6のステップS204において予測器14aから出力される成績予測値が70%以上の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有すると判断される。一方、図6のステップS204において予測器14aから出力される成績予測値が70%未満の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有しないと判断される。
For example, when the condition of FIG. 7 is used, if the grade prediction value output from the
なお、図7は一例にすぎず、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることに限られない。当該所定の条件は、知覚課題の成績(例えば、正答率)と所定の閾値とに基づいて定められれば、どのような条件であってもよい。 Note that FIG. 7 is only an example, and the predetermined condition for determining that the 3D image is acceptable is not limited to the correct answer rate of 70% or more. The predetermined condition may be any condition as long as it is determined based on the performance of the perceptual task (for example, the correct answer rate) and the predetermined threshold value.
図8は、本実施形態に係る3D映像に対する受容性の判定の効果の一例を示す図である。図8では、所定数(ここでは、48名)の被験者に対して所定期間(例えば、1ヶ月)、3D映像を用いたスポーツトレーニングを実施した場合の伸び率の分布が示される。 FIG. 8 is a diagram showing an example of the effect of determining acceptability for a 3D image according to the present embodiment. FIG. 8 shows the distribution of the growth rate when a predetermined number of subjects (here, 48 subjects) are subjected to sports training using a 3D image for a predetermined period (for example, one month).
図8では、48名の被験者のうち22名の伸び率が10%未満である。当該22名の被験者の脳画像に基づいて上頭頂小葉及び尾状核に対応する領域を関心領域として設定し、灰白質体積を演算した。当該灰白質体積を学習済みの予測器14aに入力して当該22名の被験者の3D映像に対する受容性を予め判定したところ、19名の被験者については3D映像に対する受容性が有しないと判定されていた。
In FIG. 8, the growth rate of 22 out of 48 subjects is less than 10%. Based on the brain images of the 22 subjects, the region corresponding to the superior parietal lobule and the caudate nucleus was set as the region of interest, and the gray matter volume was calculated. When the gray matter volume was input to the trained
したがって、学習済みの予測器14aを用いて3D映像に対する受容性がないと判定されるユーザに対し、3D映像を用いたスポーツトレーニングを実施しても、当該トレーニングの実施効果を適切に得られない可能性が高い。したがって、3D映像に対する受容性を有すると判定されるユーザに対して3D映像を用いたトレーニングを実施することで、トレーニングの実施効果を効率的に得ることができる。
Therefore, even if sports training using 3D images is performed on a user who is determined to be unacceptable to 3D images using the trained
なお、図8では、3D映像を用いた行為の一例としてスポーツトレーニングが示されているが、当該行為は、例えば、航空機の操縦、車両の運転、リハビリ、患者の手術等、3D映像を用いて実施されるどのような行為であってもよい。3D映像を用いた行為を実施する際に、学習済みの予測器14aを用いて3D映像に対する受容性の判定結果を考慮することで、当該行為の実施効果をより効率的に得ることができる。
Note that, in FIG. 8, sports training is shown as an example of an act using 3D images, and the act uses 3D images such as, for example, maneuvering an aircraft, driving a vehicle, rehabilitation, and surgery for a patient. It may be any action performed. When performing an action using a 3D image, the effect of performing the action can be obtained more efficiently by considering the determination result of acceptability for the 3D image using the learned
以上のように、本実施形態に係る判定システムによれば、ユーザの脳画像に基づいて演算される当該ユーザの脳の所定領域の灰白質体積に基づいて、当該ユーザの3D映像に対する受容性を判定できる。このため、3D映像に対する受容性を有すると判定されたユーザに対して、3D映像を用いた行為を実施することにより、当該行為の実施効果を効率的に得ることができる。 As described above, according to the determination system according to the present embodiment, the acceptability of the user to the 3D image is determined based on the gray matter volume of the predetermined region of the user's brain calculated based on the user's brain image. Can be judged. Therefore, by performing an act using the 3D image for a user determined to have receptivity to the 3D image, the effect of performing the act can be efficiently obtained.
なお、上記実施形態では、脳の所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)が判定されるが、当該判定に用いられるパラメータは、脳機能及び脳構造の少なくとも一つを示すパラメータであれば、灰白質体積に限られない。例えば、灰白質体積に代えて又は加えて、当該脳の所定領域の拡散異方性度(Fractional Anisotropy(FA)値)が演算されてもよい。当該拡散異方性度は、脳の白質線維の質的・量的な変化を反映してもよい。当該拡散異方性度は、拡散強調画像に基づいて演算されてもよい。当該拡散強調画像は、例えば、MRIにより、水素原子の拡散を検出するために印加される傾斜磁場(拡散運動検出傾斜磁場(Motion Probing gradient(MPG)))を用いて取得されてもよい。また、安静時脳機能結合、ミエリンマップ、微細構造画像の少なくとも一つに基づいて決定されるパラメータが用いられてもよい。 In the above embodiment, a specific cognitive ability (for example, receptivity to 3D images) is determined based on the gray matter volume of a predetermined region of the brain, and the parameters used for the determination are brain function and brain structure. The parameter is not limited to the gray matter volume as long as it is a parameter indicating at least one of. For example, instead of or in addition to the gray matter volume, the degree of diffusion anisotropy (Fractional Anisotropy (FA) value) of a predetermined region of the brain may be calculated. The degree of diffusion anisotropy may reflect qualitative and quantitative changes in white matter fibers of the brain. The diffusion anisotropy may be calculated based on the diffusion weighted image. The diffusion-weighted image may be acquired using, for example, a gradient magnetic field (Motion Probing gradient (MPG)) applied to detect the diffusion of hydrogen atoms by MRI. In addition, parameters determined based on at least one of resting brain function coupling, myelin map, and microstructure image may be used.
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those exemplified, and can be changed as appropriate. In addition, the configurations shown in different embodiments can be partially replaced or combined.
1…判定システム、10…判定装置、20…学習装置、11…脳画像取得部、12…灰白質体積演算部、13…主観的指標値取得部、14…判定部、14a…予測器、21…生成部、22…記憶部、22a…学習用データ、22b…予測モデル、23…学習部、211…脳画像取得部、212…灰白質体積演算部、213…成績取得部、214…主観的指標値取得部、10a…CPU、10b…記憶装置、10c…通信部、10d…入力部、10e…出力部、I1、I2…脳画像、V…3D映像、X…切断面、100…HMD、101…第1表示部、102…第2表示部、103…センサー 1 ... Judgment system, 10 ... Judgment device, 20 ... Learning device, 11 ... Brain image acquisition unit, 12 ... Gray matter volume calculation unit, 13 ... Subjective index value acquisition unit, 14 ... Judgment unit, 14a ... Predictor, 21 ... Generation unit, 22 ... Storage unit, 22a ... Learning data, 22b ... Prediction model, 23 ... Learning unit, 211 ... Brain image acquisition unit, 212 ... Gray matter volume calculation unit, 213 ... Grade acquisition unit, 214 ... Subjective Index value acquisition unit, 10a ... CPU, 10b ... Storage device, 10c ... Communication unit, 10d ... Input unit, 10e ... Output unit, I1, I2 ... Brain image, V ... 3D image, X ... Cut surface, 100 ... HMD, 101 ... 1st display, 102 ... 2nd display, 103 ... Sensor
Claims (9)
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部と、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部と、
を備える判定装置。 The acquisition unit that acquires the user's brain image,
An arithmetic unit that calculates the gray matter volume of a predetermined region of the user's brain based on the brain image,
A determination unit that determines whether or not the user has a specific cognitive ability based on the calculated gray matter volume.
Judgment device including.
前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定する、
請求項1に記載の判定装置。 Further equipped with a predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of a predetermined task related to the specific cognitive ability of each user.
The determination unit determines whether or not the user has the specific cognitive ability based on the predicted value of the performance generated by inputting the calculated gray matter volume into the predictor.
The determination device according to claim 1.
前記取得部は、前記脳画像が取得された前記ユーザの前記特定の認知能力に関する主観的指標値を取得し、
前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成される、
請求項2に記載の判定装置。 In the machine learning, in addition to the gray matter volume and the performance, subjective index values relating to the specific cognitive ability of each user are used.
The acquisition unit acquires a subjective index value relating to the specific cognitive ability of the user from whom the brain image has been acquired.
The predicted value is generated by inputting the calculated gray matter volume and the acquired subjective index value into the predictor.
The determination device according to claim 2.
請求項1から請求項3のいずれかに記載の判定装置。 The predetermined region is a region corresponding to at least a part of the superior parietal lobule and the caudate nucleus.
The determination device according to any one of claims 1 to 3.
請求項1から請求項4のいずれかに記載の判定装置。 The particular cognitive ability includes receptivity to 3D images.
The determination device according to any one of claims 1 to 4.
前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備する、
請求項5に記載の判定装置。 The three-dimensional image is perceived by the user using a predetermined display device, and the three-dimensional image is perceived by the user.
The predetermined display device includes a first display unit that displays a two-dimensional image for the right eye of the user and a second display unit that displays a two-dimensional image for the left eye.
The determination device according to claim 5.
請求項6に記載の判定装置。 The predetermined display device is a wearable display device that is attached to the predetermined portion of the user, or a non-wearable display device that is not attached to the predetermined portion of the user.
The determination device according to claim 6.
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する工程と、
を有する判定方法。 The process of acquiring the user's brain image and
A step of calculating the gray matter volume of a predetermined region of the user's brain based on the brain image, and
A step of determining whether or not the user has a specific cognitive ability based on the calculated gray matter volume, and
Judgment method having.
ユーザの脳画像を取得する取得部、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部、
として機能させる判定プログラム。 The arithmetic unit provided in the judgment device,
Acquisition unit that acquires the user's brain image,
A calculation unit that calculates the gray matter volume of a predetermined region of the user's brain based on the brain image, and
A determination unit that determines whether or not the user has a specific cognitive ability based on the calculated gray matter volume.
Judgment program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019222384A JP7334958B2 (en) | 2019-12-09 | 2019-12-09 | Determination device, determination method and determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019222384A JP7334958B2 (en) | 2019-12-09 | 2019-12-09 | Determination device, determination method and determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021090549A true JP2021090549A (en) | 2021-06-17 |
JP7334958B2 JP7334958B2 (en) | 2023-08-29 |
Family
ID=76311307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019222384A Active JP7334958B2 (en) | 2019-12-09 | 2019-12-09 | Determination device, determination method and determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7334958B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022094882A (en) * | 2020-12-11 | 2022-06-27 | 國立成功大學 | Cognition evaluation system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007023522A1 (en) * | 2005-08-22 | 2007-03-01 | National Center Of Neurology And Psychiatry | Brain disease diagnosing supporting method and device |
JP2014506150A (en) * | 2010-12-20 | 2014-03-13 | コーニンクレッカ フィリップス エヌ ヴェ | Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease |
JP2015084970A (en) * | 2013-10-31 | 2015-05-07 | 株式会社アラヤ・ブレイン・イメージング | Individual characteristics prediction system, individual characteristics prediction method and program |
US20180310870A1 (en) * | 2017-05-01 | 2018-11-01 | The Charles Stark Draper Laboratory, Inc. | Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease |
JP2019521379A (en) * | 2016-06-20 | 2019-07-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders |
-
2019
- 2019-12-09 JP JP2019222384A patent/JP7334958B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007023522A1 (en) * | 2005-08-22 | 2007-03-01 | National Center Of Neurology And Psychiatry | Brain disease diagnosing supporting method and device |
JP2014506150A (en) * | 2010-12-20 | 2014-03-13 | コーニンクレッカ フィリップス エヌ ヴェ | Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease |
JP2015084970A (en) * | 2013-10-31 | 2015-05-07 | 株式会社アラヤ・ブレイン・イメージング | Individual characteristics prediction system, individual characteristics prediction method and program |
JP2019521379A (en) * | 2016-06-20 | 2019-07-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders |
US20180310870A1 (en) * | 2017-05-01 | 2018-11-01 | The Charles Stark Draper Laboratory, Inc. | Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022094882A (en) * | 2020-12-11 | 2022-06-27 | 國立成功大學 | Cognition evaluation system and method |
Also Published As
Publication number | Publication date |
---|---|
JP7334958B2 (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chang et al. | Virtual reality sickness: a review of causes and measurements | |
Iskander et al. | Using biomechanics to investigate the effect of VR on eye vergence system | |
RU2664397C2 (en) | Virtual reality display system | |
Butler et al. | Bayesian integration of visual and vestibular signals for heading | |
Mauderer et al. | Depth perception with gaze-contingent depth of field | |
JP2022501718A (en) | Human / computer interface with fast and accurate tracking of user interactions | |
CN106489171B (en) | Stereoscopic image display | |
US10768689B2 (en) | System and method for providing virtual reality contents based on body information obtained from user | |
Leroy et al. | Visual fatigue reduction for immersive stereoscopic displays by disparity, content, and focus-point adapted blur | |
Kemeny et al. | Getting rid of cybersickness | |
US20240085980A1 (en) | Eye tracking using alternate sampling | |
Buń et al. | Application of professional and low-cost head mounted devices in immersive educational application | |
Leroy et al. | Real-time adaptive blur for reducing eye strain in stereoscopic displays | |
de Siqueira et al. | Empirically evaluating the effects of perceptual information channels on the size perception of tangibles in near-field virtual reality | |
JP7334958B2 (en) | Determination device, determination method and determination program | |
US20100179799A1 (en) | Simulation Device, Simulation Program, and Recording Medium Storing Simulation Program | |
Domini et al. | Do we perceive a flattened world on the monitor screen? | |
JP2018147086A (en) | Information processing method, program, virtual space distribution system, and device | |
US10602116B2 (en) | Information processing apparatus, information processing method, and program for performing display control | |
JP7467094B2 (en) | Information processing device, information processing method, and program | |
McIntire et al. | Microstereopsis is good, but orthostereopsis is better: Precision alignment task performance and viewer discomfort with a stereoscopic 3D display | |
JP2010141446A (en) | Head mount display and image presentation method in same | |
Naepflin et al. | Can movement parallax compensate lacking stereopsis in spatial explorative search tasks? | |
Kemeny | Virtual and Augmented Reality | |
Kemeny | Getting Rid of Motion Sickness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7334958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |