[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021090549A - Determination apparatus, determination method and determination program - Google Patents

Determination apparatus, determination method and determination program Download PDF

Info

Publication number
JP2021090549A
JP2021090549A JP2019222384A JP2019222384A JP2021090549A JP 2021090549 A JP2021090549 A JP 2021090549A JP 2019222384 A JP2019222384 A JP 2019222384A JP 2019222384 A JP2019222384 A JP 2019222384A JP 2021090549 A JP2021090549 A JP 2021090549A
Authority
JP
Japan
Prior art keywords
user
image
gray matter
brain
matter volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019222384A
Other languages
Japanese (ja)
Other versions
JP7334958B2 (en
Inventor
一夫 岡ノ谷
Kazuo OKANOYA
一夫 岡ノ谷
千尋 細田
Chihiro Hosoda
千尋 細田
林 俊宏
Jiun Hung Lin
俊宏 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Teikyo University
Original Assignee
University of Tokyo NUC
Teikyo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Teikyo University filed Critical University of Tokyo NUC
Priority to JP2019222384A priority Critical patent/JP7334958B2/en
Publication of JP2021090549A publication Critical patent/JP2021090549A/en
Application granted granted Critical
Publication of JP7334958B2 publication Critical patent/JP7334958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

To provide a determination apparatus and the like which can determine whether or not a user has a specific cognitive ability.SOLUTION: A determination apparatus comprises: an acquisition unit which acquires a brain image of a user; a calculation unit which calculates the gray matter volume of the brain of the user on the basis of the brain image; and a determination unit which determines whether or not the user has a specific cognitive ability on the basis of the calculated gray matter volume.SELECTED DRAWING: Figure 3

Description

本発明は、判定装置、判定方法及び判定プログラムに関する。 The present invention relates to a determination device, a determination method, and a determination program.

近年、所定の表示装置(例えば、ヘッドマウントディスプレイ(head mounted display(HMD))など)を用いて三次元(3 dimension(3D))映像を知覚させることにより、種々の行為を仮想的にユーザに体験させるxR(仮想現実(Virtual Reality(VR))、拡張現実(Augmented Reality(AR)))、複合現実(Mixed Reality(MR)等の総称)が様々な分野で活用されている。例えば、VRは、ゲームなどのエンターテイメントだけでなく、スポーツ、航空機の操縦及び自動車の運転などのトレーニング、リハビリ、手術支援ロボット(例えば、da Vinci(登録商標))等で活用されている。 In recent years, various actions have been virtually performed by a user by perceiving a three-dimensional (3D) image using a predetermined display device (for example, a head mounted display (HMD)). Experienced xR (Virtual Reality (VR), Augmented Reality (AR)), Mixed Reality (Mixed Reality (MR), etc.) are used in various fields. For example, VR is used not only for entertainment such as games, but also for sports, training such as aircraft operation and automobile driving, rehabilitation, and surgical support robots (for example, da Vinci (registered trademark)).

一方、所定の表示装置を用いて3D映像を知覚するユーザに所定の生体反応(例えば、気持ちの悪さ(Nausea)、目の疲れ(Oculomotor)、ふらつき感(Disorientation)など)が生じる場合があることが知られている(例えば、特許文献1)。当該生体反応は、映像酔い、3D酔い、VR酔い等とも呼ばれる。以下では、説明の便宜上、当該生体反応を「映像酔い」と呼ぶ。 On the other hand, a user who perceives a 3D image using a predetermined display device may experience a predetermined biological reaction (for example, nausea, eyestrain, disorientation, etc.). Is known (for example, Patent Document 1). The biological reaction is also called video sickness, 3D sickness, VR sickness, or the like. Hereinafter, for convenience of explanation, the biological reaction will be referred to as "image sickness".

特開2019−184883号公報Japanese Unexamined Patent Publication No. 2019-184883

人間の認知能力(例えば、3D映像に対する受容性)には個人差があり、当該認知能力に関する様々な行為の実施は、全てのユーザに適切に作用するとは限らない。例えば、ユーザが3D映像を用いたトレーニング又はリハビリを実施する場合、映像酔いのために、当該トレーニング又は当該リハビリの実施効果を当該ユーザが十分に得られない恐れがある。したがって、ユーザによる特定の行為(例えば、3D映像を用いた行為)の実施効果を適切に得るために、当該ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能とすることが望まれている。 There are individual differences in human cognitive ability (for example, receptivity to 3D images), and the implementation of various actions related to the cognitive ability does not always work appropriately for all users. For example, when a user performs training or rehabilitation using a 3D image, the user may not be able to sufficiently obtain the effect of the training or the rehabilitation due to image sickness. Therefore, in order to appropriately obtain the effect of the user performing a specific action (for example, an action using 3D images), it is determined whether or not the user has a specific cognitive ability (for example, receptivity to 3D images). It is hoped that it will be possible.

そこで、本発明は、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することを目的の一つとする。 Therefore, one of the objects of the present invention is to provide a determination device, a determination method, and a determination program capable of determining whether or not a person has a specific cognitive ability (for example, receptivity to a 3D image).

本発明の一態様に係る判定装置は、ユーザの脳画像を取得する取得部と、前記脳画像に基づいて、前記ユーザの脳の灰白質体積を演算する演算部と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部と、を備える。 The determination device according to one aspect of the present invention includes an acquisition unit that acquires a user's brain image, an arithmetic unit that calculates the gray matter volume of the user's brain based on the brain image, and the calculated gray matter. A determination unit for determining whether or not the user has a specific cognitive ability based on the volume is provided.

この態様によれば、上記灰白質体積に基づいて上記ユーザが特定の認知能力を有するか否かを判定できる。このため、当該判定結果を考慮して特定の行為を実施することで、当該行為の実施効果を適切に得ることができる。 According to this aspect, it can be determined whether or not the user has a specific cognitive ability based on the gray matter volume. Therefore, by carrying out a specific action in consideration of the determination result, the effect of carrying out the action can be appropriately obtained.

上記態様において、各ユーザの脳画像に基づいて演算される前記所定領域の灰白質体積と各ユーザの前記特定の認知能力に関する所定課題の成績とを用いた機械学習に基づいて生成された予測器を更に備え、前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定してもよい。 In the above embodiment, a predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of a predetermined task related to the specific cognitive ability of each user. Further, the determination unit determines whether or not the user has the specific cognitive ability based on the predicted value of the performance generated by inputting the calculated gray matter volume into the predictor. You may judge.

この態様によれば、上記灰白質体積と上記成績とを用いた機械学習に基づいて生成された予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, since a predictor generated based on machine learning using the gray matter volume and the results is used, it is possible to improve the accuracy of determining whether or not the person has the specific cognitive ability. it can.

上記態様において、前記機械学習には、前記灰白質体積及び前記成績に加えて、各ユーザの前記特定の認知能力に関する主観的指標値が用いられ、前記取得部は、前記脳画像が取得された前記ユーザの主観的指標値を取得し、前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成されてもよい。 In the above aspect, in addition to the gray matter volume and the performance, the subjective index value regarding the specific cognitive ability of each user is used for the machine learning, and the brain image is acquired by the acquisition unit. The subjective index value of the user may be acquired, and the predicted value may be generated by inputting the calculated gray matter volume and the acquired subjective index value into the predictor.

この態様によれば、上記灰白質体積及び上記成績に加えて上記主観的指標値を用いた機械学習により学習済みの予測器が用いられるので、上記特定の認知能力を有するか否かの判定精度を向上させることができる。 According to this aspect, since the predictor learned by machine learning using the above subjective index value in addition to the above gray matter volume and the above results is used, the accuracy of determining whether or not the person has the above specific cognitive ability. Can be improved.

上記態様において、前記所定領域は、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。この構成によれば、上頭頂小葉及び尾状核の灰白質体積に基づいてユーザが上記特定の認知能力を有するか否かが判定されるので、当該受容性の判定精度を向上させることができる。 In the above aspect, the predetermined region may be a region corresponding to at least a part of the superior parietal lobule and the caudate nucleus. According to this configuration, it is determined whether or not the user has the specific cognitive ability based on the gray matter volume of the superior parietal lobule and the caudate nucleus, so that the determination accuracy of the acceptability can be improved. ..

上記態様において、前記特定の認知能力は、三次元映像に対する受容性を含んでもよい。この態様によれば、前記ユーザが三次元映像に対する受容性を有するか否かの判定結果を考慮して三次元映像を用いた行為を実施することで、当該行為の実施効果を適切に得ることができる。 In the above aspect, the particular cognitive ability may include receptivity to 3D imaging. According to this aspect, by performing an act using the three-dimensional image in consideration of the determination result of whether or not the user has receptivity to the three-dimensional image, the execution effect of the act can be appropriately obtained. Can be done.

上記態様において、前記三次元映像は、所定の表示装置を用いて前記ユーザによって知覚され、前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備してもよい。 In the above aspect, the three-dimensional image is perceived by the user using a predetermined display device, and the predetermined display device is for the first display unit and the left eye for displaying the two-dimensional image for the right eye of the user. A second display unit for displaying a two-dimensional image may be provided.

上記態様において、前記ユーザの頭部に装着される頭部装着型の表示装置、又は、前記ユーザが右目及び左目により記第1表示部及び前記第2表示部をそれぞれ覗き込む非装着型の表示装置であってもよい。 In the above embodiment, a head-mounted display device worn on the user's head, or a non-wearable display in which the user looks into the first display unit and the second display unit with his / her right eye and left eye, respectively. It may be a device.

本発明の他の態様に係る判定方法は、ユーザの脳画像を取得する工程と、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する工程と、を有する。 The determination method according to another aspect of the present invention includes a step of acquiring a user's brain image, a step of calculating the gray matter volume of a predetermined region of the user's brain based on the brain image, and the above-mentioned calculation. It includes a step of determining whether or not the user has a specific cognitive ability based on the gray matter volume.

本発明の他の態様に係る判定プログラムは、判定装置に備えられた演算部を、ユーザの脳画像を取得する取得部、前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部、として機能させる。 In the determination program according to another aspect of the present invention, the calculation unit provided in the determination device is an acquisition unit that acquires a user's brain image, and the gray matter volume of a predetermined region of the user's brain based on the brain image. It functions as a calculation unit for calculating the above and a determination unit for determining whether or not the user has a specific cognitive ability based on the calculated gray matter volume.

本発明によれば、特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定可能な判定装置、判定方法及び判定プログラムを提供することができる。 According to the present invention, it is possible to provide a determination device, a determination method, and a determination program capable of determining whether or not a person has a specific cognitive ability (for example, receptivity to a 3D image).

本発明の実施形態に係る3D映像を用いた行為の一例を示す図である。It is a figure which shows an example of the act using the 3D image which concerns on embodiment of this invention. 本発明の実施形態に係る3D映像に対する受容性と脳画像の所定領域を関心領域として演算される灰白質体積との相関関係の一例を示す図である。It is a figure which shows an example of the correlation between the acceptability to the 3D image which concerns on embodiment of this invention, and the gray matter volume calculated with a predetermined region of a brain image as a region of interest. 本発明の実施形態に係る判定システム1の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the determination system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る判定システム1を構成する各装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of each apparatus which comprises the determination system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る学習動作の一例を示すフローチャートである。It is a flowchart which shows an example of the learning operation which concerns on embodiment of this invention. 本発明の実施形態に係る判定動作の一例を示すフローチャートである。It is a flowchart which shows an example of the determination operation which concerns on embodiment of this invention. 本発明の実施形態に係る知覚課題の成績と3D映像に対する受容性との関係の一例を示す図である。It is a figure which shows an example of the relationship between the performance of the perceptual task which concerns on embodiment of this invention, and the acceptability to a 3D image. 本発明の実施形態に係る3D映像に対する受容性の判定の効果の一例を示す図である。It is a figure which shows an example of the effect of the determination of the acceptability to the 3D image which concerns on embodiment of this invention.

添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, those having the same reference numerals have the same or similar configurations.

本実施形態では、脳の所定領域の灰白質の体積(灰白質体積)に基づいて判定される特定の認知能力の一例として、三次元(3D)映像に対する受容性を例示する。なお、特定の認知能力は、3D映像に対する受容性に限られず、脳の所定領域の灰白質体積と相関関係を有するどのような能力であってもよい。 In this embodiment, acceptability to a three-dimensional (3D) image is illustrated as an example of a specific cognitive ability determined based on the volume of gray matter (gray matter volume) in a predetermined region of the brain. The specific cognitive ability is not limited to the receptivity to 3D images, and may be any ability that correlates with the gray matter volume of a predetermined region of the brain.

本実施形態において、ユーザは、所定の表示装置を用いて三次元(3D)映像を知覚する(視認する、認識する等ともいう)。具体的には、当該所定の表示装置は、ユーザの右目用の二次元(2D)映像(右目用映像)を表示する第1表示部と左目用の2D映像(左目用映像)を表示する第2表示部とを具備する。ここで、3D映像とは、ユーザから立体的に見える映像であり、立体映像、3D立体視とも呼ばれる。当該3D映像は、ユーザが奥行きを知覚できる映像ともいえる。例えば、ユーザに左右の眼に視差(parallax)のある映像(すなわち、右目用映像及び左目用映像)を表示すること(両眼視差(binocular parallax)ともいう)、及び/又は、ユーザの頭部運動に合わせて当該映像の見え方を変化させること(運動視差(motion parallax)ともいう)により、3D映像をユーザに知覚させてもよい。なお、3D映像は、両眼視差を利用するものに限られず、ホログラム、体積走査型などであってもよい。また、2D映像とは、ユーザから平面的に見える映像であり、平面映像等とも呼ばれる。 In the present embodiment, the user perceives (also referred to as visual recognition, recognition, etc.) a three-dimensional (3D) image using a predetermined display device. Specifically, the predetermined display device displays a first display unit that displays a two-dimensional (2D) image for the user's right eye (image for the right eye) and a second display unit that displays a 2D image for the left eye (image for the left eye). It is provided with two display units. Here, the 3D image is an image that can be seen stereoscopically by the user, and is also called a stereoscopic image or 3D stereoscopic vision. The 3D image can be said to be an image in which the user can perceive the depth. For example, displaying to the user an image having parallax in the left and right eyes (that is, an image for the right eye and an image for the left eye) (also referred to as binocular parallax), and / or the user's head. The user may perceive the 3D image by changing the appearance of the image according to the movement (also referred to as motion parallax). The 3D image is not limited to one that utilizes binocular parallax, and may be a hologram, a volume scanning type, or the like. Further, the 2D image is an image that can be seen in a plane by the user, and is also called a flat image or the like.

ここで、両眼視差を利用して3D映像を知覚させるための右目用映像及び左目用映像は、同一の対象物を異なる角度で捉えた映像である。ユーザは、右目用の第1表示部に表示される右目用映像と、左目用の第2表示部に表示される左目用映像を脳内で一つに合成して、当該対象物を立体的に知覚する(すなわち、3D映像として知覚する)。 Here, the right-eye image and the left-eye image for perceiving a 3D image using binocular parallax are images in which the same object is captured at different angles. The user synthesizes the image for the right eye displayed on the first display unit for the right eye and the image for the left eye displayed on the second display unit for the left eye into one in the brain, and stereoscopically combines the object. Perceived (that is, perceived as a 3D image).

上記第1表示部及び第2表示部を備える所定の表示装置は、ユーザの所定部位に装着される装着型表示装置であってもよいし、又は、非装着型表示装置であってもよい。装着型表示装置は、例えば、ユーザの頭部に装着されるヘッドマウントディスプレイ(head mounted display(HMD))、VRヘッドセット、ゴーグル等であってもよい。非装着型表示装置は、例えば、Cave Automatic Virtual Environment(CAVE)等の没入型ディスプレイ(immersive display)、立体テレビ、右目用の第1表示部及び左目用の第2表示部を備えたコンソールを含む手術支援ロボット等であってもよい。 The predetermined display device including the first display unit and the second display unit may be a wearable display device mounted on a predetermined portion of the user, or may be a non-wearable display device. The wearable display device may be, for example, a head mounted display (HMD) mounted on the user's head, a VR headset, goggles, or the like. Non-wearable display devices include, for example, a console with an immersive display such as the Cave Automatic Virtual Environment (CAVE), a stereoscopic television, a first display for the right eye and a second display for the left eye. It may be a surgery support robot or the like.

図1は、本実施形態に係る3D映像を用いた行為の一例を示す図である。図1では、上記所定の表示装置として、ユーザの頭部に装着されるHMD100が例示されるが、上記の通り、所定の表示装置はこれに限られない。また、図1では、3D映像を用いた行為の一例としてスポーツ(ここでは、テニス)が示されているが、当該行為は、スポーツ以外の分野の行為(例えば、航空機の操縦、車両の運転、リハビリ、患者の手術)等であってもよい。また、図1では、3D映像は、仮想現実(VR)を実現するものであるが、拡張現実(AR)又は複合現実(MR)を実現するものであってもよい。 FIG. 1 is a diagram showing an example of an act using a 3D image according to the present embodiment. In FIG. 1, the HMD 100 worn on the user's head is exemplified as the predetermined display device, but as described above, the predetermined display device is not limited to this. Further, in FIG. 1, sports (here, tennis) is shown as an example of an act using a 3D image, but the act is an act in a field other than sports (for example, maneuvering an aircraft, driving a vehicle, etc.). Rehabilitation, patient surgery), etc. may be used. Further, in FIG. 1, the 3D image realizes virtual reality (VR), but may also realize augmented reality (AR) or mixed reality (MR).

図1において、ユーザは、HMD100が備える第1表示部101及び第2表示部102にそれぞれ表示される右目用映像及び左目用映像の視差により、3D映像Vを知覚する。例えば、図1では、ユーザは、頭部に装着されたHMD100を用いて知覚される3D映像Vに基づいて、テニスのトレーニングを実施している。 In FIG. 1, the user perceives the 3D image V by the parallax of the right-eye image and the left-eye image displayed on the first display unit 101 and the second display unit 102 of the HMD 100, respectively. For example, in FIG. 1, a user is training tennis based on a 3D image V perceived using an HMD100 worn on the head.

また、HMD100は、ユーザの所定部位(例えば、頭、目、手、足など)の動き(motion)を検知するセンサー103を備え、当該動きの解析結果に基づいて右目用映像及び左目用映像を制御するトラッキング機能を有してもよい。当該トラッキング機能は、ヘッドトラッキング、アイトラッキング、モーショントラッキング等とも呼ばれる。当該動きを検出するセンサーは、例えば、方向を検出する磁力計、角度や角速度を検出するジャイロスコープ、加速度を検出する加速度計、赤外線センサー等であってもよい。 Further, the HMD 100 includes a sensor 103 that detects the motion of a predetermined part (for example, head, eyes, hands, feet, etc.) of the user, and based on the analysis result of the movement, the right eye image and the left eye image are displayed. It may have a tracking function to control. The tracking function is also called head tracking, eye tracking, motion tracking, or the like. The sensor that detects the movement may be, for example, a magnetometer that detects a direction, a gyroscope that detects an angle or an angular velocity, an accelerometer that detects acceleration, an infrared sensor, or the like.

トラッキング機能により、ユーザの所定の動きに従って当該ユーザが知覚する3D映像が変化する。例えば、図1では、ラケットを操作するユーザの手の動きや、目の方向、頭の動きに応じて、3D映像Vで知覚されるラケットやボールの動き、位置等が変化する。このため、ユーザの臨場感や没入感を向上させることができる。 The tracking function changes the 3D image perceived by the user according to a predetermined movement of the user. For example, in FIG. 1, the movement, position, and the like of the racket and the ball perceived in the 3D image V change according to the movement of the hand of the user who operates the racket, the direction of the eyes, and the movement of the head. Therefore, it is possible to improve the user's sense of presence and immersiveness.

ところで、以上のような3D映像中の視覚的な運動をきっかけとして、「映像酔い」等と呼ばれる所定の生体反応(例えば、気持ちの悪さ、目の疲れ、ふらつき感など)が生じるユーザが存在することが知られている。 By the way, there are users who experience a predetermined biological reaction (for example, feeling unpleasant, eyestrain, light-headedness, etc.) called "image sickness" or the like triggered by the visual movement in the 3D image as described above. It is known.

そこで、所定数の被験者に対して2D映像及び3D映像それぞれ(以下、2D/3D映像と略する)の知覚課題(例えば、2D/3D映像を用いた複数オブジェクト追跡(Multiple Object Tracking(MOT))課題)を実施したところ、2D/3D映像の成績に有意な差がない被験者のグループ(第1の被験者グループ)と、3D映像の成績が2D映像の成績よりも有意に低い被験者のグループ(第2の被験者グループ)とが生じた。なお、MOT課題とは、映像内の複数の物体を追跡する所定のタスクであり、被験者の知覚能力の評価に用いられる。 Therefore, for a predetermined number of subjects, a perception task (for example, Multiple Object Tracking (MOT) using 2D / 3D video) for each of 2D video and 3D video (hereinafter abbreviated as 2D / 3D video) is performed. When the task) was performed, a group of subjects who did not have a significant difference in the results of 2D / 3D images (first subject group) and a group of subjects whose results of 3D images were significantly lower than those of 2D images (first subject group). 2 subject groups) and. The MOT task is a predetermined task of tracking a plurality of objects in an image, and is used for evaluating the perceptual ability of a subject.

第1の被験者グループは、3D映像を用いた知覚課題でも2D映像を用いる場合と同様の成績が出せるので、第2の被験者グループよりも3D映像に対する受容性が高いといえる。一方、第2の被験者グループは、3D映像を用いた知覚課題の成績が2D映像を用いる場合よりも有意に低くなるので、第1の被験者グループよりも3D映像に対する受容性が低いといえる。ここで、3D映像に対する受容性とは、3D映像を知覚しても映像酔いを生じ難く、3D映像を用いた行為の実施効果を適切に得られることをいう。 It can be said that the first subject group is more receptive to the 3D image than the second subject group because the perceptual task using the 3D image can produce the same results as when the 2D image is used. On the other hand, it can be said that the second subject group is less receptive to the 3D image than the first subject group because the performance of the perceptual task using the 3D image is significantly lower than that when the 2D image is used. Here, the receptivity to a 3D image means that even if the 3D image is perceived, the image sickness is unlikely to occur, and the effect of carrying out the act using the 3D image can be appropriately obtained.

図2は、本実施形態に係る3D映像に対する受容性と脳画像の所定領域を関心領域(Region Of Interest(ROI))として演算される灰白質体積との相関関係の一例を示す図である。図2では、人間の脳の側面からみた脳画像I1と、脳画像I1の切断面Xで人間の脳を切断した断面を示す脳画像I2とが示される。脳画像I1に示される上頭頂小葉は、大脳の外側面にある脳回のひとつである。上頭頂小葉は、対象物の位置や動き、奥行きなどの空間に関係する情報を認識するための役割を有する。一方、脳画像I2に示される尾状核は、脳の中心付近、視床の両側に存在する。尾状核は、運動の制御や学習、認知等に関係する。 FIG. 2 is a diagram showing an example of the correlation between the acceptability for a 3D image according to the present embodiment and the gray matter volume calculated by setting a predetermined region of a brain image as a region of interest (ROI). FIG. 2 shows a brain image I1 viewed from the side surface of the human brain and a brain image I2 showing a cross section of the human brain cut at the cut surface X of the brain image I1. The superior parietal lobule shown in brain image I1 is one of the gyruses on the lateral surface of the cerebrum. The superior parietal lobule has a role of recognizing space-related information such as the position, movement, and depth of an object. On the other hand, the caudate nucleus shown in the brain image I2 exists near the center of the brain and on both sides of the thalamus. The caudate nucleus is involved in motor control, learning, cognition, and so on.

図2に示すように、3D映像に対する受容性が相対的に高い(すなわち、2D/3D映像の知覚課題の成績差が相対的に小さい)第1の被験者グループについては、上頭頂小葉の灰白質体積が大きく、尾状核の灰白質体積が小さい傾向がある。一方、3D映像に対する受容性が相対的に高い(すなわち、3D映像の成績が2D映像の成績よりも有意に低い)第2の被験者グループについては、上頭頂小葉の灰白質体積が小さく、尾状核の灰白質体積が大きい傾向がある。 As shown in FIG. 2, for the first subject group, which is relatively highly receptive to 3D images (that is, the difference in performance of perceptual tasks in 2D / 3D images is relatively small), the gray matter of the superior parietal lobule. The volume tends to be large and the gray matter volume of the caudate nucleus tends to be small. On the other hand, for the second group of subjects, who are relatively highly receptive to 3D images (ie, the results of 3D images are significantly lower than those of 2D images), the gray matter volume of the superior parietal lobule is small and caudate. The gray matter volume of the nucleus tends to be large.

このように、3D映像に対する受容性と上頭頂小葉の灰白質体積との間には、正の相関関係がある。一方、3D映像に対する受容性と尾状核の灰白質体積との間には、負の相関関係がある。すなわち、3D映像に対する受容性等の特定の認知能力は、脳の所定領域の灰白質体積の相関関係があると想定される。そこで、本発明者らは、特定の認知能力(例えば、3D映像に対する受容性)と脳の所定領域の灰白質体積との相関関係に着目し、当該所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定することを着想した。 Thus, there is a positive correlation between receptivity to 3D images and the gray matter volume of the superior parietal lobule. On the other hand, there is a negative correlation between receptivity to 3D images and gray matter volume of the caudate nucleus. That is, it is assumed that specific cognitive abilities such as receptivity to 3D images are correlated with the gray matter volume of a predetermined region of the brain. Therefore, the present inventors have focused on the correlation between a specific cognitive ability (for example, receptivity to 3D images) and the gray matter volume of a predetermined region of the brain, and are specific based on the gray matter volume of the predetermined region. The idea was to determine cognitive ability (eg, receptivity to 3D images).

なお、以下では、特定の認知能力(例えば、3D映像に対する受容性)の判定に用いられる脳の所定領域が、上頭頂小葉及び尾状核の少なくとも一つであるものとするが、これに限られない。当該所定領域は、当該特定の認知能力と相関関係を有する脳のどのような領域であってもよい。当該所定領域は、例えば、上記上頭頂小葉及び尾状核の少なくとも一つに代えて又は加えて、角回及び大脳基底核の少なくとも一つを含んでもよい。 In the following, it is assumed that a predetermined region of the brain used for determining a specific cognitive ability (for example, receptivity to 3D images) is at least one of the superior parietal lobule and the caudate nucleus. I can't. The predetermined region may be any region of the brain that correlates with the particular cognitive ability. The predetermined region may include, for example, at least one of the superior parietal lobule and the caudate nucleus, or in addition to the angular gyrus and the basal ganglia.

(判定システムの構成)
図3は、本発明の実施形態に係る判定システム1の一例を示す図である。判定システム1は、予測器14aを用いて特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを予測する判定装置10と、予測器14aに実装される予測モデル22bの学習処理を行う学習装置20と、を有する。なお、予測モデル22bを実装する予測器14aは、予測モデル、予測プログラム、予測アルゴリズム等と言い換えられてもよい。
(Configuration of judgment system)
FIG. 3 is a diagram showing an example of the determination system 1 according to the embodiment of the present invention. The determination system 1 uses a predictor 14a to predict whether or not it has a specific cognitive ability (for example, receptivity to 3D images), and a learning process of a prediction model 22b mounted on the predictor 14a. 20 and a learning device 20 for performing the above. The predictor 14a that implements the prediction model 22b may be paraphrased as a prediction model, a prediction program, a prediction algorithm, or the like.

また、本例では、学習装置20による機械学習によって学習された予測器14aを用いる判定装置10について説明するが、予測器14aは、必ずしも機械学習によって生成されたものに限られず、脳の所定領域の灰白質体積と特定の認知能力(例えば、3D映像に対する受容性)の関係について理論的に導かれた関係式又は経験的に導かれた関係式に基づいて当該特定の認知能力を判定するものであってもよい。 Further, in this example, the determination device 10 using the predictor 14a learned by machine learning by the learning device 20 will be described, but the predictor 14a is not necessarily limited to the one generated by machine learning and is a predetermined region of the brain. Judgment of a specific cognitive ability based on a theoretically derived relational expression or an empirically derived relational expression regarding the relationship between the gray matter volume and a specific cognitive ability (for example, receptivity to 3D images). It may be.

また、本例では、判定装置10及び学習装置20が別体の場合を示しているが、判定装置10及び学習装置20は一体の装置で構成されてもよい。例えば、判定装置10及び学習装置20は、PLC(Programmable Logic Controller)の異なる動作として実現されてもよい。 Further, in this example, the case where the determination device 10 and the learning device 20 are separate bodies is shown, but the determination device 10 and the learning device 20 may be configured as an integrated device. For example, the determination device 10 and the learning device 20 may be realized as different operations of the PLC (Programmable Logic Controller).

<学習装置>
学習装置20は、機能構成として、学習用データ22aを生成する生成部21と、学習用データ22a及び予測モデル22bを記憶する記憶部22と、学習用データ22aを用いた機械学習により予測モデル22bの学習処理を実施する学習部23と、を有する。生成部21は、脳画像取得部211と、灰白質体積演算部212と、成績取得部213と、主観的指標値取得部214と、を有する。
<Learning device>
As a functional configuration, the learning device 20 includes a generation unit 21 that generates learning data 22a, a storage unit 22 that stores learning data 22a and a prediction model 22b, and a prediction model 22b by machine learning using the learning data 22a. It has a learning unit 23 that executes the learning process of the above. The generation unit 21 includes a brain image acquisition unit 211, a gray matter volume calculation unit 212, a grade acquisition unit 213, and a subjective index value acquisition unit 214.

脳画像取得部211は、各ユーザの脳画像を取得する。脳画像は、例えば、磁気共鳴画像化(Magnetic Resonance Imaging(MRI))装置により撮像された画像(例えば、図2の脳画像I1、I2など)であってもよい。脳画像は、脳解剖画像等と呼ばれてもよい。当該MRI装置は、例えば、3テスラMRI装置であってもよい。 The brain image acquisition unit 211 acquires the brain image of each user. The brain image may be, for example, an image captured by a magnetic resonance imaging (MRI) device (for example, brain images I1, I2 in FIG. 2). The brain image may be called a brain anatomical image or the like. The MRI apparatus may be, for example, a 3 Tesla MRI apparatus.

灰白質体積演算部212は、脳画像取得部211により取得された脳画像に基づいて、ユーザの脳の所定領域の灰白質体積を演算する。具体的には、灰白質体積演算部212は、当該脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。当該所定領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であるが、これに限られず、角回及び大脳基底核等の少なくとも一部に対応する領域であってもよい。当該灰白質体積は、例えば、Voxel-based-Morp hometry(VBM)を用いて評価されてもよい。 The gray matter volume calculation unit 212 calculates the gray matter volume of a predetermined region of the user's brain based on the brain image acquired by the brain image acquisition unit 211. Specifically, the gray matter volume calculation unit 212 sets a predetermined region of the brain image as the region of interest and calculates the volume of gray matter in the region of interest. The predetermined region is, for example, a region corresponding to at least a part of the superior parietal lobule and the caudate nucleus, but is not limited to this, and may be a region corresponding to at least a part such as the angular gyrus and the basal ganglia. Good. The gray matter volume may be evaluated using, for example, a Voxel-based-Morp hometry (VBM).

成績取得部213は、各ユーザの特定の認知能力に関する所定課題(例えば、3D映像を用いた知覚課題)の成績(例えば、正答率又は点数)を取得する。当該3D映像を用いた知覚課題の成績は、例えば、3D映像を用いたMOT課題の成績であってもよい。 The grade acquisition unit 213 acquires the grade (for example, correct answer rate or score) of a predetermined task (for example, a perceptual task using a 3D image) related to a specific cognitive ability of each user. The result of the perception task using the 3D image may be, for example, the result of the MOT task using the 3D image.

主観的指標値取得部214は、各ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。当該映像酔いに関する主観的指標値は、例えば、Simulator Sickness Questionnaire(SSQ)値を示す情報であってもよい。SSQでは、気持ちの悪さ、目の疲れ、ふらつき感に分類される所定数の質問項目(例えば、16の質問項目)について、所定段階(例えば、4段階)でユーザが回答する。SSQ値は、当該回答に基づいて生成される所定の指標値であってもよい。当該SSQ値は、上記知覚課題を実施した後のユーザの回答に基づいて生成されてもよい。 The subjective index value acquisition unit 214 acquires a subjective index value related to a specific cognitive ability of each user (for example, a subjective index value related to video sickness). The subjective index value related to the image sickness may be, for example, information indicating a Simulator Sickness Questionnaire (SSQ) value. In SSQ, the user answers a predetermined number of question items (for example, 16 question items) classified into feelings of discomfort, eyestrain, and light-headedness in predetermined stages (for example, 4 stages). The SSQ value may be a predetermined index value generated based on the answer. The SSQ value may be generated based on the user's response after performing the above perceptual task.

記憶部22は、生成部21によって生成される学習用データ22aと、学習部23による学習処理によって生成される予測モデル22bとを記憶する。学習用データ22aは、灰白質体積演算部212によって演算される灰白質体積と、成績取得部213によって取得される成績とをユーザ毎に関連付けたデータであってもよい。また、学習用データ22aは、上記灰白質体積及び成績に加えて、主観的指標値取得部214によって取得される主観的指標値をユーザ毎に関連付けたデータであってもよい。 The storage unit 22 stores the learning data 22a generated by the generation unit 21 and the prediction model 22b generated by the learning process by the learning unit 23. The learning data 22a may be data in which the gray matter volume calculated by the gray matter volume calculation unit 212 and the grade acquired by the grade acquisition unit 213 are associated with each user. Further, the learning data 22a may be data in which the subjective index value acquired by the subjective index value acquisition unit 214 is associated with each user in addition to the gray matter volume and the grade.

学習部23は、記憶部22に記憶された学習用データ22aを用いた機械学習によって予測モデル22bの学習処理を実行する。例えば、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。また、学習部23は、学習用データ22aとして記憶される各ユーザの灰白質体積及び主観的指標値に基づいて、学習用データ22aとして記憶される各ユーザの成績が出力されるように、予測モデル22bの学習処理を行ってもよい。 The learning unit 23 executes the learning process of the prediction model 22b by machine learning using the learning data 22a stored in the storage unit 22. For example, the learning unit 23 learns the prediction model 22b so that the results of each user stored as the learning data 22a are output based on the gray matter volume of each user stored as the learning data 22a. May be done. Further, the learning unit 23 predicts that the results of each user stored as the learning data 22a are output based on the gray matter volume and the subjective index value of each user stored as the learning data 22a. The learning process of the model 22b may be performed.

学習部23によって機械学習される予測モデル22bは、例えば、ニューラルネットワークで構成されてよい。予測モデル22bがニューラルネットワークで構成される場合、学習部23は、例えば、誤差逆伝播法によってニューラルネットワークの学習処理を行ってよい。 The prediction model 22b machine-learned by the learning unit 23 may be composed of, for example, a neural network. When the prediction model 22b is composed of a neural network, the learning unit 23 may perform the learning process of the neural network by, for example, the backpropagation method.

<判定装置>
判定装置10は、脳画像取得部11と、灰白質体積演算部12と、主観的指標値取得部13と、判定部14と、を備える。脳画像取得部11は、特定の認知能力(例えば、3D映像に対する受容性)の有無の判定対象となるユーザの脳画像を取得する。灰白質体積演算部12は、脳画像取得部11により取得された脳画像の所定領域を関心領域に設定して、関心領域における灰白質体積を演算する。主観的指標値取得部13は、当該ユーザの特定の認知能力に関する主観的指標値(例えば、映像酔いに関する主観的指標値)を取得する。なお、脳画像取得部11、灰白質体積演算部12及び主観的指標値取得部13の詳細は、それぞれ、脳画像取得部211、灰白質体積演算部212及び主観的指標値取得部214で説明した通りである。
<Judgment device>
The determination device 10 includes a brain image acquisition unit 11, a gray matter volume calculation unit 12, a subjective index value acquisition unit 13, and a determination unit 14. The brain image acquisition unit 11 acquires a brain image of a user to be determined for the presence or absence of a specific cognitive ability (for example, receptivity to a 3D image). The gray matter volume calculation unit 12 sets a predetermined region of the brain image acquired by the brain image acquisition unit 11 as the region of interest, and calculates the gray matter volume in the region of interest. The subjective index value acquisition unit 13 acquires a subjective index value related to a specific cognitive ability of the user (for example, a subjective index value related to video sickness). The details of the brain image acquisition unit 11, the gray matter volume calculation unit 12, and the subjective index value acquisition unit 13 will be described in the brain image acquisition unit 211, the gray matter volume calculation unit 212, and the subjective index value acquisition unit 214, respectively. That's right.

判定部14は、灰白質体積演算部12で演算された灰白質体積に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定する。また、判定部14は、学習装置20における機械学習により生成される予測器14aを含んでもよい。なお、予測器14aは、蒸留(distillation)により生成又は蒸留により生成される新たな予測モデルを実装してもよい。蒸留では、学習装置20で機械学習された予測モデル22bへの入出力データを用いて新たな予測モデルが生成されてもよい。 The determination unit 14 determines whether or not the user has a specific cognitive ability (for example, receptivity to a 3D image) based on the gray matter volume calculated by the gray matter volume calculation unit 12. Further, the determination unit 14 may include a predictor 14a generated by machine learning in the learning device 20. It should be noted that the predictor 14a may implement a new prediction model produced by distillation or produced by distillation. In distillation, a new prediction model may be generated using the input / output data to the prediction model 22b machine-learned by the learning device 20.

具体的には、判定部14は、灰白質体積演算部12で演算された灰白質体積を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。また、判定部14は、当該灰白質体積に加えて、主観的指標値取得部13で取得される主観的指標値を予測器14aに入力して生成される予測値に基づいて、ユーザが特定の認知能力(例えば、3D映像に対する受容性)を有するか否かを判定してもよい。当該予測値は、各ユーザの特定の認知能力に関する所定課題の成績の予測値(例えば、3D映像を用いたMOT課題の正答率の予測値)であってもよい。 Specifically, the determination unit 14 inputs the gray matter volume calculated by the gray matter volume calculation unit 12 into the predictor 14a, and the user has a specific cognitive ability (for example, 3D) based on the predicted value generated. It may be determined whether or not the image has receptivity). Further, the determination unit 14 identifies the user based on the predicted value generated by inputting the subjective index value acquired by the subjective index value acquisition unit 13 into the predictor 14a in addition to the gray matter volume. It may be determined whether or not the cognitive ability (for example, receptivity to 3D images) is possessed. The predicted value may be a predicted value of the performance of a predetermined task related to a specific cognitive ability of each user (for example, a predicted value of a correct answer rate of a MOT task using a 3D image).

判定部14による判定結果は、後述する出力部10eに出力され、ユーザに表示されてもよい。或いは、当該判定結果は、通信部10cを介して他の装置に送信されてもよい。 The determination result by the determination unit 14 may be output to the output unit 10e, which will be described later, and displayed to the user. Alternatively, the determination result may be transmitted to another device via the communication unit 10c.

<ハードウェア構成>
次に、判定システム1内の各装置(例えば、判定装置10及び学習装置20の少なくとも一つ)のハードウェア構成を説明する。図4に示すように、判定システム1内の各装置は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶装置10bと、通信部10cと、入力部10dと、出力部10eとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では、判定装置10及び学習装置20は、別々のコンピュータで構成されるが、一台のコンピュータで構成されてもよい。
<Hardware configuration>
Next, the hardware configuration of each device in the determination system 1 (for example, at least one of the determination device 10 and the learning device 20) will be described. As shown in FIG. 4, each device in the determination system 1 includes a CPU (Central Processing Unit) 10a corresponding to an arithmetic unit, a storage device 10b, a communication unit 10c, an input unit 10d, and an output unit 10e. Have. Each of these configurations is connected to each other via a bus so that data can be transmitted and received. In this example, the determination device 10 and the learning device 20 are composed of separate computers, but may be composed of one computer.

CPU10aは、記憶装置10bに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、脳画像の所定領域を関心領域として演算される灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)を判定するプログラム(判定プログラム)を実行する演算装置(演算部)であってもよい。CPU10aは、入力部10d及び/又は通信部10cから種々の入力データを受け取り、入力データの演算結果を出力部10eに出力(例えば、表示)したり、記憶装置10bに格納したり、又は、通信部10cを介して送信したりする。 The CPU 10a is a control unit that controls execution of a program stored in the storage device 10b, calculates data, and processes data. The CPU 10a is an arithmetic unit (arithmetic unit) that executes a program (determination program) for determining a specific cognitive ability (for example, receptivity to 3D images) based on the gray matter volume calculated with a predetermined region of a brain image as an region of interest. ) May be. The CPU 10a receives various input data from the input unit 10d and / or the communication unit 10c, outputs (for example, displays) the calculation result of the input data to the output unit 10e, stores it in the storage device 10b, or communicates. It may be transmitted via unit 10c.

記憶装置10bは、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、の少なくとも一つである。学習装置20の記憶装置10bは、記憶部22を構成してもよい。判定装置10の記憶装置10bは、CPU10aが実行する判定プログラムを記憶してもよい。 The storage device 10b is at least one of a memory, an HDD (Hard Disk Drive), and an SSD (Solid State Drive). The storage device 10b of the learning device 20 may constitute a storage unit 22. The storage device 10b of the determination device 10 may store the determination program executed by the CPU 10a.

通信部10cは、判定システム1内の各装置を外部機器に接続するインターフェースである。なお、判定装置10及び学習装置20が一体の装置で構成される場合、通信部10cは、判定装置10として動作するプロセスと、学習装置20として動作するプロセスとの間のプロセス間通信を含んでよい。 The communication unit 10c is an interface for connecting each device in the determination system 1 to an external device. When the determination device 10 and the learning device 20 are configured as an integrated device, the communication unit 10c includes interprocess communication between the process operating as the determination device 10 and the process operating as the learning device 20. Good.

入力部10dは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード、マウス、タッチパネル、マイクの少なくとも一つを含んでよい。 The input unit 10d receives data input from the user, and may include at least one of a keyboard, a mouse, a touch panel, and a microphone, for example.

出力部10eは、CPU10aによる演算結果を出力するものであり、例えば、LCD(Liquid Crystal Display)等のディスプレイ及びスピーカの少なくとも一つにより構成されてよい。 The output unit 10e outputs the calculation result by the CPU 10a, and may be composed of at least one of a display such as an LCD (Liquid Crystal Display) and a speaker, for example.

判定プログラムは、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10cにより接続されるネットワークNを介して提供されてもよい。当該判定プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ、CD−ROM又はDVD等の記憶媒体であってもよい。 The determination program may be stored in a storage medium readable by a computer such as the storage device 10b and provided, or may be provided via the network N connected by the communication unit 10c. The storage medium in which the determination program is stored may be a non-transitory computer readable medium. The non-temporary storage medium is not particularly limited, but may be, for example, a storage medium such as a USB memory, a CD-ROM, or a DVD.

判定装置10では、CPU10aが判定プログラムを実行することにより、図3を用いて説明した脳画像取得部11、灰白質体積演算部12、主観的指標値取得部13、判定部14の動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、判定装置10は、CPU10aと記憶装置10bが一体化したLSI(Large-Scale Integration)を備えていてもよい。 In the determination device 10, the CPU 10a executes the determination program to realize the operations of the brain image acquisition unit 11, the gray matter volume calculation unit 12, the subjective index value acquisition unit 13, and the determination unit 14 described with reference to FIG. Will be done. It should be noted that these physical configurations are examples and do not necessarily have to be independent configurations. For example, the determination device 10 may include an LSI (Large-Scale Integration) in which the CPU 10a and the storage device 10b are integrated.

また、脳画像取得部11及び211、主観的指標値取得部13及び214、成績取得部213は、それぞれ、通信部10cで受信される脳画像、主観的指標値、特定の認知能力に関する所定課題(例えば、3D映像を用いたMOT課題)の成績を取得してもよいし、又は、記憶装置10b等のコンピュータによって読み取り可能な記憶媒体に記憶された脳画像、当該主観的指標値、当該成績を取得してもよい。 Further, the brain image acquisition units 11 and 211, the subjective index value acquisition units 13 and 214, and the grade acquisition unit 213, respectively, have predetermined tasks related to the brain image received by the communication unit 10c, the subjective index value, and the specific cognitive ability. (For example, a MOT task using a 3D image) may be obtained, or a brain image stored in a computer-readable storage medium such as a storage device 10b, the subjective index value, and the result. May be obtained.

(判定システムの動作)
<学習動作>
図5は、本実施形態に係る学習動作の一例を示すフローチャートである。なお、図5では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を予測する予測モデル22bの学習動作について説明する。
(Operation of judgment system)
<Learning movement>
FIG. 5 is a flowchart showing an example of the learning operation according to the present embodiment. In addition, in FIG. 5, the learning operation of the prediction model 22b that assumes the acceptability to the 3D image as an example of the specific cognitive ability and predicts the acceptability to the 3D image will be described.

図5に示すように、ステップS101において、学習装置20は、各ユーザの脳画像を取得する。例えば、学習装置20は、MRI装置(例えば、3テスラMRI装置)により撮像された脳画像を取得してもよい。ステップS102において、学習装置20は、ステップS101において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。当該関心領域は、例えば、上頭頂小葉及び尾状核の少なくとも一部に対応する領域であってもよい。 As shown in FIG. 5, in step S101, the learning device 20 acquires a brain image of each user. For example, the learning device 20 may acquire a brain image captured by an MRI device (for example, a 3 Tesla MRI device). In step S102, the learning device 20 sets a predetermined region of the brain image acquired in step S101 as the region of interest, and calculates the gray matter volume of the region of interest. The region of interest may be, for example, a region corresponding to at least a portion of the superior parietal lobule and the caudate nucleus.

ステップS103において、学習装置20は、各ユーザの映像酔いに関する主観的指標値(例えば、SSQ値)を取得する。例えば、知覚課題(例えば、3D映像を用いたMOT課題)後に各ユーザにSSQが実施され、当該SSQの回答に基づいて決定されたSSQ値が主観的指標値として取得されてもよい。 In step S103, the learning device 20 acquires a subjective index value (for example, SSQ value) regarding the video sickness of each user. For example, an SSQ may be performed on each user after a perceptual task (for example, a MOT task using a 3D image), and an SSQ value determined based on the answer of the SSQ may be acquired as a subjective index value.

ステップS104において、学習装置20は、各ユーザの3D映像を用いた知覚課題の成績を取得する。上記の通り、知覚成績情報は、知覚課題(例えば、3D映像を用いたMOT課題)の成績を示す情報(例えば、正答率)であってもよい。 In step S104, the learning device 20 acquires the results of the perceptual task using the 3D image of each user. As described above, the perceptual performance information may be information (for example, correct answer rate) indicating the performance of the perceptual task (for example, the MOT task using 3D images).

ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS103で取得された主観的指標値と、ステップS104で取得された知覚成績情報とを関連づけた学習用データ22aを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。 In step S105, the learning device 20 uses the learning data 22a in which the gray matter volume calculated in step S102, the subjective index value acquired in step S103, and the perceptual performance information acquired in step S104 are associated with each other. The learning process of the prediction model 22b may be performed by the machine learning that has been performed.

なお、図5において、ステップS101、S103、S104の順序は問われない。また、図5において、ステップS103は省略されてもよい。ステップS103を省略する場合、ステップS105において、学習装置20は、ステップS102で演算された灰白質体積とステップS104で取得された成績とを関連づけた学習用データを用いた機械学習により、予測モデル22bの学習処理を実施してもよい。 In FIG. 5, the order of steps S101, S103, and S104 does not matter. Further, in FIG. 5, step S103 may be omitted. When step S103 is omitted, in step S105, the learning device 20 performs the prediction model 22b by machine learning using the learning data in which the gray matter volume calculated in step S102 is associated with the grade acquired in step S104. You may carry out the learning process of.

<判定動作>
図6は、本実施形態に係る判定動作の一例を示す図である。なお、図6では、特定の認知能力の一例として3D映像に対する受容性を想定し、当該3D映像に対する受容性を判定する判定動作について説明する。
<Judgment operation>
FIG. 6 is a diagram showing an example of a determination operation according to the present embodiment. Note that FIG. 6 assumes receptivity to a 3D image as an example of a specific cognitive ability, and describes a determination operation for determining receptivity to the 3D image.

図6に示すように、ステップS201において、判定装置10は、3D映像に対する受容性の判定対象となるユーザの脳画像を取得する。ステップS202において、判定装置10は、ステップS201において取得された脳画像の所定領域を関心領域に設定し、当該関心領域の灰白質体積を演算する。ステップS203において、判定装置10は、当該ユーザの映像酔いに関する主観的指標値を取得する。なお、ステップS201、S202、S203の詳細は、図5のステップS101、S102、S103と同様である。 As shown in FIG. 6, in step S201, the determination device 10 acquires a brain image of the user to be determined for acceptability to the 3D image. In step S202, the determination device 10 sets a predetermined region of the brain image acquired in step S201 as the region of interest, and calculates the gray matter volume of the region of interest. In step S203, the determination device 10 acquires the subjective index value regarding the image sickness of the user. The details of steps S201, S202, and S203 are the same as those of steps S101, S102, and S103 of FIG.

ステップS204において、判定装置10は、ステップS202で演算された灰白質体積及びステップS203で取得された主観的指標値を学習済みの予測器14aに入力して、当該予測器14aの出力として3D映像を用いた知覚課題の成績の予測値(成績予測値)を生成してもよい。当該成績予測値は、例えば、MOT課題の正答率又は点数の予測値であってもよい。 In step S204, the determination device 10 inputs the gray matter volume calculated in step S202 and the subjective index value acquired in step S203 into the trained predictor 14a, and outputs a 3D image as the output of the predictor 14a. You may generate the predicted value (performance predicted value) of the performance of the perceptual task using. The performance prediction value may be, for example, a prediction value of the correct answer rate or the score of the MOT task.

ステップS205において、判定装置10は、ステップS204で生成された成績予測値が所定の条件を満たすか否かを判定する。当該成績予測値が所定の条件を満たす場合、ステップS206において、判定装置10は、当該ユーザが3D映像に対する受容性を有すると判定する。一方、当該成績予測値が所定の条件を満たさない場合、ステップS207において、判定装置10は、当該ユーザが3D映像に対する受容性を有しないと判定する。 In step S205, the determination device 10 determines whether or not the performance prediction value generated in step S204 satisfies a predetermined condition. When the performance prediction value satisfies a predetermined condition, in step S206, the determination device 10 determines that the user has receptivity to the 3D image. On the other hand, when the performance prediction value does not satisfy the predetermined condition, in step S207, the determination device 10 determines that the user does not have receptivity to the 3D image.

なお、図6において、ステップS201、S203の順序は問われない。また、図6において、ステップS203は省略されてもよい。ステップS203を省略する場合、ステップS204において、判定装置10は、ステップS202で演算された灰白質体積を学習済みの予測器14aに入力して、当該予測器14aの出力として成績予測値を生成してもよい。 In FIG. 6, the order of steps S201 and S203 does not matter. Further, in FIG. 6, step S203 may be omitted. When step S203 is omitted, in step S204, the determination device 10 inputs the gray matter volume calculated in step S202 to the trained predictor 14a, and generates a performance prediction value as the output of the predictor 14a. You may.

図7は、本実施形態に係る知覚課題の成績と3D映像に対する受容性との関係の一例を示す図である。図7に示すように、3D映像に対する受容性の有無の判定に用いられる所定の条件は、所定数の被験者に対する知覚課題の成績分布に基づいて決定されてもよい。図7では、78名の被験者に対して3D映像を用いた知覚課題(ここでは、MOT課題)を実施した場合の成績分布が示される。 FIG. 7 is a diagram showing an example of the relationship between the performance of the perceptual task according to the present embodiment and the receptivity to the 3D image. As shown in FIG. 7, the predetermined conditions used for determining the presence or absence of acceptability for the 3D image may be determined based on the performance distribution of the perceptual task for a predetermined number of subjects. FIG. 7 shows the performance distribution when a perceptual task (here, MOT task) using 3D images is performed on 78 subjects.

例えば、図7に示すように、知覚課題の成績が分布する場合、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることであってもよい。 For example, as shown in FIG. 7, when the grades of the perceptual task are distributed, the predetermined condition for being judged to have receptivity to the 3D image is that the grades have a correct answer rate of 70% or more. Good.

例えば、図7の条件を用いる場合、図6のステップS204において予測器14aから出力される成績予測値が70%以上の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有すると判断される。一方、図6のステップS204において予測器14aから出力される成績予測値が70%未満の正答率を示す場合、当該成績予測値に対応するユーザは、3D映像に対する受容性を有しないと判断される。 For example, when the condition of FIG. 7 is used, if the grade prediction value output from the predictor 14a in step S204 of FIG. 6 shows a correct answer rate of 70% or more, the user corresponding to the grade prediction value refers to the 3D image. Judged to be receptive. On the other hand, when the grade prediction value output from the predictor 14a shows a correct answer rate of less than 70% in step S204 of FIG. 6, it is determined that the user corresponding to the grade prediction value does not have receptivity to the 3D image. To.

なお、図7は一例にすぎず、3D映像に対する受容性を有すると判断される所定の条件は、当該成績が70%以上の正答率であることに限られない。当該所定の条件は、知覚課題の成績(例えば、正答率)と所定の閾値とに基づいて定められれば、どのような条件であってもよい。 Note that FIG. 7 is only an example, and the predetermined condition for determining that the 3D image is acceptable is not limited to the correct answer rate of 70% or more. The predetermined condition may be any condition as long as it is determined based on the performance of the perceptual task (for example, the correct answer rate) and the predetermined threshold value.

図8は、本実施形態に係る3D映像に対する受容性の判定の効果の一例を示す図である。図8では、所定数(ここでは、48名)の被験者に対して所定期間(例えば、1ヶ月)、3D映像を用いたスポーツトレーニングを実施した場合の伸び率の分布が示される。 FIG. 8 is a diagram showing an example of the effect of determining acceptability for a 3D image according to the present embodiment. FIG. 8 shows the distribution of the growth rate when a predetermined number of subjects (here, 48 subjects) are subjected to sports training using a 3D image for a predetermined period (for example, one month).

図8では、48名の被験者のうち22名の伸び率が10%未満である。当該22名の被験者の脳画像に基づいて上頭頂小葉及び尾状核に対応する領域を関心領域として設定し、灰白質体積を演算した。当該灰白質体積を学習済みの予測器14aに入力して当該22名の被験者の3D映像に対する受容性を予め判定したところ、19名の被験者については3D映像に対する受容性が有しないと判定されていた。 In FIG. 8, the growth rate of 22 out of 48 subjects is less than 10%. Based on the brain images of the 22 subjects, the region corresponding to the superior parietal lobule and the caudate nucleus was set as the region of interest, and the gray matter volume was calculated. When the gray matter volume was input to the trained predictor 14a and the acceptability of the 22 subjects to the 3D image was determined in advance, it was determined that the 19 subjects did not have the acceptability to the 3D image. It was.

したがって、学習済みの予測器14aを用いて3D映像に対する受容性がないと判定されるユーザに対し、3D映像を用いたスポーツトレーニングを実施しても、当該トレーニングの実施効果を適切に得られない可能性が高い。したがって、3D映像に対する受容性を有すると判定されるユーザに対して3D映像を用いたトレーニングを実施することで、トレーニングの実施効果を効率的に得ることができる。 Therefore, even if sports training using 3D images is performed on a user who is determined to be unacceptable to 3D images using the trained predictor 14a, the effect of implementing the training cannot be appropriately obtained. Probability is high. Therefore, by training a user who is determined to have receptivity to the 3D image using the 3D image, the effect of the training can be efficiently obtained.

なお、図8では、3D映像を用いた行為の一例としてスポーツトレーニングが示されているが、当該行為は、例えば、航空機の操縦、車両の運転、リハビリ、患者の手術等、3D映像を用いて実施されるどのような行為であってもよい。3D映像を用いた行為を実施する際に、学習済みの予測器14aを用いて3D映像に対する受容性の判定結果を考慮することで、当該行為の実施効果をより効率的に得ることができる。 Note that, in FIG. 8, sports training is shown as an example of an act using 3D images, and the act uses 3D images such as, for example, maneuvering an aircraft, driving a vehicle, rehabilitation, and surgery for a patient. It may be any action performed. When performing an action using a 3D image, the effect of performing the action can be obtained more efficiently by considering the determination result of acceptability for the 3D image using the learned predictor 14a.

以上のように、本実施形態に係る判定システムによれば、ユーザの脳画像に基づいて演算される当該ユーザの脳の所定領域の灰白質体積に基づいて、当該ユーザの3D映像に対する受容性を判定できる。このため、3D映像に対する受容性を有すると判定されたユーザに対して、3D映像を用いた行為を実施することにより、当該行為の実施効果を効率的に得ることができる。 As described above, according to the determination system according to the present embodiment, the acceptability of the user to the 3D image is determined based on the gray matter volume of the predetermined region of the user's brain calculated based on the user's brain image. Can be judged. Therefore, by performing an act using the 3D image for a user determined to have receptivity to the 3D image, the effect of performing the act can be efficiently obtained.

なお、上記実施形態では、脳の所定領域の灰白質体積に基づいて特定の認知能力(例えば、3D映像に対する受容性)が判定されるが、当該判定に用いられるパラメータは、脳機能及び脳構造の少なくとも一つを示すパラメータであれば、灰白質体積に限られない。例えば、灰白質体積に代えて又は加えて、当該脳の所定領域の拡散異方性度(Fractional Anisotropy(FA)値)が演算されてもよい。当該拡散異方性度は、脳の白質線維の質的・量的な変化を反映してもよい。当該拡散異方性度は、拡散強調画像に基づいて演算されてもよい。当該拡散強調画像は、例えば、MRIにより、水素原子の拡散を検出するために印加される傾斜磁場(拡散運動検出傾斜磁場(Motion Probing gradient(MPG)))を用いて取得されてもよい。また、安静時脳機能結合、ミエリンマップ、微細構造画像の少なくとも一つに基づいて決定されるパラメータが用いられてもよい。 In the above embodiment, a specific cognitive ability (for example, receptivity to 3D images) is determined based on the gray matter volume of a predetermined region of the brain, and the parameters used for the determination are brain function and brain structure. The parameter is not limited to the gray matter volume as long as it is a parameter indicating at least one of. For example, instead of or in addition to the gray matter volume, the degree of diffusion anisotropy (Fractional Anisotropy (FA) value) of a predetermined region of the brain may be calculated. The degree of diffusion anisotropy may reflect qualitative and quantitative changes in white matter fibers of the brain. The diffusion anisotropy may be calculated based on the diffusion weighted image. The diffusion-weighted image may be acquired using, for example, a gradient magnetic field (Motion Probing gradient (MPG)) applied to detect the diffusion of hydrogen atoms by MRI. In addition, parameters determined based on at least one of resting brain function coupling, myelin map, and microstructure image may be used.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those exemplified, and can be changed as appropriate. In addition, the configurations shown in different embodiments can be partially replaced or combined.

1…判定システム、10…判定装置、20…学習装置、11…脳画像取得部、12…灰白質体積演算部、13…主観的指標値取得部、14…判定部、14a…予測器、21…生成部、22…記憶部、22a…学習用データ、22b…予測モデル、23…学習部、211…脳画像取得部、212…灰白質体積演算部、213…成績取得部、214…主観的指標値取得部、10a…CPU、10b…記憶装置、10c…通信部、10d…入力部、10e…出力部、I1、I2…脳画像、V…3D映像、X…切断面、100…HMD、101…第1表示部、102…第2表示部、103…センサー 1 ... Judgment system, 10 ... Judgment device, 20 ... Learning device, 11 ... Brain image acquisition unit, 12 ... Gray matter volume calculation unit, 13 ... Subjective index value acquisition unit, 14 ... Judgment unit, 14a ... Predictor, 21 ... Generation unit, 22 ... Storage unit, 22a ... Learning data, 22b ... Prediction model, 23 ... Learning unit, 211 ... Brain image acquisition unit, 212 ... Gray matter volume calculation unit, 213 ... Grade acquisition unit, 214 ... Subjective Index value acquisition unit, 10a ... CPU, 10b ... Storage device, 10c ... Communication unit, 10d ... Input unit, 10e ... Output unit, I1, I2 ... Brain image, V ... 3D image, X ... Cut surface, 100 ... HMD, 101 ... 1st display, 102 ... 2nd display, 103 ... Sensor

Claims (9)

ユーザの脳画像を取得する取得部と、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部と、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部と、
を備える判定装置。
The acquisition unit that acquires the user's brain image,
An arithmetic unit that calculates the gray matter volume of a predetermined region of the user's brain based on the brain image,
A determination unit that determines whether or not the user has a specific cognitive ability based on the calculated gray matter volume.
Judgment device including.
各ユーザの脳画像に基づいて演算される前記所定領域の灰白質体積と各ユーザの前記特定の認知能力に関する所定課題の成績とを用いた機械学習に基づいて生成された予測器を更に備え、
前記判定部は、前記演算された灰白質体積を前記予測器に入力して生成される前記成績の予測値に基づいて、前記ユーザが前記特定の認知能力を有するか否かを判定する、
請求項1に記載の判定装置。
Further equipped with a predictor generated based on machine learning using the gray matter volume of the predetermined region calculated based on the brain image of each user and the performance of a predetermined task related to the specific cognitive ability of each user.
The determination unit determines whether or not the user has the specific cognitive ability based on the predicted value of the performance generated by inputting the calculated gray matter volume into the predictor.
The determination device according to claim 1.
前記機械学習には、前記灰白質体積及び前記成績に加えて、各ユーザの前記特定の認知能力に関する主観的指標値が用いられ、
前記取得部は、前記脳画像が取得された前記ユーザの前記特定の認知能力に関する主観的指標値を取得し、
前記予測値は、前記演算された灰白質体積及び前記取得された主観的指標値を前記予測器に入力して生成される、
請求項2に記載の判定装置。
In the machine learning, in addition to the gray matter volume and the performance, subjective index values relating to the specific cognitive ability of each user are used.
The acquisition unit acquires a subjective index value relating to the specific cognitive ability of the user from whom the brain image has been acquired.
The predicted value is generated by inputting the calculated gray matter volume and the acquired subjective index value into the predictor.
The determination device according to claim 2.
前記所定領域は、上頭頂小葉及び尾状核の少なくとも一部に対応する領域である、
請求項1から請求項3のいずれかに記載の判定装置。
The predetermined region is a region corresponding to at least a part of the superior parietal lobule and the caudate nucleus.
The determination device according to any one of claims 1 to 3.
前記特定の認知能力は、三次元映像に対する受容性を含む、
請求項1から請求項4のいずれかに記載の判定装置。
The particular cognitive ability includes receptivity to 3D images.
The determination device according to any one of claims 1 to 4.
前記三次元映像は、所定の表示装置を用いて前記ユーザによって知覚され、
前記所定の表示装置は、前記ユーザの右目用の二次元映像を表示する第1表示部と左目用の二次元映像を表示する第2表示部とを具備する、
請求項5に記載の判定装置。
The three-dimensional image is perceived by the user using a predetermined display device, and the three-dimensional image is perceived by the user.
The predetermined display device includes a first display unit that displays a two-dimensional image for the right eye of the user and a second display unit that displays a two-dimensional image for the left eye.
The determination device according to claim 5.
前記所定の表示装置は、前記ユーザの所定部位に装着される装着型表示装置、又は、前記ユーザの所定部位に装着されない非装着型表示装置である、
請求項6に記載の判定装置。
The predetermined display device is a wearable display device that is attached to the predetermined portion of the user, or a non-wearable display device that is not attached to the predetermined portion of the user.
The determination device according to claim 6.
ユーザの脳画像を取得する工程と、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する工程と、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する工程と、
を有する判定方法。
The process of acquiring the user's brain image and
A step of calculating the gray matter volume of a predetermined region of the user's brain based on the brain image, and
A step of determining whether or not the user has a specific cognitive ability based on the calculated gray matter volume, and
Judgment method having.
判定装置に備えられた演算部を、
ユーザの脳画像を取得する取得部、
前記脳画像に基づいて、前記ユーザの脳の所定領域の灰白質体積を演算する演算部、及び、
前記演算された灰白質体積に基づいて、前記ユーザが特定の認知能力を有するか否かを判定する判定部、
として機能させる判定プログラム。
The arithmetic unit provided in the judgment device,
Acquisition unit that acquires the user's brain image,
A calculation unit that calculates the gray matter volume of a predetermined region of the user's brain based on the brain image, and
A determination unit that determines whether or not the user has a specific cognitive ability based on the calculated gray matter volume.
Judgment program to function as.
JP2019222384A 2019-12-09 2019-12-09 Determination device, determination method and determination program Active JP7334958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019222384A JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019222384A JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Publications (2)

Publication Number Publication Date
JP2021090549A true JP2021090549A (en) 2021-06-17
JP7334958B2 JP7334958B2 (en) 2023-08-29

Family

ID=76311307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019222384A Active JP7334958B2 (en) 2019-12-09 2019-12-09 Determination device, determination method and determination program

Country Status (1)

Country Link
JP (1) JP7334958B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022094882A (en) * 2020-12-11 2022-06-27 國立成功大學 Cognition evaluation system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
JP2014506150A (en) * 2010-12-20 2014-03-13 コーニンクレッカ フィリップス エヌ ヴェ Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease
JP2015084970A (en) * 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual characteristics prediction system, individual characteristics prediction method and program
US20180310870A1 (en) * 2017-05-01 2018-11-01 The Charles Stark Draper Laboratory, Inc. Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease
JP2019521379A (en) * 2016-06-20 2019-07-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
JP2014506150A (en) * 2010-12-20 2014-03-13 コーニンクレッカ フィリップス エヌ ヴェ Method and system for identifying patients with mild cognitive impairment at risk of progression to Alzheimer's disease
JP2015084970A (en) * 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual characteristics prediction system, individual characteristics prediction method and program
JP2019521379A (en) * 2016-06-20 2019-07-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented Reality Display System for Evaluation and Correction of Neurological Disorders Including Visual Processing and Perception Disorders
US20180310870A1 (en) * 2017-05-01 2018-11-01 The Charles Stark Draper Laboratory, Inc. Deep learning architecture for cognitive examination subscore trajectory prediction in alzheimer's disease

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022094882A (en) * 2020-12-11 2022-06-27 國立成功大學 Cognition evaluation system and method

Also Published As

Publication number Publication date
JP7334958B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
Chang et al. Virtual reality sickness: a review of causes and measurements
Iskander et al. Using biomechanics to investigate the effect of VR on eye vergence system
RU2664397C2 (en) Virtual reality display system
Butler et al. Bayesian integration of visual and vestibular signals for heading
Mauderer et al. Depth perception with gaze-contingent depth of field
JP2022501718A (en) Human / computer interface with fast and accurate tracking of user interactions
CN106489171B (en) Stereoscopic image display
US10768689B2 (en) System and method for providing virtual reality contents based on body information obtained from user
Leroy et al. Visual fatigue reduction for immersive stereoscopic displays by disparity, content, and focus-point adapted blur
Kemeny et al. Getting rid of cybersickness
US20240085980A1 (en) Eye tracking using alternate sampling
Buń et al. Application of professional and low-cost head mounted devices in immersive educational application
Leroy et al. Real-time adaptive blur for reducing eye strain in stereoscopic displays
de Siqueira et al. Empirically evaluating the effects of perceptual information channels on the size perception of tangibles in near-field virtual reality
JP7334958B2 (en) Determination device, determination method and determination program
US20100179799A1 (en) Simulation Device, Simulation Program, and Recording Medium Storing Simulation Program
Domini et al. Do we perceive a flattened world on the monitor screen?
JP2018147086A (en) Information processing method, program, virtual space distribution system, and device
US10602116B2 (en) Information processing apparatus, information processing method, and program for performing display control
JP7467094B2 (en) Information processing device, information processing method, and program
McIntire et al. Microstereopsis is good, but orthostereopsis is better: Precision alignment task performance and viewer discomfort with a stereoscopic 3D display
JP2010141446A (en) Head mount display and image presentation method in same
Naepflin et al. Can movement parallax compensate lacking stereopsis in spatial explorative search tasks?
Kemeny Virtual and Augmented Reality
Kemeny Getting Rid of Motion Sickness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R150 Certificate of patent or registration of utility model

Ref document number: 7334958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150