JP2021148907A - Evaluation device, evaluation system, evaluation server and evaluation program - Google Patents
Evaluation device, evaluation system, evaluation server and evaluation program Download PDFInfo
- Publication number
- JP2021148907A JP2021148907A JP2020047687A JP2020047687A JP2021148907A JP 2021148907 A JP2021148907 A JP 2021148907A JP 2020047687 A JP2020047687 A JP 2020047687A JP 2020047687 A JP2020047687 A JP 2020047687A JP 2021148907 A JP2021148907 A JP 2021148907A
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- evaluation
- visual field
- time
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、車両の周囲を視認する能力を評価することができる評価装置、評価システム、評価サーバ及び評価プログラムに関する。 The present invention relates to an evaluation device, an evaluation system, an evaluation server and an evaluation program capable of evaluating the ability to visually recognize the surroundings of a vehicle.
従来、車両事故を抑制するために、種々の運転適性診断方法が用いられている。特許文献1には、無事故運転者の運転行動と事故惹起運転者の運転行動とに基づいて評価基準を設定したうえで、前記評価基準に基づいて、被験者の運転行動情報の診断データを分析して被験者の運転適性を判別する運転適性診断方法が開示されている。この運転適性診断方法によれば、被験者に運転適性の情報等をフィードバックして、被験者の運転技量を向上させることができるため、車両事故を抑制することができる。 Conventionally, various driving aptitude diagnosis methods have been used in order to suppress vehicle accidents. In Patent Document 1, evaluation criteria are set based on the driving behavior of an accident-free driver and the driving behavior of an accident-causing driver, and then diagnostic data of subject's driving behavior information is analyzed based on the evaluation criteria. A method for diagnosing driving aptitude for determining a subject's driving aptitude is disclosed. According to this driving aptitude diagnosis method, information on driving aptitude and the like can be fed back to the subject to improve the driving skill of the subject, so that a vehicle accident can be suppressed.
車両事故を抑制するためには、運転技量のベースとして、車両の周囲を視認する能力(以下、単に視認能力とも称す)が必要となる。運転技量が優れていても、視認能力が欠落している場合、例えばバック駐車時において、他車両やガードレール等と接触して事故を招く可能性がある。 In order to suppress a vehicle accident, the ability to visually recognize the surroundings of the vehicle (hereinafter, also simply referred to as the visibility ability) is required as a base of driving skill. Even if the driving skill is excellent, if the visibility ability is insufficient, for example, when parking in the back, there is a possibility of causing an accident by coming into contact with another vehicle, a guardrail, or the like.
ここで、特許文献1に記載の方法は上述の通り、運転技量に焦点を当てた方法であるため、被験者の運転技量を測ることはできるものの、視認能力を測ることはできない。 Here, since the method described in Patent Document 1 is a method focusing on the driving skill as described above, the driving skill of the subject can be measured, but the visual ability cannot be measured.
この点に鑑み、本発明は、車両の周囲を視認する能力を評価することが可能な評価装置、評価システム、評価サーバ及び評価プログラムを提供することを目的とする。 In view of this point, it is an object of the present invention to provide an evaluation device, an evaluation system, an evaluation server and an evaluation program capable of evaluating the ability to visually recognize the surroundings of a vehicle.
本願第1の発明は、車両の周囲を視認する能力を評価するための評価装置であって、ディスプレイと、映像再生部と、注視点検出部と、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。 The first invention of the present application is an evaluation device for evaluating the ability to visually recognize the surroundings of a vehicle, and includes a display, a video reproduction unit, a gazing point detecting unit, a gazing time detecting unit, and a visual field area determining unit. , A time integration unit and an evaluation value calculation unit are provided.
映像再生部は、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる。注視点検出部は、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。 The video reproduction unit displays a simulation video on which a plurality of field of view areas are set in advance on the display. The gaze point detection unit detects the gaze point of the evaluation target person in the simulation image displayed on the display. The gaze time detection unit detects the gaze time of the evaluation target person for each reference gaze point based on the gaze point detected by the gaze point detection unit. The visual field region determination unit determines the visual field region that the evaluation target person is gazing at for each reference gazing point among the plurality of visual field regions. The time integration unit has a correspondence relationship between the reference gaze point and the gaze time obtained by the gaze time detection unit and a correspondence relationship between the visual field area and the reference gaze point obtained by the visual field area determination unit. Based on, all gaze times according to the visual field area are acquired and integrated for each visual field area. The evaluation value calculation unit calculates a first evaluation value for evaluating the bias of the gaze time for each visual field in a plurality of visual fields based on the gaze time for each visual field calculated by the time integration unit, and detects the gaze time. Based on the gaze time detected by the unit, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and the surroundings of the vehicle are visually recognized based on the first evaluation value and the second evaluation value. Calculate the visual field ability evaluation value for evaluating the ability.
視界領域がn個に設定されたとき、n個の視界領域のうち第i領域Aiを注視した時間をTi[s]とすると、第i領域Aiを注視した時間の割合γi[−]は、以下の式(i)で表される。γ1〜γnのうち、基準値1/nとの差が最も大きいものをγmaxとすると、第1評価値は、以下の式(ii)で表される偏差Yを用いて算出される。
視界領域が3個に設定されたとき、第1評価値は、以下の式(iii)で算出される。
第2評価値は、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bとから構成される。シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとする(b>0、c,d≦0)。第2評価加点値P2aと、第2評価減点値P2bと、は以下の式(iV)、(V)でそれぞれ算出される。
第2評価値は、第2評価加点値P2aと、第2評価減点値P2bと、の和で算出される。視認能力評価値は、第1評価値と、第2評価値と、の和に基づいて算出される。 The second evaluation value is calculated by the sum of the second evaluation point addition value P2a and the second evaluation deduction value P2b. The visual ability evaluation value is calculated based on the sum of the first evaluation value and the second evaluation value.
本願第2の発明は、車両の周囲を視認する能力を評価するための評価システムであって、電子機器と、電子機器とネットワークを介して接続されるサーバと、を備える。電子機器は、ディスプレイを備える。サーバは、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる映像再生部を備える。電子機器はさらに、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備える。 The second invention of the present application is an evaluation system for evaluating the ability to visually recognize the surroundings of a vehicle, and includes an electronic device and a server connected to the electronic device via a network. The electronic device includes a display. The server includes a video reproduction unit that displays a simulation video in which a plurality of field of view areas are set in advance on a display. The electronic device further includes a gazing point detection unit that detects the gazing point of the evaluation target person in the simulation image displayed on the display.
サーバはさらに、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。 The server further includes a gaze time detection unit, a visual field area determination unit, a time integration unit, and an evaluation value calculation unit. The gaze time detection unit detects the gaze time of the evaluation target person for each reference gaze point based on the gaze point detected by the gaze point detection unit. The visual field region determination unit determines the visual field region that the evaluation target person is gazing at for each reference gazing point among the plurality of visual field regions. The time integration unit has a correspondence relationship between the reference gaze point and the gaze time obtained by the gaze time detection unit and a correspondence relationship between the visual field area and the reference gaze point obtained by the visual field area determination unit. Based on, all gaze times according to the visual field area are acquired and integrated for each visual field area. The evaluation value calculation unit calculates a first evaluation value for evaluating the bias of the gaze time for each visual field in a plurality of visual fields based on the gaze time for each visual field calculated by the time integration unit, and detects the gaze time. Based on the gaze time detected by the unit, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and the surroundings of the vehicle are visually recognized based on the first evaluation value and the second evaluation value. Calculate the visual field ability evaluation value for evaluating the ability.
本願第3の発明は、車両の周囲を視認する能力を評価するための評価システムが備える評価サーバであって、評価システムはさらに、評価サーバとネットワークを介して接続される電子機器を備える。電子機器は、ディスプレイを備える。評価サーバは、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる映像再生部を備える。電子機器はさらに、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備える。 The third invention of the present application is an evaluation server provided in an evaluation system for evaluating the ability to visually recognize the surroundings of a vehicle, and the evaluation system further includes an electronic device connected to the evaluation server via a network. The electronic device includes a display. The evaluation server includes a video reproduction unit that displays a simulation video in which a plurality of field of view areas are set in advance on a display. The electronic device further includes a gazing point detection unit that detects the gazing point of the evaluation target person in the simulation image displayed on the display.
評価サーバはさらに、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。 The evaluation server further includes a gaze time detection unit, a visual field area determination unit, a time integration unit, and an evaluation value calculation unit. The gaze time detection unit detects the gaze time of the evaluation target person for each reference gaze point based on the gaze point detected by the gaze point detection unit. The visual field region determination unit determines the visual field region that the evaluation target person is gazing at for each reference gazing point among the plurality of visual field regions. The time integration unit has a correspondence relationship between the reference gaze point and the gaze time obtained by the gaze time detection unit and a correspondence relationship between the visual field area and the reference gaze point obtained by the visual field area determination unit. Based on, all gaze times according to the visual field area are acquired and integrated for each visual field area. The evaluation value calculation unit calculates a first evaluation value for evaluating the bias of the gaze time for each visual field in a plurality of visual fields based on the gaze time for each visual field calculated by the time integration unit, and detects the gaze time. Based on the gaze time detected by the unit, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and the surroundings of the vehicle are visually recognized based on the first evaluation value and the second evaluation value. Calculate the visual field ability evaluation value for evaluating the ability.
本願第4の発明は、コンピュータに、下記手段を実行させる評価プログラムである。映像再生手段では、予め複数の視界領域が設定されたシミュレーション映像を、電子機器が備えるディスプレイに表示させる。注視点検出手段では、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する。注視時間検出手段では、注視点検出手段によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定手段では、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算手段では、注視時間検出手段において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定手段において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出手段では、時間積算手段によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出手段によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。 The fourth invention of the present application is an evaluation program for causing a computer to execute the following means. In the image reproduction means, a simulation image in which a plurality of field of view areas are set in advance is displayed on a display provided in the electronic device. The gaze point detecting means detects the gaze point of the evaluation target person in the simulation image displayed on the display. The gaze time detecting means detects the gaze time of the evaluation target person for each reference gaze point based on the gaze point detected by the gaze point detection means. In the visual field region determining means, among a plurality of visual field regions, the visual field region that the evaluation target person is gazing at is determined for each reference gazing point. In the time integration means, the correspondence relationship between the reference gaze point and the gaze time obtained by the gaze time detecting means and the correspondence relationship between the visual field area and the reference gaze point obtained by the visual field area determination means. Based on, all gaze times according to the visual field area are acquired and integrated for each visual field area. The evaluation value calculation means calculates a first evaluation value for evaluating the bias of the gaze time for each visual field in a plurality of visual fields based on the gaze time for each visual field calculated by the time integration means, and detects the gaze time. Based on the gaze time detected by the means, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and the surroundings of the vehicle are visually recognized based on the first evaluation value and the second evaluation value. Calculate the visual field ability evaluation value for evaluating the ability.
本発明によれば、車両の周囲を視認する能力を評価することができる。また、評価結果を評価対象者にフィードバックすることにより、評価対象者の視認能力を向上させ、ひいては車両事故を抑制することができる。 According to the present invention, the ability to visually recognize the surroundings of the vehicle can be evaluated. Further, by feeding back the evaluation result to the evaluation target person, the visual ability of the evaluation target person can be improved, and eventually a vehicle accident can be suppressed.
(第1実施形態)
以下、図面を参照しながら、第1実施形態に係る、車両の周囲を視認する能力を評価する評価装置(以下、単に評価装置と称す)について説明する。図1は第1実施形態に係るHMDのハードウェア構成を示す図である。第1実施形態において、評価装置としてヘッドマウントディスプレイ(以下、HMDと称す)を用いているが、これに限られず、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。
(First Embodiment)
Hereinafter, an evaluation device (hereinafter, simply referred to as an evaluation device) for evaluating the ability to visually recognize the surroundings of the vehicle according to the first embodiment will be described with reference to the drawings. FIG. 1 is a diagram showing a hardware configuration of the HMD according to the first embodiment. In the first embodiment, a head-mounted display (hereinafter referred to as HMD) is used as the evaluation device, but the present invention is not limited to this, and various electronic devices such as mobile terminals (tablets and smartphones) can be used.
HMD1は、ディスプレイ2、注視点検出部3、メモリ4、プロセッサ5を有する。ディスプレイ2は、視認能力を評価するためのシミュレーション映像を表示する。HMD1は、ディスプレイ2が評価対象者(不図示)の眼前に配置されるように、装着ベルト(不図示)によって評価対象者の頭部に固定される。
The HMD 1 includes a
シミュレーション映像は、評価対象者に仮想現実を体験させるための映像であり、任意の映像を選択することができる。例えば、本実施形態においては、図3に示すような仮想車両Tを駐車させる映像を、VR(Virtual Reality)で表現する。シミュレーション映像における運転席Hからの視界には、運転席Hから車両Tの長さ方向に沿って後方に延びる破線L1から、運転席Hと左サイドミラーT1の内側縁部とを通る破線L2までの第1領域A1と、破線L2から、運転席Hと右サイドミラーT2の内側縁部とを通る破線L3までの第2領域A2と、破線L3から破線L1までの第3領域A3と、から構成される視界領域が予め設定されている。すなわち、第1領域A1は、車両の左側領域(車両左側ガラスから視認可能な領域及び左サイドミラーT1を介して視認可能な領域)を示し、第2領域A2は、車両の前方領域(フロントガラスから視認可能な領域)を示し、第3領域A3は、車両の右側領域(車両右側ガラスから視認可能な領域及び右サイドミラーT2を介して視認可能な領域)を示す。なお、「サイドミラーの内側縁部」とは、サイドミラーを、シミュレーション映像における運転席Hから見た場合において、最も内側(車両中心側)に位置する部分を指すものとする。 The simulation video is a video for allowing the evaluation target person to experience virtual reality, and any video can be selected. For example, in the present embodiment, the image of parking the virtual vehicle T as shown in FIG. 3 is represented by VR (Virtual Reality). The view from the driver's seat H in the simulation image is from the broken line L1 extending rearward from the driver's seat H along the length direction of the vehicle T to the broken line L2 passing through the driver's seat H and the inner edge of the left side mirror T1. From the first region A1 of the above, the second region A2 from the broken line L2 to the broken line L3 passing through the driver's seat H and the inner edge of the right side mirror T2, and the third region A3 from the broken line L3 to the broken line L1. The configured field of view is preset. That is, the first region A1 indicates the left side region of the vehicle (the region visible from the left side glass of the vehicle and the region visible through the left side mirror T1), and the second region A2 is the front region (windshield) of the vehicle. The third area A3 indicates the right side area of the vehicle (the area visible from the right side glass of the vehicle and the area visible through the right side mirror T2). The "inner edge of the side mirror" refers to a portion of the side mirror located on the innermost side (center side of the vehicle) when viewed from the driver's seat H in the simulation image.
なお、本実施形態においては、図3に示す第1領域A1、第2領域A2及び第3領域A3を視界領域として設定しているが、これに限られず、例えば、図4に示すように、第1領域A1を、運転席Hから左斜め後方に延びる破線L4から破線L2までの領域とし、第3領域A3を、破線L3から、運転席Hから右斜め後方に延びる破線L5までの領域として設定してもよい。また、本実施形態においては、視界領域を3つに設定しているが、これに限られず、視界領域を2つまたは4つ以上に設定してよい。このように視界領域を設定するだけでよいため、あらゆる映像をシミュレーション映像として用いることができる。言い換えれば、あらゆる映像に対して、本実施形態で説明する評価を適用することができる。 In the present embodiment, the first region A1, the second region A2, and the third region A3 shown in FIG. 3 are set as the visual field region, but the present invention is not limited to this, and for example, as shown in FIG. The first region A1 is the region from the broken line L4 extending diagonally rearward to the left from the driver's seat H to the broken line L2, and the third region A3 is the region from the broken line L3 to the dashed line L5 extending diagonally rearward to the right from the driver's seat H. It may be set. Further, in the present embodiment, the field of view is set to three, but the present invention is not limited to this, and the field of view may be set to two or four or more. Since it is only necessary to set the field of view in this way, any image can be used as a simulation image. In other words, the evaluation described in this embodiment can be applied to any video.
注視点検出部3は、ディスプレイ2に表示されたシミュレーション映像における、評価対象者の注視点を検出する。「注視点」とは、「評価対象者がシミュレーション映像を視認している場合における、シミュレーション映像に対する視線位置座標」である。
The gazing
図5は、HMDを装着した評価対象者が視認するシミュレーション映像の拡大模式図である。図5に示す第1領域A1、第2領域A2及び第3領域A3は、図3に示す第1領域A1、第2領域A2及び第3領域A3に相当する。また、シミュレーション映像に表現される背景画像(道路や他車両等)について、図5では記載を省略する。注視点検出部3によって、サンプリング周期△t[s]ごとに評価対象者の注視点を検出する。図5においては、最初の注視点a1から、a1→a2→a3→b1→c1→c2→c3→c4→…の順番で注視点が検出される。
FIG. 5 is an enlarged schematic view of a simulation image visually recognized by an evaluation target person wearing an HMD. The first region A1, the second region A2, and the third region A3 shown in FIG. 5 correspond to the first region A1, the second region A2, and the third region A3 shown in FIG. Further, the background image (road, other vehicle, etc.) expressed in the simulation image will not be described in FIG. The gaze
注視点検出部3における注視点の検出方法としては、赤外線によって眼球の動きや瞳孔の楕円形状等に基づいて検出する方法を採用することができるが、これに限られない。実車両で運転者の顔の向きに応じて運転者の視界が変化することを利用して、仮想車両(シミュレーション映像に表示された車両)の正面方向に対する頭部の左右の旋回角度に基づいて注視点を検出する方法を採用してもよい。
As a method of detecting the gazing point in the gazing
メモリ4は、各種のデータやプログラムを記憶する記憶装置である。プロセッサ5は、メモリ4に記憶されたデータやプログラムを読みだして実行する処理装置である。
The
(機能構成)
図2は、第1実施形態に係るHMDの機能構成を示す図である。図2を参照して、HMD1は、記憶部6及び制御部7を有する。記憶部6は、ハード構成におけるメモリ4に相当する。制御部7は、ハード構成におけるプロセッサ5に相当する。
(Functional configuration)
FIG. 2 is a diagram showing a functional configuration of the HMD according to the first embodiment. With reference to FIG. 2, the HMD 1 has a
記憶部6は、ディスプレイ2に表示させるシミュレーション映像が記憶されたシミュレーション映像DB61を有する。制御部7は、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える。
The
映像再生部71は、シミュレーション映像DB61からシミュレーション映像を読み出し、ディスプレイ2に表示させる。
The
注視時間検出部72は、注視点検出部3によって検出された注視点に基づき、評価対象者の各注視時間を検出する。ここで、「注視時間」とは、「基準となる注視点(以下、基準注視点とも称す)に対して、基準注視点を含むように所定領域を設定し、注視点が該所定領域内に継続して含まれる時間」である。「基準注視点」は、本実施形態において、注視点検出部3において最初に検出される注視点と、所定領域内から所定領域外に移動した注視点と、を指すが、これに限られない。
The gaze
人間は通常、ある一点のみを継続して注視しようとしても、視線位置に一定程度の誤差(ブレ)が生じる。そこで、基準注視点に対して、基準注視点を含むように所定領域を設定し、注視点が該所定領域内に継続して含まれる時間を「注視時間」とすることにより、より精確な注視時間を検出可能とした。 Normally, even if a human tries to continuously gaze at only one point, a certain degree of error (blurring) occurs in the line-of-sight position. Therefore, by setting a predetermined area for the reference gaze point so as to include the reference gaze point and setting the time during which the gaze point is continuously included in the predetermined area as the "gaze time", more accurate gaze is performed. The time can be detected.
ここで、注視時間の検出方法について、再度図5を参照して説明する。なお、注視時間を検出するフローに関しては詳細に後述するものとする。上述の通り、注視点検出部3によって、サンプリング周期△t[s]ごとに、a1→a2→a3→b1→c1→c2→c3→c4→…の順番で注視点が検出される。ここで、注視点a1は、注視点検出部3において最初に検出される注視点であるため、基準注視点に該当する。したがって、注視時間検出部72によって、注視点a1に対して、注視点a1を含むように所定領域Q1が設定される。本実施形態において、所定領域Q1は、注視点a1を中心とした円形状内部の領域である。注視点a1に続いて検出された注視点a2及びa3は、所定領域Q1に含まれるため、「注視点a1を注視している状態における誤差(視線のブレ)」である。注視点a3の次の注視点b1が所定領域Q1に含まれないため、所定領域Q1に継続して含まれる注視点a1〜a3が「評価対象者がa1を注視している状態」であり、注視時間が算出される。具体的には、注視点a1〜a3のサンプリング周期がそれぞれ△t[s]であるため、「評価対象者がa1を注視している状態」の注視時間は、「a1→a2」と「a2→a3」の合算、すなわち2×△t[s]と表される。
Here, the method of detecting the gaze time will be described again with reference to FIG. The flow for detecting the gaze time will be described in detail later. As described above, the gazing
注視点b1は、所定領域Q1内から所定領域Q1外に移動した注視点であるため、基準注視点に該当する。したがって、注視点b1に対して、注視点b1を含むように所定領域Q2が設定される。本実施形態において、所定領域Q2は、注視点b1を中心とした円形状内部の領域である。注視点b1の次の注視点c1が所定領域Q2に含まれないため、注視点b1のみが「評価対象者がb1を注視している状態」であり、注視時間が算出される。具体的には、「評価対象者がb1を注視している状態」の注視時間は、0[s]と表される。 Since the gazing point b1 is a gazing point moved from the inside of the predetermined area Q1 to the outside of the predetermined area Q1, it corresponds to the reference gazing point. Therefore, the predetermined region Q2 is set so as to include the gazing point b1 with respect to the gazing point b1. In the present embodiment, the predetermined region Q2 is a region inside the circle centered on the gazing point b1. Since the gaze point c1 next to the gaze point b1 is not included in the predetermined region Q2, only the gaze point b1 is "a state in which the evaluation target person is gazing at b1", and the gaze time is calculated. Specifically, the gaze time in the "state in which the evaluation target person is gaze at b1" is expressed as 0 [s].
注視点c1は、所定領域Q2内から所定領域Q2外に移動した注視点であるため、基準注視点に該当する。したがって、注視点c1に対して、注視点c1を含むように所定領域Q3が設定される。本実施形態において、所定領域Q3は、注視点c1を中心とした円形状内部の領域である。注視点c2〜c4は、所定領域Q3に含まれるため、「注視点c1を注視している状態における誤差(視線のブレ)」である。注視点c4の次の注視点が所定領域Q3に含まれないため、注視点c1〜c4が「評価対象者がc1を注視している状態」であり、注視時間が算出される。具体的には、注視点c1〜c4のサンプリング周期がそれぞれ△t[s]であるため、「評価対象者がc1を注視している状態」の注視時間は、「c1→c2」と「c2→c3」と「c3→c4」との合算、すなわち3×△t[s]と表される。 Since the gazing point c1 is a gazing point moved from the predetermined area Q2 to the outside of the predetermined area Q2, it corresponds to the reference gazing point. Therefore, the predetermined region Q3 is set so as to include the gazing point c1 with respect to the gazing point c1. In the present embodiment, the predetermined region Q3 is a region inside the circle centered on the gazing point c1. Since the gazing points c2 to c4 are included in the predetermined region Q3, it is an "error (blurring of the line of sight) in the state of gazing at the gazing point c1". Since the next gazing point of the gazing point c4 is not included in the predetermined region Q3, the gazing points c1 to c4 are "a state in which the evaluation target person is gazing at c1", and the gazing time is calculated. Specifically, since the sampling cycles of the gazing points c1 to c4 are Δt [s], respectively, the gazing time in the “state in which the evaluation target person is gazing at c1” is “c1 → c2” and “c2”. → c3 ”and“ c3 → c4 ”are combined, that is, expressed as 3 × Δt [s].
所定領域の位置や形状、範囲等については、注視点の検出方法等に応じて適宜設定することができる。例えば、仮想車両の正面方向に対する頭部の左右の旋回角度に基づいて注視点を検出する方法においては、評価対象者の正面方向を基準として左右に所定の幅を有する領域を、所定領域として設定することができる。なお、この方法における「注視点」は、仮想車両の正面方向に対する頭部の左右の旋回角度に基づき、左右方向のみの座標で表現する。 The position, shape, range, etc. of the predetermined region can be appropriately set according to the method of detecting the gazing point. For example, in the method of detecting the gazing point based on the left and right turning angles of the head with respect to the front direction of the virtual vehicle, a region having a predetermined width on the left and right with respect to the front direction of the evaluation target person is set as a predetermined region. can do. The "gaze point" in this method is expressed by coordinates only in the left-right direction based on the left-right turning angle of the head with respect to the front direction of the virtual vehicle.
視界領域判定部73は、評価対象者が3つの視界領域(A1〜A3)のうちどの視界領域を注視していたかを、基準注視点ごとに判定する。図5を参照して、「評価対象者が注視点a1を注視している状態(a1〜a3)」では、注視点a1が第2領域A2に含まれるため、「第2領域A2を注視していた」と判定する。「評価対象者が注視点b1を注視している状態(b1)」では、注視点b1が第2領域A2に含まれるため、「第2領域A2を注視していた」と判定する。「評価対象者が注視点c1を注視している状態(c1〜c4)」では、注視点c1が第1領域A1に含まれるため、「第1領域A1を注視していた」と判定する。
The visual field
ここで、注視点c4は、第1領域A1ではなく第2領域A2に含まれる。しかしながら、注視点c4は、注視点c1に対して設定された所定領域Q3に含まれており、「評価対象者がc1を注視している状態」である。この点を考慮し、視界領域判定部73における判定は、「各注視点(本実施形態におけるa1〜c4)」ではなく、先に例示した通り、「基準注視点(本実施形態におけるa1、b1、c1)」に基づいて行う。
Here, the gazing point c4 is included in the second region A2 instead of the first region A1. However, the gazing point c4 is included in the predetermined region Q3 set for the gazing point c1, and is "a state in which the evaluation target person is gazing at c1". In consideration of this point, the determination in the visual
時間積算部74は、(1)注視時間検出部72において得られた、基準注視点a1、b1、c1と注視時間との対応関係と、(2)視界領域判定部73において得られた、視界領域A1〜A3と基準注視点a1、b1、c1との対応関係と、に基づいて、視界領域A1〜A3に応じたすべての注視時間を取得し、視界領域A1〜A3ごとに積算する。
The
図5を参照して、上述の通り、第1領域A1には基準注視点c1が含まれる。ここで、基準注視点c1における注視時間(すなわち、「評価対象者がc1を注視している状態」の注視時間)は、上述の通り、3×△t[s]である。したがって、第1領域A1における注視時間は、3×△t[s]と算出される。 With reference to FIG. 5, as described above, the first region A1 includes the reference gazing point c1. Here, the gaze time at the reference gaze point c1 (that is, the gaze time in the “state in which the evaluation target person is gaze at c1”) is 3 × Δt [s] as described above. Therefore, the gaze time in the first region A1 is calculated as 3 × Δt [s].
上述の通り、第2領域A2には基準注視点a1及びb1が含まれる。ここで、基準注視点a1における注視時間(すなわち、「評価対象者がa1を注視している状態」の注視時間)は、上述の通り、2×△t[s]である。また、基準注視点b1における注視時間(すなわち、「評価対象者がb1を注視している状態」の注視時間)は、上述の通り、0[s]である。したがって、第2領域A2における注視時間は、2×△t[s]+0=2×△t[s]と算出される。 As described above, the second region A2 includes the reference gazing points a1 and b1. Here, the gaze time at the reference gaze point a1 (that is, the gaze time in the “state in which the evaluation target person is gaze at a1”) is 2 × Δt [s] as described above. Further, the gaze time at the reference gaze point b1 (that is, the gaze time in the "state in which the evaluation target person is gaze at b1") is 0 [s] as described above. Therefore, the gaze time in the second region A2 is calculated as 2 × Δt [s] + 0 = 2 × Δt [s].
第3領域A3には基準注視点が含まれていないため、第3領域A3における注視時間は、0[s]と算出される。 Since the reference gaze point is not included in the third region A3, the gaze time in the third region A3 is calculated as 0 [s].
評価値算出部75は、注視時間検出部72によって検出された注視時間と、時間積算部74によって算出された視界領域ごとの注視時間と、に基づいて、視認能力評価値(評価対象者が車両の周囲を視認できているかを評価するための評価値)を算出する。
The evaluation
評価値算出部における評価値の算出方法について、さらに詳細に説明する。評価値算出部においては、下記の第1評価値P1及び第2評価値P2を算出した後、視認能力評価値Pを求める。 The method of calculating the evaluation value in the evaluation value calculation unit will be described in more detail. The evaluation value calculation unit calculates the following first evaluation value P1 and second evaluation value P2, and then obtains the visual ability evaluation value P.
(第1評価値P1の算出方法)
第1評価値P1は、視界領域A1〜A3における視界領域ごとの注視時間の偏り(評価対象者が車両周囲をバランスよく確認しているか)を評価する指標であり、時間積算部74によって算出された、視界領域ごとの注視時間に基づいて算出される。具体的には、評価対象者が、第1領域A1を注視した時間をT1[s]、第2領域A2を注視した時間をT2[s]、第3領域A3を注視した時間をT3[s]としたとき、第1領域A1を注視した時間の割合γ1[−]、第2領域A2を注視した時間の割合γ2[−]、第3領域A3を注視した時間の割合γ3[−]は、それぞれ以下の式(1)〜(3)で表すことができる。
(Calculation method of the first evaluation value P1)
The first evaluation value P1 is an index for evaluating the bias of the gaze time in each of the visual field regions A1 to A3 (whether the evaluation target person confirms the surroundings of the vehicle in a well-balanced manner), and is calculated by the
ここで、γ1[−]、γ2[−]、γ3[−]のうち、基準値M=1/3との差が最も大きいものをγmaxとすると、第1評価値P1は、以下の式(4)で算出される。なお、車両周囲は、均等なバランス(γ1=γ2=γ3)で確認する必要があるため、基準値M=1/3に設定される。以下の式(4)における「300」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば、250や400に変更することができる。 Here, if γmax is defined as γ1 [−], γ2 [−], and γ3 [−] having the largest difference from the reference value M = 1/3, the first evaluation value P1 is expressed by the following equation ( Calculated in 4). Since it is necessary to check the surroundings of the vehicle with an even balance (γ1 = γ2 = γ3), the reference value M = 1/3 is set. The numerical value of "300" in the following formula (4) can be appropriately changed according to the ease of evaluation, the accuracy of evaluation, and the like, and can be changed to, for example, 250 or 400.
基準値M=1/3に設定することにより、第1評価値P1は0以下となる。すなわち、本実施形態における第1評価値P1は、「車両周囲は均等なバランスで確認する」ことを前提としており、車両周囲を均等なバランスで確認しなかった場合には減点となる。 By setting the reference value M = 1/3, the first evaluation value P1 becomes 0 or less. That is, the first evaluation value P1 in the present embodiment is premised on "confirming the surroundings of the vehicle with an even balance", and points will be deducted if the surroundings of the vehicle are not confirmed with an even balance.
ここで、視界領域をn個に設定した場合を考える。第i領域Aiを注視した時間をTi[s]とすると、第i領域Aiを注視した時間の割合γi[−]は、以下の式(5)で表すことができる(iは、1〜nまでの整数)。 Here, consider the case where the field of view is set to n. Assuming that the time when the i-region Ai is gazed is Ti [s], the ratio γi [-] of the time when the i-region Ai is gazed can be expressed by the following equation (5) (i is 1 to n). Integer up to).
ここで、γ1〜γnのうち、基準値Mとの差が最も大きいものをγmaxとすると、第1評価値P1は、以下の式(6)で表される偏差Yを用いて、式(7)で算出される。視界領域をn個に設定した場合、「車両周囲を均等なバランスで確認する」ことを前提とすると、基準値M=1/nに設定される。以下の式(7)におけるVの値は、評価の容易性や評価の精確性等に応じて適宜設定することができるが、例えばn×100に設定することができる。 Here, if γmax is defined as the one having the largest difference from the reference value M among γ1 to γn, the first evaluation value P1 uses the deviation Y represented by the following equation (6) and is expressed in the equation (7). ) Is calculated. When the field of view is set to n, the reference value M = 1 / n is set on the premise that "the surroundings of the vehicle are confirmed with an even balance". The value of V in the following equation (7) can be appropriately set according to the ease of evaluation, the accuracy of evaluation, and the like, and can be set to, for example, n × 100.
また、視界領域を3つに設定した場合において、基準値M>1/3に設定することができ、例えば、基準値M=1/2に設定することができる。この場合、1/3<γmax<1/2(車両周囲の確認のバランスの偏りが小さい)のときP1が正の値(加点)となり、γmax>1/2(車両周囲の確認のバランスの偏りが大きい)のときP1が負の値(減点)となるように、第1評価値P1を以下の式で算出することができる。以下の式(8)における「300」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば、250や400に変更することができる。 Further, when the field of view is set to three, the reference value M> 1/3 can be set, and for example, the reference value M = 1/2 can be set. In this case, when 1/3 <γmax <1/2 (the bias of the confirmation of the surroundings of the vehicle is small), P1 becomes a positive value (additional points), and γmax> 1/2 (the bias of the balance of the confirmation of the surroundings of the vehicle is small). The first evaluation value P1 can be calculated by the following formula so that P1 becomes a negative value (point deduction) when (is large). The numerical value of "300" in the following formula (8) can be appropriately changed according to the ease of evaluation, the accuracy of evaluation, and the like, and can be changed to, for example, 250 or 400.
(第2評価値P2の算出方法)
第2評価値P2は、視界領域に対する各注視時間の妥当性(評価対象者が車両周囲を注意して確認しているか)を評価する指標であり、注視時間検出部72において検出された、評価対象者の注視時間に基づいて算出される。第2評価値P2は、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bとから構成される。具体的には、シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとする(b>0、c,d≦0)。d≦c≦0に設定する場合、c=(dti−Bd)/(C−B)に設定することができる。例えば、A=0.2、B=0.5、C=3.0、b=5、d=−50のとき、c=―20ti+10に設定される。また、例えば、d<c<0に設定する場合、(b,c,d)=(10,−10、−20)としてもよく、(15,−20,−30)としてもよい。第2評価加点値P2aや第2評価減点値P2bの評価に用いられる第1閾値A、第2閾値B、第3閾値C、b、c、dの値は、評価の容易性や評価の精確性等に応じて適宜設定することができる。
(Calculation method of the second evaluation value P2)
The second evaluation value P2 is an index for evaluating the validity of each gaze time with respect to the visual field area (whether the evaluation target person carefully confirms the surroundings of the vehicle), and is an evaluation detected by the gaze
上述の得点piに基づき、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bと、を以下の式(9)、(10)でそれぞれ求める。注視時間が適切である場合には、第2評価値P2は加点され、注視時間が適切でない(短いまたは長い)場合には、第2評価値P2は減点される。 Based on the above-mentioned score pi, the second evaluation point addition value P2a indicating the total of points added and the second evaluation deduction value P2b indicating the total of points deducted are obtained by the following equations (9) and (10), respectively. If the gaze time is appropriate, the second evaluation value P2 is added, and if the gaze time is not appropriate (short or long), the second evaluation value P2 is deducted.
(視認能力評価値Pの算出方法)
視認能力評価値Pは、第1評価値P1及び第2評価値P2(第2評価加点値P2a、第2評価減点値P2b)を用いて、以下の式(11)によって算出される。式(11)における「1000」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば1500や900に変更することができる。
(Calculation method of visual ability evaluation value P)
The visual ability evaluation value P is calculated by the following equation (11) using the first evaluation value P1 and the second evaluation value P2 (second evaluation point addition value P2a, second evaluation deduction value P2b). The numerical value of "1000" in the formula (11) can be appropriately changed according to the ease of evaluation, the accuracy of evaluation, and the like, and can be changed to, for example, 1500 or 900.
式(11)に示す通り、視認能力評価値Pは、「評価対象者が車両周囲をバランスよく確認しているか」との観点から設定された第1評価値P1と、「評価対象者が車両周囲を注意して確認しているか」との観点から設定された第2評価値P2と、に基づいて算出される。そのため、本発明に係る評価装置1によれば、車両の周囲を視認する能力を評価することができる。 As shown in the formula (11), the visual ability evaluation value P is the first evaluation value P1 set from the viewpoint of "whether the evaluation target person confirms the surroundings of the vehicle in a well-balanced manner" and "the evaluation target person is the vehicle". It is calculated based on the second evaluation value P2 set from the viewpoint of "Are you checking the surroundings carefully?" Therefore, according to the evaluation device 1 according to the present invention, the ability to visually recognize the surroundings of the vehicle can be evaluated.
制御部7は、式(10)によって算出された視認能力評価値Pを、ディスプレイ2に表示させてもよい。これにより、評価対象者が自身の評価結果を知り、視認能力の向上を図ることができる。また、第1評価値P1、第2評価加点値P2a、第2評価減点値P2bを表示させることにより、「車両周囲をバランスよく確認できているか」との観点と、「車両周囲を注意して確認しているか」との観点とに分けて、自身の視認能力を再確認できるため、視認能力の向上を図ることができる。さらに、上述のγa[−]、γb[−]、γc[−]の値をディスプレイに表示させることで、車両の周囲を視認するバランスの偏りを評価対象者が理解することができるため、視認能力の向上を図ることができる。
The
(処理の流れ)
HMD1において行われる処理の流れを説明する。図6は、HMDにおいて行われる処理の流れを示すフローチャートである。図を参照して、評価対象者がHMD1を装着した状態において、映像再生部71がシミュレーション映像DB61からシミュレーション映像を読み出してディスプレイ2に表示させる(S110)。シミュレーション映像における運転席Hからの視界には、上述の実施形態の通り、第1視界領域A1、第2視界領域A2及び第3視界領域A3が予め設定されている(図3参照)。
(Processing flow)
The flow of processing performed in HMD1 will be described. FIG. 6 is a flowchart showing the flow of processing performed in the HMD. With reference to the figure, the
注視時間検出部72により、基準注視点ごとに、評価対象者の各注視時間が検出される(S120)。ここで、注視時間の検出方法について、図7を用いてさらに詳しく説明する。図7は、注視時間の検出の流れを示すフローチャートである。図7を参照して、注視点検出部3は、ディスプレイ2に表示されたシミュレーション映像における、評価対象者の基準注視点を検出する(S131)。注視時間検出部72は、該基準注視点に対して、該基準注視点を含むように所定領域を設定する(S132)。注視点検出部3は、該基準注視点からサンプリング周期△tだけ経過したときの注視点を検出する(S133)。注視時間検出部72は、この注視点が該所定領域に含まれるかを判定する(S134)。
The gaze
サンプリング周期△t後の注視点が所定領域に含まれる場合(S134でYES)、注視時間に△tを加算し(S135)、シミュレーション映像が終了したかを判定する(S136)。シミュレーション映像が終了していないと判定された場合(S136でNO)、注視点検出部3は、さらにサンプリング周期△t後の注視点を検出する(S133)。一方、シミュレーション映像が終了したと判定された場合(S136でYES)、注視時間の検出を終了する。
When the gazing point after the sampling cycle Δt is included in the predetermined region (YES in S134), Δt is added to the gazing time (S135), and it is determined whether the simulation image is completed (S136). When it is determined that the simulation image is not completed (NO in S136), the gazing
サンプリング周期△t後の注視点が所定領域に含まれない場合(S134でNO)、これまで加算した注視時間を保存してリセットし(S137)、シミュレーション映像が終了したかを判定する(S138)。なお、注視時間が加算されていない場合、注視時間=0として保存する。シミュレーション映像が終了していないと判定された場合(S136でNO)、注視点検出部3は、基準注視点を検出する(S131)。一方、シミュレーション映像が終了したと判定された場合(S138でYES)、注視時間の検出を終了する。
When the gaze point after the sampling cycle Δt is not included in the predetermined area (NO in S134), the gaze time added so far is saved and reset (S137), and it is determined whether the simulation image is completed (S138). .. If the gaze time is not added, the gaze time is saved as 0. When it is determined that the simulation image has not ended (NO in S136), the gazing
再び図6を参照して、注視時間の検出が終了すると、視界領域判定部73は、評価対象者が3つの視界領域A1〜A3のうちどの視界領域を注視していたかを、基準注視点ごとに判定する(S130)。なお、視界領域判定部73における判定方法については、上述したため、説明を省略する。
With reference to FIG. 6 again, when the detection of the gaze time is completed, the visual field
時間積算部74は、(1)注視時間検出部72において得られた、基準注視点a1、b1、c1と注視時間との対応関係と、(2)視界領域判定部73において得られた、視界領域A1〜A3と基準注視点a1、b1、c1との対応関係と、に基づいて、視界領域A1〜A3に応じたすべての注視時間を取得し、視界領域A1〜A3ごとに積算する(S140)。なお、時間積算部74における算出方法については、上述したため、説明を省略する。
The
注視時間検出部72によって検出された注視時間と、時間積算部74によって検出された視界領域A1〜A3ごとの注視時間と、に基づいて、第1評価値P1及び第2評価値P2を算出し(S150)、視認能力評価値Pを算出する(S160)。なお、第1評価値P1、第2評価値P2及び視認能力評価値Pの算出方法については、上述したため、説明を省略する。
The first evaluation value P1 and the second evaluation value P2 are calculated based on the gaze time detected by the gaze
なお、シミュレーション映像が終了したかの判定(S136、S138)は、S120〜S150の間のいずれに配置されてもよい。すなわち、S136及びS138は、S130とS140との間に配置されてもよく、S140とS150との間に配置されてもよい。 The determination (S136, S138) as to whether or not the simulation image has ended may be arranged anywhere between S120 and S150. That is, S136 and S138 may be arranged between S130 and S140, or may be arranged between S140 and S150.
本実施形態において、シミュレーション映像で設定される各視界領域には、この視界の方向で視認(直接的に視認)される映像が表示されるが、視界領域によっては、この視界の方向とは異なる方向で視認(間接的に視認)される映像が含まれることがある。例えば、図8に示すように、第2領域A2には、車内に設けられたルームミラーRMや、車両のインストルメントパネルに取り付けられたバックモニターBMが存在することがある。第2領域A2(ルームミラーRMやバックモニターBMを除く)には、車両の前方を視認(直接的に視認)したときの映像が表示されるが、ルームミラーRMには、ルームミラーRMを介して車両の後方を視認(間接的に視認)したときの映像が表示され、バックモニターBMには、車両に搭載されたカメラを介して車両の後方を視認(間接的に視認)したときの映像が表示される。なお、ルームミラーRMやバックモニターBMに限らず、車両の種類(例えば、バス、トラック、作業用途に応じた車両)に応じて、視界領域に、この視界の方向で視認される映像と、この視界の方向とは異なる方向で視認される映像との両方が含まれることがある。 In the present embodiment, an image that is visually recognized (directly visually recognized) in the direction of this field of view is displayed in each field of view area set in the simulation image, but the direction of this field of view differs depending on the field of view. Images that are visible (indirectly visible) in the direction may be included. For example, as shown in FIG. 8, in the second region A2, there may be a rearview mirror RM provided in the vehicle or a rear-view monitor BM attached to the instrument panel of the vehicle. In the second area A2 (excluding the rear-view mirror RM and the rear-view mirror BM), an image when the front of the vehicle is visually recognized (directly visually recognized) is displayed, and the rear-view mirror RM is displayed via the rear-view mirror RM. The image when the rear view of the vehicle is visually recognized (indirectly visually recognized) is displayed, and the image when the rear view of the vehicle is visually recognized (indirectly visually recognized) through the camera mounted on the vehicle is displayed on the rearview monitor BM. Is displayed. Not limited to the rearview mirror RM and the rearview monitor BM, depending on the type of vehicle (for example, a bus, a truck, a vehicle according to the work purpose), an image visually recognized in the direction of this field of view in the field of view and the image thereof It may include both images that are viewed in a direction different from the direction of view.
ルームミラーRMやバックモニターBMに相当する領域に注視点が存在する場合と、第2領域A2(ルームミラーRMやバックモニターBMを除く)に注視点が存在する場合とでは、視認される映像が互いに異なる。この点を考慮して、上述した第1評価値P1を算出することができる。なお、第2領域A2において、ルームミラーRMやバックモニターBMに相当する領域は、シミュレーション映像を規定する2つの軸(具体的には、垂直方向(図8の上下方向)を規定する軸と、水平方向(図8の左右方向)を規定する軸)を座標軸とした座標位置に基づいて特定することができる。 When the gazing point exists in the area corresponding to the rearview mirror RM and the rearview monitor BM, and when the gazing point exists in the second area A2 (excluding the rearview mirror RM and the rearview monitor BM), the visually recognized image is displayed. Different from each other. In consideration of this point, the above-mentioned first evaluation value P1 can be calculated. In the second area A2, the area corresponding to the rearview mirror RM and the rearview monitor BM includes an axis that defines two axes that define the simulation image (specifically, an axis that defines the vertical direction (vertical direction in FIG. 8)). It can be specified based on the coordinate position with the horizontal direction (the axis defining the left-right direction in FIG. 8) as the coordinate axis.
第1評価値P1を算出するときにおいて、図8に示すルームミラーRMやバックモニターBMに相当する領域内に注視点が存在する場合には、ルームミラーRMやバックモニターBMを注視した時間は、第2領域A2を注視した時間T2から除外することができる。また、ルームミラーRMやバックモニターBMに表示される映像は、第1領域A1又は第3領域A3に含まれる映像であるため、ルームミラーRMやバックモニターBMを注視した時間は、ルームミラーRMやバックモニターBMに表示される映像が含まれる視界領域(第1領域A1又は第3領域A3)を注視した時間(時間T1又は時間T3)として算出することができる。すなわち、第2領域A2のうち、ルームミラーRMやバックモニターBMに相当する領域は、第1領域A1又は第3領域A3とみなすことができる。 When calculating the first evaluation value P1, if the gazing point exists in the area corresponding to the rear-view mirror RM and the rear-view monitor BM shown in FIG. 8, the time for gazing at the rear-view mirror RM and the rear-view monitor BM is calculated. The second region A2 can be excluded from the gaze time T2. Further, since the image displayed on the rear-view mirror RM and the rear-view monitor BM is an image included in the first area A1 or the third area A3, the time when the rear-view mirror RM and the rear-view monitor BM are watched is the time when the rear-view mirror RM and the rear-view mirror BM are watched. It can be calculated as the time (time T1 or time T3) of gazing at the view area (first area A1 or third area A3) including the image displayed on the rear-view monitor BM. That is, in the second region A2, the region corresponding to the rearview mirror RM and the rearview monitor BM can be regarded as the first region A1 or the third region A3.
第1評価値P1は、上述したとおり、視界領域ごとの注視時間の偏り(評価対象者が車両周囲をバランスよく確認しているか)を評価する指標であるが、視界領域に、この視界の方向とは異なる方向で視認される映像が含まれることを考慮して第1評価値P1を算出することにより、第1評価値P1の精度を向上させることができる。 As described above, the first evaluation value P1 is an index for evaluating the bias of the gaze time for each visual field area (whether the evaluation target person confirms the surroundings of the vehicle in a well-balanced manner). The accuracy of the first evaluation value P1 can be improved by calculating the first evaluation value P1 in consideration of the fact that an image visually viewed in a direction different from the above is included.
なお、図3において、第1領域A1には、左サイドミラーT1に表示される映像が含まれるが、この映像は、第1領域A1に含まれる映像であるため、第1評価値P1を算出する上では、左サイドミラーT1を注視した時間と、第1領域A1のうち、左サイドミラーT1以外の領域を注視した時間とを区別しなくてもよい。一方、視覚領域の設定によっては、左サイドミラーT1を介して視認(間接的に視認)される映像と、左サイドミラーT1を介さずに視認(直接的に視認)される映像とが互いに異なる場合がある。この場合には、第1評価値P1の算出に用いられる視界領域ごとの注視時間として、左サイドミラーT1に相当する領域(視覚領域)を注視した時間と、左サイドミラーT1に相当する領域以外の領域(1つ又は複数の視覚領域)を注視した時間とを別々に算出することができる。なお、左サイドミラーT1に相当する領域は、上述したシミュレーション映像を規定する2つの軸を座標軸とした座標位置に基づいて特定することができる。 In FIG. 3, the first region A1 includes an image displayed on the left side mirror T1, but since this image is an image included in the first area A1, the first evaluation value P1 is calculated. It is not necessary to distinguish between the time when the left side mirror T1 is gazed and the time when the area other than the left side mirror T1 in the first region A1 is gazed. On the other hand, depending on the setting of the visual area, the image visually recognized (indirectly visually recognized) through the left side mirror T1 and the image visually recognized (directly visually recognized) without passing through the left side mirror T1 are different from each other. In some cases. In this case, the gaze time for each visual field area used for calculating the first evaluation value P1 is other than the time for gaze at the area corresponding to the left side mirror T1 (visual area) and the area corresponding to the left side mirror T1. It is possible to calculate separately from the time when the area (one or more visual areas) is gazed. The region corresponding to the left side mirror T1 can be specified based on the coordinate position with the two axes defining the above-mentioned simulation image as the coordinate axes.
同様に、図3において、第3領域A3には、右サイドミラーT2に表示される映像が含まれるが、この映像は、第3領域A3に含まれる映像であるため、第1評価値P1を算出する上では、右サイドミラーT2を注視した時間と、第3領域A3のうち、右サイドミラーT2以外の領域を注視した時間とを区別しなくてもよい。一方、視覚領域の設定によっては、右サイドミラーT2を介して視認(間接的に視認)される映像と、右サイドミラーT2を介さずに視認(直接的に視認)される映像とが互いに異なる場合がある。この場合には、第1評価値P1の算出に用いられる視界領域ごとの注視時間として、右サイドミラーT2に相当する領域(視覚領域)を注視した時間と、右サイドミラーT2に相当する領域以外の領域(1つ又は複数の視覚領域)を注視した時間とを別々に算出することができる。なお、右サイドミラーT2に相当する領域は、上述したシミュレーション映像を規定する2つの軸を座標軸とした座標位置に基づいて特定することができる。 Similarly, in FIG. 3, the third region A3 includes an image displayed on the right side mirror T2, but since this image is an image included in the third area A3, the first evaluation value P1 is set. In the calculation, it is not necessary to distinguish between the time when the right side mirror T2 is gazed and the time when the third region A3 other than the right side mirror T2 is gazed. On the other hand, depending on the setting of the visual area, the image visually recognized (indirectly visually recognized) through the right side mirror T2 and the image visually recognized (directly visually recognized) without passing through the right side mirror T2 are different from each other. In some cases. In this case, the gaze time for each visual field area used for calculating the first evaluation value P1 is other than the time for gaze at the area corresponding to the right side mirror T2 (visual area) and the area corresponding to the right side mirror T2. It is possible to calculate separately from the time when the area (one or more visual areas) is gazed. The region corresponding to the right side mirror T2 can be specified based on the coordinate position with the two axes defining the above-mentioned simulation image as the coordinate axes.
(第2実施形態)
図9は、第2実施形態に係る評価装置を有する評価システム(以下、単に評価システムと称す)を示す図である。なお、第2実施形態の構成要素のうち、第1実施形態の構成要素と同様の機能を有するものについては、同様の記号を付し、説明を省略するものとする。評価システム100は、HMD1aと、サーバ10と、表示装置20と、を有する。なお、HMDに限られず、例えば、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。HMD1a、サーバ10及び表示装置20は、ネットワークAを介して接続される。ネットワークAは、インターネット等のオープンネットワークであり、有線であるか無線であるかを問わない。HMD1aは、ディスプレイ2、注視点検出部3、送受信部8を有する。サーバ10は、記憶部6、制御部7を備える。記憶部6及び制御部7の各構成は、第1実施形態における記憶部6及び制御部7とそれぞれ同様であるため、説明を省略する。
(Second Embodiment)
FIG. 9 is a diagram showing an evaluation system (hereinafter, simply referred to as an evaluation system) having an evaluation device according to the second embodiment. Of the components of the second embodiment, those having the same functions as the components of the first embodiment are designated by the same symbols and the description thereof will be omitted. The
HMD1aが備える送受信部8は、サーバ10が有する映像再生部71によってシミュレーション映像DB61から読みだされたシミュレーション映像を、ネットワークAを介してサーバ10から受信する。また、送受信部8は、ネットワークAを介して、注視点検出部3によって検出されたシミュレーション映像における注視点を、サーバ10が有する制御部7に送信する。
The transmission /
表示装置20は、例えば、複数の視聴者を収容した教室内に配置される。例えば、評価対象者の視認映像を、HMD1aの送受信部からネットワークAを介してサーバ10の記憶部6に保存し、その視認映像を、ネットワークAを介して表示装置20に表示させることができる。これにより、評価対象者以外の者が、表示装置20に表示された表示映像を見て追体験をすることができる。なお、評価対象者の視認映像は、サーバ10の記憶部6に保存せず、リアルタイムで表示装置20に表示するような構成としてもよい。
The
なお、サーバ10は、シミュレーション映像DB61を備える記憶部6と、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える制御部7と、を備える。そのため、サーバ10を、ディスプレイ2及び注視点検出部3を備える他の電子機器とネットワークAを介して接続した場合であっても、第1実施形態と同様に、視認能力評価値Pを算出し、車両の周囲を視認する能力を評価することができる。
The
(第3実施形態)
図10は、第3実施形態に係る評価装置を有する評価システムを示す図である。なお、第3実施形態の構成要素のうち、第2実施形態の構成要素と同様の機能を有するものについては、同様の記号を付し、説明を省略するものとする。評価システム200は、HMD1aと、管理端末30と、表示装置20と、を有する。なお、HMDに限られず、例えば、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。HMD1a及び管理端末30は、ネットワークBを介して接続される。ネットワークBはクローズドネットワークであり、有線であるか無線であるかを問わない。HMD1aは、ディスプレイ2、注視点検出部3、送受信部8を有する。管理端末30は、記憶部6と、制御部7と、を備える。
(Third Embodiment)
FIG. 10 is a diagram showing an evaluation system including the evaluation device according to the third embodiment. Of the components of the third embodiment, those having the same functions as the components of the second embodiment are designated by the same symbols and the description thereof will be omitted. The
管理端末30と表示装置20とは、クローズドネットワークで繋がっている。管理端末30及び表示装置20を繋ぐクローズドネットワークは、有線であるか無線であるかを問わない。表示装置20は、例えば、複数の視聴者を収容した教室内に配置される。例えば、評価対象者の視認映像を、HMD1aの送受信部からネットワークBを介して管理端末30の記憶部6に保存し、その視認映像を表示装置20に表示させることができる。これにより、評価対象者以外の者が、表示装置20に表示された表示映像を見て追体験をすることができる。なお、評価対象者の視認映像は、管理端末30の記憶部6に保存せず、リアルタイムで表示装置20に表示するような構成としてもよい。
The
なお、管理端末30は、シミュレーション映像DB61を備える記憶部6と、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える制御部7と、を備える。そのため、管理端末30を、ディスプレイ2及び注視点検出部3を備える他の電子機器とネットワークBを介して接続した場合であっても、第1実施形態と同様に、視認能力評価値Pを算出し、車両の周囲を視認する能力を評価することができる。
The
上述の評価装置1又は評価システム100、200を構成する各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行することで、各部の機能を動作させることができる。
Each function constituting the evaluation device 1 or the
また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータ(例えば、サーバ10)に提供することも可能である。コンピュータ読取可能な記録媒体としては、CD−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。 Further, the program can be provided to a computer (for example, a server 10) in a state of being recorded on a computer-readable recording medium. Computer-readable recording media include optical discs such as CD-ROMs, phase-changing optical discs such as DVD-ROMs, magneto-optical discs such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) discs, and the like. Examples include magnetic disks such as removable hard disks, compact flash (registered trademark), smart media, SD memory cards, and memory cards such as memory sticks. Further, a hardware device such as an integrated circuit (IC chip or the like) specially designed and configured for the purpose of the present invention is also included as a recording medium.
1:評価装置 2:ディスプレイ 3:注視点検出部 10:サーバ 30:管理端末 71:映像再生部 72:注視時間検出部 73:視界領域判定部 74:時間積算部 75:評価値算出部 100、200:評価システム A1:A2、A3:視界領域 a1、b1、c1:基準注視点
1: Evaluation device 2: Display 3: Gaze point detection unit 10: Server 30: Management terminal 71: Video reproduction unit 72: Gaze time detection unit 73: Visual field area determination unit 74: Time integration unit 75: Evaluation
Claims (9)
ディスプレイと、
予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部と、
前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部と、
前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された注視時間に基づいて、前記視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、
を備えることを特徴とする評価装置。 An evaluation device for evaluating the ability to visually recognize the surroundings of a vehicle.
With the display
A video playback unit that displays a simulation video with a plurality of field of view areas set in advance on the display, and
A gaze point detection unit that detects the gaze point of the evaluation target person in the simulation image displayed on the display, and a gaze point detection unit.
Based on the gaze point detected by the gaze point detection unit, the gaze time detection unit that detects the gaze time of the evaluation target person for each reference gaze point,
Of the plurality of visual field regions, a visual field region determination unit that determines the visual field region that the evaluation target person was gazing at for each reference gazing point, and a visual field region determination unit.
Correspondence between the reference gaze point and the gaze time obtained by the gaze time detection unit and the correspondence relationship between the view area and the reference gaze point obtained by the visual field area determination unit. Based on the above, a time integration unit that acquires all the gaze times corresponding to the visual field areas and integrates them for each visual field area, and
Based on the gaze time for each of the visual field regions calculated by the time integration unit, a first evaluation value for evaluating the deviation of the gaze time for each of the visual field regions in the plurality of visual field regions is calculated, and the gaze time detection unit Based on the gaze time detected by, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and based on the first evaluation value and the second evaluation value, the surroundings of the vehicle are moved. The evaluation value calculation unit that calculates the visual field ability evaluation value for evaluating the visual field ability,
An evaluation device characterized by being provided with.
n個の前記視界領域のうち第i領域Aiを注視した時間をTi[s]とすると、前記第i領域Aiを注視した時間の割合γi[−]は、以下の式(i)で表され、
γ1〜γnのうち、基準値1/nとの差が最も大きいものをγmaxとすると、前記第1評価値は、以下の式(ii)で表される偏差Yを用いて算出されることを特徴とする請求項1に記載の評価装置。
The field of view is set to n,
Assuming that the time when the i-region Ai is gazed out of the n visual fields is Ti [s], the ratio γi [-] of the time when the i-region Ai is gazed is expressed by the following formula (i). ,
Assuming that among γ1 to γn, the one having the largest difference from the reference value 1 / n is γmax, the first evaluation value is calculated using the deviation Y represented by the following equation (ii). The evaluation device according to claim 1.
The evaluation device according to claim 2, wherein the field of view is set to three, and the first evaluation value is calculated by the following formula (iii).
シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとして(b>0、c,d≦0)、
前記第2評価加点値P2aと、前記第2評価減点値P2bと、は以下の式(iV)、(V)でそれぞれ算出されることを特徴とする請求項1ないし3のいずれか1つに記載の評価装置。
The second evaluation value is composed of a second evaluation point addition value P2a indicating the total of points added and a second evaluation deduction value P2b indicating the total of points deducted.
When the gaze time generated at the i-th time from the start of the simulation is ti [s] and the score for ti [s] is pi, and the ti [s] is equal to or less than the first threshold value, it is regarded as "the gaze time is short". When pi = 0 and ti [s] is larger than the first threshold value A and equal to or less than the second threshold value B, pi = b is set as “appropriate gaze time” and ti [s] is greater than the second threshold value B. When it is largely equal to or less than the third threshold value C, it is set as "long gaze time" and pi = c, and when ti [s] is larger than the third threshold value C, it is set as "the gaze time is excessively long" and pi = d. (B> 0, c, d ≦ 0),
The second evaluation point addition value P2a and the second evaluation deduction value P2b are calculated by the following equations (iV) and (V), respectively, according to any one of claims 1 to 3. The evaluation device described.
電子機器と、前記電子機器とネットワークを介して接続されるサーバと、を備え、
前記電子機器は、
ディスプレイを備え、
前記サーバは、
予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部を備え、
前記電子機器はさらに、
前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備え、
前記サーバはさらに、
前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された注視時間に基づいて、前記視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、を備える
ことを特徴とする評価システム。 An evaluation system for evaluating the ability to visually recognize the surroundings of a vehicle.
An electronic device and a server connected to the electronic device via a network are provided.
The electronic device is
Equipped with a display
The server
A video reproduction unit for displaying a simulation video in which a plurality of field of view areas are set in advance on the display is provided.
The electronic device further
A gaze point detection unit for detecting the gaze point of the evaluation target person in the simulation image displayed on the display is provided.
The server also
Based on the gaze point detected by the gaze point detection unit, the gaze time detection unit that detects the gaze time of the evaluation target person for each reference gaze point,
Of the plurality of visual field regions, a visual field region determination unit that determines the visual field region that the evaluation target person was gazing at for each reference gazing point, and a visual field region determination unit.
Correspondence between the reference gaze point and the gaze time obtained by the gaze time detection unit and the correspondence relationship between the view area and the reference gaze point obtained by the visual field area determination unit. Based on the above, a time integration unit that acquires all the gaze times corresponding to the visual field areas and integrates them for each visual field area, and
Based on the gaze time for each of the visual field areas calculated by the time integration unit, a first evaluation value for evaluating the deviation of the gaze time for each of the visual field areas in the plurality of visual field areas is calculated, and the gaze time detection unit. A second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated based on the gaze time detected by, and the surroundings of the vehicle are calculated based on the first evaluation value and the second evaluation value. An evaluation system including an evaluation value calculation unit that calculates a visual field evaluation value for evaluating the visual field ability.
前記評価システムはさらに、前記評価サーバとネットワークを介して接続される電子機器を備え、
前記電子機器は、
ディスプレイを備え、
前記評価サーバは、
予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部を備え、
前記電子機器はさらに、
前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備え、
前記評価サーバはさらに、
前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された注視時間に基づいて、前記視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、を備える
ことを特徴とする評価サーバ。 It is an evaluation server provided in the evaluation system for evaluating the ability to visually recognize the surroundings of the vehicle.
The evaluation system further comprises an electronic device connected to the evaluation server via a network.
The electronic device is
Equipped with a display
The evaluation server is
A video reproduction unit for displaying a simulation video in which a plurality of field of view areas are set in advance on the display is provided.
The electronic device further
A gaze point detection unit for detecting the gaze point of the evaluation target person in the simulation image displayed on the display is provided.
The evaluation server further
Based on the gaze point detected by the gaze point detection unit, the gaze time detection unit that detects the gaze time of the evaluation target person for each reference gaze point,
Of the plurality of visual field regions, a visual field region determination unit that determines the visual field region that the evaluation target person was gazing at for each reference gazing point, and a visual field region determination unit.
Correspondence between the reference gaze point and the gaze time obtained by the gaze time detection unit and the correspondence relationship between the view area and the reference gaze point obtained by the visual field area determination unit. Based on the above, a time integration unit that acquires all the gaze times corresponding to the visual field areas and integrates them for each visual field area, and
Based on the gaze time for each of the visual field areas calculated by the time integration unit, a first evaluation value for evaluating the deviation of the gaze time for each of the visual field areas in the plurality of visual field areas is calculated, and the gaze time detection unit. A second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated based on the gaze time detected by, and the surroundings of the vehicle are calculated based on the first evaluation value and the second evaluation value. An evaluation server including an evaluation value calculation unit that calculates a visual field evaluation value for evaluating the visual field ability.
予め複数の視界領域が設定されたシミュレーション映像を、電子機器が備えるディスプレイに表示させる映像再生手段と、
前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出手段と、
前記注視点検出手段によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出手段と、
前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定手段と、
前記注視時間検出手段において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定手段において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算手段と、
前記時間積算手段によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出手段によって検出された注視時間に基づいて、前記視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出手段と、
を実行させることを特徴とする評価プログラム。 On the computer
A video reproduction means for displaying a simulation image in which a plurality of field of view areas are set in advance on a display provided in an electronic device, and
A gaze point detecting means for detecting the gaze point of the evaluation target person in the simulation image displayed on the display, and a gaze point detecting means.
Based on the gaze point detected by the gaze point detecting means, the gaze time detecting means for detecting the gaze time of the evaluation target person for each reference gaze point, and the gaze time detecting means.
Of the plurality of visual field regions, the visual field region determining means for determining the visual field region that the evaluation target person was gazing at for each of the reference gazing points,
Correspondence between the reference gaze point and the gaze time obtained by the gaze time detecting means and the correspondence relationship between the view area and the reference gaze point obtained by the view area determination means. Based on the above, a time integration means for acquiring all the gaze times corresponding to the visual field areas and integrating each of the visual field areas, and
Based on the gaze time for each of the visual field regions calculated by the time integration means, a first evaluation value for evaluating the deviation of the gaze time for each of the visual field regions in the plurality of visual field regions is calculated, and the gaze time detection means. Based on the gaze time detected by, a second evaluation value for evaluating the validity of each gaze time with respect to the visual field region is calculated, and based on the first evaluation value and the second evaluation value, the surroundings of the vehicle are moved. Evaluation value calculation means for calculating the visual field ability evaluation value for evaluating the visual field ability, and
An evaluation program characterized by executing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047687A JP7051254B2 (en) | 2020-03-18 | 2020-03-18 | Evaluation device, evaluation system, evaluation server and evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047687A JP7051254B2 (en) | 2020-03-18 | 2020-03-18 | Evaluation device, evaluation system, evaluation server and evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021148907A true JP2021148907A (en) | 2021-09-27 |
JP7051254B2 JP7051254B2 (en) | 2022-04-11 |
Family
ID=77848763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020047687A Active JP7051254B2 (en) | 2020-03-18 | 2020-03-18 | Evaluation device, evaluation system, evaluation server and evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7051254B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101917925B1 (en) * | 2016-09-20 | 2018-11-12 | 현대제철 주식회사 | Apparatus for sand molding |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08178712A (en) * | 1994-12-22 | 1996-07-12 | Toyota Motor Corp | Rambling-drive detection apparatus |
JP2011000278A (en) * | 2009-06-18 | 2011-01-06 | Honda Motor Co Ltd | Device for providing information on viewing action |
JP2016095571A (en) * | 2014-11-12 | 2016-05-26 | いすゞ自動車株式会社 | Vehicle driving evaluation device and vehicle driving evaluation method |
JP2018097515A (en) * | 2016-12-12 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | Drive assisting device, drive assisting method, and program thereof |
-
2020
- 2020-03-18 JP JP2020047687A patent/JP7051254B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08178712A (en) * | 1994-12-22 | 1996-07-12 | Toyota Motor Corp | Rambling-drive detection apparatus |
JP2011000278A (en) * | 2009-06-18 | 2011-01-06 | Honda Motor Co Ltd | Device for providing information on viewing action |
JP2016095571A (en) * | 2014-11-12 | 2016-05-26 | いすゞ自動車株式会社 | Vehicle driving evaluation device and vehicle driving evaluation method |
JP2018097515A (en) * | 2016-12-12 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | Drive assisting device, drive assisting method, and program thereof |
Also Published As
Publication number | Publication date |
---|---|
JP7051254B2 (en) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102469507B1 (en) | Information processing apparatus, information processing method and program | |
CN103431840B (en) | Eye optical parameter detecting system and method | |
CN103500331B (en) | Based reminding method and device | |
EP1747750B1 (en) | Method and device for determining the visual behaviour of a person and method of customising a spectacle lens | |
US10809800B2 (en) | Robust convergence signal | |
JP7081599B2 (en) | Information processing equipment, information processing methods, and programs | |
US20130301007A1 (en) | Apparatus to measure accommodation of the eye | |
JP7168953B2 (en) | Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program | |
JP2017213191A (en) | Sight line detection device, sight line detection method and sight line detection program | |
CN103530623A (en) | Information observation method and information observation device | |
GB2449855A (en) | System and method for measuring pupillary distance | |
JP5644414B2 (en) | Awakening level determination device, awakening level determination method, and program | |
JP7051254B2 (en) | Evaluation device, evaluation system, evaluation server and evaluation program | |
CN115965857A (en) | Ambient light processing method and DMS system | |
JP7058800B2 (en) | Display control device, display control method, and display control program | |
JP4336854B2 (en) | Gaze display device and dementia diagnosis device | |
JP2018101212A (en) | On-vehicle device and method for calculating degree of face directed to front side | |
CN111417885A (en) | System and method for determining a pose of augmented reality glasses, system and method for calibrating augmented reality glasses, method for supporting pose determination of augmented reality glasses, and motor vehicle suitable for the method | |
CN113138664A (en) | Eyeball tracking system and method based on light field perception | |
JP6496917B2 (en) | Gaze measurement apparatus and gaze measurement method | |
CN115997159B (en) | Method for determining the position of the center of rotation of an eye using a mobile device | |
CN113827244B (en) | Method for detecting and monitoring driver's sight line direction, system and device | |
JP2015123262A (en) | Sight line measurement method using corneal surface reflection image, and device for the same | |
US20240231482A1 (en) | Display control apparatus and control method for display apparatus | |
WO2023112994A1 (en) | Eyewear equipped with pupil diameter measurement function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211013 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |