[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7459634B2 - ドライバ異常判定システム - Google Patents

ドライバ異常判定システム Download PDF

Info

Publication number
JP7459634B2
JP7459634B2 JP2020071673A JP2020071673A JP7459634B2 JP 7459634 B2 JP7459634 B2 JP 7459634B2 JP 2020071673 A JP2020071673 A JP 2020071673A JP 2020071673 A JP2020071673 A JP 2020071673A JP 7459634 B2 JP7459634 B2 JP 7459634B2
Authority
JP
Japan
Prior art keywords
driver
driving
vehicle
function
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020071673A
Other languages
English (en)
Other versions
JP2021167165A (ja
Inventor
耕二 岩瀬
誠 吉田
潤一郎 桑原
洋平 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020071673A priority Critical patent/JP7459634B2/ja
Priority to US17/198,278 priority patent/US11603104B2/en
Publication of JP2021167165A publication Critical patent/JP2021167165A/ja
Application granted granted Critical
Publication of JP7459634B2 publication Critical patent/JP7459634B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Emergency Alarm Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

ここに開示する技術は、例えば車両を運転するドライバ(以下、単にドライバという)の異常を判定するドライバ異常判定システムに関する。
ドライバの異常検出手段として、運転操作のばらつきの拡大や運転操作の精度低下、ドライバの運転姿勢・頭部挙動・眼球挙動のようなドライバの生体情報を用いたものが知られている。
例えば、特許文献1には、先行者の検出時におけるアクセルペダルの操作量に基づいてドライバの異常の予兆を検出する技術が示されている。特許文献2には、車両の運転が単調となる単調区間において検出された運転者の頭部の挙動に基づいて運転者の覚醒状態を判断する技術が示されている。特許文献3には、自動車が影響を受ける障害に対する人の頭部運動および/または人の頭部運動反応を検出して評価することで、ドライバの異常を検出する技術が示されている。また、非特許文献1には、運転中に意識障害発作を発症した症例の検討がなされている。
特開2019-123434号公報 特開2010-128649号公報 特許第4711826号公報
篠原一彰、他7名、"運転中に意識障害発作を発症した症例の検討"、車両技術会論文集、2014年11月, Vol.45, No.6, p1105-1110 T. Nakamura, et al., "Multiscale Analysis of Intensive Longitudinal Biomedical Signals and its Clinical Applications", Proceedings of the IEEE, Institute of Electrical and Electronics Engineers, 2016, vol.104, pp.242-261 水田他、「重心動揺に対するフラクタル解析」、Equilibrium Research、日本めまい平衡医学会、2016,Vol.75(3), pp.154-161
しかしながら、ドライバの生体情報を車両に設置された各種のセンサの出力に基づいてドライバの異常を判定する場合に、実際の車両の運転シーンにおいて、有意な判定ができない場合が多いという問題がある。具体的に、例えば、車両のコーナリング中における、頭部揺動の自己周期性の検出によるドライバの異常判定は、ノイズが多く実用的ではない。そうすると、運転シーンによってドライバの異常検知で精度よくできる場合と、精度よく検知できない場合とがある。
ここに開示された技術は、斯かる点に鑑みてなされたものであり、その目的とするところは、運転シーンが変化してもドライバの異常を精度よく判定することにある。
前記課題を解決するために、ここに開示された技術では、車両を運転するドライバの異常を判定するドライバ異常判定システムを対象として、ドライバの運転操作を検出するための1又は複数の運転操作センサと、ドライバの頭部の挙動、ドライバの眼球運動及び/又は視線の移動を検出するための1又は複数のドライバ状態センサと、を含むセンサ群と、前記車両が運転されている運転シーンの認知が可能な運転シーン認知部と、前記運転シーン認知部で認知された車両の運転シーンと、前記センサ群に含まれかつドライバの異常判定に採用する異常判定用センサとの関係を表すセンサテーブルが記憶された記憶部と、前記センサテーブルを参照して、前記運転シーン認知部で認知された車両の運転シーンに応じた異常判定用センサの出力に基づいてドライバの異常を判定する異常判定部とを備える、構成とした。
このような構成にすることにより、運転シーンごとにあらかじめ定めたドライバの身体対象部位を選んで、その対象部位についての検出データに基づいてドライバの異常判定を行うことができる。このときの身体対象部位は、例えば、運転シーンごとにノイズとなる要素が少ないような部位が選ばれる。これにより、運転シーンが変化してもドライバの異常または異常の予兆(以下、まとめてドライバ異常という)を精度よく判定することができる。
以上説明したように、ここに開示された技術によると、ドライバの異常判定の早期化と異常判定精度の向上とを両立することができる。
運転者主体型の自動運転システムについて説明するための概念図である。 本開示に係る技術の位置づけを表す概念図である。 ドライバの運転行動の階層分けについて説明するための図である。 運転中におけるドライバの各機能の判定可能なタイミングを示した図である。 車両用演算装置の機能構成を示すブロック図である。 測定指標と運転機能との関係を示すテーブルである。 測定指標と運転機能との関係を示すテーブルである。 不随意機能レベルの検知動作について説明するためのブロック図である。 頭部のピッチ角およびロール角の時系列データの例である。 頭部挙動の恒常性と疾患との関係を示す図であり、(a)は正常状態、(b)は臨界減速状態、(c)は疾患状態の図である。 自己相関指標の時系列変動パターンの分類結果を示すグラフである。 不随意機能レベルの検知動作について説明するためのブロック図である。 サッケード検出処理について説明するためのフローチャートである。 癲癇患者の発作時の視線移動を示すグラフである。 運転シーンに対して評価可能な指標を紐づけたテーブルである。 ベース機能レベルの検知動作について説明するためのブロック図である。 健常者と疾患者のステア操作を比較した図である。 疾患の発現順序について説明するための図である。 健常者のサリエンシー指標値の変化を例示するグラフである。 注意障害患者のサリエンシー指標値の変化を例示するグラフである。 ドライビングシミュレータによる実験結果の一例を示す図である。 ドライビングシミュレータによる実験結果の一例を示す図である。 ドライビングシミュレータによる実験結果の一例を示す図である。 ドライバの異常判定動作を示すフローチャートである。 ドライバの異常判定に使用する判定基準と判定結果の一例を示す図である。
-概要-
図1に示すように、ドライバ主体型の自動運転システムが搭載された車両Aでは、普段(平常状態)は、ドライバが車両Aを運転し、自動運転システムは、その裏側で、自車両、外部環境、ドライバの状態を把握して仮想運転を実行する。換言すると、自動運転システムは、バックアップシステムとして動作する。自動運転システムは、ドライバと同じように走行環境情報を認識するとともに、自車両情報の状態やドライバの状態を認識する。自動運転システムは、上記の認識結果を基に、車両Aをどのように動かすかを判断し、車両Aの目標運動を決定するところまでを、ドライバの運転と並行して実行する。そして、自動運転システムは、ドライバに機能障害や疾患が発生したと判断した場合、ドライバに変わって周囲を含めた安全を確保するように自車両を動作させたり、ドライバの認知・判断・操作のうちで劣っている機能を補完したりする。
ドライバ主体型の自動運転システムでは、上記のような動作を前提としているため、ドライバに機能低下や機能障害、疾患等の異常(以下、ドライバ異常という)が発生したことをいかに早期にかつ精度よく発見できるが極めて重要となる。
〔本願発明の前提となる知見〕
ところで、ドライバの状態は、健康な正常状態と、機能障害や疾患が発生した異常状態とに大別される。正常状態には、覚醒の度合いが高い状態から順に記載すると、運転に最大限に集中しているフロー状態、運転集中状態、リラックス運転状態、脇見運転状態、漫然運転状態、覚醒低下状態、居眠り状態が含まれる。疾患には、様々な疾患が存在するが、非特許文献1の知見を基にすると、運転中に意識障害発作が発症したことが明らかな症例の代表的なものとして、てんかん、脳卒中、心筋梗塞、低血糖が挙げられる。
発明者らは、ドライバが正常状態(健康状態)から、意識障害発作に至る原因となるような疾患が発症してから運転不能な状態に至るまでのドライバの状態変化が、3つのパターンに集約されるとの知見を得た。ケースAは、知覚、判断、運動のうち一部機能から低下するパターン、ケースBは、全般機能が徐々に低下するパターン、ケースCは急に意識を喪失するパターンである。このうち、ケースA,Bの場合は、図2に示すように、疾患が発症してから、ドライバの運転能力レベルが徐々に低下していき、やがて運転不能状態に至る。したがって、この運転能力の低下状態を検知できれば、ドライバの運転不能の予兆を検知することができる。
ケースA~Cの3つのパターンのいずれにおいても言えることであるが、一般的な車両に搭載可能なレベルの範囲内でドライバの状態検知をするための現時点における技術水準では、運転不能状態まで来て初めて疾患であることが認識できるという状況である。これは、ドライバが、健康な状態ではあるが漫然とした状態であったり疲労が蓄積しているような状態であるのか、疾患が発症した状態にあるのか、を判別するのが困難なためである。また、ドライバが健康状態であっても目を閉じたり姿勢が崩れることはあることから、ドライバ異常の判定は、所定の条件に合致する異常動作が、一定時間継続したことをもって判断する必要がある。すなわち、従来技術では、疾患の発見の確度を高めようとすると判定に時間がかかり、疾患の判定時間を短縮しようとすると、疾患の誤判定が増えて、精度よく判定できなくなるという問題がある。また、前述のとおり、運転シーンによってドライバの異常検知で精度よくできる場合と、精度よく検知できない場合とがある。そして、車両の運転シーンは刻々と変化するため、ドライバの疾患を発見するために一定時間を要する場合に、同じ運転シーンがその一定時間継続しているとも限らないという問題がある。そこで、本願発明者らは、鋭意検討を重ね、運転シーンが変化してもドライバの異常を精度よく判定する方法を見出した。
〔ドライバの異常判定〕
〈ドライバの機能による分類〉
一般的に、ドライバ異常を判定する方法、すなわち、運転能力レベルが低下し運転不能状態となったことを判定する方法として、ドライバの意思とは関係なく成立している機能である、いわゆる不随意機能に異常が発生していることを検知する技術が知られている。不随意機能の異常検出方法として、例えば、撮像部が撮像した映像を基に、ドライバの運転姿勢崩れやドライバの開眼度を解析し、ドライバの疾患を判断する方法がある。
不随意機能には、例えば、手足の運動機能、頭部や眼球の運動機能、自律神経の反応などの自律神経機能、前庭機能などが含まれる。
また、脳の機能に着目して考えた場合に、不随意機能に対するものとして、人の随意的な機能である随意機能がある。ここでは、運転に関連するドライバの随意機能を「運転機能」と呼ぶものとする。近年では、この運転機能を検知する個々の技術開発が行われている。
本願発明者らは、この運転機能について脳の機能に着目して分類することを検討した。具体的には、運転機能を、相対的に低次の機能(以下、低次機能ともいう)であるベース機能と、相対的に高次の機能(以下、高次機能ともいう)である予測機能とに分類分けをした。
ベース機能とは、運転操作のベース(基礎、土台)となる運転機能であり、無意識に近い領域で処理される運転機能である。ベース機能には、例えば、位置や運動の知覚機能、視野の範囲、手足の運動機能、頭部や眼球の運動機能、空間認識に関連する機能などが含まれる。より具体的には、例えば、車線に沿って車両を走行させるための運転機能、前車との車間距離を取りながら走行するための運転機能、赤信号や横断歩道の手前で停車させるための運転機能等が含まれる。
予測機能とは、将来の運転シーンを予測する機能であり、いわゆる「○○かもしれない運転」ができるか否かに影響を与える運転機能である。予測機能には、例えば、運転中のリスクを予測するリスク予測機能、運転行動に関する判断機能、運転中の注意機能などが含まれる。リスク予測機能には、潜在リスクを予測する機能、顕在化したリスクの接近を予測する機能、道路の形状などの走行環境に基づいたリスクを予測する機能などが含まれる。運転中の注意機能は、集中すべきところに注意を集中させる機能、注意配分を適切におこなう機能、空間的な注意機能などが含まれる。
以上をまとめると、発明者らは、図3に示すように、ドライバの運転行動を、前述の不随意機能が発揮される不随意行動、ベース機能が発揮されるベース行動、予測機能が発揮される予測行動の3つの階層に分けることを検討した。そして、不随意機能が正常に機能している程度を示す不随意機能レベルと、ベース機能が正常に機能している程度を示すベース機能レベルと、予測機能が正常に機能している程度を示す予測機能レベルとを用いてドライバの異常を判定することを検討した。具体的手法として、健常者と疾患者について、ドライビングシミュレータ70(図20参照)を用いて運転シーンや運転状況を変化させながらの走行試験を行い、その結果について鋭意検討を行った。その結果、ドライバに疾患が発症した場合、高次行動から機能低下が生じ、その後、徐々に、ベース行動の機能低下、不随意行動の機能低下へと変容していくという知見を得た。
さらに、発明者らは、不随意機能レベル、ベース機能レベル及び/または予測機能レベルを組み合わせてドライバの異常を判定することによりドライバの異常判定の精度を向上させることについて鋭意検討を行った。そして、発明者らは、運転能力の基礎となる各機能を、不随意機能、低次機能及び高次機能に分類した場合に、車両の運転シーン(交通状況を含む)に応じて、それぞれの機能について、ドライバの異常を検知するのに適した場合と、適さない場合があるという知見を得た。すなわち、不随意機能レベル、ベース機能レベル及び/または予測機能レベルの組み合わせに際し、車両の運転シーンと上記の各機能の異常検知に適したタイミングとの関係に着目することで、ドライバの異常判定の早期化及び判定精度の向上が図れることがわかった。
〈機能検知の組み合わせ〉
図4は、予測機能、ベース機能、不随意機能の各機能について、運転シーンごとの判定に適したタイミングについて一例を示した図である。
図4において、期間T10(T11~T13を含む)の運転シーンでは、車両A(自車両)は、歩行者や駐車車両などが存在するような街道を走行している。期間T11,T13では車両は所定の速度で街道を走行し、期間T12では車両は信号や横断歩道などで停車しているものとする。なお、本開示において、「運転シーン」とは、車両が運転されているシーンを指すものとする。より具体的に、「運転シーン」との用語は、車両の走行シーンに加えて、車両が一時停止や、信号待ちなどで所定時間停車しているシーンも含む概念として用いる。
期間T11,T13では、街道を走行しているので、駐車車両の回避や歩行者の飛び出しの予測などといった予測機能の発揮が必要な状況である。また、前方車両との車間距離を一定に保ったり、カーブなどで車線に沿って走行したりといったベース機能の発揮が必要な状況でもある。前方を見る、運転姿勢を保つなどといった不随意機能の発揮も必要である。すなわち、期間T11,T13は、不随意機能、ベース機能レベル及び予測機能の発揮が必要な状況であり、不随意機能、ベース機能レベル及び予測機能に係るドライバの異常または異常予兆(以下、まとめて単に「ドライバ異常」ともいう)の検知に適した運転シーンである。したがって、異常判定装置は、期間T11,T13のような運転シーンでは、(1)不随意機能レベルを検知する不随意機能検知部、(2)予測機能レベルを検知する予測機能検知部、及び、(3)ベース機能レベルを検知するベース機能検知部、で検知されたドライバの機能レベルの結果について、それらの組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常を判定する。不随意機能検知部、予測機能検知部及びベース機能検知部については、後ほど実施形態で説明する。
期間T12では、車両Aは、停車しているので、不随意機能が発揮される必要があるが、ベース機能及び予測機能については、それぞれの機能の発揮が必要でない場面も多く含まれる。このような場面では、ドライバの行動に対するベース機能及び予測機能の発揮状況を検知しても、有意なデータが得られない場合があり、ドライバの異常推定においてはノイズになる可能性がある。そこで、異常判定装置は、期間T12のような運転シーンでは、不随意機能検知部の検知結果に基づいてドライバの異常を判定する。
期間T20(T21~T25を含む)の運転シーンでは、車両A(自車両)は、高速道路や有料道路のような信号等のない車両専用道路(図4では「高速道路」と記載)を走行している。例えば、期間T21は車両Aが料金所に進入してから走行レーンに合流するまでの期間、期間T22~T24は車両Aが走行レーンを走行する期間、期間T25は車両Aが走行レーンから側道に入り料金所を出るまでの期間、をそれぞれ示しているものとする。また、期間T23は、自車両の周囲に車両がおらず、かつ、長い直線道路を直進するような運転シーンであるものとする。すなわち、期間T23では、ドライバは周囲の状況をほとんど気にする必要もなく、ただまっすぐに車両を走行させればいいような状況であるものとする。
期間T21,T25では、料金所での左右からの車両の接近についてのリスク予測、合流時における他車両の振る舞いに対するリスク予測などといった予測機能の発揮が必要な状況である。また、前方車両との車間距離を一定に保ったり、カーブなどで車線に沿って走行したりといったベース機能の発揮が必要な状況である。前方を見る、運転姿勢を保つなどといった不随意機能の発揮が必要な状況でもある。すなわち、期間T21,T25は、不随意機能、ベース機能レベル及び予測機能の発揮が必要な状況であり、不随意機能、ベース機能レベル及び予測機能の異常の検知に適した運転シーンである。したがって、異常判定装置は、期間T21,T25のような運転シーンでは、T11の場合と同様に、不随意機能検知部、予測機能検知部、及び、ベース機能検知部で検知されたドライバの機能レベルの結果について、それらの組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常を判定する。
期間T22,T24では、前方車両との車間距離を一定に保ったり、カーブなどで車線に沿って走行したりといったベース機能の発揮が必要な状況である。前方を見る、運転姿勢を保つなどといった不随意機能の発揮が必要な状況でもある。一方で、周囲の他車両との距離が離れていたり、単独走行をしているようなときに、リスク予測機能や注意機能といった予測機能の発揮が必要ではないような状況も発生し得る。このような運転シーンでは、ドライバの予測機能の発揮状況を検知しても、有意なデータが得られない場合があり、ドライバの異常推定においてはノイズになる可能性がある。そこで、異常判定装置は、期間T22,T24のような運転シーンでは、少なくとも不随意機能及びベース機能の発揮が必要な状況であるので、不随意機能及びベース機能を異常の検知に適していると判断し、不随意機能検知部、及び、ベース機能検知部で検知されたドライバの機能レベルの結果について、それらの組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常を判定する。
期間T23では、車線に沿って走行するというベース機能の発揮が必要な状況であるが、一方で、ベース機能が十分に働いていない状況においても、車両を走行させることに影響が出にくい。換言すると、ドライバは、期間T23のような運転シーンでは、ベース機能を十分に発揮させる必要がない。そうすると、このような運転シーンでは、ドライバの行動に対するベース機能の発揮状況を検知しても、有意なデータが得られない場合があり、ドライバの異常推定においてはノイズになる可能性がある。予測機能についても、同様である。そこで、異常判定装置は、期間T23のような運転シーンでは、少なくとも不随意機能の発揮が必要な状況であるので、不随意機能が異常の検知に適していると判断し、不随意機能検知部の検知結果に基づいてドライバの異常を判定する。
期間T30(T31~T33を含む)の運転シーンでは、車両A(自車両)は、郊外の道路を走行している。特に、期間T32では、歩行者や自転車などがおらず、車両Aは、比較的単調な形状の道路を所定速度で走行しているものとする。
期間T31,T33では、駐車車両の回避や歩行者の呼び出し予測などといった予測機能の発揮が必要な状況である。したがって、前述の期間T11の場合と同様に、異常判定装置は、不随意機能検知部と、予測機能検知部と、ベース機能検知部とで検知されたドライバの機能レベルの結果について、それらの組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常を判定する。
尚、本発明の装置における運転機能(高次・低次の随意機能)や不随意機能が機能しているか否かを検知するとは、ドライバの異常判定の早期化による救命及び安全の確保をなすという意義での検知であって、装置ハードウェアにおいては推定や判断といった態様も含むものである。また、本発明の装置における検知とは、医療従事者が人体を診察してこれらが機能しているか否かを判断することとは、異なる概念である。
以下の実施形態において、異常検知装置の構成例及び動作例について、より具体的に説明する。
-実施形態-
(車両制御システム)
図5は、実施形態に係る車両制御システム1の構成を例示する。車両制御システム1は、車両Aに設けられる。車両制御システム1は、車両制御装置10と、情報取得装置60と、アクチュエータ80と、周辺機器Dとを備える。車両Aは、マニュアル運転とアシスト運転と自動運転とに切り換え可能である。マニュアル運転は、ドライバの操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、ドライバの操作を支援して走行する運転である。自動運転は、ドライバの操作なしに走行する運転である。
〔車両制御装置〕
車両制御装置10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御装置10は、車両に設けられたアクチュエータ80を制御することで車両の動作(特に走行)を制御する。
〔情報取得装置〕
情報取得装置60は、少なくとも、車両Aの運転シーンを特定するための情報、ドライバの状態を特定するための情報を取得する。車両Aの運転シーンとは、車両の走行シーン及び停車シーンを含む。情報取得装置60は、複数の車外カメラ61と、複数のレーダ62と、位置センサ63と、車両状態センサ64と、車外通信装置65と、運転操作センサ66と、ドライバ状態センサ67とを含む。
〈車外カメラ〉
複数の車外カメラ61は、例えば、車両Aの周囲に広がる環境(路上障害物を含む。以下、車外環境という)が撮影できるように車両に設けられ、車外環境を撮影する。複数の車外カメラ61の各々による撮影データは、車両制御装置10に送信される。車外カメラ61は、車両Aの車外環境情報を取得する車外環境取得装置(以下、単に車外環境取得装置という)の一例である。また、車外カメラ61の撮影データは、車両Aの運転シーンを特定するための車外環境情報(以下、単に車外環境情報という)の一例である。なお、車外カメラ61は、車外環境を撮影するためのカメラ全般を指すものとし、車室内に設けられて車外を撮影するためのカメラを含む。
複数の車外カメラ61は、広角レンズを有する単眼カメラである。例えば、車外カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。尚、車外カメラ61は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。
〈レーダ〉
複数のレーダ62は、車外環境にある物体(路上障害物を含む)が検出できるように、すなわち、車外に向かって物体検出用の電波を出射させることができるように車両Aのボディ等に取り付けられる。複数レーダ62の各々で撮影された画像データは、車両制御装置10に送信される。
レーダ62の種類は、特に限定されないが、例えば、ミリ波を用いたミリ波レーダ、レーザ光を用いたライダ(Light Detection and Ranging)、赤外線を用いた赤外線レーダ、超音波を用いた超音波レーダが例示される。レーダ62の検出結果は、車外情報取得装置の一例である。
〈位置センサ〉
位置センサ63は、車両の位置(例えば緯度および経度)を検出する。位置センサ63は、例えば、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ63により得られた情報(車両の位置)は、車両制御装置10に送信される。位置センサ63で検出された車両の位置情報は、車両の運転シーンを特定するために使用することができる。すなわち、位置センサ63は、車外情報取得装置の一例であり、位置センサ63で検出された車両Aの位置情報は、車外環境情報の一例である。
〈車両状態センサ〉
車両状態センサ64は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ64は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ64により得られた情報(車両の状態)は、車両制御装置10に送信される。
〈車外通信装置〉
車外通信装置65は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて各種情報を受信する。例えば、車外通信装置65は、車両の周囲に位置する他車両からその他車両に関する情報を受信したり、ナビゲーションシステム(図示を省略)からカーナビゲーションデータ、交通情報、高精度地図情報などを受信したりする。車外通信装置65により得られた情報は、車両制御装置10に送信される。車外通信装置65により車外ネットワークから取得された交通情報、高精度地図情報などの情報には、車両Aの運転シーンを特定するための情報が含まれる。すなわち、車外通信装置65は、車外情報取得装置の一例であり、車外通信装置65で受信された情報は、車外環境情報の一例である。
〈運転操作センサ〉
運転操作センサ66は、車両に加えられる運転操作を検出する。例えば、運転操作センサ66は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。
アクセル開度センサは、車両Aのアクセルの操作量を検出する。操舵角センサは、車両Aのハンドルの操舵角を検出する。ブレーキ油圧センサは、車両Aのブレーキの操作量を検出する。運転操作センサ66により得られた情報(車両の運転操作)は、車両制御装置10に送信される。運転操作センサ66は、運転操作からドライバの状態を検出することができる。すなわち、運転操作センサ66は、ドライバ状態センサとして兼用することもできる。運転操作センサ66は、センサ群を構成するセンサの一例である。
〈ドライバ状態センサ〉
ドライバ状態センサ67は、車両を運転するドライバの状態を(例えば、ドライバの身体挙動や生体情報など)を検出する。具体的には、ドライバ状態センサ67は、例えば、ドライバの頭部の挙動、ドライバの眼球運動及び視線の移動のうちの1又は複数の状態を検出する。ドライバ状態センサ67により得られた情報(ドライバの状態)は、車両制御装置10に送信される。ドライバ状態センサ67は、例えば、車内カメラ68、生体情報センサ69を含む。ドライバ状態センサ67は、センサ群を構成するセンサの一例である。
《車内カメラ》
車内カメラ68は、車両1内に、1又は複数設置される。車内カメラ68は、例えば、ドライバの前方において、ドライバの眼球が撮影範囲内となるように設置される。また、車内カメラ68は、例えば、ドライバの前上方からドライバの頭部の挙動が撮影できるように設置される。そして、このように設置された1又は複数の車内カメラ68は、ドライバの頭部及びドライバの眼球を含む画像データを取得する。車内カメラ28の撮影データは、車両制御装置10に送信される。車内カメラ68の情報は、車両制御装置10において、例えば、ドライバの眼球運動及び/又は視線の移動を検出するために用いられたり、ドライバの頭部の挙動を検出するために用いられる。尚、眼球を含む画像データを取得する車内カメラ68を、運転者が装着するゴーグル(図示省略)に設けてもよい。
《生体情報センサ》
生体情報センサ69は、運転者の生体情報(例えば、発汗、心拍、血流量、皮膚温など)を検出する。生体情報センサ69により得られた情報(運転者の生体情報)は、車両制御装置10に送信される。
〔車両制御装置〕
車両制御装置10は、演算処理部100と、記憶部300とを備える。演算処理部100は、運転シーン認知部210と、運転操作認知部220と、車両挙動推定部230と、走行制御部500と、ドライバ状態推定部400とを有する。
車両制御装置10は、例えば、プロセッサ(演算処理部100に相当)とメモリ(記憶部300に相当)とを備える。メモリは、プロセッサによって実行可能なソフトウェアであるモジュールを格納している。図1に示す車両制御装置10の各部の機能は、例えば、プロセッサが、メモリに格納された各モジュールを実行することによって実現される。また、メモリは、車両制御装置10で使用されるモデルのデータを格納している。なお、プロセッサ及びメモリは、それぞれ、複数個あってもかまわない。また、図1に示す演算処理部100の各部の機能の一部が、ハードウェア回路で実現されていてもよい。演算処理部100については、後ほど説明する。
〈認知部〉
認知部200は、運転シーン認知部210と、運転操作認知部220と、車両挙動推定部230とを備える。
〈車外環境認知部〉
運転シーン認知部210は、外部環境取得装置で取得された外部環境情報に基づいて、車両の運転シーンを認知する。具体的には、運転シーン認知部210は、車外カメラ61、レーダ62、位置センサ63、車外通信装置65及び車両挙動推定部230のうちの1または複数で取得された車外環境情報を用いて車両の運転シーンを認知する。
運転シーン認知部210は、例えば、深層学習により生成された学習モデルに、上記の車外環境情報を入力として与えて、車両の運転シーンを示す運転シーン情報を生成する。深層学習では、多層ニューラルネットワーク(Deep Neural Network)が用いられる。多層ニューラルネットワークの例としては、CNN(Convolutional Neural Network)が挙げられる。
運転シーン認知部210は、例えば、車外カメラ61の撮影画像に対して画像処理を行うことで、車両Aが移動可能な領域を表す二次元マップデータを生成する。また、運転シーン認知部210は、レーダ62の検出結果に基づいて、車両の周辺に存在する物体に関する情報である物体情報を取得する。運転シーン認知部210は、前記物体情報を基に、車両の周辺に存在する物体のうち車両の走行及び停車をする過程において障害となり得る路上障害物を認識する。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。また、物体情報には、物体の位置座標、物体の速度などが含まれる。尚、運転シーン認知部210は、レーダ62の検出結果に加えて又は代えて車外カメラ61により得られた画像に基づいて物体情報を取得してもよい。そして、運転シーン認知部210は、二次元マップデータと物体情報とを統合することで、車外環境を表す統合マップデータ(三次元マップデータ)を生成し、そのマップデータを所定時間毎に更新することで車両の運転シーンを認知する。
〈運転操作認知部〉
運転操作認知部220は、運転操作センサの出力に基づいてドライバから車両に与えられる運転操作を認知する。具体的には、例えば、ドライバによるアクセルペダル、ブレーキペダル、ステアリング、シフト、方向指示器、電装品のスイッチの操作を検知する。なお、ここでの運転動作センサには、運転操作センサ66と、ドライバ状態センサ67とが含まれる。すなわち、運転機能検知部430は、運転操作センサ66で検出されたドライバの運転操作の状況や、ドライバ状態センサ67(例えば、車内カメラ68など)で検出されたドライバの状態に基づいて、ドライバの運転機能を検知する。なお、前述のとおり、運転動作センサの検出データの一部または全部は、ドライバ挙動認知部410に送信され、そこでドライバの状態が認知される。そこで、運転機能検知部430は、ドライバ挙動認知部410(例えば、頭部挙動検知部411及び/または視線挙動検知部412)の認知結果を用いてもよい。また、運転操作認知部220は、運転操作センサ66の入力に加えて、運転シーン認知部210の運転シーン情報を参照し、運転操作の認知精度を高めるようにしてもよい。
〈車両挙動推定部〉
車両挙動推定部230は、車両状態センサ64の出力に基づいて車両の挙動(例えば、速度や加速度やヨーレートなど)を推定する。例えば、車両挙動推定部230は、深層学習により生成された学習モデルを用いて、車両状態センサ64の出力に基づいて車両の挙動を示す車両挙動データを生成する。
例えば、車両挙動推定部230において用いられる学習モデルは、車両6軸モデルである。車両6軸モデルは、走行中の車両の「前後」「左右」「上下」の3軸方向の加速度と「ピッチ」「ロール」「ヨー」の3軸方向の角速度とをモデル化したものである。すなわち、車両6軸モデルは、車両の動きを古典的な車両運動工学的な平面上のみ(車両の前後左右(X-Y移動)とヨー運動(Z軸)のみ)で捉えるのではなく、4つの車輪にサスペンションを介して乗っている車体のピッチング(Y軸)およびロール(X軸)運動とZ軸の移動(車体の上下動)の、合計6軸を用いて車両の挙動を再現する数値モデルである。
〈走行制御部〉
走行制御部500は、経路設定部510と、運動制御部520とを備える。
《経路設定部》
経路設定部510は、運転シーン認知部210で認知された運転シーンに基づいて、車両の走行目標となる目標位置に車両を走行させるための1または複数の候補経路を生成する。経路設定部510は、例えば、複数の候補経路のうちドライバが最も快適であると感じる経路を選択し、車両Aの走行目標経路として運動制御部520に出力する。また、経路設定部510は、例えば、後述するドライバ状態推定部400でドライバの異常が検出された場合のような緊急時には、車両を緊急停車させる停車位置を探索して目標位置に設定し、停車位置までの退避経路を生成する。そして、その退避経路を走行目標経路として運動制御部520に出力する。
《運動制御部》
運動制御部520は、経路設定部510で設定された走行目標経路を走行するために必要となる車両の運動である目標運動を決定し、その決定された目標運動に基づいてアクチュエータ80を制御する。例えば、運動制御部520は、目標運動を達成するための目標駆動力、目標制動力、目標操舵量をそれぞれ導出する。そして、運動制御部520は、目標駆動力を示す駆動指令値を駆動系のアクチュエータに、目標制動力を示す制動指令値を制動系のアクチュエータに、目標操舵量を示す操舵指令値を操舵系のアクチュエータに、それぞれ送信する。駆動系のアクチュエータの例としては、エンジンE、トランスミッションT、モータが挙げられる。制動系のアクチュエータの例としては、ブレーキBが挙げられる。操舵系のアクチュエータの例としては、ステアリングSが挙げられる。本開示では、アクチュエータ80との用語は、駆動系アクチュエータ、制動系アクチュエータ及び操舵系アクチュエータの総称として用いるものとする。また、車両Aについてアクチュエータ80以外の搭載機器をまとめて周辺機器Dと呼ぶものとする。周辺機器Dには、例えば、カーナビのモニタなどの情報表示装置D1、音声などを再生するためのスピーカD2、エンジンスタート用スイッチやドライバの応答用のスイッチなどを含む各種のスイッチD3、ドライバの音声を入力するためのマイクD4、前照灯や方向指示器などの照明装置(図示省略)などが含まれる。
〈ドライバ状態推定部〉
ドライバ状態推定部400は、ドライバ挙動認知部410と、不随意機能検知部420と、運転機能検知部430と、応答確認部450と、異常判定部440とを備える。ドライバ状態推定部400は、ドライバの体調異常を検出する機能を有する。
《ドライバ挙動認知部》
ドライバ挙動認知部410は、ドライバ状態センサの出力に基づいて、ドライバの挙動(頭部挙動、視線挙動を含む)を認知する。ここでのドライバ状態センサには、ドライバ状態センサ67に加えて、運転操作センサ66が含まれる。すなわち、運転操作センサ66を用いてドライバの状態を検出することができる場合があり、その場合、運転操作センサ66は、本開示の技術におけるドライバ状態センサに包含される。他の情報取得装置60の構成要素についても同様である。例えば、ドライバ挙動認知部410は、車内カメラ68の撮影データに基づいてドライバの頭部挙動を検知する頭部挙動検知部411(図7参照)と、車内カメラ68の撮影データに基づいてドライバの視線挙動を検知する視線挙動検知部412(図11参照)とを備える。頭部挙動検知部411及び視線挙動検知部412については、後ほど説明する。
《不随意機能検出部》
不随意機能検知部420は、ドライバの状態を検出するドライバ状態センサの検出データに基づいて、不随意機能に基づくドライバ異常を検知する。具体的には、前述のとおり、ドライバ状態センサ67の検出データがドライバ挙動認知部410に送信される。そこで、不随意機能検知部420は、ドライバ挙動認知部410の出力に基づいて、不随意機能に基づくドライバ異常を検知する。例えば、ドライバの不随意機能が正常に機能している程度である不随意機能レベルを演算する。なお、不随意機能検知部420にドライバ挙動認知部410の機能を取り込み、ドライバ状態センサ67の検出データを直接不随意機能検知部420に入力して、処理するようにしてもよい。
不随意機能検知部420は、例えば、ドライバの運転操作についての不随意機能レベルとして、(1)アクセル開度センサの検出データに基づいて右足の運動機能レベルを検知でき、(2)ブレーキ油圧センサの検出データに基づいて左足の運動機能レベルを検知でき、(3)操舵角センサの検出データに基づいて右手及び/または左手の運動機能レベルを検知できる(図6A下段参照)。ここで、運動機能レベルとは、運動機能が正常に機能している程度を示す指標である。図6A及び図6Bは、検知対象項目と、その項目で測定できる機能レベルとの関係を示したテーブルである。例えば、図6A及び図6Bのテーブルと、後述するドライバの異常を判定するための判定条件とが対応付けされて記憶部300に格納されている。
不随意機能検知部420は、例えば、ドライバの視線挙動についての不随意機能レベルとして、視線挙動検知部412で認知されたドライバの視線挙動に基づいて、(1)マイクロサッケードを演算することで瞳孔反射についての運動機能レベルを検知でき、(2)眼振量を演算することで瞳孔反射についての運動機能レベルを検知でき、(3)眼球回旋を演算することでドライバの交感/副交感の自律神経機能レベルを検知できる。また、不随意機能検知部420は、車内カメラ68による視線の撮影データに基づいて、ドライバの瞳孔径の時間変化を演算することで前庭反射の前庭機能レベルを検知できる(図6B下段参照)。ここで、前庭機能レベルとは、前庭機能が正常に機能している程度を示す指標である。ここで、自律神経機能レベルとは、自律神経機能が正常に機能している程度を示す指標である。
不随意機能検知部420は、例えば、ドライバの頭部挙動についての不随意機能レベルとして、(1)ドライバの頭部挙動に基づいて、頭部挙動の自己相関を演算することで、ドライバの交感/副交感の自律神経機能レベルを検知でき、(2)ドライバの頭部挙動とドライバの視線挙動とに基づいて、頭部と視線の相互相関を演算することで、ドライバの前庭動眼反射の前提機能レベルを検知でき、(3)ドライバの頭部挙動と車両状態センサ64によるドライバへの外力の推定結果とに基づいて、頭部挙動と外力との相互相関を演算することで、ドライバの交感/副交感の自律神経機能レベルを検知できる(図6B下段参照)。
《運転機能検知部》
運転機能検知部430は、ドライバの運転中の操作(以下、運転操作という)を検出する運転動作センサの検出データに基づいてドライバの運転機能が正常に機能している程度である運転機能レベルを検知する。運転動作センサには、運転操作センサ66及びドライバ状態センサ67が含まれる。
運転機能検知部430は、前述の予測機能レベルを検知する予測機能検知部431と、前述のベース機能レベルを検知するベース機能検知部435とを備える。
《予測機能検知部》
予測機能検知部431は、例えば、ドライバの運転操作、ドライバの視線挙動、及び/またはドライバの頭部挙動に基づいて予測機能レベルを検知する。
ドライバの運転操作に基づく予測機能レベルは、例えば、運転シーン認知部210で認知された運転シーンと、ステアモデルとを用いた演算(以下、ステアモデル演算ともいう)により検知できる。具体的には、例えば、それぞれの運転シーンにおいて、ステアリングのFB(Feed-Back)ゲイン、及び/または、ステアリングのモデル操作と運転操作認知部220で認知された実際の操作情報との推定誤差に基づいて空間的な注意機能レベルを検知できる(図6A上段参照)。ここで、ステアモデルとは、例えば、ステアリング及びステアリングの支持構成をモデル化したものであり、ドライバのステア操作に伴う操舵力データが入力されると、この操舵力データに基づいて車両の横方向の遷移力についてのデータを出力するようになっている。
また、例えば、ドライバの運転操作に基づく予測機能レベルは、運転シーン認知部210で認知された運転シーンと、リスク予測モデルとを用いた演算(以下、リスクモデル演算ともいう)により検知できる。具体的には、例えば、それぞれの運転シーンにおいて、(1)リスクモデル演算で演算された潜在リスクの大きさに基づいて潜在リスクに対するリスク予測機能レベル及び集中と配分に関する注意機能レベルを検知でき、(2)リスクモデル演算で演算された顕在リスクの大きさに基づいて顕在リスクに対するリスク予測機能レベル、集中と配分に関する注意機能レベル及び空間的な注意機能レベルを検知でき、(3)リスクモデル演算で演算された低リスク状態からの逸脱に基づいて、潜在リスク、顕在リスク及び道路形状に対するリスク予測機能レベル、集中と配分に関する注意機能レベル及び空間的な注意機能レベルを検知できる(図6A上段参照)。ここで、リスク予測モデルの形式や内容は、特に限定されない。例えば、リスク予測モデルは、自車両と前方車両との相対速度および相対距離に基づいて、自車両のリスクポテンシャルと、前方車両のリスクポテンシャルとを設定し、これらのリスクポテンシャルから予測されるリスクをモデル化したものである。ここで、リスク予測機能レベルとは、リスク予測機能が正常に機能している程度を示す指標である。また、注意機能レベルとは、注意機能が正常に機能している程度を示す指標である。「集中と配分に関する注意機能レベル」は、例えば、視線挙動検知部412の検知結果に基づいて演算することができる。
また、例えば、ドライバの運転操作に基づく予測機能レベルは、運転シーン認知部210で認知された運転シーンと道路形状予測モデルとを用いた演算(以下、道路モデル演算ともいう)により検知できる。具体的には、例えば、それぞれの運転シーンにおいて、(1)道路モデル演算で演算された横方向の予測制御に基づいて道路形状に対するリスク予測機能レベル、集中と配分に関する注意機能レベル及び空間的な注意機能レベルを検知でき、(2)道路モデル演算で演算された縦方向の予測制御に基づいて、潜在リスク及び顕在リスクに対するリスク予測機能レベルと、集中と配分に関する注意機能レベルを検知できる(図6A上段参照)。ここで、道路形状予測モデルは、将来の道路形状を予測したモデルであり、あらかじめ記憶部300に格納されていてもよいし、演算処理部100において、車外カメラ61やレーダ62による撮影データ(物標データ)と位置センサ63で検出された位置情報とに基づいて生成するようにしてもよい。
ドライバの視線挙動に基づく予測機能レベルは、例えば、運転シーン認知部210で認知された運転シーンと視線挙動検知部412で認知されたドライバの視線挙動とを用いた演算により検知できる。具体的には、例えば、(1)それぞれの運転シーンで見るべき箇所とドライバの視線との合致度を演算することで運転中の注意配分に関する注意機能レベルを検知でき、(2)それぞれの運転シーンにおけるサリエンシー指標値としてAUC(Area Under the Curve)値を演算することで潜在リスク及び顕在リスクに対するリスク予測機能レベルと運転中の注意配分に関する注意機能レベルを検知でき、(3)それぞれの運転シーンにおけるサッケードの振幅を演算することで顕在リスクに対するリスク予測機能レベルを検知でき、(4)それぞれの運転シーンにおけるサッケードの頻度を演算することで潜在リスクに対するリスク予測機能レベルと運転中の注意配分に関する注意機能レベルを検知できる(図6B上段参照)。
ドライバの頭部挙動に基づく予測機能レベルは、例えば、運転シーン認知部210で認知された運転シーンと頭部挙動検知部411で認知されたドライバの頭部挙動とを用いた演算により検知できる。具体的には、例えば、(1)それぞれの運転シーンにおけるドライバの頭部挙動と車両状態センサ64によるドライバへの外力の推定結果とに基づいて、頭部挙動と外力との相互相関を演算することで、運転中の注意配分に関する注意機能レベルを検知でき、(2)それぞれの運転シーンにおける頭部位置の偏心度を演算することで運転中の注意配分に関する注意機能レベルを検知できる(図6B上段参照)。
《ベース機能検知部》
ベース機能検知部435は、例えば、ドライバの運転操作、ドライバの視線挙動、及び/またはドライバの頭部挙動に基づいてベース機能レベルを検知する。
ドライバの運転操作に基づくベース機能レベルは、例えば、運転シーン認知部210で認知された運転シーンとペダルモデルとを用いた演算(以下、ペダルモデル演算ともいう)により検知できる。具体的には、例えば、それぞれの運転シーンにおいて、ペダルのFB(Feed-Back)ゲイン、ペダル操作の遅れ、ペダル制御のパフォーマンス、及び/または、ペダルのモデル操作と実際の操作との推定誤差に基づいて、縦方向の知覚機能レベル、及び/または、足の運動機能レベルを検知できる(図6A中段参照)。ここで、ペダルモデルとは、例えば、アクセルペダル/ブレーキペダル及びペダル支持構成をモデル化したものであり、ドライバのアクセル操作/ブレーキ操作に伴う踏力データが入力されると、この踏力データに基づいてオペレーションロッドの推力データを出力するようになっている。
また、例えば、ドライバの運転操作に基づくベース機能レベルは、それぞれの運転シーンにおいて、ステアリングのFB(Feed-Back)ゲイン、走行位置、及び/または、ステアリングのモデル操作と実際の操作との推定誤差に基づいて横方向の知覚機能レベル、及び/または、手の運動機能レベルを検知できる(図6A中段参照)。ここで、知覚機能レベルとは、知覚機能が正常に機能している程度を示す指標である。
ドライバの視線挙動に基づくベース機能レベルは、例えば、運転シーン認知部210で認知された運転シーンと視線挙動検知部412で認知されたドライバの視線挙動とを用いた演算により検知できる。具体的には、例えば、それぞれの運転シーンにおいて、(1)サッケードの左眼と右眼の左右差、(2)視線分布、(3)眼振量について、(1)~(3)のうちの1つまたは複数を演算することで、視野範囲についての知覚機能レベルを検知できる。また、それぞれの運転シーンにおいて、サッケードの速度を演算することで、眼球運動に関する運動機能レベルを検知できる(図6B中段参照)。
ドライバの頭部挙動に基づく予測機能レベルは、例えば、運転シーン認知部210で認知された運転シーンと、頭部挙動検知部411で認知されたドライバの頭部挙動と、視線挙動検知部412で認知されたドライバの視線挙動と、運転操作認知部220の認知結果を用いた演算により検知できる。具体的には、例えば、(1)それぞれの運転シーンにおけるドライバの頭部挙動と視線挙動との相互相関を演算することで、運転中の視野範囲及び認知反応時間に関する知覚機能レベル、並びに、眼球運動に関する運動機能レベルを検知でき、(2)それぞれの運転シーンにおけるドライバの頭部挙動と手足機能との相互相関を演算することで手足の運動機能レベルを検知できる(図6B中段参照)。
《異常判定部》
異常判定部440は、後述するセンサテーブル(図14参照)を参照して、運転シーン認知部210で認知された車両の運転シーンに応じた異常判定用センサの出力に基づいてドライバの異常を判定する。前述のとおり、異常判定用センサは、運転操作センサ66及びドライバ状態センサ67のうちの1または複数を含む。
具体的な処理の流れの一例としては、運転操作センサ66及び/またはドライバ状態センサ67の出力が、運転操作認知部220に送信され、運転操作認知部220によりドライバの運転操作として認知される。また、運転操作センサ66及び/またはドライバ状態センサ67の出力が、ドライバ挙動認知部410に送信され、ドライバ挙動認知部410によりドライバの挙動(頭部挙動、視線挙動を含む)として認知される。そして、不随意機能検知部420が、ドライバ挙動認知部410の認知結果に基づいて、不随意機能レベルを演算する。また、運転機能検知部430が、ドライバ挙動認知部410の認知結果に基づいて、予測機能レベル、及び、ベース機能レベルを検出する。異常判定部440は、不随意機能検知部420で演算された不随意機能レベル、並びに、運転機能検知部430演算された予測機能レベル及びベース機能レベルを受信し、これらを総合的に判断して、ドライバの異常を判定する。
異常判定部440は、例えば、運転シーン認知部210で認知された運転シーンに応じて、上記の不随意機能レベル、予測機能レベル及びベース機能レベルから異常判定に用いる1つまたは複数の機能レベルを選択し、それらの組み合わせも含めて所定の条件に合致する場合に、ドライバに異常があると判定する。なお、説明の便宜上、運転シーンに応じて選択された機能レベルを、対象機能レベルと称する。例えば、図4の例では、期間T11,T13,T21,T25,T31,T33における対象機能レベルは、不随意機能レベル、予測機能レベル及びベース機能レベルである。また、期間T22,T24,T32における対象機能レベルは、不随意機能レベル及びベース機能レベルである。また、期間T12,T23における対象機能レベルは、不随意機能レベルである。
ドライバの異常判定のための所定の条件の形式は特に限定されない。例えば、演算された機能レベルに対して、所定の閾値を設けてその閾値との比較に基づいて判定するようにしてもよいし、例えば、基準となる指標や標準モデルなどを用意し、その基準や標準モデルとの一致度や乖離度などに基づいてドライバの異常を判定するようにしてもよい。具体例については、後ほど説明する。
なお、上記の所定の条件は、記憶部300にあらかじめ格納されていてもよいし、車両Aの外部から設定できるようにしてもよい。また、所定の条件は、対象機能レベルを構成する1または複数の機能レベルのそれぞれに設定されていてもよいし、各機能レベルのレベル値をスコア化して、それらを加算したり、加重平均をとったりするなどして対象機能レベル全体としての総合スコアに対して所定の条件または基準が設定されてもよい。
また、異常判定部440は、対象機能レベルが所定の条件に合致した場合に、ドライバの異常の予兆が認識されたと判定するようにし、応答確認部450によりドライバの応答を確認した上で、最終的にドライバの異常を判定するようにしてもよい。すなわち、ドライバの異常判定に際して、ドライバへの問いかけといったような段階的なステップを踏んで判定するようにしてもよい。
《応答確認部》
応答確認部450は、異常判定部440でドライバの異常の予兆が認識されたと判断された場合に、ドライバの応答を確認する機能を有する。応答確認部450は、問いかけ部451と、応答検出部452とを備える。
問いかけ部451は、異常判定部440からドライバへの問いかけ要求を受けたとき、ドライバに対して問いかけを行う。この問いかけは、車両を自動運転により緊急待避させてよいかどうか、ドライバの意思を確認するためのものである。問いかけは、例えば、スピーカD2を介して音声により行ったり、モニタなどの情報表示装置D1を介した表示により行ったりする。
応答検出部452は、問いかけ部451による問いかけに対するドライバの応答を検出する。ドライバの応答は、例えば、スイッチD3の操作や、マイクD4への発声によって行われる。ドライバの緊急停車の意思が確認できたとき、あるいは、ドライバの応答がないとき、異常判定部440は、走行制御部500に対して、車両を自動的に路肩退避させて停止させるよう指示する。
〔記憶部〕
記憶部300には、運転シーン認知部210で認知された車両の運転シーンと、ドライバの異常判定に採用する異常判定用センサとの関係を表すセンサテーブルが記憶されている。図14は、記憶部300に格納されているセンサテーブルの一例を示している。
図14において、左側の列は、運転シーン認知部210で認知された車両の運転シーンが記載され、中央の列において、各運転シーンに対応して使用可能な異常判定用センサが示されている。ここでは、異常判定用センサとして、運転操作センサ66及び車内カメラ68を例示している。また、右側の列には、具体的な判定項目を例示している。図14において、「運転操作センサ」、「頭部挙動」、「視線挙動」のそれぞれの指標は、図6A,6Bの「操作」、「頭部」、「視線」のそれぞれの項目と対応している。また、図14において、「○印」は、異常の判定に用いることができる項目を示しており、「-印」は、異常の判定に用いることが困難な項目を示している。また、図14のCは、困難な理由毎に符号を分けており、C1は判定対象となる行動が生じない、C2は予兆段階では異常時と正常時との差が生じにくい、C3は外乱が大きい、となっている。
なお、図14に示すように、一種類のセンサ(例えば、車内カメラ68)で、複数の項目(例えば、頭部挙動と視線挙動)が測定できるようにしてもよい。また、異常判定用センサとして、運転操作センサ66、車内カメラ68以外のセンサを用いるようにしてもよい。すなわち、センサ群に、運転操作センサ66、車内カメラ68以外の異常判定用センサが含まれていてもよい。また、センサ群には、異常判定用センサ以外のセンサが含まれていてもよい。
さらに、記憶部300には、前述のとおり、車両制御装置10によって実行可能なソフトウェアであるモジュールが格納されている。また、車両制御装置10で使用されるモデル(例えば、後述する運転操作学習モデル415、運転操作推定モデル416)のデータが格納されている。
〔各階層における機能レベルの検知処理及び異常判定処理の一例〕
以下において、不随意行動、ベース行動、予測行動のそれぞれの階層(行動)において、機能レベルの検知動作及びその後の異常判定動作について、具体例を示して説明する。なお、以下の説明は、発明の理解を容易にするために各階層の機能レベルの検知動作の一例を示しているものであって、以下の説明の内容に限定する意図はない。すなわち、それぞれの階層の機能レベルの検知について、以下の説明以外の検知方法を用いてもよい。
〈不随意機能レベルの検知処理〉
ここでは、図6A下段及び図6B下段に示す不随意行動に関する不随意機能レベルの検知項目のうち、頭部挙動及び視線挙動に関する不随意機能レベルの検知動作例について、図面を参照しつつ説明する。
《頭部挙動》
頭部挙動に関する不随意機能レベルの検知動作例について、図7~図9を参照しつつ説明する。図7は、不随意機能レベルの検知動作について説明するためのブロック図であり、図5の構成から説明に用いるブロックを抜粋し、必要に応じて内部ブロックを追加している。
具体的に、図7の例では、運転シーン認知部210は、運転シーン判定部211を備える。不随意機能検知部420は、周期性特徴量演算部421と、時系列変動パターン演算部422とを備える。応答確認部450は、問いかけ部451と、応答検出部452とを備える。また、前述のとおり、ドライバ挙動認知部410は、頭部挙動検知部411を備える。
図7において、頭部挙動検知部411は、車内カメラ68によって撮影された画像からドライバの頭部の挙動を検出する。例えば、頭部挙動検知部411は、画像からドライバの頭部を認識し、頭部の傾斜角、例えばピッチ角とロール角を求める。頭部挙動検知部411における処理は、既存の画像処理技術によって実現することができる。
図8は、頭部挙動の恒常性と疾患との関係を示す図である(非特許文献2,3参照)。図8の各グラフは上方から見た頭部の動きを表しており、(a)は恒常性が維持された正常状態、(b)は正常と疾患との間の臨界減速という状態、(c)は疾患状態である。なお、図8(a),(c)のグラフは非特許文献2から引用したものである。
人間は、外乱に対して状態を一定に保とうとする恒常性という機能を持っている。頭部挙動の恒常性とは、運転中に頭部姿勢を維持しようとする性質のことをいう。図8(a)に示すように、正常状態では、恒常性維持のために、頭部は不規則に変動する。一方、図8(c)に示すように、疾患時には、頭部の変動は小さくなり、挙動が安定する。そして図8(b)に示すように、正常状態から疾患状態に遷移する間の臨界減速状態では、頭部は、周期性(自己相関)を持って変動する、と考えられる(非特許文献3参照)。
そこで、本実施形態では、頭部挙動検知部411による処理によって、図8に示すような頭部挙動の時系列データを得るようにしている。頭部挙動の時系列データは、不随意機能検知部420に送られる。
運転シーン判定部211は、運転シーン認知部210で認知された運転シーンと、車両挙動推定部230から受信した車両挙動データとに基づいて、車両の走行状態が、図14のC3で示すような走行状態(頭部挙動に対する外乱が大きい状態)にあるかどうかを判定する。例えば、コーナ走行時には、ドライバの異常予兆の検知が困難になる傾向があり、運転シーン判定部211は、このようなシーンに該当するか否かを判定する。例えば、車両挙動データが示す車両の左右方向の加速度をドライバの頭部に作用する横加速度として捉え、これが所定値を超えているか否かを判定する。
所定値を超えている場合は、運転シーン判定部211は、ドライバの異常予兆の検知が困難になるシーンと判定する。運転シーン判定部211の判定結果は、不随意機能検知部420に送られる。
周期性特徴量演算部421は、頭部挙動検知部411によって得られた頭部挙動の時系列データから、周期性特徴量を演算する。具体的には、例えば、DFA(Detrended Fluctuation Analysis)により、自己相関指標(スケーリング指数α)を周期性特徴量として求める。また、周期性特徴量演算部421は、運転シーン判定部211によってドライバの異常予兆の検知が困難になるシーンと判定されたとき、周期性特徴量の演算を行わない。
時系列変動パターン演算部422は、周期性特徴量演算部421によって得られた周期性特徴量の時系列データを、時間順に切り出し、切り出した時系列データから時系列変動パターンを演算し、パターン分類する。具体的には、例えば、周期性特徴量の時系列データを、非線形次元圧縮手法の1つであるUMAPを用いて次元削減し、2次元データに変換する。そして、この2次元データ変換によって得られたデータを、記憶部300に格納された異常判定閾値データベース310の閾値と比較し、その比較結果に基づいて不随意機能レベルを算出し、異常判定部440に出力する。例えば、図9の2次元マップにおける判定ラインLTHが、異常判定閾値データベース310に格納された閾値に相当する。時系列変動パターン演算部422は、上記の2次元データ変換によって得られたデータが、2次元マップ上において、判定ラインLTHのどちら側に位置するか、また、その判定ラインLTHからどの程度離れているかに基づいて、不随意機能レベルを算出する。
《視線挙動》
視線挙動に関する不随意機能レベルの検知動作例について、図11~図13を参照しつつ説明する。図11は、不随意機能レベルの検知動作について説明するためのブロック図であり、図5の構成から説明に用いるブロックを抜粋し、必要に応じて内部ブロックを追加している。具体的に、図11の例では、運転シーン認知部210は、注意度検出部213を備える。不随意機能検知部420は、異常条件設定部424を備える。また、前述のとおり、ドライバ挙動認知部410は、視線挙動検知部412を備える。応答確認部450は、問いかけ部451と、応答検出部452とを備える。
図10において、視線挙動検知部412は、車内カメラ68によって撮影された画像からドライバの視線の挙動(例えば、サッケード)を演算する。サッケードは、人(例えば運転者)が意図的に視線を移動させる跳躍性眼球運動のことである。具体的には、サッケードは、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。この例では、視線挙動検知部412は、車内カメラ68により得られた画像データに対して視線検出処理を行うことで、ドライバの視線を検出し、ドライバの視線の移動に基づいてドライバのサッケードを検出する。なお、この視線検出処理は、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の視線検出技術を用いて行われる処理であってもよい。
注意度検出部213は、車外カメラ61、レーダ62、位置センサ63、車外通信装置65及び車両挙動推定部230のうちの1または複数で取得されたデータを用いて車両の外部環境における注意度を検出する。注意度は、車両の外部環境における注意箇所(車両の運転者が走行中に確認すべき注意箇所)の多さを示す指標である。車両の外部環境において注意箇所が多くなるに連れて、車両の外部環境における注意度が高くなる。注意度検出部213の検出結果は、異常条件設定部424に送信される。注意箇所の例としては、動体の飛び出しが予測される箇所、自車両の障害物となり得る物体が存在する箇所などが挙げられる。
異常条件設定部424は、異常判定部440でドライバの異常の判定判定に用いる異常条件を設定する。この例では、異常条件設定部424は、視線挙動検知部412で検出された運転者のサッケードに基づいて、異常条件に含まれる閾値を設定する。
なお、図14の視線挙動の欄に記載のとおり、車両の走行状態として「危険回避」をしている場合、視線挙動の検知結果は、ドライバの異常判定に採用されない(図14のC2参照)。これは、発明者らによるドライビングシミュレータ70を用いた実験から得られた、「車両が危険回避をしているような場合には、異常時と正常時とでドライバの視線挙動(特に、サッケード振幅)に差が生じにくい」という知見に基づいている。なお、図14は、一例を示しており、後述する図20,21に示すように、車両が危険回避をしている運転シーンでも、異常時と正常時とでドライバの視線挙動が異なるという評価項目もあり、そのような評価項目については、ドライバの異常判定に採用してもよい。図14の他の項目においても同様である。すなわち、図14は、あくまで例示であり、“図14において「-」で示したものがドライバの異常判定に採用されない”ということを示す趣旨ではまったくない。
(サッケードの振幅検出処理)
次に、図12を参照して、ここでの異常判定部440の動作について説明する。
まず、視線挙動検知部412は、サッケードの振幅を検出する第1期間P1を設定し、第1期間P1が設定される毎に、図12に示した処理(ステップST11~ST14)を行う。
-ステップST11-
視線挙動検知部412は、ドライバの視線を検出する。例えば、視線挙動検知部412は、車内カメラ68により得られた画像(画像データ)の中からドライバの瞳孔を検出し、その検出された瞳孔に基づいてドライバの視線を検出する。次に、視線挙動検知部412は、ドライバの視線からドライバの視線の移動距離の時間的変化に基づいて、ドライバの視線の速度を算出する。
-ステップST12-
次に、視線挙動検知部412は、視線の移動速度に基づいて、サッケードの候補となるサッケード候補を抽出する。例えば、視線挙動検知部412は、視線の移動速度が予め定められた速度閾値(例えば40deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出する。そして、視線挙動検知部412は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード候補」として抽出する。
-ステップST13-
次に、視線挙動検知部412は、最小自乗法により複数のサッケード候補に基づいた回帰曲線を導出し、その回帰曲線に対して視線の移動速度の増減方向にそれぞれ基準曲線を引いて、その基準曲線間をサッケード範囲とする。そして、視線挙動検知部412は、複数のサッケード候補のうち所定のサッケード範囲内に含まれるサッケード候補をサッケードとして抽出し、サッケード範囲内に含まれないサッケード候補をサッケードとして抽出しない。
-ステップST14-
次に、視線挙動検知部412は、第1期間P1内におけるサッケードの振幅dsを算出する。具体的には、視線挙動検知部412は、第1期間P1内に含まれるサッケードの振幅dsの平均値を「第1期間P1内におけるサッケードの振幅ds」として算出する。
(本願発明者により行われた実験1)
本願発明者は、運転者の状態と運転者の挙動(特に視線の動き)との関係を調べるために、下記のような実験を実施した。
まず、突発性異常状態に関するデータを収集するために、癲癇の症状を有する患者(以下では「癲癇患者」と記載)を被験者として選出した。そして、ドライビングシミュレータ70(図20参照)を用いて車両の運転操作を被験者に擬似的に体験させた。具体的には、ドライビングシミュレータ70により車両の走行中の動画像(車内から見える車両の外部環境を示す動画像)を被験者に視聴させ、その被験者の実験中の挙動を観測することで、被験者の車両運転時の挙動を擬似的に観測した。この実験では、車両の走行中の動画像を視聴する被験者の前方にカメラを設置し、撮像範囲内に被験者の眼球が含まれるようにカメラを設定した。
そして、カメラにより得られた画像データに対して視線検出処理を行うことで、被験者の視線を検出した。また、視線検出処理により得られた被験者の視線に対してサッケード検出処理を行うことで、被験者のサッケードを検出し、所定期間内におけるサッケードの振幅を算出した。これらの処理は、視線挙動検知部412において行われる処理と同様である。
以上の実験を複数の被験者に対して実施した。これらの複数の被験者の中には、実験中に癲癇の発作が現れた被験者がいた。そのため、被験者の癲癇発作時のデータを取得することができた。
図13に示すように、癲癇発作が現れる直前の期間から癲癇発作が現れた時点までの期間(図13の約3915秒から約3930秒までの期間)では、被験者のサッケードの振幅および頻度がさらに低下してゼロとなっている。この被験者のサッケードの振幅および頻度がゼロである状態は、10秒以上継続している。
異常判定部440では、例えば、運転者の状態が正常状態であるときの第1期間P1内のサッケードの振幅dsを記憶部300に記憶させるとともに、正常状態の振幅(例えば、平均値)の50%にサッケード振幅異常判定のための閾値を設定する。そして、異常判定部440は、例えば、ドライバのサッケードの振幅dsが所定期間連続してその閾値以下になるとドライバに異常があると判定する。
《異常判定処理》
前述のとおり、期間T12,T23における対象機能レベルは、不随意機能レベルのみである。そこで、期間T12,T23では、異常判定部440は、不随意機能検知部420から出力された不随意機能レベルに基づいてドライバの異常判定を行う。
そして、ドライバに異常が確認された場合には、走行制御部500に、車両Aを自動的に路肩退避させて停止させる制御をするように指示する。なお、前述のとおり、異常判定部440は、異常判定に際して、応答確認部450を介してドライバの応答を確認した上で、最終的にドライバの異常を判定するようにしてもよい。
〈ベース機能レベルの検知処理〉
ここでは、図6A中段及び図6B中段に示すベース行動に関するベース機能レベルの検知項目のうち、運転操作に関するベース機能レベルの検知動作例について、図面を参照しつつ説明する。
《運転操作》
図15は、不随意機能レベルの検知動作について説明するためのブロック図であり、図5の構成から説明に用いるブロックを抜粋し、必要に応じて内部ブロックを追加している。具体的に、図15の例では、ドライバ挙動認知部410は、運転操作推定部414と、運転操作学習モデル415と、運転操作推定モデル416とを備える。ベース機能検知部435は、推定誤差算出部436を備える。運転操作学習モデル415及び運転操作推定モデル416は、例えば、記憶部300に格納される。
図15において、運転操作推定部414は、運転操作認知部220で認知された運転操作情報、運転シーン認知部210で認識された運転シーン情報、及び、車両挙動推定部230で生成された車両挙動データを受信する。運転シーン情報は、例えば、走行車線の情報、制限速度の情報、車両の位置情報を含む。また、前述のとおり、車両挙動データは、車速情報を含む。運転操作推定部414は、車両Aの走行中に、深層学習により生成された運転操作学習モデル415を用いて、上記の運転操作情報、運転シーン情報及び車両挙動データから普段のドライバの運転操作についての運転特性を示すモデルパラメータを生成して蓄積する。
さらに、運転操作推定部414は、車両Aの走行中に、深層学習により生成された運転操作推定モデル416を用いて、上記の運転操作情報、運転シーン情報、車両挙動データ及びモデルパラメータから、その時々のドライバの運転操作を推定する。すなわち、運転操作推定部414は、普段のドライバの運転操作から、その時々の運転シーンにおいて、通常状態(健康状態)であれば、ドライバはどのような運転操作をするかを推定する。運転操作推定部414は、運転操作の推定値(以下では操作推定値という)を推定誤差算出部に出力する。
推定誤差算出部436では、上記の操作推定値と、実際の運転操作に基づく値(以下では実操作値という)とを比較して、普段の操作からの逸脱度を演算し、操作逸脱度として異常判定部440に出力する。図16では、ステアリング操作について、正常状態におけるステアリング操作と、異常状態におけるステアリング操作とについて、操作推定値と実操作値とを重ねて表示している。図16は、正常状態及び異常状態のそれぞれの運転シーンにおける30秒間の運転データを示している。
異常判定部440では、推定誤差算出部436から受信した操作逸脱度が、所定の基準を満たしているかどうかに基づいて、ドライバに異常の兆候があると判定する。所定の基準の設定方法は特に限定されないが、例えば、ステアリングの操作逸脱度として、所定期間(図16では30秒)のステアリングの推定誤差の平均が0.4[deg]以上であればドライバに異常の兆候があると判定するという基準を設ける。また、単純な閾値を設けるのではなく、ステアリングの推定誤差との乖離量に基づいた乖離スコアを演算し、その乖離スコアを基に、ベース機能レベルを算出するようにしてもよい。
《異常判定処理》
前述のとおり、図4の期間T22,T24,T32における対象機能レベルは、ベース機能レベル及び不随意機能レベルである。そこで、期間T22,T24,T32では、異常判定部440は、不随意機能検知部420から出力された不随意機能レベル及びベース機能検知部435から出力されたベース機能レベルについて、組み合わせも含めて所定条件に合致するかどうかを判定する。この場合に、前述の図14に示すように、走行シーンに応じて、どのような指標を組み合わせるかを判断してもよい。また、各機能レベルのレベル値をスコア化して、それらを加算したり、加重平均をとったりするなどして、ベース機能レベル及び不随意機能レベルから選択された一部または全体としての総合スコアに対して所定の条件が設定されてもよい。
また、図17に示すように、疾患の種類などに応じて、機能が低下する順番がわかっているものがある。そのような場合には、機能低下の順番を加味して所定の条件を段階的に設定し、その設定した条件に合致するかどうかを判定することでドライバの異常を判定するようにしてもよい。
例えば、図17のケースBは、ベース機能が低下してから不随意機能が低下するケースである。このようなケースに該当する例としては、例えば、視床などの梗塞で手足の運動機能障害が現れ、さらに進行して姿勢保持困難状態(例えば、体幹くずれなど)が生じた場合がある。この場合、運転操作についてのベース機能レベルの低下が検知され、その後に、頭部挙動の不安定が現れる、すなわち、不随意機能レベル低下が検知される。そこで、異常判定部440が、この順番を加味して、ベース機能レベルが所定の判定基準以下に低下したときに、不随意機能レベルの判定閾値を下げて、不随意機能レベルの異常判定がされやすくするようにしてもよい。
また、例えば、図17のケースDは、不随意機能が低下してからベース機能が低下するケースである。このようなケースとして、例えば、図4の期間T23~T24のような運転シーン(ベース機能レベルよりも不随意機能レベルの判定精度が高そうな状況)において、頭部挙動が不安定になる場合がある。すなわち、発明者らの知見では、ドライバに疾患が発症した場合、高次行動から機能低下が生じ、その後、徐々に、ベース行動の機能低下、不随意行動の機能低下へと変容していく。しかしながら、図4の期間T23~T24のような運転シーンでは、運転機能よりも不随意機能の異常の予兆が先に検知されるケースがある。そこで、このような場合に、異常判定部440では、運転機能検知部430において、頭部挙動が不安定になったことが検知された場合に、ベース機能レベルの判定閾値を下げるようにしてもよい。これにより、その後のカーブ路などでベース機能レベルの異常判定がされやすなり、ドライバ異常の早期発見と高精度の判定を両立させることができる。
〈予測機能レベルの検知処理〉
ここでは、図6A上段及び図6B上段に示すベース行動に関する予測機能レベルの検知項目のうち、視線挙動及び運転操作に関するベース機能レベルの検知動作例について、図面を参照しつつ説明する。
《視線挙動及び運転操作》
視線挙動に関する予測機能レベルの検知動作において、ブロック図としては、図11と同じような構成を用いることができるので、ここでは不随意機能レベルの検知動作と異なる点を中心に説明する。具体的には、図11における不随意機能検知部420の位置にベース機能検知部435が設けられる。
ここでの視線挙動検知部412は、車内カメラ68により撮影された運転者の眼球画像から、運転者の視線方向を算出する。視線挙動検知部412は、例えば、運転者が車内カメラ68のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線挙動検知部412で算出された視線方向は、予測機能検知部431に送信される。同様に、運転シーン認知部210で認知された運転シーンが、予測機能検知部431に送信される。
予測機能検知部431では、運転シーン認知部210で認知された運転シーンに、視線挙動検知部412で算出された視線を重ねる処理が実行される。
(本願発明者により行われた実験2)
図18,19は、ドライビングシミュレータ70を用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図18は健常者の測定結果であり、図19は機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。
サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。
図18,19の例では、異常条件設定部424は、例えば、所定の条件として、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定するとともに、所定時間に対する閾値を超えた面積を設定する。そうすると、異常判定部440では、サリエンシー指標が0.6を超えた面積(斜線領域の面積)が、所定の閾値を超えた場合に、ドライバに異常がある(例えば、注意機能の障害がある)または異常の予兆があると判定する。すなわち、異常判定部440は、ドライバに異常があるまたは異常の兆候があると判定する。
(本願発明者により行われた実験3)
図20,21は、ドライビングシミュレータ70を用いて、運転者の視線を検出し、運転シーンの画像に重ねた結果を示している。予測機能検知部431でも同様の処理が実行される。
図20では、車の影から歩行者が現れた場合における通常時と異常時の視線の動きの一例をプロットしている。図21において、実線は通常時の視線の動きを示しており、破線は異常時の新線の動きを示している。通常時は、歩行者が出現する数秒前(例えば、2秒前)から歩行者の出現場所にも注意が向いているのに対し、異常時には、前方の道路に注意が集中し、歩行者が現れてから注視するといったことが発生している。そうすると、図22(a)に示すように、疾患者は、健常者と比較して駐車車両などの障害物に近づく傾向があり、図22(b)に示すように潜在的なリスクが増加する。そこで、予測機能検知部431は、例えば、自車両と障害物との距離に応じたリスク値を演算し、そのリスク値に基づいて、ドライバ異常を判定する。
なお、予測機能検知部431において、前述の「ベース機能レベルの運転操作の検知処理」の場合と同様の処理を行うようにしてもよい。具体的には、例えば、予測機能検知部431は、ドライバの普段の視線挙動についてのモデルパラメータを生成し、運転操作情報、運転シーン情報、車両挙動データ及びモデルパラメータから、その時々の運転シーンにおいて、通常状態(健康状態)であれば、ドライバはどのような視線挙動をするかを推定する。そして、上記の推定された視線挙動と、実際の視線挙動との推定誤差を算出し、異常判定部440に出力する。そして、異常判定部440では、予測機能検知部431から受信した操作逸脱度が、所定の基準を満たしているかどうかに基づいて、ドライバに異常の兆候があると判定する、としてもよい。なお、モデルパラメータとして、一般の正常な運転者のモデルを使用するようにしてもよい。
《異常判定処理》
前述のとおり、図4の期間T11,T13,T21,T25,T31,T33における対象機能レベルは、予測機能レベル、ベース機能レベル及び不随意機能レベルである。そこで、これら期間では、異常判定部440は、不随意機能検知部420から出力された不随意機能レベル、ベース機能検知部435から出力されたベース機能レベル及び予測機能検知部431から出力された予測機能レベルについて、組み合わせも含めて所定条件に合致するかどうかを判定する。この場合に、前述の図14に示すように、走行シーンに応じて、どのような指標を組み合わせるかを判断してもよい。また、各機能レベルのレベル値をスコア化して、それらを加算したり、加重平均をとったりするなどして、ベース機能レベル及び不随意機能レベルから選択された一部または全体としての総合スコアに対して所定の条件が設定されてもよい。
また、前述のとおり、発明者らの知見では、ドライバに疾患が発症した場合、高次行動から機能低下が生じ、その後、徐々に、ベース行動の機能低下、不随意行動の機能低下へと変容していく。そこで、図4の期間T11,T13,T21,T25,T31,T33のように、対象機能レベルが複数ある場合(予測機能レベル、ベース機能レベル及び不随意機能レベル)において、図14の「追従走行」のように複数の検出手段が使用できるような場合に、異常判定部440において、予測機能検知部431の出力を優先して異常判定を行うようにしてもよい。また、複数の機能レベルのそれぞれについてスコアを出して、その総合スコア(組み合わせ)により判断するような場合に、予測機能検知部431からの出力について、他の機能レベルの検知結果よりも相対的にスコアが高くなるように設定してもよい。
また、図17に示すように、疾患の種類などに応じて、機能が低下する順番がわかっているものがある。そのような場合に、機能低下の順番を加味して所定の条件を段階的に設定し、その設定した条件に合致するかどうかを判定することでドライバの異常を判定するようにしてもよい。機能低下の順番は、例えば、テーブルとして管理され、あらかじめ記憶部300などに格納するようにしてもよい。
例えば、図17のケースAは、予測機能が低下してからベース機能が低下するケースである。このようなケースに該当する例としては、例えば、前頭葉の梗塞で注意障害を発症し、さらに進行して視床等の障害により手足の運動機能障害が現れた場合で、視線挙動の変化が現れ、次いで運転操作の不安定が現れる場合がある。この場合、視線挙動についての予測機能レベルの低下が検知され、その後、運転操作の不安定が現れる、すなわち、ベース機能レベル低下が検知される。そこで、異常判定部440が、この順番を加味して、特定の項目に係る予測機能レベルが所定の判定閾値以下に低下したときに、その予測機能に対応するベース機能レベルの判定閾値を下げて、不随意機能レベルの異常判定がされやすくするようにしてもよい。
例えば、図17のケースCは、予測機能が低下してから不随意機能が低下するケースである。このようなケースに該当する例としては、例えば、前頭葉の梗塞で注意障害を発症し、さらに進行して視床等の障害により姿勢保持困難(体幹崩れ等)が生じた場合がある。この場合、視線挙動についての予測機能レベルが低下し、その後、頭部挙動の不安定が現れる、すなわち、不随意機能レベル低下が検知される。そこで、異常判定部440が、この順番を加味して、特定の予測機能レベルが所定の判定閾値以下に低下したときに、その予測機能に対応する不随意機能レベルの判定閾値を下げて、不随意機能レベルの異常判定がされやすくするようにしてもよい。
〈異常判定処理〉
ここまでの説明では、車両制御装置10によるドライバの異常判定処理について、各機能レベルの検知処理と紐づけて説明した。ここでは、図23を参照しつつ、ドライバの異常判定という観点から、一連のドライバの異常判定動作について説明する。なお、ドライバの異常判定に使用するブロック図は、図5をはじめとして、これまでの説明と共通であり、ここでは構成についての説明を省略する。
-ステップST21-
運転シーン認知部210は、前述のとおり、外部環境情報取得装置60で取得された外部環境情報に基づいて、車両の運転シーンを認知する。異常判定部440は、記憶部300のセンサテーブルを参照し、前述のセンサ群の中から運転シーン認知部210で認知された車両の運転シーンに対応する異常判定用センサを選定する。
なお、異常判定用センサの選定は、異常判定部440以外のブロックで実行されてもよい。そして、異常判定部440よりも前のブロックで、異常判定用センサ以外のセンサに係る処理を停止させるようにしてもよい。
-ステップST22-
演算処理部100では、運転シーン認知部210で認知された運転シーンが運転機能の発揮が必要な運転シーンか否かを判定する。運転機能の発揮が必要な運転シーンか否かとは、例えば、運転操作センサ66の出力に基づいて、ドライバの運転操作があるか否かで判定することができる。なお、運転機能の発揮が必要な運転シーンか否かの判定方法は、特に限定されず、例えば、車外カメラ61の撮影結果や車両状態センサ64などの情報を基に車両の走行状態(停車状態)から判定してもよいし、車内カメラ68などのドライバ状態センサ67を用いてドライバの状態をモニタすることで判定するようにしてもよいし、それらを組み合わせてもよい。
例えば、図4の期間T11のような運転シーンの場合、運転シーン認知部210では、運転機能の発揮が必要な運転シーン、すなわち、不随意機能、ベース機能レベル及び予測機能の発揮が必要な運転シーンと判定される。そうすると、ステップST22では「YES」となり、フローはステップ「ST24」に進む。なお、この運転シーンの判定は、認知部200で実行されてもよいし、ドライバ状態推定部400で実行されてもよい。
-ステップST24-
異常判定部440は、不随意機能検知部420、予測機能検知部431、及び、ベース機能検知部435で検知されたドライバの機能レベルの結果について、それらの組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常を判定する。例えば、異常判定部440は、図24に示すように、不随意機能検知部420、予測機能検知部431、及び、ベース機能検知部435の各機能(以下、単に各機能ともいう)ついての判定基準を設け、それぞれの判定基準を満たすかどうかを判定する。図24の例では、これまで説明した評価項目での判定が実施される例を示している。
図24では、不随意機能の評価項目の例として、周期性特徴量(頭部挙動)及びサッケード振幅(視線挙動)を示している。ここでは、初期状態(ドライバが正常な状態)として、周期性特徴量の判定基準は、前述の判定ラインLTH(図10参照)に基づくものとする。サッケード振幅の判定基準は、ドライバの正常運転時の平均に対して50%未満の状態が所定時間継続した場合に、サッケード振幅についてドライバ異常があると判定するものとする。ベース機能の評価項目の例として、ステア操作の逸脱度(運転操作)を示している。ここでは、ステア操作の逸脱度の判定基準は、推定誤差が0.4[deg]以上でステア操作についてドライバ異常があると判定するものとする(図16参照)。予測機能の評価項目の例として、サリエンシー指標(視線挙動)及び障害物との距離(運転操作)を示している。サリエンシー指標では指標が0.6を超える面積がX(Xは正の数)以上の場合に視線挙動にドライバ異常があり、障害物との距離においてはリスク値がY(Yは正の数)以上の場合に運転操作にドライバ異常があると判定するものとする。これらの評価項目及び判定基準は、例えば、記憶部300に格納されている。
図24の例では、期間T11において、すべての項目(機能)が正常に機能しており、異常判定部440は、「NG項目なし」(図23では「NGなし」と記載)と判定し、フローはステップST21に戻る。
例えば、図4の期間T11の場合、車両Aは街道を走行しているので運転シーンは時間の経過とともに変化する。期間T11において、ドライバの状態が正常な状態が継続しているとすると、運転シーンに応じて採用される異常判定用センサが随時変更されながら、上記のST21,ST22,ST24の処理が繰り返し実行される。
-ステップST21-
フローがステップST21に戻ると、運転シーン認知部210による車両の運転シーンの認知結果が更新される。また、異常判定部440は、記憶部300のセンサテーブルを参照し、更新された運転シーンに対応する異常判定用センサを選定する。期間T12では、車両Aは停車しているので、運転操作センサ66は、異常判定用センサとして採用されない(図14及び図24参照)。また、図14には記載していないが、図24に示すように、予測機能を測定するための測定項目もドライバの異常判定には用いられない。そこで、例えば、サッケード振幅を測定するためのセンサと、サリエンシー指標を測定するためのセンサとが異なる場合に、期間T12においてサリエンシー指標を測定するためのセンサを異常判定用センサとして採用しないとしてもよい。
-ステップST22-
図24において、次の期間T12では、運転機能の発揮が必要な運転シーンではなく、すなわち、運転機能の検知が困難であり、不随意機能のみが判定対象であるものとする。そうすると、ステップST22では「NO」となり、フローはステップST34に進む。
-ステップST34-
異常判定部440は、不随意機能検知部420で検知されたドライバの機能レベルの結果について、不随意機能の各測定項目の組み合わせも含めて、所定の条件や基準と照らし合わせてドライバの異常の予兆があるか否かを判定する。図24の例では、期間T12において、サッケード振幅について判定基準を満たさなくなったものとする。そうすると、ステップST34では、「NG項目あり」(図23では「NGあり」と記載)となり、フローは次のステップST35に進む。
-ステップST35-
異常判定部440は、不随意機能検知部420での測定結果を総合して、ドライバの異常を判定する。すなわち、車両Aを自動運転に切り替えるか否かを判定する。ここでは、例えば、異常判定部440は、周期性特徴量(頭部挙動)及びサッケード振幅(視線挙動)の両方の項目がNGの場合に、ドライバに異常が発生したと判定し(ステップST35でNG)、自動運転に切り替える制御をするものとする(ステップST36)。
図24の期間T12では、サッケード振幅の片方のみがNGなので、ステップST35では「OK」となり、フローはステップST38に進む。
-ステップST38-
異常判定部440は、ドライバ異常を判定するための判定基準をドライバの異常が判定されやすい方向に緩和する。すなわち、通常時にはドライバ異常と判断されないような状態においても、早期にドライバ異常と判定されるようにする。どの判定基準を変更するかは特に限定されない。不随意機能についての判定基準を変更してもよいし、運転機能(ベース機能及び/または予測機能)についての判定基準を変更してもよい。ここでは、(1)予測機能について、サリエンシー指標の評価基準を「X以上でNG」から「X-α(αは正の数)でNG」に緩和し、(2)ベース機能について、ステア操作の逸脱度を「0.4[deg]以上でNG」から「0.35[deg]以上でNG」に緩和するものとする。ステップST38の処理が終わると、フローはステップST21に戻る。
-ステップST21-
フローがステップST21に戻ると、運転シーン認知部210による車両の運転シーンの認知結果が更新される。また、異常判定部440は、記憶部300のセンサテーブルを参照し、更新された運転シーンに対応する異常判定用センサを選定する。ここで、車両の運転シーンは、期間T13に移行したものとする。期間T13では、車両Aは再び街道を走行しているので、運転シーンによって、運転操作センサ66も異常判定用センサとして採用され得る(図14及び図24参照)。
-ステップST22-
図24において、期間T13は、運転機能の発揮が必要な運転シーンであり、ステップST22は「YES」となり、フローはステップST24に進む。
-ステップST24-
異常判定部440は、前述のとおり、図24の判定項目と判定基準に基づいてドライバの異常を判定する。なお、サリエンシー指標については、判定基準が緩和された状態となっている。そして、期間T13では、サリエンシー指標についても、NG判定となったものとする。ここでは、異常判定部440は、「NG項目あり」(図23では「NGあり」と記載)と判定するので、フローは次のステップST25に進む。
-ステップST25-
異常判定部440は、不随意機能検知部420で検知された不随意機能の発揮レベル、予測機能検知部431で検知された予測機能の発揮レベル、及び、ベース機能検知部435で検知されたベース機能の発揮レベルの評価結果を総合して、ドライバの異常を判定する。すなわち、車両Aを自動運転に切り替えるか否かを判定する。ここでは、例えば、異常判定部440は、(1)不随意機能において周期性特徴量(頭部挙動)及びサッケード振幅(視線挙動)の両方がNGの場合、または、(2)4つ以上の評価項目がNGの場合に、ドライバに異常が発生したと判定し(ステップST25でNG)、自動運転に切り替える制御をするものとする(ステップST26)。
図24の例では、不随意機能ではサッケード振幅の片方のみがNGで、評価項目のうちNGの項目が2つなので、ステップST25で「OK」となり、フローはステップST28に進む。
-ステップST28-
異常判定部440は、ドライバ異常を判定するための判定基準をドライバ異常が判定されやすい方向に緩和する。すなわち、通常時にはドライバ異常と判断されないようなドライバの状態においても、早期に異常と判定されるようにする。どの判定基準を変更するかは特に限定されない。不随意機能の発揮レベルについての判定基準を変更してもよいし、運転機能(ベース機能及び/または予測機能)の発揮レベルについての判定基準を変更してもよい。ここでは、上記のステップST38での条件緩和に加えて、(1)ベース機能の発揮レベルについて、ステア操作の逸脱度を「0.35[deg]以上でNG」から「0.3[deg]以上でNG」にさらに緩和し、(2)予測機能の発揮レベルについて、障害物との距離についての評価基準を「リスク値がY以上でNG」から「リスク値がY-β(βは正の数)以上でNG」に緩和するものとする。ステップST28の処理が終わると、フローはステップST21に戻る。
-ステップST21-
フローがステップST21に戻ると、運転シーン認知部210による車両の運転シーンの認知結果が更新される。また、異常判定部440は、記憶部300のセンサテーブルを参照し、更新された運転シーンに対応する異常判定用センサを選定する。車両の運転シーンは、期間T13のままであるものとする。
-ステップST22-
図24において、期間T13は、運転機能の発揮が必要な運転シーンであり、ステップST22は継続して「YES」であり、フローはステップST24に進む。
-ステップST24-
異常判定部440は、前述のとおり、図24の判定項目と判定基準に基づいてドライバ異常を判定する。ここでは、継続して「NG項目あり」となり、フローは次のステップST25に進む。
-ステップST25-
異常判定部440は、前述のとおり、不随意機能の発揮レベル、予測機能の発揮レベル、及び、ベース機能の発揮レベルの評価結果を総合して、ドライバの異常を判定する。ここでは、NGの評価項目が4つに増えたものとする(図24の最左の欄参照)。そうすると、ステップST25で「NG」となり、フローはステップST26に進む。
-ステップST26-
異常判定部440は、走行制御部500に対して、車両を自動的に退避位置(例えば、路肩)に退避させて停車させるよう指示する。これにより、車両Aは、走行制御部500の制御を受けて、路肩へ退避走行し、退避位置に停車する。
以上のように、本実施形態によると、車両制御システム1は、異常判定用センサを含むセンサ群(運転操作センサ66、ドライバ状態センサ67を含む)と、運転シーン認知部210と、運転シーン認知部210で認知された車両の運転シーンと異常判定用センサとの関係を表すセンサテーブルが記憶された記憶部300と、センサテーブルを参照して運転シーン認知部210で認知された車両Aの運転シーンに応じた異常判定用センサの出力に基づいてドライバの異常を判定する異常判定部440とを備える。車両制御システム1は、ドライバ異常判定システムの一例である。
なお、上記の実施形態では、異常判定用センサの検出データに基づいて、異常の予兆を検知する不随意機能検知部420及び運転機能検知部430を設け、異常判定部440は、不随意機能検知部420及び運転機能検知部430の検知結果を総合して、ドライバの異常を判定する例を示した。すなわち、本実施形態では、ドライバの機能ごとにわけて、異常予兆を検知するための検知部を設け、それらを総合してドライバの異常を判定する例を示した。一方で、ドライバの異常を判定する際に、このように機能ごとに分けた方法を用いなくてもよい。すなわち、異常判定部440が、運転シーン認知部210で認知された車両の運転シーンと、前述のセンサ群を構成する各センサからの検出結果とを受信するように構成してもよい。そして、異常判定部440が、記憶部300のセンサテーブルを参照し、運転シーン認知部210で認知された運転シーンに応じてセンサ群の中から選択された異常判定用センサの出力に基づいてドライバの異常を判定するようにしてもよい。この場合においても、上記実施形態と同様の効果が得られる。
ここに開示された技術は、車両に搭載されるドライバ状態判定装置として有用である。
A 車両
1 車両制御システム(ドライバ異常判定システム)
66 運転操作センサ
210 運転シーン認知部
300 記憶部
440 異常判定部

Claims (2)

  1. 車両を運転するドライバの異常を判定するドライバ異常判定システムであって、
    ドライバの運転操作を検出するための1又は複数の運転操作センサと、ドライバの頭部の挙動、ドライバの眼球運動及び/又は視線の移動を検出するための1又は複数のドライバ状態センサと、を含むセンサ群と、
    前記車両が運転されている運転シーンの認知が可能な運転シーン認知部と、
    前記運転シーン認知部で認知された車両の運転シーンと、前記運転操作センサ及び/又は前記ドライバ状態センサの中でそれぞれの運転シーンごとに設定されたドライバの異常判定に使用する異常判定用センサとの関係を表すセンサテーブルが記憶された記憶部と、
    前記センサテーブルを参照して、前記運転シーン認知部で認知された車両の運転シーンに応じた前記異常判定用センサの出力に基づいてドライバの異常を判定する異常判定部とを備える、
    ことを特徴とするドライバ異常判定システム。
  2. 前記センサテーブルでは、
    複数の運転シーンが設定されており、
    前記異常判定用センサとして使用する前記運転操作センサ及び/又は前記ドライバ状態センサと、当該異常判定用センサによって判定する判定項目とが、それぞれの運転シーンに紐づけて設定されている、
    ことを特徴とする請求項1に記載のドライバ異常判定システム。
JP2020071673A 2020-04-13 2020-04-13 ドライバ異常判定システム Active JP7459634B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020071673A JP7459634B2 (ja) 2020-04-13 2020-04-13 ドライバ異常判定システム
US17/198,278 US11603104B2 (en) 2020-04-13 2021-03-11 Driver abnormality determination system, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071673A JP7459634B2 (ja) 2020-04-13 2020-04-13 ドライバ異常判定システム

Publications (2)

Publication Number Publication Date
JP2021167165A JP2021167165A (ja) 2021-10-21
JP7459634B2 true JP7459634B2 (ja) 2024-04-02

Family

ID=78007172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071673A Active JP7459634B2 (ja) 2020-04-13 2020-04-13 ドライバ異常判定システム

Country Status (2)

Country Link
US (1) US11603104B2 (ja)
JP (1) JP7459634B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022144818A (ja) * 2021-03-19 2022-10-03 本田技研工業株式会社 運転支援装置、運転支援方法
JP2022178810A (ja) * 2021-05-21 2022-12-02 マツダ株式会社 車両制御装置
CN114190891B (zh) * 2021-12-02 2023-11-10 杭州极智医疗科技有限公司 基于眼动跟踪与沉浸式驾驶平台的单侧忽略评估系统
CN114407918B (zh) * 2021-12-30 2023-03-14 广州文远知行科技有限公司 接管场景分析方法、装置、设备及存储介质
CN114454891B (zh) * 2022-02-28 2023-09-26 奇瑞汽车股份有限公司 汽车的控制方法、装置及计算机存储介质
US12027050B2 (en) * 2022-03-29 2024-07-02 Woven By Toyota, Inc. Hazard notification method and system for implementing
CN114677779B (zh) * 2022-03-30 2024-05-28 广州文远知行科技有限公司 车辆配置状态监测方法、装置、存储介质、计算机设备
CN114842618A (zh) * 2022-04-24 2022-08-02 北京启辰智达科技有限公司 一种嵌入式司机行为状态预警方法、装置、车辆及介质
WO2024157156A1 (en) * 2023-01-23 2024-08-02 Gentex Corporation Driver monitoring system with lane detection
CN117789307A (zh) * 2024-01-18 2024-03-29 广州中科智巡科技有限公司 押运违规行为的智能提醒方法、系统和车载电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014016910A1 (ja) 2012-07-24 2014-01-30 トヨタ自動車株式会社 運転支援装置
JP2019166968A (ja) 2018-03-23 2019-10-03 株式会社デンソー 状態判定装置、及び状態判定プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1879135B (zh) 2003-11-30 2010-07-14 沃尔沃技术公司 用于识别驾驶员机能障碍的方法和系统
US9188980B2 (en) * 2008-09-11 2015-11-17 Deere & Company Vehicle with high integrity perception system
JP5326521B2 (ja) 2008-11-26 2013-10-30 日産自動車株式会社 覚醒状態判断装置及び覚醒状態判断方法
JP7056164B2 (ja) 2018-01-18 2022-04-19 マツダ株式会社 ドライバ状態判定装置
JP7204739B2 (ja) * 2018-03-30 2023-01-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、移動装置、および方法、並びにプログラム
US20200028876A1 (en) 2018-07-20 2020-01-23 Corelogic Solutions, Llc Phishing detection and targeted remediation system and method
JP7054059B2 (ja) * 2018-08-28 2022-04-13 マツダ株式会社 停車支援装置
EP3849865A4 (en) * 2018-09-11 2022-06-29 Netradyne, Inc. Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
CN113168772B (zh) 2018-11-13 2023-06-02 索尼集团公司 信息处理装置,信息处理方法和记录介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014016910A1 (ja) 2012-07-24 2014-01-30 トヨタ自動車株式会社 運転支援装置
JP2019166968A (ja) 2018-03-23 2019-10-03 株式会社デンソー 状態判定装置、及び状態判定プログラム

Also Published As

Publication number Publication date
US20210316738A1 (en) 2021-10-14
JP2021167165A (ja) 2021-10-21
US11603104B2 (en) 2023-03-14

Similar Documents

Publication Publication Date Title
JP7459634B2 (ja) ドライバ異常判定システム
JP7204739B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7459633B2 (ja) ドライバ異常判定装置
JP7226479B2 (ja) 画像処理装置及び画像処理方法、並びに移動体
JP7342638B2 (ja) 運転者状態検出装置
CN110641468A (zh) 基于乘客行为控制自主车辆
JP7318475B2 (ja) 運転者状態判定装置
EP3868621B1 (en) Driver state estimation device and movable body
EP3868622B1 (en) Driver state estimation device and movable body
JP7342636B2 (ja) 車両制御装置および運転者状態判定方法
JP7342637B2 (ja) 車両制御装置および運転者状態判定方法
US20210316736A1 (en) Driver abnormality determination apparatus, method and computer program
JP7298508B2 (ja) 状態推定装置
JP7298510B2 (ja) 状態推定装置
JP7415460B2 (ja) 車両制御装置及び運転者状態判定方法
JP7318560B2 (ja) 状態推定装置
JP7298509B2 (ja) 状態推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150