[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013054737A - 乗り物の操作者の視覚的入力 - Google Patents

乗り物の操作者の視覚的入力 Download PDF

Info

Publication number
JP2013054737A
JP2013054737A JP2012189290A JP2012189290A JP2013054737A JP 2013054737 A JP2013054737 A JP 2013054737A JP 2012189290 A JP2012189290 A JP 2012189290A JP 2012189290 A JP2012189290 A JP 2012189290A JP 2013054737 A JP2013054737 A JP 2013054737A
Authority
JP
Japan
Prior art keywords
operator
gaze
distribution
determining
gaze direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012189290A
Other languages
English (en)
Other versions
JP6113440B2 (ja
Inventor
Levin Daniel
レヴィン,ダニエル
Markkula Gustav
マルックラ,グスタフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volvo Car Corp
Volvo Technology AB
Original Assignee
Volvo Car Corp
Volvo Technology AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volvo Car Corp, Volvo Technology AB filed Critical Volvo Car Corp
Publication of JP2013054737A publication Critical patent/JP2013054737A/ja
Application granted granted Critical
Publication of JP6113440B2 publication Critical patent/JP6113440B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pathology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】交通状況またはシーンに対する乗り物の操作者の注意またはそこからの視覚的入力の改善をする。
【解決手段】乗り物の操作者の周囲環境内にある物体についての前記操作者の視覚的入力を決定する方法であって、少なくとも1つの物体の位置を示す物体位置信号を受信するステップと、前記操作者の身体の動きに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するステップと、操作者の凝視方向の見積もりを行なうステップと、前記物体位置信号および前記見積もりによる操作者の凝視方向に基づいて前記操作者によって受け取られる前記少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するステップと、を包含する。
【選択図】図10

Description

本発明は、乗り物の操作者の周囲環境内にある物体についての当該操作者の視覚的入力、または操作者の視野ゾーンもしくは当該ゾーン内において発生している事象についての操作者の視覚的入力を決定するための方法に関する。本発明はまた、乗り物の操作者の周囲環境内にある物体についての当該操作者の視覚的入力を決定するための、対応するシステムおよびコンピュータ・プログラム・プロダクトを具体化するためのコンピュータ可読媒体にも関係する。さらにまた本発明は、乗り物の操作者の操作者凝視方向の見積もりを行なうための方法およびシステムにも関係する。
交通事故は、しばしば、乗り物の操作者すなわち運転者が周囲の交通状況に気付いていないことに起因して発生する。たとえば、注意散漫な運転はよく知られた交通安全上の問題であり、たとえばすべての道路上の乗り物事故のうちの多くが運転者の注意散漫との掛かり合いがあると見積もられている。
操作者が周囲の交通状況に気付いていないことによって発生する事故を防止するために、操作者に警告メッセージを提供して周囲の交通状況に対する操作者の注意を回復させることが可能である。しかしながら、操作者が周囲の交通状況に気付いている状況においては、その種の警告システムが操作者に対する情報の過負荷を生じさせる可能性があり、かつ警告に関して操作者が有している信頼性のレベルを減ずる可能性があることから、警告システムが状況によって警告しないこともまた非常に重要である。たとえば、運転の間における操作者の目の動きを監視するための視標追跡デバイスが可能である。しかしながら、凝視方向は監視が困難であり、しばしば視標追跡を失う。
したがって、操作者の視覚的入力に基づいて乗り物の操作の間における乗り物の操作者の周囲環境についての操作者の注意および/または意識性の改善されたリアルタイム乗り物内見積もりを提供するシステムおよび方法が必要とされている。
本発明の目的は、交通状況またはシーンに対する乗り物の操作者の注意またはそこからの視覚的入力の改善された見積もりの可能性を与えるシステムおよび方法を提供することである。
本発明の第1の態様によれば、乗り物の操作者の周囲環境内にある物体についての当該操作者の視覚的入力を決定するための方法によって上記の目的を満たすことができ、当該方法は、操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するステップと、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するステップと、操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうステップと、物体位置信号および見積もりによる操作者の凝視方向に基づいて操作者によって受け取られる少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するステップと、を包含する。
本発明の第2の態様によれば、乗り物の操作者の周囲環境内にある物体についての当該操作者の視覚的入力を決定するためのシステムによって上記の目的を満たすことができ、当該システムはコントロール手段を包含し、それにおいてコントロール手段は、操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するべく構成された第1の入力と、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するべく構成された第2の入力と、を包含し、それにおいてコントロール手段は、操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうべく構成され、かつ物体位置信号および見積もりによる操作者の凝視方向に基づいて操作者によって受け取られる少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するべく構成される。
本発明は、物体についての乗り物の操作者の注意は、操作者の凝視方向を見積もるための操作者の身体の動きの監視、および運転者の周囲にある物体またはゾーンに関連付けされた運転者の注意のレベル、すなわち視覚的入力品質値を決定するためのこの見積もりによる凝視方向の使用によって、改善された態様で都合よく見積もることができるという理解に基づく。言い換えると本発明による方法およびシステムは、操作者の凝視方向を見積もり、このデータを特定の物体/ゾーンに関してマップすることによって、物体ごと、またはゾーンごとにセグメント化された時々刻々の視覚的入力の見積もりの可能性を与える。
さらにまた、本発明による方法およびシステムは、操作者の目による物体の直接固視により操作者によって知覚されている物体についての、および操作者による周辺視入力によって知覚されている物体についての視覚的入力品質値の決定の可能性を与える。
たとえば、複数の個別の交通物体またはゾーンについて操作者が受け取っている量または視覚的入力の時々刻々の見積もりを表わすために、視覚的入力品質値を都合よく使用することができる。視覚的入力品質値は、たとえば、ゼロまたは1の間の数として定量化することができ、それにおいてゼロは、操作者が現在、物体/ゾーンを見ていないことを示し、値1は、特定のゾーン内の物体またはその中で生じている事象の位置、動き、速度、および/またはそれの微分についての正しい理解を最大限にすばやく獲得するために操作者が物体/ゾーンの視覚的入力を充分に受け取っていることを示す。
物体またはゾーンについての視覚的入力品質値は、さらに、乗り物のほかのシステムならびにサブシステムへ提供して、たとえば操作者に対する警告の発行のために使用することができる。さらにまた、衝突警告、車線維持補助といった乗り物の操作者のための高度な運転者補助システムが、操作者の周囲環境内の交通シーンまたは物体に関して運転者に最良の影響を与える方法または補助する方法を決定するために、物体またはゾーンに関連付けされた視覚的入力品質値を受け取ることができる。視覚的入力品質値は、操作者の注意散漫レベルを評価するため、および、たとえば情報の過負荷を回避するために、乗り物内情報システムによっても使用することができる。
視覚的に入力される物体は、たとえば、乗り物、歩行者、道路の車線、動物、車線のマーク、道路の縁、交通標識等々とすることができる。物体は、乗り物に関する内部または外部の任意的なゾーンを表わすこともできる。
本発明を使用することによって、操作者移動入力信号が、操作者の頭および/または上体の動き、たとえば方向および動きの速度ならびにそれの微分を示すことができ、それにおいては操作者の凝視が、操作者移動入力信号に基づいて見積もられる。したがって、たとえば視標追跡デバイスからの直接的な操作者の凝視方向データを用いることなく、操作者の凝視方向を決定することができる。
たとえば、視標追跡デバイスからの凝視方向データが失われているか、またはそれが消勢されているときに見積もりによる凝視方向を使用することができる。しかしながら見積もりによる凝視方向は、たとえば高い詳細度の凝視方向の見積もりを提供する視標追跡デバイスからの凝視方向データに基づくこともできる。
例示的な実施態様によれば、方法および/またはシステムが、さらに、操作者の目による物体の固視の確率を示す期待される固視の確率の見積もりを包含し、それにおいて視覚的入力品質値を決定するステップは、さらにこの期待される固視の確率に基づく。固視の確率は、異なる物体のタイプの分類の可能性を与える。たとえば、道路の車線マークには低い固視の確率が割り当てられ、歩行者等の人には、高い固視の確率が割り当てられるようにできる。それによって異なる物体についての視覚的入力品質値の見積もりは、固視の確率に応じて異なる見積もりプロセスに基づくことができる。たとえば、物体のサイズに基づいて固視の確率を決定することができる。
例示的な実施態様によれば、見積もりによる操作者の凝視方向が、操作者の異なる凝視方向についての確率を示す総合的な凝視分布を包含する。したがって、操作者の凝視方向は、操作者の視野全体にわたる確率分布として提供される。たとえば操作者の完全な視野は、視覚マトリクス等の適切な座標系における点の集合に定量化され、それにおいて各点には、総合的な凝視分布に従って確率値が割り当てられる。
例示的な実施態様によれば、方法および/またはシステムが、さらに、物体に関連付けされた物体エリアの決定を包含し、当該物体エリアは、操作者によって知覚されるところの物体の物体エリアを示し、それにおいて視覚的入力品質値を決定するステップは、さらにこの物体エリアに基づく。それによって、操作者の周囲の交通状況の中にある物体が、操作者の視覚的配景に都合よくマップされる。したがって、物体の視覚的入力品質値を、その物体の物体エリアとの関係において操作者の凝視方向を評価することによって、決定することができる。
例示的な実施態様によれば、視覚的入力品質値を決定するステップが、中心の凝視方向との関係において操作者の片眼または両眼の視力レベルを示す視力分布を決定するステップを包含し、それにおいて視覚的入力品質値を決定するステップは、さらにこの視力分布に基づく。視力分布を利用することによって、物体の視覚的入力品質値が、物体が操作者の目によって固視されているか否か、あるいはどちらかというと操作者の周辺視入力によって知覚されているか否かに基づいて好都合に決定できる。視力分布は、操作者の目の鋭い中央視を担う中心窩部分に関連付けされる視力のピーク値を示す中心点を定義し、それにおいて視力値レベルは、操作者の周辺視が増加する方向に向かって、すなわち中心点からの距離の増加に従って減少する。たとえば、現在の、あるいは見積もりによる操作者の凝視方向にピークを有するガウス関数として定義される視力分布を使用することができる。
例示的な実施態様によれば、視覚的入力品質値を決定するステップが、物体エリアにわたって総合的な凝視分布に関する視力分布の積分を行なうことを包含する。それにより視覚的入力品質パラメータが、物体エリア内におけるすべての可能性のある凝視方向についての総合的な凝視分布を用いた視力分布の重み付けを行なうことによって決定される。
例示的な実施態様によれば、視覚的入力品質値を決定するステップが、物体エリア内における視力分布と総合的な凝視分布の畳み込みを包含する。たとえば、視覚的入力品質値を、畳み込み後の物体エリア内の視力分布と総合的な凝視方向分布の最大値として決定することができる。凝視方向分布および視力分布が、それぞれのガウス分布によって表わされる場合には、畳み込みが、既知の場所および広がりを伴った別のガウス分布を出力することになり、それにおいて出力されたガウス分布、または物体エリアに関するそれの場所、および/または平均値および標準偏差が、その物体の視覚的入力品質値を表わす。
例示的な実施態様によれば、方法および/またはシステムが、さらに、物体に関連付けされた重要点パラメータ値の決定を包含し、それにおいて重要点パラメータは、視覚的な注意を引く確率を示す。したがって、視覚的入力品質値は、異なるタイプの視覚的な刺激に基づいて都合よく決定することができる。たとえば、突発的な光の発生等の迅速な遷移、迅速な動き、特定の色、または物体の高い視覚的コントラストは、操作者の視覚的注意を引くことがよりありがちである。特定の物体の視覚的入力品質値は、重要点パラメータ値によって、たとえば重み付けを行なうことができる。
例示的な実施態様によれば、物体エリア・パラメータ値は、操作者の主要な頭の向きに関する少なくとも1つのピッチおよび少なくとも1つのヨー座標値を包含する。たとえば、デカルト座標系における外部乗り物センサ・システムによって提供されたとおりの周囲の交通状況を、2次元のピッチ/ヨー座標系に変換することができる。さらにまた、このピッチ/ヨー座標系は、ピッチおよびヨー方向における操作者の頭の動きとともに移動させることができる。
例示的な実施態様によれば、物体エリア・パラメータ値は、物体のエリアを示す概略で矩形を表わす。たとえば、この矩形の幅は、操作者によって知覚されるところの物体の2つのもっとも広いポイント間距離によって近似され、かつ外部乗り物センサ・システムによって提供される物体位置信号から演繹することができる。矩形の高さは、操作者によって知覚されるところの物体の垂直方向におけるもっとも高いポイントと、もっとも低いポイントの間の距離によって近似される。
例示的な実施態様によれば、方法および/またはシステムが、さらに、第1の凝視方向の推測の決定を包含し、それにおいて総合的な凝視分布は、第1の凝視方向の推測に基づき、この推測は、操作者の凝視方向がねらいを定めているところを示す。たとえば、この推測は、操作者の容易に検出可能な頭または身体の動きに基づいて操作者の凝視方向を指定することができる。
例示的な実施態様によれば、方法および/またはシステムが、さらに、第2の、または複数の凝視方向の推測の決定、および第1および第2の、または複数の凝視方向の推測を組み合わせることによる総合的な凝視分布の決定を包含する。これは、1つの総合的な凝視分布を出力するために2つまたはそれより多くの異なる凝視方向の推測の査定および評価が同時にできることから有利である。
たとえば、例示的な実施態様によれば、操作者の凝視方向の見積もりを行なうステップが、操作者のサッケード運動を示す操作者の身体の動きの検出、および検出された操作者の身体の動きに基づいたサッケード凝視分布の見積もりを包含する。
したがって、例示的な推測によれば、すばやい頭の動きといった操作者の身体の動きが検出され、すばやい頭の動きは見積もりによる凝視方向に向かう頭と目の組み合わせサッケードを示すものであると決定され、それにおいてはその凝視方向に基づいてサッケードの凝視分布が見積もられる。
例示的な実施態様によれば、操作者の凝視方向の見積もりを行なうステップが、さらに、サッケードの凝視分布に関連付けされる凝視時間値の決定を包含し、それにおいて総合的な凝視分布が、サッケードの凝視分布および凝視時間値に基づいて決定される。凝視時間値は、どのくらい長い時間にわたって、またはどの範囲に対して、凝視方向の推測に関連付けされる凝視分布が真となることがありそうであるかを決定することによって総合的な凝視分布を見積もるために都合よく使用できる。さらに凝視時間値は、異なる凝視方向の推測のための異なる開始時間に応じて、1つの凝視方向の推測の確率をほかの凝視方向の推測との関連において漸進的に低減させるために使用できる。たとえば、凝視時間値は推測に関連付けされた見積もりによる一瞥の存続時間に対応し、かつ、たとえばガンマ分布または指数分布に基づく減衰モデルに従って、たとえば表現することができる。たとえば、一瞥の存続時間の見積もり、または凝視の推測のもっとも最近の開始以降に目のサッケードが行なわれているか否かを、減衰モデルに従ってモデリングすることが可能である。一瞥の存続時間は、たとえばガンマ分布に従ってモデリングされ、それにおいては減衰前の存続時間が、もっとも一般的な存続時間に対応するピーク値を有する概略の正規確率分布に従う。さらにまた、概略の正規確率分布は、典型的な一瞥の存続時間分布と整合するべく当て嵌めることができ、それにおいては平均の一瞥持続/存続時間が、約0.5乃至4秒の長さ、または約1乃至2秒の長さである。
異なる凝視方向の推測についての確率は、時間を経て等しいレベルに近づくこともある。
例示的な実施態様によれば、操作者の凝視方向の見積もりを行なうステップが、さらに、道路進行方向の凝視分布の決定を包含し、それにおいて総合的な凝視分布が、凝視時間値に基づく道路進行方向の凝視分布を用いてサッケードの凝視分布の重み付けを行なうことによって決定される。したがって、各推測のために1つ、すなわち2つの別々の凝視方向または角度の見積もりが計算され、それにおいて各推測は、凝視分布によって表わされる。各分布は、たとえば、中心の凝視方向を示すピッチ/ヨー値およびピッチ/ヨー標準偏差によって表現することができる。
道路進行方向の凝視分布は、たとえば、操作者の凝視方向が特定時間の後に道路進行方向に戻るという推測に基づくことができる。たとえば、道路進行方向の凝視方向は、中心点または道路進行方向の遠点に関して10度上および10度下といった特定のピッチ方向、および20度右および20度左といった特定のヨー方向を伴った領域として定義することができる。
システムの例示的な実施態様によれば、コントロール手段が、さらに、物体に関連付けされた物体エリアを決定するべく構成され、当該物体エリアは、操作者によって知覚されるとおりの物体の物体エリアを示し、それにおいては品質値が物体エリアに基づいて決定される。
システムの例示的な実施態様によれば、コントロール手段が、中心の凝視方向との関係において操作者の目の視力レベルを示す視力分布を決定するべく構成され、それにおいて品質値は、この視力分布に基づいて決定される。
例示的な実施態様によれば、操作者の凝視方向の見積もりを行なうステップが、さらに、頭と目の組み合わせサッケード運動等の操作者のサッケード運動を示す検出された操作者の身体の動きが、操作者の凝視が道路進行方向に向かって指向されていることを示しているか否かの決定を包含する。また、例示的な実施態様によれば、操作者のサッケード運動を示す検出された操作者の身体の動きが、操作者の凝視が操作者の周囲環境内にある物体またはゾーンに向かって指向されていることを示しているか否かを決定することもできる。
たとえば例示的な実施態様によれば、操作者移動入力信号が、操作者を監視する画像センサを使用して生成される。
それに加えて例示的な実施態様によれば、センサ・システムを使用して物体位置信号が提供される。たとえばこのセンサ・システムは、カメラ、レーダ、ライダ、乗り物対乗り物通信デバイス、乗り物対インフラストラクチャ通信デバイス、および/またはインフラストラクチャ対乗り物通信デバイスを包含する。採用することができる通信デバイスの例は、ほかの乗り物、道路に沿って配置されるか、道路の脇に配置されるか、または道路内に組み込まれた基地局、または衛星等とすることができ、それらは、たとえば位置、速度、加速度、ヨー・レート等といった情報を送信するべく構成することができる。道路センサもまた、速度制限、道路の曲率、温度、道路の摩擦特性等の情報を提供することができる。
例示的な実施態様によれば、視覚品質パラメータ値のための信頼性の見積もりが、たとえば標準偏差を計算することによって、異なる物体またはゾーンについて決定される。たとえばデカルト座標において定義された周囲の物体/ゾーンに関するセンサからの信頼性の見積もりを、さらに、ピッチ/ヨーの信頼性の見積もりに変換することができる。
本発明の第3の態様、すなわち乗り物の操作者の乗り物の操作の間における凝視方向を決定するための方法に関する第3の態様によれば、当該方法が、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するステップと、操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうステップと、を包含し、それにおいて操作者の凝視方向の見積もりが、第1の凝視方向の推測に基づく。
本発明のこの態様は、手前の本発明の態様に関係して上で述べたものと類似する利点を提供する。
第3の態様の例示的な実施態様によれば、それが第2の凝視方向の推測を決定するステップを包含し、それにおいて操作者の凝視方向の見積もりが、操作者の第1および第2の凝視方向の推測に基づく。たとえば操作者の凝視方向は、第1および第2の凝視方向の推測を、操作者の凝視方向を示す総合的な凝視方向の推測に結合することによって見積もられる。
さらにまた、追加の例示的な実施態様によれば、凝視の推測のそれぞれの1つが、その推測に対する操作者の異なる凝視方向についての確率を示す凝視分布によって表わされる。たとえば、第1の凝視の推測が第1の凝視分布によって表わされ、第2の凝視の推測が第2の凝視分布によって表わされるといった形になる。
さらに、操作者の凝視方向を、複数の凝視方向の推測に基づいて見積もることが企図されており、それにおいては各推測が、それぞれの凝視分布内において表わされるか、または具体化される。
さらにまた、例示的な実施態様によれば、この方法によって出力されることになる見積もりによる操作者の凝視方向が、第1および第2の、または複数の凝視分布の結合により提供される総合的な凝視方向分布によって表わされる。
例示的な実施態様によれば、サッケードの推測が企図できる。たとえば、この方法は、操作者のサッケード運動を示す操作者の身体の動きを検出するステップ、および検出された操作者の身体の動きに基づいてサッケード凝視分布の見積もりを行なうステップを包含する。たとえば、サッケード凝視分布は、第1の凝視分布を形成する。検出された操作者の身体の動きは、都合よく、操作者の目の凝視方向が変化するすばやい頭の動きおよびすばやい目の動きを伴う頭と目の組み合わせサッケードを操作者が行なったことを示す、すばやい頭の動きとすることができる。その種の頭と目の組み合わせサッケードについては、頭の動きおよび目の動きが相互に関係付けられる。したがって、検出された操作者の身体の動きは、たとえば、検出されたすばやい頭の動きに基づく凝視方向の見積もりに使用できる。
第3の態様の例示的な実施態様によれば、操作者の凝視方向の見積もりを行なうステップが、さらに、凝視方向の推測に関連付けされる凝視時間値の決定を包含し、それにおいて総合的な凝視方向分布が、第1および第2の、または複数の凝視の推測および凝視時間値に基づいて決定される。
第3の態様の追加の例示的な実施態様によれば、道路進行方向の推測が企図できる。たとえば、この方法は、第2の凝視分布を形成する道路進行方向の凝視分布の見積もりを行なうステップを包含することができる。この方法によれば、総合的な凝視方向分布を、さらに、第1および第2の、または複数の凝視分布および凝視時間値に基づいて決定できる。この時間値は、異なる分布の互いに関する重み付けを凝視時間値に基づいて行なうことによって、異なる分布を総合的な凝視方向分布に結合する可能性を与える。
さらに別の例示的な実施態様によれば、操作者移動入力信号および見積もりによる操作者の凝視方向を、たとえば一時的に追跡を失っている間における操作者の動きおよび凝視方向の位置算定のために利用できる。それに加えて、特定の状況については、たとえば特定の操作者の凝視方向の推測、または操作者の頭または身体のすばやい動きが生じており、センサ・データが一時的にのみ失われることが期待される間においては、位置算定の持続時間を延長することができる。
それに加えて、本発明の多様な例示的な実施態様によれば、それが、センサによって提供されるデータ信号内のノイズ・レベルの監視、およびセンサからの、たとえば標準偏差によって表わされる信頼性の見積もりを用いたノイズ・レベルの重み付けを包含する。操作者移動入力信号は、さらに、操作者の非現実的な、または非生理学的な挙動および動きの検出のために監視することができ、それにおいては信頼できないデータが破棄される。
例示的な実施態様によれば、コントロール手段が、乗り物内通信ネットワークを介して互いに、および乗り物内のほかのシステム、追加のコントロール・ユニット、および/またはセンサと通信するべく構成されたコントロール・ユニットおよび/またはサブコントロール・ユニットを包含する。それに加えて、異なる乗り物、インフラストラクチャ、およびほかのデバイスとの間の無線通信が企図できる。
さらにまた多様な実施態様によれば、コントロール手段が、マイクロプロセッサ、マイクロコントローラ、プログラマブル・デジタル信号プロセッサ、または別のプログラマブル・デバイスを包含できる。コントロール手段は、それに加えて、またはそれに代えて、特定用途向け集積回路、プログラマブル・ゲート・アレイまたはプログラマブル・アレイ・ロジック、プログラマブル・ロジック・デバイス、またはデジタル信号プロセッサも含むことができる。コントロール手段が、上で述べたマイクロプロセッサ、マイクロコントローラ、またはプログラマブル・デジタル信号プロセッサ等のプログラマブル・デバイスを含む場合には、さらにプロセッサが、プログラマブル・デバイスの動作をコントロールするコンピュータ実行可能コードを含むことができる。
本発明の別の態様によれば、乗り物の操作者の周囲環境内にある物体についての当該操作者の視覚的入力を決定するためのコンピュータ・プログラム・プロダクトを具体化するコンピュータ可読媒体が提供され、当該コンピュータ・プログラム・プロダクトは、プロセッサによって実行されたときに、操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するべく構成されたコードと、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するべく構成されたコードと、操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうべく構成されたコードと、物体位置信号および見積もりによる操作者の凝視方向に基づいて操作者によって受け取られる少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するべく構成されたコードと、を包含する。このコンピュータ・プログラムは、さらに、多様な例示的な実施態様によれば、本発明による方法および/またはそれの実施態様に従って動作するべく構成されたコードを包含できる。
コンピュータ可読媒体は、リムーバブル不揮発性ランダム・アクセス・メモリ、ハード・ディスク・ドライブ、フロッピー(登録商標)ディスク、CD‐ROM、DVD‐ROM、USBメモリ、SDメモリ・カード、またはこの分野で周知の類似のコンピュータ可読媒体のうちの1つとすることができる。
本発明のこのほかの特徴および利点については、付随する特許請求の範囲および以下の説明を考察するときに明らかなものとなるであろう。当業者は認識されるであろうが、本発明の種々の特徴を組み合わせて以下の説明とは別の実施態様を本発明の範囲からの逸脱なしに作り出すことができる。
次に本発明のこれらの、およびそのほかの態様について、本発明の例示的な実施態様を示している以下に列挙した添付図面を参照してより詳細に説明する。
外部センサが装備された乗り物およびそれの前端における座標系を示した斜視図である。 内部センサが装備された乗り物の内部の斜視図である。 乗り物の操作者の顔および頭の座標系を図解した図である。 操作者の環境内に現われる物体の側面図、上面図、及び操作者の視野図である。 操作者の環境内に現われる物体の側面図、上面図、及び操作者の視野図である。 操作者の環境内に現われる物体の側面図、上面図、及び操作者の視野図である。 どのような形で乗り物の前方および内側のゾーンが定義できるかについての例を図解した説明図である。 本発明によるシステムの実施態様を略図的に図解した説明図である。 本発明による方法の実施態様を概念的に図解したフローチャートである。 操作の間における乗り物の進行方向についての操作者の見ている眺めを略図的に図解した説明図である。 凝視分布によって表わされる見積もりによる操作者の凝視方向を略図的に図解したプロットである。 操作の間における乗り物の進行方向についての操作者の見ている眺めを略図的に図解した説明図である。
以下、本発明の例示的な実施態様が示されている添付図面を参照して本発明をより詳細に説明する。しかしながら、本発明は、多くの異なる形で具体化されることを許容し、ここに示されている実施態様に限定されると解釈されるべきでなく、むしろこれらの実施態様は、詳細および完全性のために提供されている。全体を通じて類似した要素の参照には類似した参照文字を用いる。
以下においては、乗り物の操作者の視覚的入力品質の見積もりを向上させるためのシステムを参照して本発明が説明されている。乗り物には、乗り物の操作者の情報を引き出すための内部センサ(1つまたは複数)、および乗り物の操作をはじめ、乗り物の周囲環境の情報を引き出すための外部センサ(1つまたは複数)が好ましく装備される。より良好な理解に資するために、ここで図1乃至3を参照して内部センサおよび外部センサを説明する。
図1は、例示的な乗り物を図解しており、ここではそれを自動車100とするが、それに本発明によるシステムを組み込むことができる。自動車100には、追い越し、乗り物の速度、乗り物のヨー・レート等々といった乗り物の操作、および物体、ゾーン、乗り物の周囲環境、たとえば車線のマーク、道路のマーク、道路の湾曲、周囲の乗り物等々を検出するべく配される外部センサ104が提供される。外部センサ104は、たとえばカメラまたはレーダ・センサとすることができる。カメラが物体の高さおよび幅の決定時に高精度を提供する一方、レーダ・センサが物体までの距離の決定時に高精度を提供することから、好ましくは、カメラおよびレーダ・センサの組み合わせが使用されるとすることができる。これによって、周囲の物体のサイズ、位置、速度等を決定することが可能になる。自動車100の位置に関して言えば、ここではデカルト座標系として図解されている座標系102が自動車100の前端に置かれる。座標系102は、乗り物に追従するべく構成され、軸は、長さ方向(x軸)、横方向(y軸)、および垂直方向(z軸)をそれぞれ表わす。検出される物体は、自動車100の座標系102に関連して乗り物のシステムに、自動車100と相対的なその物体のサイズおよび位置をシステムが決定することが可能となるように提供される。たとえばこのシステムに、異なるセンサ104から物体のデータを連続的に提供することができる。したがって、周囲の交通環境の速度および加速度を決定することも可能である。
図2は、乗り物の操作者202を含む自動車100の内部を図解しており、それにおいては、乗り物100に、ここではカメラ・システム204として図解されている内部センサが装備される。カメラ・システム204は、乗り物の操作の間における乗り物の操作者202の挙動の測定および検出を行なうべく配されており、かつ乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を生成するべく構成できる。
さらにまた、カメラ・システム204は、操作者の顔、頭、または上体のあらかじめ決定済みの数の位置に焦点を合わせるべく配することができる。これらの位置は、たとえば、目、まぶた、眉、鼻、口、頬、首、肩、腕等々とすることができる。カメラ・システム204は、その自動車を通常操作する特定の操作者202のためにあらかじめ較正すること、または自動車100の運転席に操作者202が入る都度較正することができる。カメラ・システム204が操作者の顔または頭の種々の位置を検出すると、カメラ・システム204が顔の挙動を見積もることが可能になる。したがって、カメラ・システム204は、たとえば頭および目の方向ならびに動き、およびそれらの微分、頭の姿勢、目のサッケード、頭と目の組み合わせサッケード、閉瞼、および閉瞼の速度等を検出することができる。
またカメラ・システム204は、操作者の顔304に関連して座標系302を使用することによって、たとえば図3に図解されているとおりの操作者に中心が置かれるピッチ/ヨー座標系を使用することによって、操作者の頭または目が右または左に回転(ヨー)305しているか否か、上または下に回転(ピッチ)306しているか否か、あるいは頭の動きであれば、右または左の肩に向かって傾斜(ロール)307しているか否かを検出することもできる。顔304の座標系302は、好ましくは極座標系とし、それの原点が操作者の目の間に位置決めされる。
さらにまた内部センサは、カメラ・システム204に代えて、またはそれに追加して別のタイプの操作者検出手段を含むこともできる。これはたとえば、ステアリング挙動を検出するためのステアリング・ホイール・センサ、一貫性のない自動車100の加速および/または制動を検出するためのアクセル・ペダルおよび/またはブレーキ・ペダルにおけるセンサ、たとえばインフォテイメント・システムの多様な機能のいずれかを操作者202が調整しているか否かといったことを検出する自動車100の多様なボタンにおけるセンサを含むことができる。さらに別の内部センサを、操作者の意識性の状態を監視するための呼吸分析センサまたは瞳サイズ・センサとすることができる。
乗り物の環境内の各物体は、ターゲット・コーナ・ポイントを伴う3Dボックスによって近似される。物体についての入力データは、物体ごとに次に示す形式で受信される。各物体またはゾーンのためのデータは、乗り物ベースのデカルト座標系を使用して記述され、XおよびY方向における4つのコーナのそれぞれについてのコーナ位置(標準偏差の見積もりを含む)、Z方向における物体の高さ(標準偏差の見積もりを含む)、物体の速度、および物体の加速度を含む。
物体と操作者の視野を整合させるために、操作者の周囲の実際の3D世界が、図4a乃至cにそれぞれ示されているとおり、3つの図、すなわち側面図、上面図、および操作者の視野に分割される。図4cには、道路1000、トラック1001、自動車1002、歩行者1003、および車線マーク1004を包含する操作者の視野が図解されている。側面図および上面図は、操作者の視野から見えるとおりの環境の記述に到達するべく別々に描画される。側面図および上面図においては、周囲の物体の位置が、乗り物ベースのデカルト座標系を用いて記述されている。この情報と操作者の頭から乗り物ベースの座標系の原点までの距離が組み合わされて、操作者の頭ベースの極座標系における目標に対するヨー角およびピッチ角が計算される。
ヨー(φ)角およびピッチ(θ)角の計算は、次に示す式を用いて行なわれる。
Figure 2013054737
これらの式において、xn,objおよびyn,objは、それぞれXおよびY方向における物体のコーナnまでの距離であり、xDMC、yDMC、およびzDMCは、乗り物の座標系の原点からそれぞれの方向において操作者を監視するセンサまでの距離であり、xhead、yhead、および zheadは、操作者の頭からそれぞれの方向において操作者を監視するセンサまでの距離である。
Figure 2013054737
これにおいて、rn,obj=√(xn,obj +yn,obj )は、物体のコーナnまでの距離であり、hobjは物体の高さである。
簡明のため、図4aおよびbには、1つの物体についてだけ、すなわちトラック1001についてだけこれが図解されている。しかしながら、乗り物の周囲環境内にある各物体、たとえば車線マーク1004、乗り物、歩行者1003等々についても同じ計算が使用される。
さらにまた、図4cにはトラック1001の物体エリア1005が図解されているが、この物体エリアは、操作者の視野内において近似されるトラック1001に対応するエリアを形成し、それにおいて物体エリアは、運転者に中心が置かれるピッチ/ヨー座標系を用いて表わされる。物体エリアは、矩形エリアによって都合よく表わされる。しかしながら物体エリアは、矩形エリアに限定されない。操作者によって知覚されるとおりの物体の実際の形状に対応するより正確な物体エリアを、本発明によるシステムおよび方法の実施態様内において使用することもできる。
図4bにトラック1001の物体エリアのコーナ・ポイント2を参照して図解されているとおり、コーナ・ポイントの位置は、外部センサ・システムからの信号に基づく信頼区間を決定することによって近似できる。信頼区間は、XおよびY方向において示されているが、同様にZ方向においても企図できる。またコーナ・ポイントについての信頼区間は、ヨー(φ)およびピッチ(θ)を包含する運転者の頭ベースの極座標系を使用して表わすこともできる。さらにまた、この方法は、物体の位置を決定するために、物体のコーナ・ポイントの分散の計算の使用を包含することができる。たとえば、分散の値の増加は、視覚的入力品質値の決定に占めることができる物体の位置の不確定性の増加を含意する。
ゾーンが、乗り物の周囲または内側にある任意のそのほかの物体と同様に2Dまたは3D物体として定義され、かつ見積もられる。図5は、どのような形で乗り物の前方および内側のゾーンが定義できるかについての例を示している。しかしながら、図においては視覚化の簡明のために単に2D物体(X成分なし)だけが示されている。図5におけるゾーンは、どのようにゾーンが使用できるかの例に過ぎず、いくつかの応用については、乗り物の側方または後方のゾーンが有用となり得る。
図解されているとおり、左側の道路車線に対応するゾーンZ1、乗り物が走行している道路車線に対応するゾーンZ2、および右側の道路車線に対応するゾーンZ3等のように、操作者の視野内においてゾーンが互いにオーバーラップすることがある。また、同時にいくつかのゾーン内を跨いで物体が存在することもある。その種の場合においては、異なるゾーンについての操作者の視覚的入力を一緒に、各ゾーン内にどの程度の量でその物体が存在するかに応じて重み付けすることができる。
図6には、操作者の周囲環境内にある物体についての乗り物の操作者の視覚的入力を決定するための、本発明によるシステム600の実施態様が略図的に図解されている。システム600は、2つの入力602および603を包含するコントロール・ユニットによって形成されるコントロール手段601を包含する。第1の入力602は、操作者の周囲環境内にある少なくとも1つの物体の位置データ、すなわち外部センサ・システム104によって提供される位置データを示す物体位置信号を受信するべく構成されている。第2の入力603は、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するべく構成され、それにおいて生理学的データは、乗り物の操作者を監視する内部センサ・システム204によって提供される。コントロール手段601のコントロール・ユニットは、さらに、CAN‐BUSシステムまたはそれに類似した乗り物内通信ネットワーク605と機能的に接続されている。通信ネットワーク605を介して、コントロール・ユニットは、運転者警告システムまたは運転者補助システム等といったほかの乗り物内システム606および人間機械インターフェース・デバイス等のインターフェース・デバイス607と通信し、それに対して情報を提供し、そこからデータを受信することができる。代替実施態様によれば、コントロール・ユニットが通信ネットワーク605を介して外部および内部のセンサ・システム104および204と機能的に接続される。
操作の間においてコントロール・ユニットは、物体位置信号および操作者移動入力信号を受信して、その操作者移動入力信号に基づいて操作者の凝視方向を見積もる。さらにコントロール・ユニットは、物体位置信号および見積もりによる操作者の凝視方向に基づいて操作者によって受け取られている少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値604を決定し、通信ネットワーク605を介して出力する。言い換えると、システムは、操作者が物体について、またはゾーン内において発生している事象についてどの程度気付いているかを示す見積もり値を査定し、提供するために、その操作者の周囲環境内にある物体またはゾーンの情報を受信し、その操作者の凝視方向を評価する。
コントロール手段601のコントロール・ユニットは、さらに、図7に図解されているとおり、本発明による方法の多様な実施態様を実行するべく構成することができる。
たとえばコントロール・ユニットは、物体に関連付けされた物体エリアを決定するべく構成することができ、当該物体エリアは、操作者によって知覚されるとおりの物体の物体エリアを示し、それにおいては視覚的入力品質値が物体エリアに基づいて決定される。さらにコントロール・ユニットは、中心の凝視方向との関係において操作者の目の視力レベルを示す視力分布を決定するべく構成することができ、それにおいて視覚的入力品質値は、この視力分布に基づいて決定される。
図7には、操作者の周囲環境内にある物体についての乗り物の操作者の視覚的入力を決定するための、本発明による方法700の多様な実施態様の概念的なフローチャートが図解されている。方法700は、
ステップ701において、操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号であって、外部センサ・システム104によって提供される物体位置信号を受信すること、
ステップ703において、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号であって、内部センサ・システム204によって提供される操作者移動入力信号を受信すること、
ステップ705において、操作者移動入力信号に基づいて総合的な凝視分布を包含する操作者の凝視方向の見積もりを行なうこと、および
ステップ710において、物体位置信号および見積もりによる操作者の凝視方向に基づいて操作者によって受け取られる少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値604を決定することを包含する。
さらにまた物体位置信号は、物体に関連付けされた座標点等の情報を包含し、それらが、ステップ702において、少なくとも1つの物体に関連付けされた物体エリアの決定に利用され、当該物体エリアは、ステップ710において、視覚的入力品質値の決定に使用される。
さらに図解されているとおり、操作者の凝視方向の見積もり705は、操作者の凝視方向の仮定を表わす第1の凝視方向の推測の決定705aを包含することができる。方法700は、さらに、操作者の凝視方向の別の仮定を表わす第2の凝視方向の推測の決定705bを包含する。たとえば、異なる推測は、乗り物の操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データに基づく。また凝視方向の推測は、ほかの乗り物の動き等の操作者の周囲環境内において生じている外部事象に基づくこともできる。推測は、頭と目の組み合わせサッケード運動等の操作者の身体の異なる動きの間における見積もりによる相関に基づくこともでき、それにおいては検出された頭の動きに基づいて凝視方向の見積もりが行なわれる。
視覚的入力品質値を決定するステップは、図解されているとおり、ステップ710aにおいて視力分布の決定を包含することができ、それが、視覚的入力品質値を決定するための2つの別々のステップ710bおよび710cにおいて使用される。
より詳細に述べれば、ステップ710bにおいて視覚的入力品質値が、物体エリアにわたって総合的な凝視分布に関する視力分布の積分を行なうことによって決定される。したがって、視覚的入力品質値は、視力分布の中心点を物体エリア内の各点に配置し、各点について、物体エリア内の完全な視力分布を、物体エリア内の総合的な凝視分布を用いて重み付けし、物体エリア内のすべての点についての結果を合計して視覚的入力品質値とすることによって決定される。
ステップ710cにおいては、視覚的入力品質値を示す分布が結果として生成されるように物体エリア内において視力分布と総合的な凝視分布の畳み込みを行なうことによって視覚的入力品質値が決定される。
出力される視覚的入力品質値604は、さらに、ステップ711において、外部センサ・システム104からの入力信号に基づいて決定される重要点パラメータ値によって重み付けを行なうことができる。
図8には、操作の間における乗り物の進行方向についての操作者の見ている眺めが略図的に図解されており、この図は、操作者の視野における代表的な交通シーンに対応する。操作者の見ている眺めは、種々の物体を包含し、図4cに関して述べれば、左側および右側の道路車線のマーク1004aおよび1004bを包含している。各物体は、さらに、物体エリアによって表わされる。さらに、第1および第2の凝視方向分布901および902が図解されている。
第1の凝視分布901は、サッケードの凝視方向の推測に基づいており、それにおいては凝視方向が、たとえば、頭と目の組み合わせサッケードを示す操作者の頭の動きに基づいて見積もられる。したがって、サッケード凝視方向の推測によるところの凝視方向は、もっとも最後に仮定された頭と目の組み合わせサッケードの結果であり、また操作者の頭と目の間における動きのモデリングによって見積もりを行なうことができる。図解されているとおり、サッケードの凝視方向の推測によれば、操作者の凝視方向が左にねらいを定めており、それにおいてはサッケードの凝視分布のピークの点901’が、トラック1001の物体エリア内に配置されている。
第2の凝視分布902は、道路進行方向の凝視の推測に基づき、それにおいては道路進行方向に凝視方向のねらいが定められることが仮定されており、当該道路進行方向は、操作者ごとに、たとえば身長および着座姿勢に応じて異なる可能性があり、時間にわたる乗り物の操作の間における操作者の動きのモデリングを行なうことによって決定できる。図解されているとおり、道路進行方向の凝視方向の推測によれば、操作者の凝視方向が操作者自身の道路車線に関して中心方向に、または道路進行方向の遠点にねらいを定めており、それにおいてはサッケードの凝視分布のピークの点902’が、自動車1002の物体エリア内に配置されている。
別々の凝視分布のそれぞれは、通常、操作者に関するピッチ/ヨー座標における確率分布によって表わされる。総合的な凝視分布を提供するために、異なる凝視方向の推測を表わす異なる分布を適切に組み合わせることができる。
たとえば、図9においては、総合的な凝視分布によって表わされる見積もりによる操作者の凝視方向が、ピッチ/ヨーおよび確率の座標系を使用して略図的にプロットされている。総合的な凝視分布は、複数の異なる凝視方向の推測に基づいており、それにおいては推測の凝視分布が一緒に、たとえば凝視時間値に基づいて重み付けされる。図解されているとおり、ピッチ/ヨーの中心点(0,0)は、もっとも高い確率のピークを構成する。したがって、操作者の凝視方向を表わす総合的な凝視分布によれば、操作者の目が、道路進行方向等のまっすぐ前の方向にねらいを定めることがもっともありがちとなる。
図10には、図8に図解されたものと同じ操作者の見ている眺めが示されているが、さらに、それぞれが可能性のある操作者の凝視方向を表わす第1および第2の例示的な視力分布903aおよび903bを包含する。第1の分布903aは、トラック1001の物体エリア内および右側の道路車線のマーク1004aの物体エリアに置かれる操作者の中心凝視方向903’aに対応する。第2の分布903bは、右側の道路車線のマーク1004bの物体エリアに置かれる操作者の中心凝視方向903’bに対応する。
以上、特定の例示的な実施態様を参照して本発明の説明を行なってはいるが、多くの異なる変更、修正、およびその類が当業者には明らかなものとなるであろう。開示されている実施態様に対する変形が理解され、かつそれがもたらされることは、請求されている本発明の実施において、図面、開示、および付随する特許請求の範囲の考察から当業者によって可能である。
さらに、特許請求の範囲内における用語『包含』は、そのほかの要素またはステップを排除せず、また複数であると明示していないことは、複数であることを排除しない。
100 自動車、乗り物
102 座標系
104 外部センサ、外部センサ・システム
202 乗り物の操作者
204 カメラ・システム、内部センサ・システム
302 座標系
304 操作者の顔
600 システム
601 コントロール手段
602 入力、第1の入力
603 入力、第2の入力
604 視覚的入力品質値
605 乗り物内通信ネットワーク、通信ネットワーク
606 乗り物内システム
607 インターフェース・デバイス
901 第1の凝視方向分布
901’ ピークの点
902 第2の凝視方向分布
902’ ピークの点
903’a 中心凝視方向
903a 第1の視力分布
903b 第2の視力分布、第2の分布
1000 道路
1001 トラック
1002 自動車
1003 歩行者
1004 車線マーク
1004a 車線のマーク
1004b 車線のマーク
1005 物体エリア

Claims (15)

  1. 乗り物の操作者の周囲環境内にある物体についての前記操作者の視覚的入力を決定する方法(700)であって、
    ‐前記操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するステップ(701)と、
    ‐前記乗り物の前記操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するステップ(703)と、
    ‐前記操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうステップ(705)と、
    ‐前記物体位置信号および前記見積もりによる操作者の凝視方向に基づいて前記操作者によって受け取られる前記少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するステップ(710)と、
    を包含する方法。
  2. さらに、前記操作者の目による前記物体の固視の確率を示す期待される固視の確率の見積もりを行なうステップを包含し、
    それにおいて前記視覚的入力品質値を決定するステップは、さらに前記期待される固視の確率に基づく、
    請求項1に記載の方法。
  3. 前記見積もりによる操作者の凝視方向が、前記操作者の異なる凝視方向についての確率を示す総合的な凝視分布を包含する、請求項1または2に記載の方法。
  4. さらに、前記物体に関連付けされた物体エリアを決定するステップ(702)を包含し、前記物体エリアは、前記操作者によって知覚されるところの前記物体の物体エリアを示し、
    それにおいて前記視覚的入力品質値を決定するステップは、さらに前記物体エリアに基づく、
    請求項1乃至3のいずれかに記載の方法。
  5. 前記視覚的入力品質値を決定するステップは、
    ‐中心の凝視方向との関係において前記操作者の目の視力レベルを示す視力分布を決定するステップ(710a)を包含し、
    それにおいて前記視覚的入力品質値を決定するステップは、さらに前記視力分布に基づく、
    請求項4に記載の方法。
  6. 前記視覚的入力品質値を決定するステップは、前記物体エリアにわたって前記総合的な凝視分布に関する前記視力分布の積分を行なうステップ(710b)を包含する、請求項5に記載の方法。
  7. 前記視覚的入力品質値を決定するステップは、前記物体エリア内における前記視力分布と前記総合的な凝視分布の畳み込みを行なうステップ(710c)を包含する、請求項5に記載の方法。
  8. さらに、前記物体に関連付けされた重要点パラメータ値を決定するステップ(711)を包含し、それにおいて重要点パラメータは、視覚的な注意を引く確率を示す、請求項1乃至7のいずれかに記載の方法。
  9. さらに、
    ‐第1の凝視方向の推測を決定するステップ(705a)を包含し、それにおいて前記総合的な凝視分布は、前記第1の凝視方向の推測に基づく、
    請求項3乃至8のいずれかに記載の方法。
  10. さらに、
    ‐第2の、または複数の凝視方向の推測を決定するステップ(705b)と、
    ‐前記第1および第2の、または複数の凝視方向の推測を組み合わせることによって前記総合的な凝視分布を決定するステップと、
    を包含する請求項9に記載の方法。
  11. 前記操作者の凝視方向の見積もりを行なうステップは、
    ‐前記操作者のサッケード運動を示す操作者の身体の動きを検出するステップと、
    ‐前記検出された操作者の身体の動きに基づいてサッケード凝視分布の見積もりを行なうステップと、
    を包含する請求項3乃至10のいずれかに記載の方法。
  12. 前記操作者の凝視方向の見積もりを行なうステップは、さらに、
    ‐前記サッケード凝視分布に関連付けされる凝視時間値を決定するステップを包含し、
    それにおいて前記総合的な凝視分布は、前記サッケード凝視分布および前記凝視時間値に基づいて決定される、
    請求項11に記載の方法。
  13. 前記操作者の凝視方向の見積もりを行なうステップは、さらに、
    ‐道路進行方向の凝視分布を決定するステップを包含し、
    それにおいて前記総合的な凝視分布は、前記凝視時間値に基づき、前記道路進行方向の凝視分布を用いて前記サッケード凝視分布の重み付けを行なうことによって決定される、
    請求項12に記載の方法。
  14. 乗り物の操作者(202)の周囲環境内にある物体(1001)についての前記操作者の視覚的入力を決定するためのシステム(600)であって、前記システムはコントロール手段(601)を包含し、それにおいて前記コントロール手段が、
    ‐前記操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するべく構成された第1の入力(602)と、
    ‐前記乗り物の前記操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するべく構成された第2の入力(603)と、
    を包含し、
    それにおいて前記コントロール手段は、前記操作者移動入力信号に基づいて操作者の凝視方向の見積もりを行なうべく構成され、かつ前記物体位置信号および前記見積もりによる操作者の凝視方向に基づいて前記操作者によって受け取られる前記少なくとも1つの物体(1001)の視覚的入力のレベルを表わす視覚的入力品質値(604)を決定するべく構成される、
    システム。
  15. 乗り物の操作者の周囲環境内にある物体についての前記操作者の視覚的入力を決定するためのコンピュータ・プログラム・プロダクトを具体化するコンピュータ可読媒体であって、前記コンピュータ・プログラム・プロダクトが、プロセッサによって実行されたとき、
    ‐前記操作者の周囲環境内にある少なくとも1つの物体の位置を示す物体位置信号を受信するべく構成されたコードと、
    ‐前記乗り物の前記操作者の目、顔、頭、および身体の動きのうちの少なくとも1つに関係する情報を包含する生理学的データを示す操作者移動入力信号を受信するべく構成されたコードと、
    ‐操作者移動入力信号に基づいて前記操作者の凝視方向の見積もりを行なうべく構成されたコードと、
    ‐前記物体位置信号および前記見積もりによる操作者の凝視方向に基づいて前記操作者によって受け取られる前記少なくとも1つの物体の視覚的入力のレベルを表わす視覚的入力品質値を決定するべく構成されたコードと、
    を包含する、コンピュータ可読媒体。
JP2012189290A 2011-09-02 2012-08-29 乗り物の操作者の視覚的入力 Expired - Fee Related JP6113440B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11179817.9 2011-09-02
EP11179817.9A EP2564766B1 (en) 2011-09-02 2011-09-02 Visual input of vehicle operator

Publications (2)

Publication Number Publication Date
JP2013054737A true JP2013054737A (ja) 2013-03-21
JP6113440B2 JP6113440B2 (ja) 2017-04-12

Family

ID=44759453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012189290A Expired - Fee Related JP6113440B2 (ja) 2011-09-02 2012-08-29 乗り物の操作者の視覚的入力

Country Status (4)

Country Link
US (1) US8965037B2 (ja)
EP (1) EP2564766B1 (ja)
JP (1) JP6113440B2 (ja)
CN (1) CN103110400B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085719A (ja) * 2013-10-28 2015-05-07 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
JP2017170949A (ja) * 2016-03-18 2017-09-28 トヨタ自動車株式会社 車両用表示装置

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848813B2 (en) 2012-08-14 2017-12-26 Volvo Lastvagnar Ab Method for determining the operational state of a driver
US20140111431A1 (en) * 2012-10-18 2014-04-24 Bradley Horowitz Optimizing photos
US9571726B2 (en) 2012-12-20 2017-02-14 Google Inc. Generating attention information from photos
US9116926B2 (en) 2012-12-20 2015-08-25 Google Inc. Sharing photos
US9621952B2 (en) * 2013-04-23 2017-04-11 Gm Global Technology Operations Llp Video display monitoring methods and systems
US9619695B2 (en) 2013-06-06 2017-04-11 Visteon Global Technologies, Inc. Gaze time indicator for a vehicle
DE102013213236A1 (de) * 2013-07-05 2015-01-08 Robert Bosch Gmbh Verfahren zum Ermitteln eines Aufmerksamkeitsgrads eines Fahrzeugführers
US9298994B2 (en) * 2014-01-09 2016-03-29 Harman International Industries, Inc. Detecting visual inattention based on eye convergence
CN103767715B (zh) * 2014-01-15 2015-10-28 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测装置
JP6330411B2 (ja) * 2014-03-26 2018-05-30 日産自動車株式会社 情報呈示装置及び情報呈示方法
CN105528385B (zh) * 2014-10-15 2020-11-20 松下电器(美国)知识产权公司 信息取得方法、信息取得系统以及信息取得程序
US9747812B2 (en) 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
DE102015206200A1 (de) * 2015-04-08 2016-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers
DE102015206209A1 (de) * 2015-04-08 2016-10-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bestimmung einer die Aufmerksamkeit eines Fahrzeugführers abbildenden Maßzahl und Vorrichtung zur Aufmerksamkeitsüberwachung eines Fahrzeugführers
DE102016201531A1 (de) * 2016-02-02 2017-08-03 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen von Müdigkeit eines Fahrers
US10162651B1 (en) * 2016-02-18 2018-12-25 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Systems and methods for providing gaze-based notifications
WO2017173480A1 (en) * 2016-04-07 2017-10-12 Seeing Machines Limited Method and system of distinguishing between a glance event and an eye closure event
US9620896B1 (en) * 2016-04-21 2017-04-11 Nikhil Dubbaka Vehicle and base station assembly
EP3469437A4 (en) 2016-06-13 2020-03-25 Xevo Inc. METHOD AND SYSTEM FOR PROVIDING AUTOMATIC SPACE MANAGEMENT USING A VIRTUOUS CYCLE
US10846877B2 (en) * 2016-06-28 2020-11-24 Google Llc Eye gaze tracking using neural networks
US12094224B2 (en) * 2016-07-01 2024-09-17 Eyesight Mobile Technologies Ltd. System and method for driver monitoring
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
AU2017382388A1 (en) 2016-12-22 2019-08-01 Xevo Inc. Method and system for providing artificial intelligence analytic (AIA) services for performance prediction
US11931103B2 (en) 2017-01-05 2024-03-19 Heidelberg Engineering Gmbh Method and device for carrying out the method in a vehicle
DE102017214505A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
JP6915502B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバ状態検出装置
EP3576074A1 (en) * 2018-06-01 2019-12-04 Volvo Car Corporation Method and system for assisting drivers to drive with precaution
EP3837137A4 (en) * 2018-06-26 2022-07-13 Itay Katz CONTEXT DRIVER MONITORING SYSTEM
US10552986B1 (en) * 2018-07-20 2020-02-04 Banuba Limited Computer systems and computer-implemented methods configured to track multiple eye-gaze and heartrate related parameters during users' interaction with electronic computing devices
JP7180228B2 (ja) * 2018-09-20 2022-11-30 いすゞ自動車株式会社 車両用監視装置
US20200189459A1 (en) * 2018-12-13 2020-06-18 GM Global Technology Operations LLC Method and system for assessing errant threat detection
US10882398B2 (en) * 2019-02-13 2021-01-05 Xevo Inc. System and method for correlating user attention direction and outside view
US20230159046A1 (en) * 2020-04-06 2023-05-25 Adam Cogtech Ltd Generation and Presentation of Stimuli
KR20220002800A (ko) * 2020-06-30 2022-01-07 현대모비스 주식회사 운전자 부주의 경고 장치 및 방법
SE2030301A1 (en) * 2020-09-30 2022-03-31 Chadalavada Ravi Teja Method and system for driving skill feedback
CN113536909B (zh) * 2021-06-08 2022-08-26 吉林大学 一种基于眼动数据的预瞄距离计算方法、系统和设备
US20230264697A1 (en) * 2022-02-22 2023-08-24 Toyota Research Institute, Inc. Varying extended reality content based on driver attentiveness
US12005919B2 (en) 2022-02-22 2024-06-11 Toyota Research Institute, Inc. Varying extended reality content based on risk level of a driving environment
CN114680889A (zh) * 2022-03-08 2022-07-01 中国石油大学(北京) 钻井作业人员的不安全行为识别方法和装置
CN115998045B (zh) * 2023-01-13 2024-06-14 东莞市智睿智能科技有限公司 一种鞋帮三维成像装置、标定方法和设备
CN116968730B (zh) * 2023-06-25 2024-03-19 清华大学 高风险场景下驾驶人风险响应与主动决策方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006502796A (ja) * 2002-10-15 2006-01-26 ボルボ テクノロジー コーポレイション 被験者の頭及び目の動きを分析する方法及び装置
JP2008003762A (ja) * 2006-06-21 2008-01-10 Honda Motor Co Ltd 障害物認識判定装置
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2008237625A (ja) * 2007-03-27 2008-10-09 Matsushita Electric Ind Co Ltd 見え方度判定装置
JP2009244986A (ja) * 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc 警告報知装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2929927B2 (ja) * 1993-12-14 1999-08-03 日産自動車株式会社 走行情報提供装置
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
EP1961622B1 (en) * 2005-12-12 2018-06-13 Panasonic Intellectual Property Corporation of America Safety-travel assistance device
EP2000889B1 (en) * 2006-03-15 2018-06-27 Omron Corporation Monitor and monitoring method, controller and control method, and program
WO2007145566A1 (en) * 2006-06-11 2007-12-21 Volvo Technology Corporation Method and apparatus for determining and analyzing a location of visual interest
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
US8947219B2 (en) * 2011-04-22 2015-02-03 Honda Motors Co., Ltd. Warning system with heads up display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006502796A (ja) * 2002-10-15 2006-01-26 ボルボ テクノロジー コーポレイション 被験者の頭及び目の動きを分析する方法及び装置
JP2008003762A (ja) * 2006-06-21 2008-01-10 Honda Motor Co Ltd 障害物認識判定装置
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2008237625A (ja) * 2007-03-27 2008-10-09 Matsushita Electric Ind Co Ltd 見え方度判定装置
JP2009244986A (ja) * 2008-03-28 2009-10-22 Toyota Central R&D Labs Inc 警告報知装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085719A (ja) * 2013-10-28 2015-05-07 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
JP2017170949A (ja) * 2016-03-18 2017-09-28 トヨタ自動車株式会社 車両用表示装置

Also Published As

Publication number Publication date
US8965037B2 (en) 2015-02-24
EP2564766A1 (en) 2013-03-06
US20130058529A1 (en) 2013-03-07
CN103110400A (zh) 2013-05-22
JP6113440B2 (ja) 2017-04-12
CN103110400B (zh) 2016-08-31
EP2564766B1 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP6113440B2 (ja) 乗り物の操作者の視覚的入力
CN108394414B (zh) 清醒度判定系统以及清醒度判定方法
CN102975718B (zh) 用以确定车辆驾驶员对物体状态预期的方法、系统和收录计算机程序产品的计算机可读介质
US10640122B2 (en) Driving consciousness estimation device
US10117577B2 (en) Visual field calculation apparatus and method for calculating visual field
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
CN111417990A (zh) 使用面向驾驶员的成像装置来监视驾驶员行为以用于车辆的车队中的车辆车队管理的系统和方法
TW202218623A (zh) 用於自主交通工具的暈動症偵測系統
US9451380B2 (en) Apparatus and method for localizing sound image for vehicle's driver
CN110155072B (zh) 防晕车方法和防晕车装置
JP2019043496A (ja) 自動運転調整装置、自動運転調整システム、及び自動運転調整方法
WO2020145161A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2022110737A1 (zh) 车辆防撞预警方法、装置、车载终端设备和存储介质
JP6988075B2 (ja) 違和感判別方法及び違和感判別装置
DE102020213102A1 (de) Einrichtung und system bezüglich eines intelligenten helms
EP3875330A1 (en) Vehicle controller
WO2018158950A1 (ja) 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム
US20190339786A1 (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2018094294A (ja) 状態推定システム
US20240336192A1 (en) Monitoring device, storage medium storing computer program for monitoring, and monitoring method
JP2024041301A (ja) 運転者注意度制御方法及び運転者注意度制御装置
Susheelamma et al. DROWSINESS DETECTION OF DRIVERS USING IOT IMAGE PROCESSING AND MACHINE LEARNING TECHNIQUES
WO2017134755A1 (ja) 眠気判定プログラム、眠気判定装置、および眠気判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170315

R150 Certificate of patent or registration of utility model

Ref document number: 6113440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees