[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015506310A - 認知の不確実性に基づく車両コントロール - Google Patents

認知の不確実性に基づく車両コントロール Download PDF

Info

Publication number
JP2015506310A
JP2015506310A JP2014554922A JP2014554922A JP2015506310A JP 2015506310 A JP2015506310 A JP 2015506310A JP 2014554922 A JP2014554922 A JP 2014554922A JP 2014554922 A JP2014554922 A JP 2014554922A JP 2015506310 A JP2015506310 A JP 2015506310A
Authority
JP
Japan
Prior art keywords
uncertainty
model
sensor
vehicle
uncertain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014554922A
Other languages
English (en)
Inventor
ジュー、ジャジュン
ドルゴフ、ドミトリ・エー
ファーガソン、デービッド・アイ
Original Assignee
グーグル・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グーグル・インク filed Critical グーグル・インク
Publication of JP2015506310A publication Critical patent/JP2015506310A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Landscapes

  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

開示した形態は一般に自律走行車両の操縦に関する。具体的には、車両(101)は車両認知システムの不確実性を判定し、この不確実性を示す値を車両をどのように運転するかについて判断するために用いることができる。 例えば、認知システムには、それぞれ不確実性と関連付けられたセンサー(310,311,321〜323,330,331)、物体の形式モデル、及び、物体動作モデル(146)を含めることができる。センサーは、センサー場(421A〜423A,421B〜423B)の到達距離、速度、及び/又は形状に基づく前記センサーの不確実性と関連付けることができる。物体の形式モデルは、不確実性、例えば、認知された物体が(小さい自動車のような)1つの形式か又は(自転車のような)他の形式なのかについての不確実性と関連付けられる。物体動作モデルも、例えば、すべての物体が予想した動き通りに動くとは限らないことのような、不確実性と関連付けられる。これらの不確実性は車両の操縦に用いることができる。【選択図】図10

Description

(関連出願の相互参照)
この出願は、2012年1月30日に出願された米国特許出願番号13/361,083に基づく継続出願であり、この出願のすべてを参照することにより本出願に組み込むものとする。
自律走行車両は、乗客を1つの場所から他の場所へ移送することを目的として、種々の演算システムを用いる。自律走行車両によっては、パイロット、ドライバー、又は乗客のようなオペレーターからの初期入力又は連続入力を必要とすることもある。他の自律走行システムでは、例えば自動操縦システムを、手動モード(このモードでは、オペレーターはその車両の動作の高度なコントロールを行う)から自律走行モード(このモードでは、車両は基本的に自分で動く)、或いは、その間のモードにオペレーターが切り替えるシステムが導入されているときのみに用いることができる。
そのような車両は、周囲の物体を検出するために種々の形式のセンサーを含む車両認知システムを装備する。例えば、自律走行車両には、レーザー、ソナー、レーダー、カメラ、及び車両の周囲をスキャンし、データを記録する他の装置を含めることができる。これらの装置は、組み合わせて(場合によっては単独で)道路上の物体の形状及び輪郭を特定し、この特定した物体を避けるよう車両を安全に操縦するために用いることができる。
しかしながら、車両認知システムには種々の制限が含まれることがある。これらの制限はしばしばセンサー特性が異なることに起因する。例えば、カメラセンサーは距離を直接計測することはしないし、レーザーセンサーは速度を直接計測することはしないし、レーダーセンサーは物体の形状を直接計測することはしない、等々である。加えて、センサーは、到達距離、フレームレート、ノイズパターンに制限を有することがある。これらの制限のすべてにより、外界の認識に「不確実性」が生じる結果となることがある。
本開示の一形態では、車両の操縦のための方法を提供する。この方法には、センサーを用いて車両の周囲の物体を検出するステップが含まれる。前記センサーは、センサーの不確実性と関連付けられる。物体の形式は物体の形式モデルに基づき特定される。前記物体の形式モデルは物体の形式モデルの不確実性と関連付けられる。前記物体の動作モデルは、特定された前記物体の形式に基づき特定される。前記動作モデルは、動作モデルの不確実性と関連付けられる。プロセッサーは、前記センサーの不確実性、物体の形式モデルの不確実性、及び動作モデルの不確実性に基づき不確実運転モデルを作成する。前記不確実運転モデルには、前記車両の操縦方針が含まれる。そして、前記車両は前記不確実運転モデルの方針に基づき操縦される。
1つの実施例において、前記方法にはまた、センサーの不確実性、物体の形式モデルの不確実性、及び動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い前記車両を操縦するステップが含まれる。別の実施例では、センサーは、センサーの速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記方法にはまた、前記センサーの速度と前記センサー場の前記到達距離及び形状とに基づき前記センサーの不確実性を計算するステップが含まれる。
本開示の他の形態では、車両を操縦する方法を提供する。前記方法には、前記車両のセンサーについてのセンサー計測の不確実性のモデルを保存するステップと、前記センサーにより検出された物体についての物体形式の不確実性のモデルを保存するステップと、前記センサーにより検出された物体の今後の動きを特定するために用いられる動作モデルについての動作モデルの不確実性のモデルを保存するステップと、複数の不確実運転モデルを保存するステップとが含まれる。前記不確実運転モデルの各不確実運転モデルには、前記車両の操縦についての方針が含まれる。前記方法にはまた、前記センサー計測の不確実性のモデルと、前記物体形式の不確実性のモデルと、前記動作モデルの不確実性のモデルとに基づく物体及び物体の属性のリストを特定するステップが含まれる。各物体の属性は、前記物体の属性のリストが複数の不確実性を示す値と関連付けられるように、不確実性を示す値と関連付けられる。プロセッサーは、前記複数の不確実性を示す値の少なくとも1つに基づき複数の不確実運転モデルのうちの1つを選択する。そして、前記車両は前記選択された不確実運転モデルの方針に基づき操縦される。
1つの実施例において、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減するために、前記方針に従い前記車両を操縦する。別の実施例では、前記方法にはまた、前記複数の不確実性を示す値の1つの不確実性を示す値を低減するために、前記方針に従い前記車両を操縦するステップが含まれる。別の実施例では、前記センサーは、センサーの速度と到達距離及び形状を有するセンサー場と関連付けられ、前記方法にはまた、の前記センサーの速度と前記センサー場の到達距離及び形状とに基づいて、センサー計測の不確実性のモデルを計算するステップが含まれる。
さらに本開示の他の形態では、車両の操縦のためのシステムを提供する。前記システムには、車両の周囲についてのセンサーデータを生成するためのセンサーが含まれる。前記センサーは、センサーの不確実性と関連付けられる。前記システムにはまた、物体の形式の不確実性と関連付けられた物体の形式モデルを保存するメモリーが含まれる。前記メモリーはまた、動作モデルの不確実性と関連付けられた動作モデルを保存する。プロセッサーは、前記メモリーにアクセスし、前記センサーからのセンサーデータを受け取るよう設定される。前記プロセッサーは、前記センサーを用いて車両の周囲の物体を検出し、前記物体の形式モデル及びセンサーデータに基づき前記物体の形式を特定し、前記特定した前記物体の形式に基づき前記物体の動作モデルを特定し、そして、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性に基づいて不確実運転モデルを作るような動作が可能である。前記不確実運転モデルには前記車両の操縦についての方針が含まれる。前記方法にはまた、前記不確実運転モデルの前記方針に基づく車両の操縦を行うステップが含まれる。
1つの実施例において、前記プロセッサーはまた、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減するために、前記方針に従い前記車両を操縦するような動作が可能である。別の実施例では、さらに、前記センサー速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記プロセッサーは、前記センサー速度と前記センサー場の前記到達距離及び形状とに基づくセンサーの不確実性を計算するような動作も可能である。
本開示のさらなる形態では、車両の操縦のためのシステムを提供する。前記システムには、前記車両のセンサーについてのセンサー計測の不確実性のモデルと、前記センサーにより検出された物体についての物体形式の不確実性のモデルと、前記センサーにより検出された前記物体の今後の動きを特定するために用いられる動作モデルについての動作モデルの不確実性のモデルと、複数の不確実運転モデルとを保存するメモリーが含まれる。前記複数の不確実運転モデルの各不確実運転モデルには、前記車両を操縦する方針が含まれる。前記システムにはまた、前記メモリーと接続されたプロセッサーが含まれる。前記プロセッサーは、センサー計測の不確実性のモデルと、物体形式の不確実性のモデルと、動作モデルの不確実性のモデルとに基づき、物体及び物体の属性のリストを特定するような動作が可能である。各物体の属性は、物体の属性の前記リストが複数の不確実性を示す値と関連付けられるようにして、不確実性を示す値と関連付けられる。前記プロセッサーはまた、前記複数の不確実性を示す値の少なくとも1つに基づき複数の不確実運転モデルのうちの1つを選択するような動作が可能であり、前記プロセッサーは、前記選択された不確実運転モデルの方針に基づき前記車両を操縦するような動作が可能である。
1つの実施例において、前記プロセッサーはまた、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減するために前記方針に従い前記車両を操縦するような動作が可能である。別の実施例では、前記プロセッサーはまた、前記複数の不確実性を示す値のうちの1つの不確実性を示す値を低減するために前記方針に従い前記車両を操縦するような動作が可能である。別の実施例では、前記センサーはセンサー速度と、到達距離及び形状を有するセンサー場とに関連付けられ、前記プロセッサーはまた、前記センサー速度と前記センサー場の到達距離及び形状とに基づきセンサー計測の不確実性のモデルを計算するような動作が可能である。
本開示の他の形態では、コンピュータが読み取り可能なプログラム命令が保存されている、実体のあるコンピュータ読み取り可能保存媒体を提供し、前記命令は、プロセッサーにより実行された時、前記プロセッサーに車両の操縦を行う方法を実行させる。前記方法には、センサーを用いて車両の周囲の物体を検出するステップが含まれる。前記センサーは、センサーの不確実性と関連付けられる。前記方法にはまた、物体の形式モデルに基づき物体の形式を特定するステップが含まれる。前記物体の形式モデルは物体の形式モデルの不確実性と関連付けられる。前記方法にはまた、前記特定された物体形式に基づき前記物体の動作モデルを特定するステップが含まれる。前記動作モデルは動作モデルの不確実性と関連付けられる。前記方法には、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性に基づき不確実運転モデルを作成するステップが含まれる。前記不確実運転モデルには、前記車両を操縦するための方針が含まれる。前記方法にはまた、前記不確実運転モデルの前記方針に基づき前記車両を操縦するステップが含まれる。
1つの実施例において、前記にはまた、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減するために前記方針に従い前記車両を操縦するステップが含まれる。
本開示のさらなる形態では、コンピュータが読み取り可能なプログラム命令が保存されている、実体のあるコンピュータ読み取り可能保存媒体を提供し、前記命令は、プロセッサーにより実行された時、前記プロセッサーに車両の操縦を行う方法を実行させる。前記方法には、前記車両のセンサーについてセンサー計測の不確実性のモデルを保存するステップと、前記センサーにより検出された物体についての物体形式の不確実性のモデルを保存するステップと、前記センサーにより検出された物体の今後の動きを特定するために用いる動作モデルについての動作モデルの不確実性のモデルを保存するステップとが含まれる。前記複数の不確実運転モデルの各不確実運転モデルには、前記車両を操縦するための方針が含まれる。前記方法にはまた、物体と、前記センサー計測の不確実性のモデル、前記物体形式の不確実性のモデル、及び前記動作モデルの不確実性のモデルに基づく物体の属性のリストとを特定するステップが含まれる。各物体の属性は、前記物体の属性のリストが複数の不確実性を示す値と関連付けられるように、不確実性を示す値と関連付けられる。前記方法にはまた、前記複数の不確実性を示す値の少なくとも1つに基づいて前記複数の不確実運転モデルのうちの1つを選択するステップが含まれる。前記方法には、前記選択された不確実運転モデルの方針に基づき前記車両を操縦するステップが含まれる。
1つの実施例において、前記方法にはまた、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減するために前記方針に従い操縦するステップが含まれる。別の実施例では、前記方法にはまた、前記複数の不確実性を示す値の不確実性を示す値の1つを低減するために前記方針に従い操縦するステップが含まれる。
1つの実施の形態によるシステムの機能図である。 1つの実施の形態による自律走行車両の内装である。 1つの実施の形態による自律走行車両の外装である。 1つの実施の形態によるセンサー場の図解である。 1つの実施の形態によるセンサー場の図解である。 1つの実施の形態によるセンサー場の図解である。 1つの実施の形態によるセンサー場の図解である。 1つの実施の形態による交差点の図解である。 1つの実施の形態による交差点の詳細な地図情報の図解である。 1つの実施の形態による交差点の別の図解である。 1つの実施の形態によるセンサーデータ及び詳細な地図情報を含む交差点の図解である。 1つの実施の形態による例示データの図解である。 1つの実施の形態によるフロー線図である。
本開示の一形態では、道路に沿って走っている車両は車両の周囲の物体を検出することができる。この物体を、ある不確実性のレベルを有するセンサーを用いて検出することができる。この物体の形式は、物体の形式モデルに基づき特定することができる。この物体の形式モデルは、物体の形式モデルの不確実性と関連付けることができる。特定された物体の形式に基づき、この物体の今後の位置を予測する動作モデルを特定することができる。この動作モデルはまた、動作モデルの不確実性とも関連付けることができる。動作モデルの不確実性、物体の形式モデルの不確実性、及び/又はセンサーの不確実性に基づき運転方針の不確実性を特定することができる。この運転方針の不確実性を前記車両の操縦に用いることができる。
図1に示すように、ここに開示した1つの形態による自律走行運転システム100には、種々の構成部品を有する車両101が含まれる。開示した特定の形態では、特定のタイプの車両について特に実益があり、これらの車両として、乗用車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、RV車、遊園地の乗り物、市街電車、ゴルフカート、列車、及び路面電車を含むあらゆるタイプの車両があげられるがこれらに限定されるものではない。車両は、プロセッサー120、メモリー130、及び汎用コンピュータに一般的に用いられる他の構成部品を有するコンピュータ110のような、1以上のコンピュータを有することができる。
メモリー130は、プロセッサー120により実行或いは用いることができる命令132及びデータ134を含む、プロセッサー120がアクセス可能な情報を保存する。メモリー130は、コンピュータ読み取り可能媒体、又は、ハードディスクドライブ、メモリーカード、ROM、RAM、DVD又は他の光ディスクのみならず、他の書き込み可能なメモリー及び読み込み専用メモリーのような、電子装置により読み込むことのできるデータを保存するコンピュータ読み取り可能媒体、又は他の媒体を含むプロセッサーがアクセス可能な情報を保存することのできるあらゆるタイプとすることができる。システム及び方法には、前述の種々の組み合わせを含むことができ、命令及びデータの異なる部分は異なるタイプの媒体に保存される。
命令132は、プロセッサーにより(機械語のように)直接的に又は(スクリプトのように)間接的に実行できる命令のどのようなセットでもよい。例えば、コンピュータ読み取り可能媒体上のコンピュータコードとして命令を保存することができる。これに関連して、「命令」及び「プログラム」の語は、ここでは互いに置き換え可能に用いることができる。命令は、プロセッサーで直接処理ができるオブジェクトコードフォーマット、又は、要求によりインタープリトされ又はあらかじめコンパイルされる独立のソースコードのスクリプト又はコレクションを含む他のあらゆるコンピュータ言語で保存することができる。命令の機能、方法、及び業務については以下に詳述する。
命令132に従い、プロセッサー120によりデータ134を検索し、保存し、変更することができる。例えば、このシステム及び方法が、特定のデータ構造により制限されていなくても、複数の異なるフィールド及びレコードを有するテーブル、XMLドキュメント、又はフラットファイルとして、リレーショナルデータベースとしてデータをコンピュータレジスターに保存することができる。データは、いろいろなコンピュータ読み取り可能フォーマットにフォーマットすることもできる。さらにほんの例示として、グラフィックを描画するためのコンピュータ命令のみならず、圧縮又は非圧縮、損失のない(例えば、BMP)又は損失のある(例えば、JPEG)、及びビットマップ又はベクトルベース(例えば、SVG)のフォーマットで保存されたピクセルのグリッドからなるビットマップとして、イメージデータを保存することができる。データは、数値、説明文、所有者コード、同じメモリー又は異なるメモリー(他のネットワーク中のものも含む)の他の領域に保存されたデータへの参照、又は、対応するデータを計算する機能により用いられる情報のような、対応する情報を特定するのに十分なあらゆる情報を具備することができる。
プロセッサー120は、インテル・コーポレーションやアドバンスト・マイクロ・デバイセズのプロセッサーのような、従来のどのようなプロセッサーでもよい。代替的に、プロセッサーをASICのような専用装置とすることもできる。図1には、同じブロック内にあるものとして、プロセッサー、メモリー、及び他のコンピュータ110要素を機能的に図示しているが、当業者であれば、プロセッサー及びメモリーは、実際には、同じ物理的な筺体内に収納することも同じ筺体内に収納しないこともできる、複数のプロセッサー及びメモリーであってもよいことは理解できるであろう。例えば、メモリーは、コンピュータ110の筺体とは別の筺体内に収納したハードディスクドライブ又は他の記憶媒体とすることができる。従って、当然のことながら、プロセッサー又はコンピュータと言うときには、並列運転していることも並列に運転していないこともあるプロセッサー又はコンピュータ又はメモリーを言うことが含まれる。ここで記載するステップを実行させるために単一のプロセッサーを使わないで、ステアリング用部品及び減速用部品のような構成部品の各々に、その構成部品特有の機能に関する計算のみを実行するような特有のプロセッサーを持たせることもできる。
ここに記載した種々の形態において、プロセッサーを、車両から隔てて配置し、車両と無線で交信させることもできる。他の形態において、ここに記載した処理は車両中に配置したプロセッサーにより実行され、1つの操作を実行するために必要なステップを行う場合も含めて、他の処理は遠隔のプロセッサーにより実行される。
コンピュータ110は、中央演算処理装置(CPU)(例えば、プロセッサー120)、ウェブブラウザのようなデータ134や命令を保存するメモリー130(例えば、RAM及び内部ハードディスクドライブ)、電子表示142(例えば、スクリーン、小型LCDタッチスクリーン、又は、情報を表示することのできる他の電子装置)、ユーザー入力140(例えば、マウス、キーボード、タッチスクリーン、及び/又は、マイクロフォン)、及び、人の状態又は人が求める明確な(例えば、ジェスチャー)又は間接的な(例えば、「居眠りしている」)情報を収集するための種々のセンサー(例えば、ビデオカメラ)を具備する。
1つの実施例では、コンピュータ110は、車両101に組み込まれた自律走行運転演算システムとすることができる。図2は、自律走行車両の内装の典型的なデザインを示す。自律走行車両は、例えば、ステアリングホイール210のようなステアリング装置やナビゲーション表示215のようなナビゲーション表示装置や変速装置220のようなギア比選択装置のような、自律走行車両でない車両のすべての機構が含まれる。自律走行車両はまた、1つ以上の自律走行運転モードを始動又は停止させるため、及び、ナビゲーション目的地のような情報をドライバー又は乗客290が自律走行運転コンピュータ110に提供することができるようにするために、変速装置220、タッチスクリーン217、又はボタン入力219のような種々のユーザー入力装置を有することができる。
車両101にはまた、1以上の表示装置を含めることもできる。例えば、車両には、自律走行車両又はその車両のコンピュータの状態に関する情報を表示するための表示装置225を含めることができる。他の実施例では、車両101の現在の状態を表示するための、ステータスバー230のような、状態表示装置138(図1参照)を含めることができる。図2の実施例では、ステータスバー230は、車両が現在ドライブモードで、毎時2マイル(3.2km/h)で走っていることを示す「D」及び「2mph」を表示している。これに関して、車両は、ステアリングホイール210のような車両101の一部を照らすことで文字を電子表示することや、他の表示を行うことができる。
自律走行運転演算システムは、車両の種々の構成部品と通信することができる。例えば、図1に戻って、コンピュータ110は車両の従来の中央プロセッサー160と通信することができ、車両101の動き、速度等をコントロールするために、車両101の種々のシステム、例えばブレーキングシステム180、加速システム182、信号システム184、及びナビゲーションシステム186と情報を送受信することができる。加えて、スイッチをいれたとき、コンピュータ110は、車両101のこれらのすべての機能または一部の機能をコントロールし、完全な自律走行又は部分的な自律走行にすることができる。種々のシステム及びコンピュータ110は車両101内にあるように示されているが、これらの構成要素は、車両101の外部又は物理的に遠く離しておくことができる。
車両にはまた、装置の地理的位置を決定するためにコンピュータ110と通信を行う地理的位置検出要素144を含めることもできる。例えば、この位置検出要素には、装置の緯度、経度、及び/又は高度を判断するためにGPS受信機を含めることができる。レーザーベースの位置特定システム、慣性援用GPS、又はカメラベースの位置検出のような他の位置検出システムも、車両の位置を特定するために用いることができる。車両の位置には、絶対的地理的位置より少ないノイズで判断することのできる、すぐ近くの他の乗用車等との相対位置のような、相対位置情報のみならず、緯度、経度、及び高度のような、絶対的地理的位置を含めることができる。
車両には、車両の方向と速度又はその変化を決定するための、加速度計、ジャイロスコープ、又は他の方向/速度検出装置146のような、コンピュータ110との通信を行う他の機能を含めることもできる。単なる例として、装置146は、重力の方向又は重力に垂直な平面の方向に対するピッチ、振れ、揺れ(又はそれらの変化)を決定することができる。この装置は、このような変化の速さ及び方向の増加又は減少を追跡することもできる。ここに述べたようなこの装置の位置及び方向データについての項目は、ユーザー、コンピュータ110、他のコンピュータ、及びこれらを組み合わせたものに自動的に提供される。
コンピュータは、種々の構成部品を制御することにより車両の方向及び速度をコントロールすることができる。例示として、車両を完全に自律走行モードで運転している場合、コンピュータ110は、(例えば、エンジンに供給される燃料又は他のエネルギーを増加させることにより)車両を加速させること、(例えば、エンジンに供給される燃料を減少させること、又はブレーキをかけることにより)車両を減速させること、及び(例えば、前方の2つの車輪の向きを変えることにより)車両の方向を変えることができる。
車両には、他の車両、道路上の障害物、交通信号、標識、樹木、等のような、車両の外にある物体の位置、向き、進行方向、等を検出するための構成部品を含めることができる。検出システムには、コンピュータ110で処理することのできるデータを記録するレーザー、ソナー、レーダー、カメラ又はその他の検出装置を含めることができる。例えば、車両が小型乗用車である場合、この乗用車には、屋根又は他の具合のいい場所に取り付けたレーザーを含めることができる。図3に示すように、小型乗用車300には、それぞれ乗用車の前方及び屋根に取り付けたレーザー310及び311を含めることができる。レーザー310は、約150メートルの到達距離、13度の垂直視野、約30度の水平視野を有することができる。レーザー311は、約50〜80メートルの到達距離、13度の垂直視野、360度の水平視野を有することができる。レーザーにより、車両は、種々の物体の位置と距離を特定するためにコンピュータが用いることのできる距離と強さの情報を得ることができる。1つの特徴によれば、レーザーは、レーザー軸を回転し傾きを変更することにより車両と物体の車両のほうを向く面との距離を計測することができる。
車両には、適応巡航コントロールシステムに用いるような、種々のレーダー検出装置を含めることもできる。レーダー検出装置は、乗用車のフロントバンパーのどちらか一方の側のみならず、前方及び後方に配置することもできる。図3の例に示すように、車両301には、車両の側面(一方だけが示されている)、前方及び後方に、レーダー検出装置320〜323が含まれている。これらのレーダー検出装置は、約56度の視野で60メートルの到達距離を持つのみならず、約18度の視野で約200メートルの到達距離を持つことができる。
他の実施例では、種々のカメラを車両に取り付けることができる。カメラは、2つ以上のカメラからの視差を種々の物体までの距離を計算するために用いることができるよう、所定の距離を置いて取り付けることができる。図3に示すように、車両300には、バックミラー(不図示)の近くのフロントガラス340の裏に取り付けたカメラ330〜331を含めることができる。カメラ330は、約200メートルの到達距離及び約30度の水平視野を持つことができる一方、カメラ331は、約100の到達距離及び約60度の水平視野を持つことができる。
各センサーは、センサーが物体を検出するために用いることのできる特定のセンサー場と関連付けることができる。図4Aは、種々のセンサーの概略センサー場を上から見た図である。図4Bは、レーザー310及び311の概略センサー場410及び411を示し、それぞれ、これらのセンサーの視野に基づく。例えば、センサー場410は、約150メートルで、約30度の水平視野を有し、センサー場411は、約80メートルで、360度の水平視野を有する。
図4Cは、レーダー検出装置320〜323についての概略センサー場420A〜423Bを示し、それぞれ、これらのセンサーの視野に基づく。例えば、レーダー検出装置320は、センサー場420A及び420Bを有する。センサー場420Aは、約200メートルで、約18度の水平視野を有し、センサー場420Bは、約80メートルで、約56度の水平視野を有する。同様に、レーダー検出装置321〜323はセンサー場421A〜423A及び421B〜423Bを有する。センサー場421A〜423Aは、約200メートルで、約18度の水平視野を有し、センサー場421B〜423Bは、約80メートルで、約56度の水平視野を有する。センサー場421A及び422Aは、図4A及び4Cの縁まで伸びる。
図4Dは、カメラ330〜331の、これらのセンサーの視野に基づく、概略センサー場430〜431を示す。例えば、カメラ330のセンサー場430は、約200メートルで約30度の視野を有し、カメラ430のセンサー場431は、約100で約60度の視野を有する。
他の実施例では、自律走行車両には、ソナー装置、ステレオカメラ、定位カメラ、レーザー、及び/又は、レーダー検出装置が含まれ、それぞれ異なる視野を有する。ソナーは、約6メートルの最大距離で、約60度の水平視野を有することができる。これらのステレオカメラは、重複する領域で、約50度の水平視野、約10度の垂直視野、約30メートルで約30度の視野を有することができる。定位カメラは、約75度の水平視野、約90度の垂直視野、そして、約10メートルの最大距離を有することができる。レーザーは、約360度の水平視野、約30度の垂直視野、そして、約100メートルの最大距離を有することができる。レーダーは、近接ビームで60度の水平視野、遠隔ビームで30度の水平視野、そして、200メートルの最大距離を有することができる。
センサー計測は、センサーの到達距離、センサー検出速度、センサー場の形状、(カメラのピクセル数、又はある距離に対してレーザー、レーダー、ソナー、等の精度のような)センサー分解能に基づく不確実性を示す値と 関連付けることができる。これらのセンサーは、物体を検出することができるが、他の車両、歩行者、自転車に乗っている人、静止物体、等のような、物体の形式について何らかの不確実性がある可能性がある。例えば、2台のカメラがあり、1つは高い分解能(高ピクセル)を有し、他の一つは低い分解能(低ピクセル)を有する場合、(方向、距離、照明、等は両方のカメラについて同じと仮定すると)高い分解能を有するカメラに捉えられた物体についてより多くの情報が得られる。この大量の情報は、物体の特性(位置、速度、進行方向、形式、等)についてのより正確な推定に役立つ。
前述のセンサーにより、車両は判断を行うことができ、周囲の物体や人々だけでなく乗客の安全を最大限にするために、周囲状況に応答する能力を有することができる。車両の形式、センサーの数量や形式、センサーの位置、センサーの視野、及びセンサーのセンサー場は、単なる例示であることは理解されよう。種々の他の構成を用いることもできる。
上述のセンサーに加え、コンピュータは、自律走行でない一般的な車両のセンサーからの入力も使うことができる。例えば、これらのセンサーには、タイヤ空気圧センサー、エンジン温度センサー、ブレーキ熱センサー、ブレーキパッド状態センサー、タイヤトレッドセンサー、燃料センサー、オイルのレベル及び質センサー、(温度、湿度、又は空気中の微粒子を検出するための)空気特性センサー、等を含めることができる。
これらのセンサーの多くは、リアルタイムでコンピュータにより処理されるデータを提供する。すなわち、センサーは、ある時間範囲で測定中の周囲状況を反映する出力を連続的に更新し、コンピュータが、車両のその時の最新の方向又は速度を検出した周囲状況に応じて修正すべきかどうか判断することができるように、連続的に又は要求に応じて更新された出力をコンピュータに提供することができる。
種々のセンサーから提供されたデータの処理に加えて、コンピュータは、時間的に先に得られた、周囲に車両の存在の有無にかかわらず存続する周囲データに頼ることができる。例えば、図1に戻って、データ134には、地図情報135、例えば、道路の形や高さ、車線境界線、交差点、横断歩道、又はそのような物や情報を特定する非常に詳細な地図を含めることができる。例えば、地図情報には、道路の種々の区画での系統立てた速度制限情報を含めることができる。速度制限データは、人手により、又は、例えば、光学式文字認識を用いて速度制限標識のイメージをあらかじめ読み込むことにより入力することができる。地図情報には、上述の1つ以上の対象物を組み込んだ3次元地形図を含めることができる。例えば、車両は、リアルタイムデータ(例えば、他の乗用車の現在のGPSを特定するためのセンサーを用いて)及び他のデータ(例えば、この他の乗用車が右(左)折車線内にあるかどうかを判断するための、あらかじめ保存されている車線専用の地図データとGPSとを比較することで)に基づき他の乗用車が向きを変えようとしているかどうかを判断することができる。
例えば、地図情報には、道路、車線、交差点、及びこれらのつながりのような情報の1つ以上の道路グラフ又はグラフネットワークを含めることができる。各地形は、グラフデータとして保存することができ、地理的位置及び関連地形と関連しているかどうかのような情報と関係づけることができ、例えば、ストップ表示は、道路及び交差点等と関連付けることができる。いくつかの実施例では、関連付けたデータには、効率的に道路グラフの地形を参照することができるよう、道路グラフのグリッドベースの標識を含めることができる。
図5は、詳細な地図146の対象となる可能性のある例示的な交差点500の上から見た図を示す。交差点は、横断歩道510〜513、自転車用車線520〜521、車線530〜537、及び車線境界線550〜553及び550〜5559のような、数々の異なる形態を含むことができる。交差点はまた、自転車用車線520〜521のような具体的な領域を特定する標識550〜551及び560〜561のような表示も含むことができる。交通標識又は停止標識のような他の形態も存在することがあるが、示されていない。
交差点500には相互に垂直に出合う4つの道路が含まれるが、種々の異なる交差点の構成を採用することもできる。さらに当然のことながら、ここに記載の形態は交差点に限定されるものではなく、交差点500に関して説明した追加的形態又はすべての形態を含むことの含まないこともある、種々の他の交通又は道路設計と関連して用いることができる。
交差点(または道路の他の部分)についてのデータは、例えば、(上述したような)種々のセンサーを装備した車両を運転することにより集めることができる。道路について詳述する詳細な地図情報を生成するためにこのデータを処理することができる。例えば、図6に示すように、レーザーと、地理的位置と、交差点500を通って車両を運転しながら集めた他の情報とに基づいて、交差点の道路グラフ600を生成することができる。交差点500と同様に、道路グラフ600には、車線630〜637、車線境界線640〜643及び650〜659のような種々の形態を含むことができる、これらの形態の各には、これらの物体が実際の世界に(例えば交差点500に)位置することができる場所を特定する地理的位置情報に関連付けることができる。
詳細な地図情報をここは画像に基づく地図としてで示したが、地図情報は全部画像に基づいたもの(例えば、ラスター)である必要はない。例えば、詳細な地図情報には、道路、車線、交差点、及びこれらの形態の接続点のような、1以上の道路グラフ又は情報のグラフネットワークを含むことができる。各形態は、グラフデータとして保存することができ、地理的位置、及び、他の関連形態と関連付けられているかどうか、例えば停止信号が道路や交差点等と関連付けられているかどうかのような情報と関連付けることができる。いくつかの実施例では、関連するデータには、特定の道路グラフ形態を効率的にルックアップすることができるように、道路グラフのグリッドに基づくインデックスを含むことができる。
上述のように、車両は、周囲の物体を検出し特定するために車両の感知システムを用いることができる。そのために、車両の自律運転コンピュータは、種々の物体検出モデル144にアクセスすることができる。このモデルには、考えられる物体の形式及び関連する可能性を出力する、物体の形式モデル又は機械学習分類器を含むことができる。1つの例示的モデルでは、物体の形式は、道路での物体の位置、速度、大きさ、(イメージマッチングのような)あらかじめ定めた他の物体により集めたセンサーデータとの比較に基づき、特定することができる。例えば、約14インチ(36センチメートル)幅、5フィート(152センチメートル)、及び8インチ(20センチメートル)幅で感知された物体が与えられた場合、この物体は、99%の可能性で歩行者であり、0.5%の可能性で自転車に乗っている人であり、0.5%の可能性で車両であることを示す情報を、物体の形式モデルは出力することができる。いったん物体が感知されると、物体の形式モデルを、感知された物体の形式を特定するために用いることができる。
モデルにはまた、特定した物体の今後の動作又は振る舞いを予測するために用いられる複数の動作モデル146を含むことができる。これらのモデルは、種々の仮定に基づき、又は複数の車両のセンサーから時間をかけて得られたデータから、及び/又は、管理者により定めた仮定に基づき生成することができる。例えば、時間をかけて同じ又は同様の位置で乗用車の振る舞いを観察することにより、同様の乗用車の予想動作のモデルを生成することができる。このような動作モデルの単純な例として、北に向かって2フィート/秒(0.610m/秒)で走っている車両は、1秒後には、もとの位置より2フィート(0.610m)ほど北にいるとの動作予測を含むことができる。別の実施例では、動作モデルは、道路標識のような物体が動いている車両に対して相対的に静止していることを必要とすることがある。同様に、動作モデルは、異なる物体の形式に対し異なることを明確にすることができ、例えば、小さな車両は、歩行者又は自転車とは異なる操縦を行うことができる。
動作モデルは、不確実性と関連付けることもできる。例えば、車両の動きは、歩行者又は自転車に乗っている人の動きより、簡単に予測することができる。従って、1秒後に車両がどこにいるかを予測することは、歩行者又は自転車に乗っている人がどこにいるかを予測することよりも正確であり、又は少ない不確実性と関連付けることができる。加えて、動作モデルは、物体の形式モデルの出力に基づき特定されるので、このモデルの不確実性も、動作モデルに組み込むことができる。
データ134には、運転方針の不確実性147も含むことができる。不確実運転モデルは、物体に関連付けられた不確実性のタイプに基づきどのように車両を操縦するかを定めることができる。これらのモデルの例として、以下に詳述する。
上述し図示した動作に加え、種々の動作について説明する。以下の動作は、正確に以下に記載の順序で行わなければならないわけではないことは理解されよう。むしろ、種々のステップは異なる順序又は同時に行うことができ、ステップを付け加えることも省略することもできる。
上述のように、自律走行車両は、センサーによる車両の周囲のデータを集め処理しながら道路を走ることができる。車両は、完全な自律走行モードで(車両が人の連続的な入力を必要としないで)又は、セミ自律走行モードで(ハンドル操作、ブレーキ操作、加速操作、等のような車両のある部分を人がコントロールして)自ら道路を走ることができる。図7に示すように、別の全景である交差点500において、車両101は交差点に近づき、歩行者710、自転車に乗っている人720、及び自動車730のような種々の物体が車両のセンサーの視野に入ってくる。従って、車両は、これらの物体の各についてのデータを集めることができる。
センサーによるデータは、物体が占める道路の領域を特定するために処理することができる。例えば、図8は、詳細な地図情報600とともに交差点500を描いている。車両101は、センサーから受け取った情報を処理し、物体710、720、及び730の概略位置、向き、及び速度を特定する。
検出した物体と関連付けられたデータもまた、物体の形式モデルを用いて処理することができる。一旦物体の形式が定まると、動作モデルもまた特定することができる。上述のとおり、センサーデータとモデルとを処理した出力は、検出した物体の形態について説明する情報のセットとなる。1つの実施例において、物体は、物体の形式、位置、方向、速度、及び短時間経過後の物体の推定位置について記述するパラメータのリストと関連付けられる。物体の形式は、物体の形式モデルの出力とすることができる。物体の位置、方向、及び速度は、センサーデータから決定することができる。短時間経過後の物体の推定位置は、蓋然性の高い物体形式に関連付けられた動作モデルの出力とすることができる。上述したように、これらのパラメータの各々は、不確実性を示す値と関連付けることができる。
例えば、図9に示すように、物体810、820、及び830の各々は、それぞれパラメータデータ910、920、及び930と関連付けられる。具体的には、物体810の推定パラメータについて記述するパラメータデータ910は、55%の確かさで、歩行者であるとの物体の形式を含む。物体の形式モデルによれば、物体810はまた20%の確かさで自動車であり、25%の確かさで自転車である。パラメータデータ910にはまた、推定地理的位置(X1、Y1、Z1)、推定寸法(L1×W1×H1)、推定方向(0°)、及び推定速度(2mph(3.2km/h))が含まれる。加えて、センサーの精度、配置、及び形態から決定されるものとして、推定位置、推定方向、及び推定速度も、不確実性を示す値、すなわち、それぞれ(σX1、σY1、σZ1)、± (σL1、σW1、σH1)±0.5°、±1mph(±1.6km/h)と関連付けられる。パラメータデータ910はまた、ある時間、ΔT、が経過した後の物体の推定地理的位置、(X1+Δ1X、Y1+Δ1Y、Z1+Δ1Z)が含まれる。この推定値はまた、不確実性を示す値、±(σX1ΔT、σY1ΔT、σZ1ΔT)と関連付けられる。
同様に、物体820(実際には自転車に乗っている人720)の推定パラメータを記述するパラメータデータ920には、40%の確かさで歩行者であるとの物体の形式を含む。物体の形式モデルによれば、物体820はまた25%の確かさで自動車であり、35%の確かさで自転車である。パラメータデータ920にはまた、推定地理的位置(X2、Y2、Z2)、推定寸法(L2×W2×H2)、推定方向(270°)、及び推定速度(5mph(8.0km/h))も含まれる。加えて、センサーの精度、配置、及び形態から決定されるものとして、推定位置、推定方向、及び推定速度も、不確実性を示す値、すなわち、それぞれ(σX2、σY2、σZ2)、± (σL2、σW2、σH2)±0.5°、±1mph(±1.6km/h)と関連付けられる。パラメータデータ920はまた、ある時間、ΔT、が経過した後の物体の推定地理的位置、(X2+Δ2X、Y2+Δ2Y、Z2+Δ2Z)が含まれる。この推定値はまた、不確実性を示す値、±(σX2ΔT、σY2ΔT、σZ2ΔT)と関連付けられる。
物体830(実際には自転車に乗っている人730)の推定パラメータを記述するパラメータデータ930には、40%の確かさで自動車であるとの物体の形式を含む。物体の形式モデルによれば、物体830はまた1%の確かさで歩行者であり、そして1%の確かさで自転車である。パラメータデータ930にはまた、推定地理的位置(X3、Y3、Z3)、推定寸法(L3×W3×H3)、推定方向(390°)、及び推定速度(25mph(40km/h))も含まれる。加えて、センサーの精度、配置、及び形態から決定されるものとして、推定位置、推定方向、及び推定速度も、不確実性を示す値、すなわち、それぞれ(σX3、σY3、σZ3)、± (σL3、σW3、σH3)±0.5°、±2mph(±3.2km/h)と関連付けられる。パラメータデータ930はまた、ある時間、ΔT、が経過した後の物体の推定地理的位置、(X3+Δ3X、Y3+Δ3Y、Z3+Δ3Z)が含まれる。この推定値はまた、不確実性を示す値、±(σX3ΔT、σY3ΔT、σZ3ΔT)と関連付けられる。
図9のパラメータデータは、単にこのようなデータの一例に過ぎない。他の様々な尺度を用いることもでき、また、このパラメータを表現するために違った方法を用いることもできる。例えば、物体の寸法も含むデータポイントのセットとして、物体の位置を特定することもできる。別の実施例では、物体の寸法は物体の外部境界の地理的位置により、又は物体の位置に近似する境界ボックスにより定めることができる。さらに別の例では、全地球測位座標系を用いて物体の位置を特定するのではなく、代替的にあるいはこれに加えて、車両上のある点からの物体までの距離および角度を物体の位置を特定するために用いることもできる。
不確実性コントロール方針を選択するためにパラメータデータを用いることができる。例えば、物体810は、55%の可能性で歩行者であり、25%の可能性で自転車であり、20%の可能性で自動車である物体の形式と関連付けられる。比較的高い不確実性となるのは、車両101が物体810の長さ(L1+σL1)について大雑把な推定値を有するのみだからであろう。物体の形式における不確実性を減少させるために、車両101は、車両のセンサーが物体の長さをもっと明確に観測することができるように物体810の側面を自ら操縦して走ることができる。これにより、物体810の長さについての誤差を減らし、車両が物体の形式をもっと正確に判定できるようにすることができる。
別の実施例では、物体820は、40%の可能性で歩行者であり、35%の可能性で自転車であり、25%の可能性で自動車である物体の形式と関連付けられる。この例では、物体810の位置、寸法、ある時間が経過した後の位置は、物体810が車両のセンサー場から部分的に遮られる可能性があるので、すべて比較的高い不確実性と関連付けることができる。これらの不確実性を減少させるために、車両101は、物体810の周りを走るなど、物体820を良く観測できるように自ら操縦することができる。これにより、先に述べたパラメータに関連付けられた不確実性を減少させることができ、車両が物体の形式をもっと正確に判定できるようにすることができる。
さらなる実施例では、物体830を、98%の可能性で自動車である物体の形式と関連付けることができる。この例では、物体は自動車である可能性が高いので、車両101は、例えば、車両101の走行車線を維持することにより、自動車を避けるよう操縦を自ら維持することができる。
上述の実施例に加え、不確実性コントロール方針により、車両101はより効率的に自らを操縦することができる。例えば、物体が車両101と同じ車線で、車両101の前にある場合、速度を下げることができる。物体が実際に速度を下げることについて不確実性が高い場合(例えば、ある時間が経過した後、物体がどこにあるかについて不確実性が高い場合)、車両101は、物体と関連付けられた不確実性が減少するまで、自ら速度を下げ始めるのを遅らせることができる。
言い換えると、車両101がセンサーを用いて、他の物体が速度を変えていることを検出したとしても、物体の速度(または速度の変化)と関連付けられた不確実性が減少するまで、(車両101を減速させるか、あるいは加速させるというような)特定の動作をとるのを遅らせることができる。
別の実施例では、物体が車両101と同じ車線にあり、比較的高い確度で車両101の前でその車線の外に出ることが予測される場合(短時間経過後、別の車線にいると思われる場合)、車両101は、車両101と他の物体との間に空間ができることを予測して、速度を上げ始めることができる。さらに別の実施例では、車両101の前方の物体が不確実性が比較的高い状態で車両101と同じ車線に入ってくることが予測される場合、車両101は、その不確実性が閾値以下に減少するまで待った後、物体と車両101との間隔を広げるために減速することができる。この結果、幾分強引な運転スタイルとなるが、不必要なブレーキ操作又は加速操作を減少させることにより、車両の効率を上げることもできる。加えて、この形式のコントロール方針は、消極的な運転スタイルを抑制し快適であることをユーザーに訴えることができる。
図10は、上述の形態の例示的なフロー線図1000を示す。この例において、道路を走行中の自律走行車両は、ブロック1002にて、車両の周囲の物体を検出する。物体は、センサーの不確実性と関連付けられた(上述のような)センサーを用いて検出される。物体の形式は、ブロック1004にて、物体の形式モデルに基づいて特定される。物体の形式モデルは、物体の形式モデルの不確実性と関連付けられる。特定した物体の形式に基づき、ブロック1006にて、物体の今後の位置を予測する動作モデルを特定する。動作モデルは、動作モデルの不確実性と関連付けられる。この動作モデルの不確実性、物体の形式モデルの不確実性、及び/又は、センサーの不確実性に基づき、ブロック1008にて、運転方針の不確実性を特定する。この運転方針の不確実性は、次いで、ブロック1010にて、車両の操縦に用いられる。
上述の特徴のこれらの及び他の変形及び組み合わせは、特許請求の範囲で定義した対象から離れることなく利用することができるので、これまで説明した典型的な実施の形態は、特許請求の範囲で定義した発明を限定するものではなく、概説するためにものであると理解すべきである。当然のことながら、ここに記載した実施の形態の条件(及び、「のような」、「例えば」、「含む」、のような語句)は、権利化を要求する対象を特定の実施例に限定するものと解釈すべきでなく、実施例は多くの形態の一部を概説するためのものである。
本発明は、これらに限定されるものではないが、車両走行及び検出システムを含む、広い産業分野で適用可能である。

Claims (19)

  1. 車両を操縦する方法であって、該方法は、
    センサーを用いて車両の周囲の物体を検出するステップであって、該センサーはセンサーの不確実性と関連付けられていることを特徴とするステップと、
    物体の形式モデルに基づき物体の形式を特定するステップであって、該物体の形式モデルは、物体の形式モデルの不確実性と関連付けられていることを特徴とするステップと、
    特定された前記物体の形式に基づき前記物体の動作モデルを特定するステップであって、該動作モデルは、動作モデルの不確実性と関連付けられていることを特徴とするステップと、
    前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性に基づき、不確実運転モデルをプロセッサーにより作成するステップであって、該不確実運転モデルには、前記車両を操縦するための方針が含まれていることを特徴とするステップと、
    前記不確実運転モデルでの方針に基づき前記車両を操縦するステップと、
    を具備することを特徴とする方法。
  2. 前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項1に記載の方法。
  3. 前記センサーは、センサーの速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記方法は、前記センサーの速度と前記センサー場の前記到達距離及び形状とに基づき前記センサーの不確実性を計算するステップをさらに具備することを特徴とする請求項1に記載の方法。
  4. 車両を操縦する方法であって、該方法は、
    前記車両のセンサーについてのセンサー計測の不確実性のモデルを保存するステップと、
    前記センサーにより検出された物体についての物体形式の不確実性のモデルを保存するステップと、
    前記センサーにより検出された物体の今後の動きを特定するために用いられる動作モデルについての動作モデルの不確実性のモデルを保存するステップと、
    複数の不確実運転モデルを保存するステップであって、該複数の不確実運転モデルの各不確実運転モデルには、前記車両の操縦についての方針が含まれることを特徴とするステップと、
    前記センサー計測の不確実性のモデルと、前記物体形式の不確実性のモデルと、前記動作モデルの不確実性のモデルとに基づく物体及び物体の属性のリストを特定するステップであって、各物体の属性は、前記物体の属性のリストが複数の不確実性を示す値と関連付けられるように、不確実性を示す値と関連付けられていることを特徴とするステップと、
    前記複数の不確実性を示す値の少なくとも1つに基づき複数の不確実運転モデルのうちの1つを、プロセッサーにより、選択するステップと、
    選択された不確実運転モデルの方針に基づき前記車両を操縦するステップと、
    を具備することを特徴とする方法。
  5. 前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項4に記載の方法。
  6. 前記複数の不確実性を示す値のうちの1つ又は該不確実性を示す値を低減するために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項4に記載の方法。
  7. 前記センサーは、センサーの速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記方法は、前記センサーの速度と前記センサー場の前記到達距離及び形状とに基づき前記センサー計測の不確実性のモデルを計算するステップをさらに具備することを特徴とする請求項4に記載の方法。
  8. 車両の操縦のためのシステムであって、該システムは、
    車両の周囲についてのセンサーデータを生成するためのセンサーであって、該センサーは、センサーの不確実性と関連付けらていることを特徴とするセンサーと、
    物体の形式の不確実性と関連付けられた物体の形式モデルを保存するメモリーであって、該メモリーは、さらに、動作モデルの不確実性と関連付けられた動作モデルを保存することを特徴とするメモリーと、
    前記メモリーにアクセスし、前記センサーからのセンサーデータを受け取るよう設定されたプロセッサーであって、該プロセッサーは、
    センサーを用いて車両の周囲の物体を検出する動作と、
    前記物体の形式モデルに基づき物体の形式を特定する動作と、
    特定された前記物体の形式に基づき前記物体の動作モデルを特定する動作と、
    前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性に基づき、不確実運転モデルを作成する動作であって、該不確実運転モデルには、前記車両を操縦するための方針が含まれていることを特徴とする動作と、
    前記不確実運転モデルでの方針に基づき前記車両を操縦する動作と、
    が可能であることを特徴とするプロセッサーと、
    を具備することを特徴とするシステム。
  9. 前記プロセッサーは、さらに、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦する動作が可能であることを特徴とする請求項8に記載の方法。
  10. 前記センサーは、さらに、センサーの速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記プロセッサーは、前記センサーの速度と前記センサー場の前記到達距離及び形状とに基づき前記センサーの不確実性を計算する動作が可能であることを特徴とする請求項8に記載の方法。
  11. 車両の操縦のためのシステムであって、該システムは、
    前記車両のセンサーについてのセンサー計測の不確実性のモデルと、前記センサーにより検出された物体についての物体形式の不確実性のモデルと、前記センサーにより検出された前記物体の今後の動きを特定するために用いられる動作モデルについての動作モデルの不確実性のモデルと、複数の不確実運転モデルであって、該複数の不確実運転モデルの各不確実運転モデルには、前記車両を操縦する方針が含まれていることを特徴とする不確実運転モデルとを保存するメモリーと、
    前記メモリーと接続されたプロセッサーであって、
    前記センサー計測の不確実性のモデルと、前記物体形式の不確実性のモデルと、前記動作モデルの不確実性のモデルとに基づき、物体及び物体の属性のリストを特定する動作であって、各物体の属性は、物体の属性の前記リストが複数の不確実性を示す値と関連付けられるように、不確実性を示す値と関連付けられることを特徴とする動作と、
    前記複数の不確実性を示す値の少なくとも1つに基づき複数の不確実運転モデルのうちの1つを選択するような動作と、
    前記選択された不確実運転モデルの方針に基づき前記車両を操縦するような動作と、
    が可能であることを特徴とするプロセッサーと、
    を具備することを特徴とするシステム。
  12. 前記プロセッサーは、さらに、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦する動作が可能であることを特徴とする請求項11に記載のシステム。
  13. 前記プロセッサーは、さらに、前記複数の不確実性を示す値のうちの1つ又は該不確実性を示す値を低減するために前記方針に従い、前記車両を操縦する動作が可能であることを特徴とする請求項11に記載のシステム。
  14. 前記センサーは、センサーの速度と到達距離及び形状を有するセンサー場とに関連付けられ、前記プロセッサーは、さらに、前記センサーの速度と前記センサー場の前記到達距離及び形状とに基づき前記センサー計測の不確実性のモデルを計算する動作が可能であることを特徴とする請求項11に記載のシステム。
  15. コンピュータが読み取り可能なプログラム命令が保存されている、実体のあるコンピュータ読み取り可能保存媒体であって、該命令は、プロセッサーにより実行された時、該プロセッサーに車両の操縦を行う方法を実行させることを特徴とし、該方法は、
    センサーを用いて車両の周囲の物体を検出するステップであって、該センサーはセンサーの不確実性と関連付けられていることを特徴とするステップと、
    物体の形式モデルに基づき物体の形式を特定するステップであって、該物体の形式モデルは、物体の形式モデルの不確実性と関連付けられていることを特徴とするステップと、
    特定された前記物体の形式に基づき前記物体の動作モデルを特定するステップであって、該動作モデルは、動作モデルの不確実性と関連付けられていることを特徴とするステップと、
    前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性に基づき、不確実運転モデルをプロセッサーにより作成するステップであって、該不確実運転モデルには、前記車両を操縦するための方針が含まれていることを特徴とするステップと、
    前記不確実運転モデルでの方針に基づき前記車両を操縦するステップと、
    を具備することを特徴とする、
    実体のあるコンピュータ読み取り可能保存媒体。
  16. 前記方法は、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項15に記載の実体のあるコンピュータ読み取り可能保存媒体。
  17. コンピュータが読み取り可能なプログラム命令が保存されている、実体のあるコンピュータ読み取り可能保存媒体であって、該命令は、プロセッサーにより実行された時、該プロセッサーに車両の操縦を行う方法を実行させることを特徴とし、該方法は、
    前記車両のセンサーについてのセンサー計測の不確実性のモデルを保存するステップと、
    前記センサーにより検出された物体についての物体形式の不確実性のモデルを保存するステップと、
    前記センサーにより検出された物体の今後の動きを特定するために用いられる動作モデルについての動作モデルの不確実性のモデルを保存するステップと、
    複数の不確実運転モデルを保存するステップであって、該複数の不確実運転モデルの各不確実運転モデルには、前記車両の操縦についての方針が含まれることを特徴とするステップと、
    前記センサー計測の不確実性のモデルと、前記物体形式の不確実性のモデルと、前記動作モデルの不確実性のモデルとに基づく物体及び物体の属性のリストを特定するステップであって、各物体の属性は、前記物体の属性のリストが複数の不確実性を示す値と関連付けられるように、不確実性を示す値と関連付けられていることを特徴とするステップと、
    前記複数の不確実性を示す値の少なくとも1つに基づき複数の不確実運転モデルのうちの1つを選択するステップと、
    選択された不確実運転モデルの方針に基づき前記車両を操縦するステップと、
    を具備することを特徴とする、
    実体のあるコンピュータ読み取り可能保存媒体。
  18. 前記方法は、前記センサーの不確実性、前記物体の形式モデルの不確実性、及び前記動作モデルの不確実性のうちの少なくとも1つを低減させるために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項17に記載の実体のあるコンピュータ読み取り可能保存媒体。
  19. 前記方法は、前記複数の不確実性を示す値のうちの1つ又は該不確実性を示す値を低減するために前記方針に従い、前記車両を操縦するステップをさらに具備することを特徴とする請求項17に記載の実体のあるコンピュータ読み取り可能保存媒体。
JP2014554922A 2012-01-30 2013-01-28 認知の不確実性に基づく車両コントロール Pending JP2015506310A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/361,083 US20130197736A1 (en) 2012-01-30 2012-01-30 Vehicle control based on perception uncertainty
US13/361,083 2012-01-30
PCT/US2013/023399 WO2013116141A1 (en) 2012-01-30 2013-01-28 Vehicle control based on perception uncertainty

Publications (1)

Publication Number Publication Date
JP2015506310A true JP2015506310A (ja) 2015-03-02

Family

ID=48870964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554922A Pending JP2015506310A (ja) 2012-01-30 2013-01-28 認知の不確実性に基づく車両コントロール

Country Status (6)

Country Link
US (1) US20130197736A1 (ja)
EP (1) EP2809561A4 (ja)
JP (1) JP2015506310A (ja)
KR (1) KR20140119787A (ja)
CN (1) CN104094177A (ja)
WO (1) WO2013116141A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504800A (ja) * 2015-11-04 2019-02-21 ズークス インコーポレイテッド 自律車両のためのシミュレーションシステムおよび方法
JP2019048511A (ja) * 2017-09-08 2019-03-28 トヨタ自動車株式会社 車両制御装置

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011052343A1 (en) * 2009-10-26 2011-05-05 Semiconductor Energy Laboratory Co., Ltd. Display device and semiconductor device
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
KR20130127822A (ko) * 2012-05-15 2013-11-25 한국전자통신연구원 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법
US8676431B1 (en) 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
USD750663S1 (en) 2013-03-12 2016-03-01 Google Inc. Display screen or a portion thereof with graphical user interface
USD754190S1 (en) 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
USD754189S1 (en) 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
KR101803164B1 (ko) 2013-03-15 2017-12-28 우버 테크놀로지스, 인크. 로봇 공학용 다중 감지 스테레오 비전 방법, 시스템 및 장치
US9062979B1 (en) 2013-07-08 2015-06-23 Google Inc. Pose estimation using long range features
JP6110256B2 (ja) * 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
US9346400B2 (en) * 2013-12-20 2016-05-24 Ford Global Technologies, Llc Affective user interface in an autonomous vehicle
DE102014201159A1 (de) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
US9187088B1 (en) * 2014-08-15 2015-11-17 Google Inc. Distribution decision trees
US9494430B2 (en) * 2014-10-27 2016-11-15 Caterpillar Inc. Positioning system implementing multi-sensor pose solution
JP6462328B2 (ja) * 2014-11-18 2019-01-30 日立オートモティブシステムズ株式会社 走行制御システム
JP6237685B2 (ja) * 2015-04-01 2017-11-29 トヨタ自動車株式会社 車両制御装置
WO2016161104A1 (en) * 2015-04-01 2016-10-06 Vayavision, Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
DE102015209473A1 (de) * 2015-05-22 2016-11-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
SE539098C2 (en) * 2015-08-20 2017-04-11 Scania Cv Ab Method, control unit and system for path prediction
US10532736B2 (en) * 2015-11-06 2020-01-14 Honda Motor Co., Ltd. Vehicle travel control device
US11328155B2 (en) * 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
US9568915B1 (en) * 2016-02-11 2017-02-14 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling autonomous or semi-autonomous vehicle
JP6512140B2 (ja) * 2016-03-09 2019-05-15 トヨタ自動車株式会社 自動運転システム
CN107179767B (zh) * 2016-03-10 2021-10-08 松下电器(美国)知识产权公司 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
US10077007B2 (en) * 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
WO2017159176A1 (ja) * 2016-03-17 2017-09-21 株式会社日立製作所 自動運転支援システム、および、自動運転支援方法
KR102521934B1 (ko) 2016-06-13 2023-04-18 삼성디스플레이 주식회사 터치 센서 및 이를 이용한 터치 감지 방법
US10471904B2 (en) * 2016-08-08 2019-11-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adjusting the position of sensors of an automated vehicle
US10712746B2 (en) * 2016-08-29 2020-07-14 Baidu Usa Llc Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
US10146223B1 (en) 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
US11112237B2 (en) 2016-11-14 2021-09-07 Waymo Llc Using map information to smooth objects generated from sensor data
RU2646771C1 (ru) * 2016-11-21 2018-03-07 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Способ трассировки маршрута движения автоматического транспортного средства
US10315649B2 (en) 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
US10442435B2 (en) * 2016-12-14 2019-10-15 Baidu Usa Llc Speed control parameter estimation method for autonomous driving vehicles
EP3836122A1 (en) * 2016-12-23 2021-06-16 Mobileye Vision Technologies Ltd. Navigational system with imposed constraints
US10077047B2 (en) 2017-02-10 2018-09-18 Waymo Llc Using wheel orientation to determine future heading
US10449958B2 (en) * 2017-02-15 2019-10-22 Ford Global Technologies, Llc Feedback-based control model generation for an autonomous vehicle
US10146225B2 (en) * 2017-03-02 2018-12-04 GM Global Technology Operations LLC Systems and methods for vehicle dimension prediction
WO2018201097A2 (en) * 2017-04-28 2018-11-01 FLIR Belgium BVBA Video and image chart fusion systems and methods
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
US10509692B2 (en) * 2017-05-31 2019-12-17 2236008 Ontario Inc. Loosely-coupled lock-step chaining
JP6683178B2 (ja) 2017-06-02 2020-04-15 トヨタ自動車株式会社 自動運転システム
US10279734B2 (en) * 2017-06-16 2019-05-07 GM Global Technology Operations LLC Systems and methods for external warning by an autonomous vehicle
US10430673B2 (en) * 2017-07-19 2019-10-01 GM Global Technology Operations LLC Systems and methods for object classification in autonomous vehicles
US20190025433A1 (en) * 2017-07-19 2019-01-24 Aptiv Technologies Limited Automated vehicle lidar tracking system for occluded objects
USD884005S1 (en) 2017-07-31 2020-05-12 Omnitracs, Llc Display screen with transitional graphical user interface
DE102017215552A1 (de) * 2017-09-05 2019-03-07 Robert Bosch Gmbh Plausibilisierung der Objekterkennung für Fahrassistenzsysteme
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
WO2019099413A1 (en) 2017-11-14 2019-05-23 AWARE Technologies Systems and methods for moving object predictive locating, reporting, and alerting
CN110162026B (zh) 2018-02-11 2022-06-21 北京图森智途科技有限公司 一种物体识别系统、方法及装置
US11454975B2 (en) * 2018-06-28 2022-09-27 Uatc, Llc Providing actionable uncertainties in autonomous vehicles
US20200050191A1 (en) * 2018-08-07 2020-02-13 GM Global Technology Operations LLC Perception uncertainty modeling from actual perception systems for autonomous driving
US10766487B2 (en) 2018-08-13 2020-09-08 Denso International America, Inc. Vehicle driving system
CN110968087B (zh) * 2018-09-30 2023-05-23 百度(美国)有限责任公司 车辆控制参数的标定方法、装置、车载控制器和无人车
FR3087405B1 (fr) * 2018-10-19 2023-04-28 Psa Automobiles Sa Procede de determination d’une valeur courante d’un parametre d’occupation relatif a une portion d’un espace situe a proximite d’un vehicule terrestre a moteur
EP3663881B1 (de) * 2018-12-03 2021-02-24 Sick Ag Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
US20200216064A1 (en) * 2019-01-08 2020-07-09 Aptiv Technologies Limited Classifying perceived objects based on activity
US11520346B2 (en) * 2019-01-30 2022-12-06 Perceptive Automata, Inc. Navigating autonomous vehicles based on modulation of a world model representing traffic entities
US11474486B2 (en) * 2019-03-11 2022-10-18 Mitsubishi Electric Research Laboratories, Inc. Model-based control with uncertain motion model
DE102020206660A1 (de) * 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme
US11643115B2 (en) * 2019-05-31 2023-05-09 Waymo Llc Tracking vanished objects for autonomous vehicles
US20210278840A1 (en) * 2019-06-04 2021-09-09 Lg Electronics Inc. Autonomous vehicle and control method thereof
US11023743B2 (en) * 2019-07-03 2021-06-01 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera
US11634162B2 (en) 2019-08-16 2023-04-25 Uatc, Llc. Full uncertainty for motion planning in autonomous vehicles
DE102019218631A1 (de) * 2019-11-29 2021-06-02 Robert Bosch Gmbh Zertifizierung von Kartenelementen für automatisierte Fahrfunktionen
US11967106B2 (en) 2019-12-27 2024-04-23 Motional Ad Llc Object tracking supporting autonomous vehicle navigation
US12097844B2 (en) * 2020-04-30 2024-09-24 Zoox, Inc. Constraining vehicle operation based on uncertainty in perception and/or prediction
FR3116252B1 (fr) 2020-11-19 2023-03-24 Renault Sas Système et procédé de contrôle adapté à la perception
US12039438B2 (en) * 2020-12-04 2024-07-16 Toyota Research Institute, Inc. Systems and methods for trajectory forecasting according to semantic category uncertainty
US11618453B2 (en) * 2021-02-23 2023-04-04 Aptiv Technologies Limited Grid-based road model with multiple layers
CN113963027B (zh) * 2021-10-28 2022-09-09 广州文远知行科技有限公司 不确定性检测模型的训练、不确定性的检测方法及装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US7421321B2 (en) * 1995-06-07 2008-09-02 Automotive Technologies International, Inc. System for obtaining vehicular information
US7979172B2 (en) * 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
US6421603B1 (en) * 1999-08-11 2002-07-16 Honeywell International Inc. Hazard detection for a travel plan
US7006683B2 (en) * 2001-02-22 2006-02-28 Mitsubishi Electric Research Labs., Inc. Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images
DE10257842A1 (de) * 2002-05-07 2003-11-27 Bosch Gmbh Robert Verfahren zur Bestimmung einer Unfallgefahr eines ersten Objekts mit wenigstens einem zweiten Objekt
JP3875988B2 (ja) * 2002-05-10 2007-01-31 本田技研工業株式会社 未知の障害物の中の予測不可能な目標物の実時間追跡
GB2389947B (en) * 2002-07-25 2004-06-02 Golden River Traffic Ltd Automatic validation of sensing devices
US6952001B2 (en) * 2003-05-23 2005-10-04 Raytheon Company Integrity bound situational awareness and weapon targeting
US7409295B2 (en) * 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
EP1754621B1 (en) * 2005-08-18 2009-10-14 Honda Research Institute Europe GmbH Driver assistance system
US7864032B2 (en) * 2005-10-06 2011-01-04 Fuji Jukogyo Kabushiki Kaisha Collision determination device and vehicle behavior control device
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
US7167799B1 (en) * 2006-03-23 2007-01-23 Toyota Technical Center Usa, Inc. System and method of collision avoidance using intelligent navigation
JP4946212B2 (ja) * 2006-06-30 2012-06-06 トヨタ自動車株式会社 走行支援装置
CN1966335A (zh) * 2006-09-03 2007-05-23 孔朕 一种显著提高车辆安全可靠驾驶性能的方法与装置
US7579942B2 (en) * 2006-10-09 2009-08-25 Toyota Motor Engineering & Manufacturing North America, Inc. Extra-vehicular threat predictor
US8855848B2 (en) * 2007-06-05 2014-10-07 GM Global Technology Operations LLC Radar, lidar and camera enhanced methods for vehicle dynamics estimation
US7634383B2 (en) * 2007-07-31 2009-12-15 Northrop Grumman Corporation Prognosis adaptation method
SE532004C2 (sv) * 2008-02-07 2009-09-22 Scania Cv Ab Sätt och anordning vid adaptiv farthållning, datorprogram, datorprogramprodukt, dator jämte fordon
AU2009295270B2 (en) * 2008-09-19 2015-02-05 The University Of Sydney A method and system of data modelling
US8437901B2 (en) * 2008-10-15 2013-05-07 Deere & Company High integrity coordination for multiple off-road vehicles
US8229663B2 (en) * 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing
US20100305857A1 (en) * 2009-05-08 2010-12-02 Jeffrey Byrne Method and System for Visual Collision Detection and Estimation
US8417490B1 (en) * 2009-05-11 2013-04-09 Eagle Harbor Holdings, Llc System and method for the configuration of an automotive vehicle with modeled sensors
AU2010295226B2 (en) * 2009-09-15 2015-05-28 The University Of Sydney A method and system for multiple dataset Gaussian process modeling
US20120089292A1 (en) * 2010-02-14 2012-04-12 Leonid Naimark Architecture and Interface for a Device-Extensible Distributed Navigation System
KR101377035B1 (ko) * 2010-02-25 2014-03-26 주식회사 만도 차량 충돌 경감 장치의 표적 선정 방법 및 그 차량 충돌 경감 장치
US9224050B2 (en) * 2010-03-16 2015-12-29 The University Of Sydney Vehicle localization in open-pit mining using GPS and monocular camera
US8965676B2 (en) * 2010-06-09 2015-02-24 Toyota Motor Engineering & Manufacturing North America, Inc. Computationally efficient intersection collision avoidance system
US8849483B2 (en) * 2011-04-13 2014-09-30 California Institute Of Technology Target trailing with safe navigation with colregs for maritime autonomous surface vehicles

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504800A (ja) * 2015-11-04 2019-02-21 ズークス インコーポレイテッド 自律車両のためのシミュレーションシステムおよび方法
JP7036732B2 (ja) 2015-11-04 2022-03-15 ズークス インコーポレイテッド 自律車両のためのシミュレーションシステムおよび方法
JP2019048511A (ja) * 2017-09-08 2019-03-28 トヨタ自動車株式会社 車両制御装置
US11467596B2 (en) 2017-09-08 2022-10-11 Toyota Jidosha Kabushiki Kaisha Target abnormality determination device
US11809194B2 (en) 2017-09-08 2023-11-07 Toyota Jidosha Kabushiki Kaisha Target abnormality determination device

Also Published As

Publication number Publication date
CN104094177A (zh) 2014-10-08
EP2809561A1 (en) 2014-12-10
EP2809561A4 (en) 2015-12-23
WO2013116141A1 (en) 2013-08-08
US20130197736A1 (en) 2013-08-01
KR20140119787A (ko) 2014-10-10

Similar Documents

Publication Publication Date Title
US11868133B1 (en) Avoiding blind spots of other vehicles
JP2015506310A (ja) 認知の不確実性に基づく車両コントロール
US11807235B1 (en) Modifying speed of an autonomous vehicle based on traffic conditions
AU2020202527B2 (en) Using wheel orientation to determine future heading
US11281918B1 (en) 3D position estimation of objects from a monocular camera using a set of known 3D points on an underlying surface
JP6468839B2 (ja) センサー場の選択
US10037039B1 (en) Object bounding box estimation
JP6178914B2 (ja) 自律運転のための作業中及び非作業中の工事区域のマップ作成
CN107798305B (zh) 检测车道标记
US9207679B1 (en) System and method for determining position and distance of objects using road fiducials
EP3299238B1 (en) Determining and displaying auto drive lanes in an autonomous vehicle
US9196164B1 (en) Pedestrian notifications