[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017159884A - 運転制御装置、運転制御方法及び運転制御プログラム - Google Patents

運転制御装置、運転制御方法及び運転制御プログラム Download PDF

Info

Publication number
JP2017159884A
JP2017159884A JP2016217869A JP2016217869A JP2017159884A JP 2017159884 A JP2017159884 A JP 2017159884A JP 2016217869 A JP2016217869 A JP 2016217869A JP 2016217869 A JP2016217869 A JP 2016217869A JP 2017159884 A JP2017159884 A JP 2017159884A
Authority
JP
Japan
Prior art keywords
appearance
map
vehicle
operation mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016217869A
Other languages
English (en)
Other versions
JP6795379B2 (ja
Inventor
亮太 藤村
Ryota Fujimura
亮太 藤村
和紀 小塚
Kazuki Kozuka
和紀 小塚
哲司 渕上
Tetsuji Fuchigami
哲司 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN201710075468.0A priority Critical patent/CN107179767B/zh
Priority to US15/446,525 priority patent/US10864906B2/en
Priority to EP17159318.9A priority patent/EP3217318B1/en
Publication of JP2017159884A publication Critical patent/JP2017159884A/ja
Application granted granted Critical
Publication of JP6795379B2 publication Critical patent/JP6795379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる運転制御装置、運転制御方法及び運転制御プログラムを提供する。【解決手段】運転制御装置1は、物体が出現する可能性がある出現領域を規定する出現尤度マップを記憶する出現尤度マップ記憶部13と、車両の進行方向を撮影した撮影画像に含まれる物体を検出する物体検出部11と、物体の検出結果と出現尤度マップとに基づいて、自動運転モードから手動運転モードに切り替える運転モード切替部15と、切り替えられた手動運転モードにより車両の運転を制御する車両制御部16とを備える。【選択図】図1

Description

本開示は、車両を自動運転する自動運転モードと、車両を運転者により手動運転する手動運転モードとのいずれかにより車両の運転を制御する運転制御装置、運転制御方法及び運転制御プログラムに関するものである。
近年、車両を自動運転する技術の開発が進められている。自動運転可能な車両において、自動運転することが難しい環境下においては、車両を自動運転する自動運転モードで走行せずに、車両を運転者により手動運転する手動運転モードで走行することが好ましい。
例えば、特許文献1では、制御コンピュータが安全に制御することが可能であるか否かを判断し、制御コンピュータが安全に制御することが可能であると判断した場合に自動運転され、制御コンピュータが安全に制御することができないと判断した場合に手動運転される。
米国特許第8352110号明細書
しかしながら、上記従来の技術では、更なる改善が必要とされていた。
本開示の一態様に係る運転制御装置は、車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御装置であって、物体が出現する可能性がある出現領域を規定する物体出現マップを記憶するマップ記憶部と、前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出する物体検出部と、前記物体の検出結果と前記物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替える切替部と、切り替えられた前記手動運転モードにより前記車両の運転を制御する運転制御部と、を備える。
本開示によれば、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる。
本実施の形態1に係る車両制御システムの構成を示すブロック図である。 本実施の形態1における運転制御装置の動作について説明するためのフローチャートである。 本実施の形態1における自動運転モードから手動運転モードに切り替える処理について説明するための模式図である。 本実施の形態1の変形例における撮影画像及び出現尤度マップ画像の一例を示す図である。 本実施の形態1において、同時に検出されることがない2つの同じ種類の物体が、出現領域内で検出される例について説明するための模式図である。 本実施の形態1において、同時に検出されることがない2つの異なる種類の物体が、出現領域内で検出される例について説明するための模式図である。 本実施の形態1に係る車両制御システムの構成を示すブロック図である。 本実施の形態2における運転制御装置の動作について説明するためのフローチャートである。 本実施の形態3に係る車両制御システムの構成を示すブロック図である。 本実施の形態3における運転制御装置の動作について説明するためのフローチャートである。 本実施の形態3における自動運転モードから手動運転モードに切り替える処理について説明するための模式図である。
(本開示の基礎となった知見)
上記のように、特許文献1では、制御コンピュータが安全に制御することが可能であるか否かを判断し、制御コンピュータが安全に制御することが可能であると判断した場合に自動運転され、制御コンピュータが安全に制御することができないと判断した場合に手動運転される。例えば、特許文献1の制御コンピュータは、過去に走行した履歴がない場所であれば、安全に制御できないと判断する。また、制御コンピュータは、車両に接近する複数の障害物が検出された場合に、安全に制御できないと判断する。
特許文献1では、外部環境の状態に対し、安全に制御することができないと判断する条件を人間の知見によって定義している。しかしながら、外部環境から障害物を認識する認識システムと人間とでは、判断基準が異なるため、人間にとって簡単に認識可能な外部環境であっても、認識システムにとっては認識が難しい外部環境が存在する。そのため、自動運転では、外部環境の状態に対する認識システムの挙動及び性能を考慮する必要がある。
以上の課題を解決するために、本開示の一態様に係る運転制御装置は、車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御装置であって、物体が出現する可能性がある出現領域を規定する物体出現マップを記憶するマップ記憶部と、前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出する物体検出部と、前記物体の検出結果と前記物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替える切替部と、切り替えられた前記手動運転モードにより前記車両の運転を制御する運転制御部と、を備える。
この構成によれば、物体が出現する可能性がある出現領域を規定する物体出現マップがマップ記憶部に記憶されている。車両の進行方向を撮影した撮影画像に含まれる物体が検出される。物体の検出結果と物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えられる。切り替えられた手動運転モードにより車両の運転が制御される。
したがって、物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えるか否かが判断されるので、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる。
また、上記の運転制御装置において、前記物体出現マップは、地図情報に関連付けて管理されてもよい。
この構成によれば、物体出現マップは、地図情報に関連付けて管理されるので、地図上における物体が出現する可能性がある出現領域を規定することができる。
また、上記の運転制御装置において、前記車両の周囲の走行環境を取得する走行環境取得部と、前記走行環境取得部によって取得された前記走行環境に応じて、前記物体出現マップを前記撮影画像と同じ視点から見た視点変換後の物体出現マップを生成する生成部と、をさらに備え、前記切替部は、前記撮影画像上に前記視点変換後の物体出現マップを重畳し、前記撮影画像に含まれる前記物体が検出された位置が、前記視点変換後の物体出現マップに含まれる前記出現領域外である場合、前記自動運転モードから前記手動運転モードに切り替えてもよい。
この構成によれば、車両の周囲の走行環境が取得される。取得された走行環境に応じて、物体出現マップを撮影画像と同じ視点から見た視点変換後の物体出現マップが生成される。撮影画像上に視点変換後の物体出現マップが重畳され、撮影画像に含まれる物体が検出された位置が、視点変換後の物体出現マップに含まれる出現領域外である場合、自動運転モードから手動運転モードに切り替えられる。
したがって、撮影画像に含まれる物体が検出された位置が、視点変換後の物体出現マップに含まれる出現領域外である場合、物体が正確に検出されていないと判断することができ、この場合、自動運転モードから手動運転モードに切り替えることにより、運転手に車両を運転させることができる。
また、上記の運転制御装置において、前記地図は、3次元座標系で表される3次元地図を含み、前記出現領域は、前記3次元地図上における前記物体が出現する可能性がある出現空間を含み、前記生成部は、3次元座標系の前記物体出現マップを、前記撮影画像と同じ視点から見た2次元座標系の前記視点変換後の物体出現マップに変換してもよい。
この構成によれば、地図は、3次元座標系で表される3次元地図を含み、出現領域は、3次元地図上における物体が出現する可能性がある出現空間を含む。3次元座標系の物体出現マップが、撮影画像と同じ視点から見た2次元座標系の視点変換後の物体出現マップに変換される。
したがって、物体出現マップは、3次元の地図上における物体が出現する可能性がある出現空間を規定するので、より正確に物体が出現する可能性がある出現空間の範囲を規定することができ、自動運転モードから手動運転モードに切り替える精度を高めることができる。
また、上記の運転制御装置において、前記マップ記憶部は、複数の道路の形状に応じて前記出現領域がそれぞれ規定された、前記撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、前記車両の進行方向を撮影した撮影画像に含まれる前記道路の形状を取得する走行環境取得部と、前記複数の物体出現マップの中から、取得された前記道路の形状に応じた1の物体出現マップを決定する決定部と、をさらに備えてもよい。
この構成によれば、マップ記憶部は、複数の道路の形状に応じて前記出現領域がそれぞれ規定された、前記撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶している。車両の進行方向を撮影した撮影画像に含まれる道路の形状が取得される。複数の物体出現マップの中から、取得された道路の形状に応じた1の物体出現マップが決定される。
したがって、地図データではなく、複数の道路の形状に応じて出現領域がそれぞれ規定された、撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップをメモリに記憶することにより、メモリに記憶するデータ量を削減することができる。
また、上記の運転制御装置において、前記地図は、3次元座標系で表される3次元地図を含み、前記出現領域は、前記3次元地図上における前記物体が出現する可能性がある出現空間を含み、前記マップ記憶部は、複数の道路の形状に応じて前記出現空間がそれぞれ規定された、3次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、前記車両の進行方向を撮影した撮影画像に含まれる前記道路の形状を取得する走行環境取得部と、前記複数の物体出現マップの中から、取得された前記道路の形状に応じた1の物体出現マップを決定する決定部と、前記決定部によって前記1の物体出現マップが決定された場合、3次元座標系の前記1の物体出現マップを、前記撮影画像と同じ2次元座標系の物体出現マップに変換する座標系変換部と、をさらに備えてもよい。
この構成によれば、地図は、3次元座標系で表される3次元地図を含み、出現領域は、3次元地図上における物体が出現する可能性がある出現空間を含む。マップ記憶部は、複数の道路の形状に応じて出現空間がそれぞれ規定された、3次元座標系でそれぞれ表される複数の物体出現マップを記憶している。車両の進行方向を撮影した撮影画像に含まれる道路の形状が取得される。複数の物体出現マップの中から、取得された道路の形状に応じた1の物体出現マップが決定される。1の物体出現マップが決定された場合、3次元座標系の1の物体出現マップが、撮影画像と同じ2次元座標系の物体出現マップに変換される。
したがって、複数の物体出現マップは、3次元地図上における物体が出現する可能性がある出現空間をそれぞれ規定するので、より正確に物体が出現する可能性がある出現空間の範囲を規定することができ、自動運転モードから手動運転モードに切り替える精度を高めることができる。
また、上記の運転制御装置において、前記マップ記憶部は、複数の道路の形状に応じて前記出現領域がそれぞれ規定された、前記撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、識別番号記憶部と、前記撮影画像に含まれる前記物体が検出された位置に応じて、前記複数の物体出現マップの中から1の物体出現マップを決定し、決定した前記1の物体出現マップに対応する識別番号を前記識別番号記憶部に記憶する決定部と、をさらに備え、前記切替部は、所定時間内に前記識別番号記憶部に記憶される前記識別番号が所定回数切り替わった場合、前記自動運転モードから前記手動運転モードに切り替えてもよい。
この構成によれば、マップ記憶部は、複数の道路の形状に応じて出現領域がそれぞれ規定された、撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶している。撮影画像に含まれる物体が検出された位置に応じて、複数の物体出現マップの中から1の物体出現マップが決定され、決定された1の物体出現マップに対応する識別番号が識別番号記憶部に記憶される。所定時間内に識別番号記憶部に記憶される識別番号が所定回数切り替わった場合、自動運転モードから手動運転モードに切り替えられる。
したがって、物体出現マップが短時間に変化するということは、物体が正確に検出できていないと判断することができる。この場合、自動運転モードから手動運転モードに切り替えることにより、運転手に車両を運転させることができる。
また、上記の運転制御装置において、前記物体は、人物であり、前記出現領域は、前記人物が通行する領域であってもよい。
この構成によれば、人物の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる。
本開示の他の態様に係る運転制御方法は、車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御装置における運転制御方法であって、前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出し、前記物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替え、切り替えた前記手動運転モードにより前記車両の運転を制御する。
この構成によれば、車両の進行方向を撮影した撮影画像に含まれる物体が検出される。物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えられる。切り替えられた手動運転モードにより車両の運転が制御される。
したがって、物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えるか否かが判断されるので、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる。
本開示の他の態様に係る運転制御プログラムは、車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御プログラムであって、物体が出現する可能性がある出現領域を規定する物体出現マップを記憶するマップ記憶部と、前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出する物体検出部と、前記物体の検出結果と前記物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替える切替部と、切り替えられた前記手動運転モードにより前記車両の運転を制御する運転制御部としてコンピュータを機能させる。
この構成によれば、物体が出現する可能性がある出現領域を規定する物体出現マップがマップ記憶部に記憶されている。車両の進行方向を撮影した撮影画像に含まれる物体が検出される。物体の検出結果と物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えられる。切り替えられた手動運転モードにより車両の運転が制御される。
したがって、物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、自動運転モードから手動運転モードに切り替えるか否かが判断されるので、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができる。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態1)
図1は、本実施の形態1に係る車両制御システムの構成を示すブロック図である。図1に示す車両制御システムは、運転制御装置1とカメラ2とを備える。運転制御装置1は、車両を自動運転する自動運転モードと、車両を運転者により手動運転する手動運転モードとのいずれかにより車両の運転を制御する。なお、車両は、自動車であるが、本開示は特にこれに限定されず、車両は、オートバイ、トラック、バス、電車及び飛行体などの種々の車両であってもよい。
カメラ2は、車両のバックミラーの近傍に配置され、車両の前方の画像を撮影する。なお、カメラ2は、車両の前方だけでなく、車両の後方などの車両の進行方向の画像を撮影してもよい。
運転制御装置1は、車両に配置される。運転制御装置1は、メモリ3及びプロセッサ4を備える。
メモリ3は、コンピュータ読み取り可能な記録媒体であり、例えば、ハードディスクドライブ、ROM(Read Only Memory)、RAM(Random Access Memory)、光ディスク及び半導体メモリ等である。メモリ3は、プロセッサ4により実行される運転制御プログラムを記憶している。また、メモリ3は、出現尤度マップ記憶部13を備える。
出現尤度マップ記憶部13は、マップ記憶部の一例であり、物体が出現する可能性がある出現領域を規定する出現尤度マップ(物体出現マップ)を記憶する。出現尤度マップは、地図情報に関連付けて管理される。本実施の形態1における出現尤度マップは、2次元の地図上における物体が出現する可能性がある出現領域を規定している。なお、物体は、例えば、人物又は車両であり、出現尤度マップは、人物が通行する出現領域と、車両が通行する出現領域とを個別に示す。
なお、出現尤度マップは、出現尤度マップ記憶部13に予め記憶されているが、本開示は特にこれに限定されず、不図示の通信部を介してサーバから取得され、出現尤度マップ記憶部13に記憶されてもよい。
また、出現尤度マップの出現領域は、過去の人物又は車両の検出結果から統計的に算出してもよい。また、出現尤度マップの出現領域は、2次元の地図上にオペレータによって付与されてもよく、例えば道路交通法などの所定の規則に従って、人物又は車両が通行可能な領域に付与されてもよい。
プロセッサ4は、例えばCPU(中央演算処理装置)であり、メモリ3に記憶されている運転制御プログラムを実行する。プロセッサ4は、物体検出部11、走行環境取得部12、出現尤度マップ生成部14、運転モード切替部15及び車両制御部16を備える。
物体検出部11は、カメラ2によって車両の進行方向を撮影した撮影画像に含まれる物体を検出する。物体検出部11は、カメラ2によって車両の進行方向を撮影した撮影画像に含まれる人物又は車両を検出する。物体検出部11は、例えば、機械学習したニューラルネットワークに撮影画像を入力することにより、撮影画像に含まれる人物又は車両を検出する。なお、物体検出部11による検出対象は、人物又は車両に限定されない。
走行環境取得部12は、車両の周囲の走行環境を取得する。走行環境取得部12は、カメラ2によって車両の進行方向を撮影した撮影画像から、道路上に描かれた車線を認識し、走行している道路の形状を取得する。また、走行環境取得部12は、撮影画像から、標識及び信号機を認識し、標識情報及び信号機情報を取得する。また、走行環境取得部12は、車両の進行方向、車両の速度及び車両の現在位置を取得する。また、走行環境取得部12は、カメラ以外のセンサ(例えば、LIDAR(Laser Imaging Detection and Ranging))を利用し、3次元地図上の自車の位置及び姿勢を推定してもよい。なお、現在位置は、不図示のGPS(Global Positioning System)から取得することが可能である。また、進行方向は、GPSにより2つの地点の位置を取得することにより、算出することが可能である。
出現尤度マップ生成部14は、生成部の一例であり、走行環境取得部12によって取得された走行環境に応じて、出現尤度マップを撮影画像と同じ視点から見た出現尤度マップ画像を生成する。なお、本実施の形態では、出現尤度マップ生成部14は、出現尤度マップ画像を生成しているが、本開示は特にこれに限定されず、視点に対応する2次元の行列で出現尤度マップを表してもよい。出現尤度マップ生成部14は、走行環境取得部12によって取得された車両の現在位置と車両の進行方向とから、出現尤度マップ上のどの位置をどの方向に向かって走行しているかを特定することができる。また、出現尤度マップ生成部14は、走行環境取得部12によって取得された車線の位置から、カメラ2の視点の位置及び撮影角度を特定する。なお、走行環境取得部12は、予め記憶されているカメラ2の視点の位置及び撮影角度を取得してもよい。そして、出現尤度マップ生成部14は、出現尤度マップ上の車両の現在位置から、進行方向に向かって撮影画像と同じ視点から見た出現尤度マップ画像を生成する。
運転モード切替部15は、切替部の一例であり、物体の検出結果と出現尤度マップとに基づいて、自動運転モードから手動運転モードに切り替える。運転モード切替部15は、撮影画像上に出現尤度マップ画像を重畳し、撮影画像に含まれる物体が検出された位置が、出現尤度マップ画像に含まれる出現領域外である場合、自動運転モードから手動運転モードに切り替える。
車両制御部16は、車両を自動運転する自動運転モードと、車両を運転者により手動運転する手動運転モードとのいずれかにより車両の運転を制御する。車両制御部16は、運転モード切替部15によって切り替えられた手動運転モードにより車両の運転を制御する。
続いて、本実施の形態1における運転制御装置の動作について説明する。
図2は、本実施の形態1における運転制御装置の動作について説明するためのフローチャートである。
まず、ステップS1において、物体検出部11は、カメラ2によって車両の進行方向を撮影した撮影画像に含まれる人物を検出する。なお、以下の説明では、人物を検出する例について説明する。物体検出部11は、画像認識により撮影画像に含まれる人物を検出する。物体検出部11は、歩行者だけでなく、自転車に乗った人物も検出してもよい。
次に、ステップS2において、走行環境取得部12は、車両の周囲の走行環境を取得する。上述したように、走行環境取得部12は、カメラ2によって撮影された撮影画像から、道路上に描かれた車線を認識し、走行している道路の形状を取得する。また、走行環境取得部12は、車両の進行方向及び車両の現在位置を取得する。
次に、ステップS3において、出現尤度マップ生成部14は、走行環境取得部12によって取得された走行環境に応じて、出現尤度マップを撮影画像と同じ視点から見た出現尤度マップ画像を生成する。
次に、ステップS4において、運転モード切替部15は、撮影画像上に出現尤度マップ画像を重畳し、撮影画像に含まれる人物が検出された位置が、出現尤度マップ画像に含まれる出現領域外であるか否かを判断する。ここで、人物が検出された位置が出現領域外であると判断された場合(ステップS4でYES)、ステップS5において、運転モード切替部15は、自動運転モードから手動運転モードに切り替える。
一方、人物が検出された位置が出現領域外ではないと判断された場合(ステップS4でNO)、ステップS6において、運転モード切替部15は、現在の自動運転モードを維持する。
なお、手動運転モード時において、人物が検出された位置が出現領域外ではないと判断された場合、運転モード切替部15は、手動運転モードから自動運転モードに切り替えてもよい。
また、自動運転モードから手動運転モードに切り替える場合、運転モード切替部15は、自動運転モードから手動運転モードに切り替えることを運転者に通知してもよい。この場合、運転モード切替部15は、例えば音声又は画像により通知してもよい。さらに、運転モード切替部15は、自動運転モードから手動運転モードに切り替えることを運転者に通知した後、自動運転モードから手動運転モードに切り替えてもよい。
なお、図2では、1フレームごとに自動運転モードから手動運転モードに切り替えるか否かの判断を行う例について説明しているが、複数のフレームの判断結果に基づいて、自動運転モードから手動運転モードに切り替えるか否かの判断を行ってもよい。
図3は、本実施の形態1における自動運転モードから手動運転モードに切り替える処理について説明するための模式図である。
運転モード切替部15は、撮影画像101上に出現尤度マップ画像102を重畳する。出現尤度マップ画像102は、人物が出現する可能性が他の領域よりも高い出現領域103を含んでいる。図3に示す例では、出現領域103は、車道の外側の歩行者用の道路に形成されている。なお、図3では、出現領域103は、楕円形状で表されているが、本開示は特にこれに限定されず、どのような形状であってもよい。
図3において、物体検出部11は、人物を検出するとともに、電柱を人物として誤検出している。このとき、人物の検出位置111は、出現領域103内に存在しているが、電柱の検出位置112,113は、出現領域103外に存在している。そのため、運転モード切替部15は、撮影画像101に含まれる人物が検出された検出位置112,113が、出現尤度マップ画像102に含まれる出現領域103外であると判断し、自動運転モードから手動運転モードに切り替える。
なお、図3では、物体検出部11によって人物として検出された検出位置が、出現領域103外に2つ存在しているが、出現領域103外に少なくとも1つの検出位置が存在する場合に、自動運転モードから手動運転モードに切り替えられる。
このように、人物が出現する可能性がある出現領域103外で人物が検出された場合に、物体検出部11が正しく人物を検出していない可能性が高いため、このまま自動運転モードで運転するのは困難であると判断し、自動運転モードから手動運転モードに切り替える。これにより、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができ、物体の検出精度が低い自動運転モードに替わって、運転手に車両を運転させることができる。
なお、上記の出現尤度マップは、2次元の地図上における物体が出現する可能性がある出現領域を規定しているが、本開示は特にこれに限定されず、出現尤度マップは、3次元の地図上における物体が出現する可能性がある出現空間を規定してもよい。この場合、出現尤度マップ生成部14は、走行環境取得部12によって取得された走行環境に応じて、3次元座標系の出現尤度マップを、撮影画像と同じ視点から見た2次元座標系の出現尤度マップ画像に変換する。
このように、出現尤度マップは、3次元の地図上における物体が出現する可能性がある出現空間を規定するので、より正確に物体が出現する可能性がある出現空間の範囲を規定することができ、自動運転モードから手動運転モードに切り替える精度を高めることができる。
図4は、本実施の形態1の変形例における撮影画像及び出現尤度マップ画像の一例を示す図である。
図4に示すように、出現尤度マップ記憶部13は、複数の道路の形状に応じて出現領域がそれぞれ規定された、撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の出現尤度マップ画像を記憶してもよい。例えば、出現尤度マップ画像102aでは、車道の両側に出現領域103が設定されており、出現尤度マップ画像102bでは、車道の左側に出現領域103が設定されており、出現尤度マップ画像102cでは、T字路の突き当たり部分に出現領域103が設定されている。
本実施の形態1の変形例において、運転制御装置1は、出現尤度マップ生成部14に替えて出現尤度マップ決定部を備える。
走行環境取得部12は、カメラ2によって撮影された撮影画像から、道路上に描かれた車線を認識し、車両の進行方向を撮影した撮影画像に含まれる道路の形状を取得する。出現尤度マップ決定部は、出現尤度マップ記憶部13に記憶されている複数の出現尤度マップ画像の中から、走行環境取得部12によって取得された道路の形状に応じた1の出現尤度マップ画像を決定する。すなわち、図4では、撮影画像101aの道路形状に一致する出現尤度マップ画像102aが選択され、撮影画像101bの道路形状に一致する出現尤度マップ画像102bが選択され、撮影画像101cの道路形状に一致する出現尤度マップ画像102cが選択される。
このように、地図データではなく、複数の道路の形状に応じて出現領域がそれぞれ規定された、撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の出現尤度マップ画像をメモリ3に記憶することにより、メモリ3に記憶するデータ量を削減することができる。
なお、本実施の形態1では、撮影画像101に含まれる人物が検出された位置が、出現尤度マップ画像102に含まれる出現領域103外であると判断された場合に、自動運転モードから手動運転モードに切り替えているが、本開示は特にこれに限定されず、同時に検出されることがない2つの同じ種類の物体が、出現領域内で検出された場合に、自動運転モードから手動運転モードに切り替えてもよい。
図5は、本実施の形態1において、同時に検出されることがない2つの同じ種類の物体が、出現領域内で検出される例について説明するための模式図である。
図5では、撮影画像101に出現尤度マップ画像102が重畳されており、物体検出部11は、車両を検出している。出現尤度マップ画像102は、車両の進行方向の車道131上に形成された出現領域104aと、車両の進行方向の車道131の交差点から左方に延びた車道132上に形成された出現領域104bと、車両の進行方向の車道131の交差点から右方に延びた車道133上に形成された出現領域104cとを含む。出現領域104a,104b,104cは、車両が出現する可能性がある領域である。
物体検出部11による検出位置121,122は、それぞれ車両を正しく検出しており、検出位置123は、車両ではなく、車道132上の一部分を車両として誤検出している。
ここで、走行環境取得部12は、カメラ2によって撮影された撮影画像101から、信号機135の色を認識する。その結果、走行環境取得部12は、信号機135の色が青色であるという信号機情報を取得する。本来であれば、物体検出部11による検出位置121,122,123は、全て出現領域104a,104b内であるので、運転モード切替部15は、自動運転モードから手動運転モードに切り替えずに、現在の自動運転モードを維持する。
しかしながら、走行環境取得部12によって取得された信号機情報が青色であるため、車道132から交差点に進入してくる車両は存在しないと考えられる。そのため、運転モード切替部15は、撮影画像101に含まれる車両の検出位置121,122,123が、出現尤度マップ画像102に含まれる2つの出現領域104a,104b内であると判断した場合、信号機情報が青であるか否かを判断し、信号機情報が青であると判断した場合、自動運転モードから手動運転モードに切り替える。
このように、同時に検出されることがない2つの同じ種類の車両が、出現領域内で検出された場合、自動運転モードから手動運転モードに切り替えることができる。
また、本実施の形態1において、同時に検出されることがない2つの異なる種類の物体が、出現領域内で検出された場合に、自動運転モードから手動運転モードに切り替えてもよい。
図6は、本実施の形態1において、同時に検出されることがない2つの異なる種類の物体が、出現領域内で検出される例について説明するための模式図である。
図6では、撮影画像101に出現尤度マップ画像102が重畳されており、物体検出部11は、2つの異なる種類の物体である人物及び車両を検出している。出現尤度マップ画像102は、車両の進行方向の車道131上に形成された出現領域104aと、車両の進行方向の車道131の交差点から左方に延びた車道132上に形成された出現領域104bと、車両の進行方向の車道131の交差点から右方に延びた車道133上に形成された出現領域104cとを含む。出現領域104a,104b,104cは、車両が出現する可能性がある領域である。
また、出現尤度マップ画像102は、車道131,132,133の両側に形成された出現領域103を含む。出現領域103は、人物が出現する可能性がある領域である。
物体検出部11による検出位置121,122は、それぞれ車両を正しく検出しており、検出位置111は、人物ではなく、車道131上の一部分を人物として誤検出している。
ここで、出現領域104aは、車両が出現する可能性がある領域であり、人物が出現する可能性がある領域ではない。そのため、出現領域104aでは、車両と人物とが同時に検出されることはない。そのため、運転モード切替部15は、撮影画像101に含まれる車両の検出位置121,122と、人物の検出位置111とが、出現尤度マップ画像102に含まれる車両の出現領域104a内であると判断した場合、自動運転モードから手動運転モードに切り替える。
このように、同時に検出されることがない2つの異なる種類の車両が、出現領域内で検出された場合、自動運転モードから手動運転モードに切り替えることができる。
(実施の形態2)
上記の実施の形態1では、出現尤度マップ記憶部13は、2次元の地図上における物体が出現する可能性がある出現領域を規定する出現尤度マップを記憶しているが、本実施の形態2では、出現尤度マップ記憶部13は、3次元の地図上における物体が出現する可能性がある出現空間を規定する出現尤度マップを記憶している。
図7は、本実施の形態1に係る車両制御システムの構成を示すブロック図である。図7に示す車両制御システムは、運転制御装置1とカメラ2とを備える。運転制御装置1は、メモリ3及びプロセッサ4を備える。メモリ3は、出現尤度マップ記憶部17を備える。
出現尤度マップ記憶部17は、マップ記憶部の一例であり、複数の道路の形状に応じて出現領域がそれぞれ規定された、3次元座標系でそれぞれ表される複数の出現尤度マップ(モデル)を記憶する。本実施の形態2における複数の出現尤度マップは、3次元の地図上における物体が出現する可能性がある出現空間を規定している。なお、物体は、例えば、人物又は車両であり、出現尤度マップは、人物が通行する出現領域と、車両が通行する出現領域とを個別に示す。また、出現空間は、2次元ではなく、3次元の空間で表される。
なお、複数の出現尤度マップは、出現尤度マップ記憶部17に予め記憶されているが、本開示は特にこれに限定されず、不図示の通信部を介してサーバから取得され、出現尤度マップ記憶部17に記憶されてもよい。
また、複数の出現尤度マップの出現空間は、過去の人物又は車両の検出結果から統計的に算出してもよい。また、複数の出現尤度マップの出現空間は、3次元の地図上にオペレータによって付与されてもよく、例えば道路交通法などの所定の規則に従って、人物又は車両が通行可能な空間に付与されてもよい。
プロセッサ4は、例えばCPUであり、メモリ3に記憶されている運転制御プログラムを実行する。プロセッサ4は、物体検出部11、走行環境取得部12、出現尤度マップ決定部22、運転モード切替部15、車両制御部16及び座標系変換部18を備える。なお、実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
出現尤度マップ決定部22は、出現尤度マップ記憶部17に記憶されている複数の出現尤度マップの中から、走行環境取得部12によって取得された道路の形状に応じた1の出現尤度マップを決定する。
座標系変換部18は、出現尤度マップ決定部22によって1の出現尤度マップが決定された場合、3次元座標系の1の出現尤度マップを、撮影画像と同じ2次元座標系の出現尤度マップ画像に変換する。
続いて、本実施の形態2における運転制御装置の動作について説明する。
図8は、本実施の形態2における運転制御装置の動作について説明するためのフローチャートである。
なお、ステップS11〜ステップS12の処理は、図2に示すステップS1〜ステップS2の処理と同じであるので、説明を省略する。
次に、ステップS13において、出現尤度マップ決定部22は、出現尤度マップ記憶部17に記憶されている複数の出現尤度マップの中から、走行環境取得部12によって取得された道路の形状に応じた1の出現尤度マップを決定する。
次に、ステップS14において、座標系変換部18は、出現尤度マップ決定部22によって決定された3次元座標系の1の出現尤度マップを、撮影画像と同じ2次元座標系の出現尤度マップ画像に変換する。すなわち、出現尤度マップ決定部22によって決定された1の出現尤度マップは3次元座標系で表される。座標系変換部18は、3次元座標系で表される1の出現尤度マップを、カメラ2の視点を基準とする2次元の視点座標系で表される出現尤度マップ画像に座標変換する。
なお、ステップS15〜ステップS17の処理は、図2に示すステップS4〜ステップS6の処理と同じであるので、説明を省略する。
このように、物体が出現する可能性がある出現空間は、2次元ではなく、3次元の空間で表されるので、より正確に出現空間の範囲を規定することができ、自動運転モードから手動運転モードに切り替える精度を向上させることができる。
(実施の形態3)
上記の実施の形態2では、走行環境に応じて出現尤度マップ画像が決定されているが、実施の形態3では、物体が検出された位置に応じて出現尤度マップ画像が決定され、出現尤度マップ画像が所定時間内に所定回数切り替わった場合、自動運転モードから手動運転モードに切り替える。
図9は、本実施の形態3に係る車両制御システムの構成を示すブロック図である。図9に示す車両制御システムは、運転制御装置1とカメラ2とを備える。運転制御装置1は、メモリ3及びプロセッサ4を備える。メモリ3は、出現尤度マップ記憶部13及び識別番号記憶部19を備える。なお、実施の形態3において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
出現尤度マップ記憶部13は、複数の道路の形状に応じて出現領域が規定された、撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の出現尤度マップ画像を記憶している。複数の出現尤度マップ画像には、それぞれ識別番号が付与されている。
識別番号記憶部19は、最適出現尤度マップ決定部20によって決定された出現尤度マップ画像を識別する識別番号を記憶する。
プロセッサ4は、例えばCPUであり、メモリ3に記憶されている運転制御プログラムを実行する。プロセッサ4は、物体検出部11、走行環境取得部12、車両制御部16、最適出現尤度マップ決定部20及び運転モード切替部21を備える。
最適出現尤度マップ決定部20は、撮影画像に含まれる物体が検出された位置に応じて、複数の出現尤度マップ画像の中から1の出現尤度マップ画像を決定し、決定した1の出現尤度マップ画像に対応する識別番号を識別番号記憶部19に記憶する。
運転モード切替部21は、所定時間内に識別番号記憶部19に記憶される識別番号が所定回数切り替わった場合、自動運転モードから手動運転モードに切り替える。
続いて、本実施の形態3における運転制御装置の動作について説明する。
図10は、本実施の形態3における運転制御装置の動作について説明するためのフローチャートである。
なお、ステップS21〜ステップS22の処理は、図2に示すステップS1〜ステップS2の処理と同じであるので、説明を省略する。
次に、ステップS23において、最適出現尤度マップ決定部20は、撮影画像に含まれる物体が検出された位置に応じて、複数の出現尤度マップ画像の中から1の出現尤度マップ画像を決定する。最適出現尤度マップ決定部20は、複数の出現尤度マップ画像の中から、物体が検出された位置に一致する出現領域を有する最適出現尤度マップ画像を決定する。
次に、ステップS24において、最適出現尤度マップ決定部20は、決定した最適出現尤度マップ画像の識別番号を識別番号記憶部19に記憶する。
次に、ステップS25において、運転モード切替部21は、最適出現尤度マップ画像の識別番号を識別番号記憶部19に最初に記憶してからの時間を計時しているか否かを判断する。ここで、計時していないと判断された場合(ステップS25でNO)、ステップS26において、運転モード切替部21は、最適出現尤度マップ画像の識別番号を識別番号記憶部19に最初に記憶してからの時間の計時を開始する。計時を開始した後は、ステップS21の処理に戻る。
一方、計時していると判断された場合(ステップS25でYES)、ステップS27において、運転モード切替部21は、所定時間経過したか否かを判断する。ここで、所定時間経過していないと判断された場合(ステップS27でNO)、ステップS21の処理に戻る。
一方、所定時間経過したと判断された場合(ステップS27でYES)、ステップS28において、運転モード切替部21は、識別番号記憶部19に記憶されている識別番号が所定時間の間に所定回数変化したか否かを判断する。識別番号記憶部19には、所定時間内に最適出現尤度マップ決定部20によって決定された最適出現尤度マップ画像の識別番号が累積して記憶される。そのため、所定時間が経過した際に、識別番号記憶部19に記憶されている識別番号の数を計数することにより、識別番号が何回変化したかを算出することができる。
ここで、識別番号が所定回数変化したと判断された場合(ステップS28でYES)、ステップS29において、運転モード切替部21は、自動運転モードから手動運転モードに切り替える。
一方、識別番号が所定回数変化していないと判断された場合(ステップS28でNO)、ステップS30において、運転モード切替部21は、現在の自動運転モードを維持する。
図11は、本実施の形態3における自動運転モードから手動運転モードに切り替える処理について説明するための模式図である。なお、図11において、横軸は、時間tを表している。
図11に示すように、時刻t0において、撮影画像に含まれる人物が検出され、撮影画像に含まれる物体が検出された位置に応じて出現尤度マップ画像が決定され、決定された最適出現尤度マップ画像の識別番号(ID:3)が識別番号記憶部19に記憶される。そして、時刻t0から時間の計時が開始される。
次に、所定時間T経過したか否かが判断される。なお、所定時間Tは、例えば1秒である。ここで、所定時間T経過していないと判断された場合、再度、撮影画像に含まれる人物が検出される。一方、所定時間T経過したと判断された場合、識別番号が所定回数変化したか否かが判断される。所定回数は、例えば2回である。すなわち、1秒間に2回、出現尤度マップ画像が変化した場合、自動運転モードから手動運転モードに切り替えられる。
図11では、最初に識別番号(ID:3)が記憶された後、時刻t1で識別番号(ID:102)が記憶され、時刻t2において識別番号(ID:401)が記憶されている。そのため、所定時間Tが経過するまでに、2回出現尤度マップ画像が変化している。所定時間T経過するまでに識別番号が所定回数変化したと判断され、自動運転モードから手動運転モードに切り替えられることになる。
出現尤度マップ画像が短時間に変化するということは、物体が正確に検出できていないと判断することができる。この場合、自動運転モードから手動運転モードに切り替えることにより、物体の検出精度が低い自動運転モードに替わって、運転手に車両を運転させることができる。
本開示において、ユニット、装置、部材又は部の全部又は一部、又は図に示されるブロック図の機能ブロックの全部又は一部は、半導体装置、半導体集積回路(IC)、又はLSI(Large Scale Integration)を含む一つ又は複数の電子回路によって実行されてもよい。LSI又はICは、一つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、一つのチップに集積されてもよい。ここでは、LSIやICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、若しくはULSI(Ultra Large Scale Integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができるReconfigurable Logic Deviceも同じ目的で使うことができる。
さらに、ユニット、装置、部材又は部の全部又は一部の機能又は操作は、ソフトウエア処理によって実行することが可能である。この場合、ソフトウエアは一つ又は複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウエアが処理装置(Processor)によって実行されたときに、そのソフトウエアで特定された機能が処理装置(Processor)および周辺装置によって実行される。システム又は装置は、ソフトウエアが記録されている一つ又は複数の非一時的記録媒体、処理装置(Processor)、及び必要とされるハードウエアデバイス、例えばインターフェース、を備えていてもよい。
本開示に係る運転制御装置、運転制御方法及び運転制御プログラムは、物体の検出精度に応じて、車両を自動運転する自動運転モードから、車両を運転者により手動運転する手動運転モードに切り替えることができ、自動運転モードと手動運転モードとのいずれかにより車両の運転を制御する運転制御装置、運転制御方法及び運転制御プログラムとして有用である。
1 運転制御装置
2 カメラ
3 メモリ
4 プロセッサ
11 物体検出部
12 走行環境取得部
13,17 出現尤度マップ記憶部
14 出現尤度マップ生成部
15,21 運転モード切替部
16 車両制御部
18 座標系変換部
19 識別番号記憶部
20 最適出現尤度マップ決定部
22 出現尤度マップ決定部

Claims (10)

  1. 車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御装置であって、
    物体が出現する可能性がある出現領域を規定する物体出現マップを記憶するマップ記憶部と、
    前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出する物体検出部と、
    前記物体の検出結果と前記物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替える切替部と、
    切り替えられた前記手動運転モードにより前記車両の運転を制御する運転制御部と、
    を備える運転制御装置。
  2. 前記物体出現マップは、地図情報に関連付けて管理される、
    請求項1記載の運転制御装置。
  3. 前記車両の周囲の走行環境を取得する走行環境取得部と、
    前記走行環境取得部によって取得された前記走行環境に応じて、前記物体出現マップを前記撮影画像と同じ視点から見た視点変換後の物体出現マップを生成する生成部と、
    をさらに備え、
    前記切替部は、前記撮影画像上に前記視点変換後の物体出現マップを重畳し、前記撮影画像に含まれる前記物体が検出された位置が、前記視点変換後の物体出現マップに含まれる前記出現領域外である場合、前記自動運転モードから前記手動運転モードに切り替える、
    請求項1記載の運転制御装置。
  4. 前記地図は、3次元座標系で表される3次元地図を含み、
    前記出現領域は、前記3次元地図上における前記物体が出現する可能性がある出現空間を含み、
    前記生成部は、3次元座標系の前記物体出現マップを、前記撮影画像と同じ視点から見た2次元座標系の前記視点変換後の物体出現マップに変換する、
    請求項3記載の運転制御装置。
  5. 前記マップ記憶部は、複数の道路の形状に応じて前記出現領域がそれぞれ規定された、前記撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、
    前記車両の進行方向を撮影した撮影画像に含まれる前記道路の形状を取得する走行環境取得部と、
    前記複数の物体出現マップの中から、取得された前記道路の形状に応じた1の物体出現マップを決定する決定部と、
    をさらに備える、
    請求項1記載の運転制御装置。
  6. 前記地図は、3次元座標系で表される3次元地図を含み、
    前記出現領域は、前記3次元地図上における前記物体が出現する可能性がある出現空間を含み、
    前記マップ記憶部は、複数の道路の形状に応じて前記出現空間がそれぞれ規定された、3次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、
    前記車両の進行方向を撮影した撮影画像に含まれる前記道路の形状を取得する走行環境取得部と、
    前記複数の物体出現マップの中から、取得された前記道路の形状に応じた1の物体出現マップを決定する決定部と、
    前記決定部によって前記1の物体出現マップが決定された場合、3次元座標系の前記1の物体出現マップを、前記撮影画像と同じ2次元座標系の物体出現マップに変換する座標系変換部と、
    をさらに備える、
    請求項1記載の運転制御装置。
  7. 前記マップ記憶部は、複数の道路の形状に応じて前記出現領域がそれぞれ規定された、前記撮影画像と同じ視点である2次元座標系でそれぞれ表される複数の物体出現マップを記憶しており、
    識別番号記憶部と、
    前記撮影画像に含まれる前記物体が検出された位置に応じて、前記複数の物体出現マップの中から1の物体出現マップを決定し、決定した前記1の物体出現マップに対応する識別番号を前記識別番号記憶部に記憶する決定部と、をさらに備え、
    前記切替部は、所定時間内に前記識別番号記憶部に記憶される前記識別番号が所定回数切り替わった場合、前記自動運転モードから前記手動運転モードに切り替える、
    請求項1記載の運転制御装置。
  8. 前記物体は、人物であり、
    前記出現領域は、前記人物が通行する領域である、
    請求項1〜7のいずれか1項に記載の運転制御装置。
  9. 車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御装置における運転制御方法であって、
    前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出し、
    前記物体の検出結果と、物体が出現する可能性がある出現領域を規定する物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替え、
    切り替えた前記手動運転モードにより前記車両の運転を制御する、
    運転制御方法。
  10. 車両を自動運転する自動運転モードと、前記車両を運転者により手動運転する手動運転モードとのいずれかにより前記車両の運転を制御する運転制御プログラムであって、
    物体が出現する可能性がある出現領域を規定する物体出現マップを記憶するマップ記憶部と、
    前記車両の進行方向を撮影した撮影画像に含まれる前記物体を検出する物体検出部と、
    前記物体の検出結果と前記物体出現マップとに基づいて、前記自動運転モードから前記手動運転モードに切り替える切替部と、
    切り替えられた前記手動運転モードにより前記車両の運転を制御する運転制御部としてコンピュータを機能させる、
    運転制御プログラム。
JP2016217869A 2016-03-10 2016-11-08 運転制御装置、運転制御方法及び運転制御プログラム Active JP6795379B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710075468.0A CN107179767B (zh) 2016-03-10 2017-02-13 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
US15/446,525 US10864906B2 (en) 2016-03-10 2017-03-01 Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
EP17159318.9A EP3217318B1 (en) 2016-03-10 2017-03-06 Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662306173P 2016-03-10 2016-03-10
US62/306,173 2016-03-10

Publications (2)

Publication Number Publication Date
JP2017159884A true JP2017159884A (ja) 2017-09-14
JP6795379B2 JP6795379B2 (ja) 2020-12-02

Family

ID=59853746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217869A Active JP6795379B2 (ja) 2016-03-10 2016-11-08 運転制御装置、運転制御方法及び運転制御プログラム

Country Status (1)

Country Link
JP (1) JP6795379B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827190A (zh) * 2018-08-07 2020-02-21 埃森哲环球解决方案有限公司 针对自动对象标识的图像处理
JP2020123334A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョン 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置
JP2020535077A (ja) * 2017-09-25 2020-12-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 画像座標を使用した自動トレーラ連結
JP2021500652A (ja) * 2017-10-24 2021-01-07 ウェイモ エルエルシー 自律型車両のための歩行者行動予測
US11473927B2 (en) * 2020-02-05 2022-10-18 Electronic Arts Inc. Generating positions of map items for placement on a virtual map

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094673A (ja) * 2003-09-19 2005-04-07 Nissan Motor Co Ltd 検出可能領域判定装置及び検出可能領域判定方法
JP2007305079A (ja) * 2006-05-15 2007-11-22 Toyota Motor Corp 支援制御装置
JP2009271758A (ja) * 2008-05-08 2009-11-19 Denso Corp 画像認識装置
WO2013076829A1 (ja) * 2011-11-22 2013-05-30 株式会社日立製作所 自律移動システム
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
JP2015175824A (ja) * 2014-03-18 2015-10-05 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP2016033729A (ja) * 2014-07-31 2016-03-10 クラリオン株式会社 周囲環境認識装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094673A (ja) * 2003-09-19 2005-04-07 Nissan Motor Co Ltd 検出可能領域判定装置及び検出可能領域判定方法
JP2007305079A (ja) * 2006-05-15 2007-11-22 Toyota Motor Corp 支援制御装置
JP2009271758A (ja) * 2008-05-08 2009-11-19 Denso Corp 画像認識装置
WO2013076829A1 (ja) * 2011-11-22 2013-05-30 株式会社日立製作所 自律移動システム
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
JP2015175824A (ja) * 2014-03-18 2015-10-05 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP2016033729A (ja) * 2014-07-31 2016-03-10 クラリオン株式会社 周囲環境認識装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535077A (ja) * 2017-09-25 2020-12-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 画像座標を使用した自動トレーラ連結
KR102382577B1 (ko) 2017-10-24 2022-04-08 웨이모 엘엘씨 자율 차량들을 위한 보행자 행동 예측들
JP2021500652A (ja) * 2017-10-24 2021-01-07 ウェイモ エルエルシー 自律型車両のための歩行者行動予測
KR20210124502A (ko) * 2017-10-24 2021-10-14 웨이모 엘엘씨 자율 차량들을 위한 보행자 행동 예측들
JP7153071B2 (ja) 2017-10-24 2022-10-13 ウェイモ エルエルシー 自律型車両のための歩行者行動予測
US11783614B2 (en) 2017-10-24 2023-10-10 Waymo Llc Pedestrian behavior predictions for autonomous vehicles
JP2020047262A (ja) * 2018-08-07 2020-03-26 アクセンチュア グローバル ソリューションズ リミテッド 自動化されたオブジェクト識別のための画像処理
CN110827190A (zh) * 2018-08-07 2020-02-21 埃森哲环球解决方案有限公司 针对自动对象标识的图像处理
JP7128157B2 (ja) 2018-08-07 2022-08-30 アクセンチュア グローバル ソリューションズ リミテッド 自動化されたオブジェクト識別のための画像処理
CN110827190B (zh) * 2018-08-07 2023-09-08 埃森哲环球解决方案有限公司 针对自动对象标识的图像处理
JP2020123334A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョン 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置
US11473927B2 (en) * 2020-02-05 2022-10-18 Electronic Arts Inc. Generating positions of map items for placement on a virtual map
US20220412765A1 (en) * 2020-02-05 2022-12-29 Electronic Arts Inc. Generating Positions of Map Items for Placement on a Virtual Map
US11668581B2 (en) * 2020-02-05 2023-06-06 Electronic Arts Inc. Generating positions of map items for placement on a virtual map

Also Published As

Publication number Publication date
JP6795379B2 (ja) 2020-12-02

Similar Documents

Publication Publication Date Title
CN107179767B (zh) 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
CN109215433B (zh) 用于自动驾驶仿真的基于视觉的驾驶场景生成器
US10489686B2 (en) Object detection for an autonomous vehicle
CN107176161B (zh) 识别结果提示装置、识别结果提示方法以及自主移动体
JP6795379B2 (ja) 運転制御装置、運転制御方法及び運転制御プログラム
JP2018081404A (ja) 識別方法、識別装置、識別器生成方法及び識別器生成装置
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
US10860868B2 (en) Lane post-processing in an autonomous driving vehicle
JP2017159882A (ja) 認識結果提示装置、認識結果提示方法、認識対象提示装置及び認識対象提示方法
JP2018081545A (ja) 画像データ抽出装置及び画像データ抽出方法
US10614320B2 (en) System and method for advanced highway lane detection
CN112446283A (zh) 驾驶辅助系统、电子设备及其操作方法
JP2022142790A (ja) マルチタスクネットワークのための評価プロセス
JP7077726B2 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
JP2018073275A (ja) 画像認識装置
JP7031157B2 (ja) 物体検出方法及び物体検出装置
JP7433146B2 (ja) 物体検出方法及び物体検出装置
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
KR101340014B1 (ko) 위치 정보 제공 장치 및 방법
CN115050203B (zh) 地图生成装置以及车辆位置识别装置
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
WO2022215371A1 (ja) 情報処理装置及び情報処理方法
CN111460852A (zh) 车载3d目标检测方法、系统及装置
US20210302991A1 (en) Method and system for generating an enhanced field of view for an autonomous ground vehicle
CN112613335A (zh) 识别装置、识别方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201112

R150 Certificate of patent or registration of utility model

Ref document number: 6795379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150