JP2019003343A - 運転支援装置および運転支援方法 - Google Patents
運転支援装置および運転支援方法 Download PDFInfo
- Publication number
- JP2019003343A JP2019003343A JP2017116224A JP2017116224A JP2019003343A JP 2019003343 A JP2019003343 A JP 2019003343A JP 2017116224 A JP2017116224 A JP 2017116224A JP 2017116224 A JP2017116224 A JP 2017116224A JP 2019003343 A JP2019003343 A JP 2019003343A
- Authority
- JP
- Japan
- Prior art keywords
- image
- driving support
- edge portion
- risk
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】移動体が検出されない場合でも危険度を判定する技術を提供する。【解決手段】運転支援装置20は、入力回路30、出力回路36を備え、車両100に設置可能である。運転支援装置20は、入力回路30に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分する。運転支援装置20は、第1画像において、道路領域に、道路領域以外の前記領域から入り込んだエッジ部分を検出する。運転支援装置20は、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出する。算出された危険度が所定の値以上である場合、出力回路36は、所定の信号を出力する。【選択図】図2
Description
本発明は、画像から危険度を判定する運転支援装置および運転支援方法に関する。
車両用の衝突回避支援装置は、車両の周囲に存在する歩行者等の移動体を検出し、移動体と車両との衝突の危険性があると判定した場合に、運転者に警告を発する。衝突の危険性の予測精度を向上するために、車両周辺の歩道境界物も検出されるとともに、移動体と歩道境界物との相対距離と、移動体と車両との相対距離とが使用される(例えば、特許文献1参照)。
特許文献1においては、移動体を検出した場合に、移動体と歩道境界物との相対距離と、移動体と車両との相対距離とを使用することによって、移動体が歩道境界物を超えて車両の方に飛び出してくる危険性を判定する。しかしながら、駐車車両のような遮蔽物に隠れた移動体が飛び出してくる場合、当該移動体を検出していない段階において、移動体と車両との衝突の危険性は判定されない。
本発明はこうした状況に鑑みてなされたものであり、その目的は、移動体が検出されない場合でも危険度を判定する技術を提供することにある。
上記課題を解決するために、本発明のある態様の運転支援装置は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。
本発明の別の態様は、運転支援方法である。この方法は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、移動体が検出されない場合でも危険度を判定できる。
本発明を具体的に説明する前に、概要を述べる。本発明の実施例は、車両に搭載されており、撮像された画像から危険度を判定して運転者に通知する運転支援装置に関する。ここでは、特に、歩行者が飛び出す危険度を画像から判定する。画像に対して処理を実行する技術の1つが道路地形検出技術である。これまでの道路地形検出技術では、画像に対して車線検出のみが実行される場合、あるいは画像に対して歩道境界検出のみが実行される場合が多い。このような特定の物体に対する地形検出は高速に実行可能である。しかしながら、画像に含まれる歩行者、車両、ビル、建物等の検出精度は不十分である。また、車道への歩行者の飛び出しを予測するための予測技術では、車道あるいは歩道上に存在する歩行者を検出した場合、当該歩行者が自車両に飛び出すかの危険度を判定する。しかしながら、この処理は、画像中に歩行者を検出したことを前提とするので、遮蔽物から歩行者の飛び出しのような、画像中に歩行者が検出されない場合に危険度を判定できない。
これに対応するために、本実施例に係る運転支援装置は、画像に対して、次のような4段階の処理を実行する。第1段階では、カメラで撮像した画像(以下、「第1画像」という)に対してセマンティック・セグメンテーションを実行することによって、第1画像の画素毎に意味づけを実行する。これによって、第1画像に含まれた人物、他車両、道路、建物、信号機等毎に領域が認識される。その結果、人物領域、他車両領域、道路領域のようなカテゴリ毎にラベル付けがなされる。
第2段階では、ラベリングがなされた第1画像における道路領域を特定する。人物、他車両等の移動体が道路上に存在しない場合、道路領域は、建物領域、空領域に接しており、その境界は一般的に直線あるいは滑らかな曲線によって示される。一方、移動体が道路上に存在する場合、人物領域、他車両領域が道路領域に入り込んだエッジ部分が存在する。そのため、第2段階においてエッジ部分を検出する。これは、道路領域において不連続に接面が変化しているかを検出することに相当する。
第3段階では、1つのエッジ部分に対して、当該エッジ部分を含みながらサイズの異なった複数種類の画像を第1画像から抽出する。例えば、サイズの異なった4種類の画像を抽出する場合、これらの画像は、第2画像、・・・、第5画像と呼ばれる。第2画像、・・・、第5画像の画素数は第1画像の画素数よりも小さい。なお、第2画像、・・・、第5画像ではサイズだけなく、向きが異なっていてもよい。この処理は、エッジ部分毎になされる。
第4段階では、事前に注意対象とは何かを学習させておいたニューラルネットワークに、1つのエッジ部分における第2画像、・・・、第5画像のそれぞれを入力することによってディープラーニングを実行し、当該エッジ部分の危険度を導出する。例えば、危険度は、人物が飛び出してくる危険性がある車両と車両の隙間のエッジ部分、車道方向を向いた人物のエッジ部分があるほど高くなるように学習されている。また、第2画像、・・・、第5画像では、画像におけるエッジ部分の占有率が異なるので、エッジ部分を含む全体的な状況と、エッジ部分近傍の局所的な状況とが示される。これらをディープラーニングに使用するので、判定精度が向上する。この処理も、エッジ部分毎になされる。これらの4段階の処理において、道路上に駐車した車両間からの人物の飛び出しを予測可能である。
以下、本発明の実施例について、図面を参照して詳細に説明する。なお、以下に説明する各実施例は一例であり、本発明はこれらの実施例により限定されるものではない。
図1は、実施例に係る車両100の車室内を後方から見た構成を示す。車室内の前方には左右に延びるダッシュボード10が配置され、ダッシュボード10の上方にはフロントガラス12が配置される。また、フロントガラス12の上方から後方に向かって天井14が配置される。天井14のフロントガラス12側の部分から下方に向かってルームミラー16が設置される。さらに、フロントガラス12には、ルームミラー16の左側に運転支援装置20が設置される。運転支援装置20は、フロントガラス12において、ルームミラー16の右側に設置されてもよい。
図2は、運転支援装置20の構成を示す。運転支援装置20は、入力回路30、記憶装置32、CPU(Central Processing Unit)34、出力回路36を含む。また、運転支援装置20は前述のごとく車両100に設置される。
入力回路30は、例えば、カメラのような撮像装置を含む。入力回路30は、車両100の前方を撮像可能な位置に設けられ、動画像を撮像する。動画像は、逐次撮像された複数の第1画像によって構成される。各第1画像は第1画素数を備える。以下の説明では、1つの第1画像に対する処理を説明するが、他の第1画像に対しても同様の処理がなされればよい。入力回路30は、第1画像をCPU34に出力する。なお、入力回路30は、ユーザからの指示を受けつけるためのボタン、タッチパネル等のインターフェイスを含んでもよく、ユーザから受けつけた指示をCPU34に出力する。
記憶装置32は、各種データを記憶する。また、運転支援装置20がドライブレコーダの機能を有する場合、記憶装置32は、入力回路30からの第1画像をCPU34経由で逐次受けつけて記憶することによって、動画像を記憶する。
CPU34は、各種のコンピュータプログラムを実行する。なお、CPU34は、各種のコンピュータプログラムを格納するためのメモリに接続されてもよい。ここでは、CPU34において実行されるコンピュータプログラムによる処理を前述の第1段階から第4段階の順に説明する。
(1)第1段階
第1段階では、入力回路30からの第1画像を受けつける。図3(a)−(c)は、運転支援装置20の処理概要を示す。図3(a)は、第1画像40を示す。一例として、道路56の両側には、第1建物58と第2建物60とが建てられており、第1建物58と第2建物60との間には空64が配置される。また、道路56における第1建物58側には他車両54が駐車されるとともに、他車両54の近傍には第1人物50と第2人物52が存在する。さらに、道路56には信号機62が設置されている。図3(b)−(c)は後述し、図2に戻る。
第1段階では、入力回路30からの第1画像を受けつける。図3(a)−(c)は、運転支援装置20の処理概要を示す。図3(a)は、第1画像40を示す。一例として、道路56の両側には、第1建物58と第2建物60とが建てられており、第1建物58と第2建物60との間には空64が配置される。また、道路56における第1建物58側には他車両54が駐車されるとともに、他車両54の近傍には第1人物50と第2人物52が存在する。さらに、道路56には信号機62が設置されている。図3(b)−(c)は後述し、図2に戻る。
第1段階では、第1画像40に対して、セマンティック・セグメンテーションが実行される。セマンティック・セグメンテーションは画像セグメンテーションとも呼ばれる。これは、第1画像40に備えられる第1画素数の画素のそれぞれに対して、当該画素が示す意味をラベル付けする処理である。これは、各画素がどのクラスのオブジェクト、つまりどのカテゴリに属しているのかをラベル付けすることに相当する。
図3(b)は、図3(a)の第1画像40に対してセマンティック・セグメンテーションを実行した第1画像40を示す。図3(a)における他車両54、道路56、信号機62、空64は車両領域72、道路領域74、信号機領域78、空領域80とそれぞれラベル付けされる。また、図3(a)における第1人物50、第2人物52は人物領域70とラベル付けされ、図3(a)における第1建物58、第2建物60は建物領域76とラベル付けされる。図3(b)に示された第1画像40は、図3(a)に示された第1画像40に含まれる物体を認識し、物体をカテゴリ毎に分類し、分類したカテゴリ毎に色空間を変更することによって生成されたといえる。図3(c)は後述し、図2に戻る。
つまり、第1段階では、第1画像40において、少なくとも道路領域74と道路領域74以外の領域への区分がなされる。このようなセマンティック・セグメンテーション、つまり、道路領域74と道路領域74以外の領域との区分には、例えば、Fully Convolutional Neural Networkが使用される。
(2)第2段階
道路56上に物体が存在しない場合、ラベル付けした第1画像40(以下、これもまた「第1画像40」という)における道路領域74の境界は直線や滑らかな曲線で構成される。一方、危険を生み出すおそれのある第1人物50、第2人物52、他車両54、他車両54に隠れた人物が道路56上に存在する場合、これらのうちの少なくとも1つによって道路領域74の境界は歪んだ形状に変化する。道路領域74の境界における歪んだ形状は「エッジ部分」と呼ばれる。第2段階では、道路領域74に、道路領域74以外の領域から入り込んだエッジ部分を検出する。エッジ部分の検出は、道路領域74の境界を構成する線の所定区間において、線の形状が大きく変化している部分を特定することによってなされる。例えば、所定区間の線の微分値の変化がしきい値よりも大きくなっている部分にエッジ部分が検出される。
道路56上に物体が存在しない場合、ラベル付けした第1画像40(以下、これもまた「第1画像40」という)における道路領域74の境界は直線や滑らかな曲線で構成される。一方、危険を生み出すおそれのある第1人物50、第2人物52、他車両54、他車両54に隠れた人物が道路56上に存在する場合、これらのうちの少なくとも1つによって道路領域74の境界は歪んだ形状に変化する。道路領域74の境界における歪んだ形状は「エッジ部分」と呼ばれる。第2段階では、道路領域74に、道路領域74以外の領域から入り込んだエッジ部分を検出する。エッジ部分の検出は、道路領域74の境界を構成する線の所定区間において、線の形状が大きく変化している部分を特定することによってなされる。例えば、所定区間の線の微分値の変化がしきい値よりも大きくなっている部分にエッジ部分が検出される。
図3(c)は、図3(b)の第1画像40に対してエッジ部分90を検出した結果を示す。エッジ部分90は複数検出される場合もあり、ここでは、5つのエッジ部分90が検出されている。このようにエッジ部分90を検出する場合、人物領域70あるいは車両領域72が道路領域74に接しているか否かの正確な位置情報が必要になる。物体検出では、画素がどの物体に属しているかが不明であるので、人物領域70あるいは車両領域72が道路領域74に接しているか否かを正確に判定できない。第2段階を実行するために、第1段階における第1画像40のラベル付けが必要になる。図2に戻る。
(3)第3段階
第3段階では、検出されたエッジ部分90毎に、当該エッジ部分90を含んだ複数の画像が生成される。この処理を説明するために、ここでは、図4(a)−(b)を使用する。図4(a)−(b)は、運転支援装置20の別の処理概要を示す。図4(a)は、図3(c)と同様の第1画像40に相当する。図示のごとく、道路領域74の左側に車両領域72が配置されるとともに、車両領域72の近傍に人物領域70が配置される。ここでは、説明を明瞭にするために車両領域72の奥側に配置される人物領域70を第1人物領域70aと示し、車両領域72の手前側に配置される人物領域70を第2人物領域70bと示す。さらに、第1人物領域70aと道路領域74との境界において検出されたエッジ部分90が第1エッジ部分90aと示される。車両領域72と道路領域74との境界において検出されたエッジ部分90が第2エッジ部分90b、第3エッジ部分90cと示される。第2人物領域70bと道路領域74との境界において検出されたエッジ部分90が第4エッジ部分90dと示される。
第3段階では、検出されたエッジ部分90毎に、当該エッジ部分90を含んだ複数の画像が生成される。この処理を説明するために、ここでは、図4(a)−(b)を使用する。図4(a)−(b)は、運転支援装置20の別の処理概要を示す。図4(a)は、図3(c)と同様の第1画像40に相当する。図示のごとく、道路領域74の左側に車両領域72が配置されるとともに、車両領域72の近傍に人物領域70が配置される。ここでは、説明を明瞭にするために車両領域72の奥側に配置される人物領域70を第1人物領域70aと示し、車両領域72の手前側に配置される人物領域70を第2人物領域70bと示す。さらに、第1人物領域70aと道路領域74との境界において検出されたエッジ部分90が第1エッジ部分90aと示される。車両領域72と道路領域74との境界において検出されたエッジ部分90が第2エッジ部分90b、第3エッジ部分90cと示される。第2人物領域70bと道路領域74との境界において検出されたエッジ部分90が第4エッジ部分90dと示される。
第3段階では、図4(b)のごとく、第1エッジ部分90aを含み、かつ第1画素数より少ない第2画素数を備える第2画像42を第1画像40から抽出する。また、第3段階では、第3画像44から第5画像48も第1画像40から抽出する。第3画像44は第3画素数を備え、第4画像46は第4画素数を備え、第5画像48は第5画素数を備える。これらは、第1エッジ部分90aを含む。また、第3画素数から第5画素数は第1画素数よりも小さいが、それらは互いに異なる。つまり、第3段階では、第1エッジ部分90aを含みながら異なる画素数の第2画像42から第5画像48を切り出す。
第2画像42から第5画像48のうち、画素数の少ない画像では、当該画像における第1エッジ部分90aの占有率が大きくなるので、局所的な状況が示される。一方、第2画像42から第5画像48のうち、画素数の多い画像では、当該画像における第1エッジ部分90aの占有率が小さくなるので、全体的な状況が示される。ここでは、第1エッジ部分90aに対して、第2画像42から第5画像48の4種類の画像を抽出したが、4種類に限定されない。さらに、第3段階では、第2エッジ部分90bから第4エッジ部分90dに対しても同様の処理がなされる。つまり、第2画像42から第5画像48の抽出は、エッジ部分90毎になされる。図2に戻る。
(4)第4段階
第4段階を実行する前に、エッジ部分90が含まれたさまざまな状況の画像と、当該状況に対応付けられた危険度である教師付けデータとをもとに、学習処理がなされることによって学習結果が得られている。具体的には、画像をニューラルネットワークに入力することによって、教師付けデータが出力として得られるように、ニューラルネットワークの重みパラメータなどが学習結果として調整される。ここで、危険度は、衝突の蓋然性を示す指標であり、例えば、人物が飛び出してくる危険性がある車両と車両の隙間のエッジ部分90、車道方向を向いた人物のエッジ部分90があるほど、高くされる。
第4段階を実行する前に、エッジ部分90が含まれたさまざまな状況の画像と、当該状況に対応付けられた危険度である教師付けデータとをもとに、学習処理がなされることによって学習結果が得られている。具体的には、画像をニューラルネットワークに入力することによって、教師付けデータが出力として得られるように、ニューラルネットワークの重みパラメータなどが学習結果として調整される。ここで、危険度は、衝突の蓋然性を示す指標であり、例えば、人物が飛び出してくる危険性がある車両と車両の隙間のエッジ部分90、車道方向を向いた人物のエッジ部分90があるほど、高くされる。
これに続いて、第4段階では、第1エッジ部分90aに対する第2画像42から第5画像48のそれぞれと、学習結果とをもとに、ニューラルネットワークを利用して、第1エッジ部分90aに対する危険度を算出する。具体的には、第1エッジ部分90aに対する第2画像42から第5画像48のそれぞれを学習済みのニューラルネットワークに入力し、当該ニューラルネットワークから出力される危険度を取得する。ここでは、第1人物領域70aにおいて第1エッジ部分90aが検出され、足が道路領域74の方向を向いていることと、第1人物領域70aは車両領域72に隠れており見にくい位置にいるため危険性が大きいことが判定基準要素として使用される。このような要素毎に定義した配点で危険度の高さが算出され、例えば、「80」のように危険度が数値化される。
このような処理は、第2エッジ部分90bから第4エッジ部分90dのそれぞれに対してもなされる。第2エッジ部分90bに対して、車両領域72において奥側の第2エッジ部分90bが検出され、車両領域72の奥に存在する第1人物領域70aの歩行者の飛び出しが把握しにくく危険性が大きいことが判定基準要素として使用される。そのため、「60」のように危険度が数値化される。第3エッジ部分90cに対して、車両領域72において手前側の第3エッジ部分90cが検出され、車両領域72の手前に存在する第2人物領域70bの歩行者の飛び出しが把握しやすく危険性が小さいことが判定基準要素として使用される。そのため、「10」のように危険度が数値化される。
第4エッジ部分90dに対して、第2人物領域70bにおいて第4エッジ部分90dが検出され、足が道路領域74の方向を向いていることと、第2人物領域70bは車両領域72に隠れておらず見やすい位置にいるため危険性が小さいことが判定基準要素として使用される。そのため、「50」のように危険度が数値化される。第4段階では、例えば、しきい値が「60」に設定される。各エッジ部分90に対する危険度としきい値とが比較され、しきい値以上の危険度が危険と判定される。前述の場合に、しきい値を「60」と設置した場合、「80」の「車に隠れた歩行者」と「60」の「歩行者が飛び出しやすい車両陰」が危険と判定される。第4段階において危険と判定された場合、判定結果が出力回路36に通知される。
出力回路36は、例えば、音を放つスピーカを少なくとも含む。出力回路36は、CPU34からの通知を受けつけた場合、つまり算出された危険度がしきい値以上である場合、運転者に危険を知らせるための音声を出力する。音声は、危険を単に知らせるためのものであってもよく、危険の内容を具体的に知らせるためのものであってもよい。後者の場合、しきい値以上となった危険度の内容が音声として出力される。また、出力回路36は表示装置であってもよく、危険を知らせるための表示を実行する。
この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したが、これらの機能ブロックがハードウエアのみ、ハードウエアとソフトウエアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
以上の構成による運転支援装置20の動作を説明する。図5は、運転支援装置20による出力手順を示すフローチャートである。CPU34には第1画像40が入力される(S10)。CPU34はセマンティック・セグメンテーションを実行することによって、第1画像40にラベル付けを実行する(S12)。道路領域74に入り込んだエッジ部分90を検出しなければ(S14のN)、ステップ10に戻る。道路領域74に入り込んだエッジ部分90を検出すれば(S14のY)、CPU34は、第2画像42から第5画像48をエッジ部分90毎に抽出する(S16)。CPU34は、第2画像42から第5画像48のそれぞれをニューラルネットワークに入力することによって危険度を算出する(S18)。危険度がしきい値以上でなければ(S20のN)、ステップ10に戻る。危険度がしきい値以上であれば(S20のY)、出力回路36は危険であることを出力し(S22)、ステップ10に戻る。
次に、変形例を説明する。実施例において運転支援装置20に含まれたCPU34が第1段階から第4段階までの処理を実行している。しかしながら、運転支援装置20は、車両100の外部に設置されたサーバと無線通信することによって、第1段階から第4段階うちの少なくとも1つの処理がサーバにおいて実行されてもよい。図6は、変形例に係る運転支援システム200の構成を示す。運転支援システム200は、運転支援装置20、ネットワーク22、サーバ24を含む。運転支援装置20は、図2の構成に加えて、通信装置38を含む。
通信装置38は、CPU34に接続されるとともに、アンテナ部39を備え、アンテナ部39を介して無線通信機能を備える。無線通信の一例は、携帯電話通信であるが、これに限定されない。通信装置38は、運転支援装置20のアンテナ部39、基地局26のアンテナ部28、及びネットワーク22を介してサーバ24と通信することができる。
サーバ24は、第1段階から第4段階うちの少なくとも1つの処理を実行する。つまり、サーバ24は、CPU34においてなされる処理の一部を実行する。このようなサーバ24とCPU34とによる処理の分担を実現するために、サーバ24と通信装置38との間の通信が実行される。例えば、第1段階から第4段階のすべての処理をサーバ24が実行する場合、通信装置38はサーバ24に第1画像40を送信し、サーバ24は通信装置38に判定結果を送信する。
本実施例によれば、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出するので、道路領域に接している人物領域あるいは車両領域を特定できる。また、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。また、検出したエッジ部分を含んだ第2画像であって、第1画像よりも小さいサイズの第2画像を第1画像から抽出するので、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像を生成できる。また、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像をもとに、衝突の蓋然性を示す危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。また、道路領域に接している人物領域あるいは車両領域の周辺に着目した第2画像をニューラルネットワークに入力するので、危険度の算出精度を向上できる。
また、検出したエッジ部分を含みながら、サイズの異なる第2画像から第5画像のそれぞれをニューラルネットワークに入力するので、エッジ部分付近の局所的な状況と全体的な状況とを考慮して危険度を算出できる。また、エッジ部分付近の局所的な状況と全体的な状況とを考慮して危険度が算出されるので、危険度の算出精度を向上できる。また、危険度の算出性が向上するので、危険の判定精度を向上できる。また、カメラを含むので、第1画像を取得できる。また、スピーカを含むので、危険を知らせることができる。
本発明の一態様は、次の通りである。本発明のある態様の運転支援装置は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。
この態様によると、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、検出したエッジ部分を含んだ第2画像をもとに危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。
運転支援装置であって、入力回路は、少なくともカメラを含んでもよい。この場合、カメラを含むので、第1画像を取得できる。
運転支援装置であって、出力回路は、音を放つスピーカを少なくとも含んでもよい。この場合、スピーカを含むので、危険を知らせることができる。
運転支援装置であって、危険度は、衝突の蓋然性を示す指標であってもよい。この場合、衝突の蓋然性を示すので、移動体が検出されない場合でも危険が発生するおそれを知らせることができる。
運転支援装置であって、第1画像において道路領域と道路領域以外の領域に、ニューラルネットワークを利用して区分してもよい。この場合、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。
運転支援装置であって、エッジ部分を含む第2画像をもとに、ニューラルネットワークを利用して危険度を算出してもよい。この場合、ニューラルネットワークを利用するので、危険度の算出精度を向上できる。
運転支援装置であって、第2画像に加えて、さらに、エッジ部分を含み、かつ第1画素数より少なく、第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、第2画像および第3画像をもとに算出した危険度が所定の値以上である場合、出力回路は、所定の信号を出力してもよい。この場合、第3画像を使用するので、判定精度を向上できる。
運転支援装置であって、エッジ部分を含む第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、エッジ部分を含む第3画像と学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出してもよい。この場合、第3画像にもニューラルネットワークを利用するので、危険度の算出精度を向上できる。
本発明の別の態様は、運転支援方法である。この方法は、入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と道路領域以外の領域に区分し、第1画像において、道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、エッジ部分を含み、かつ第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、算出された危険度が所定の値以上である場合、出力回路は、所定の信号を出力する。
この態様によると、第1画像において区分した道路領域に、道路領域以外の領域から入り込んだエッジ部分を検出し、検出したエッジ部分を含んだ第2画像をもとに危険度を算出するので、移動体が検出されない場合でも危険度を判定できる。
運転支援方法であって、入力回路は、少なくともカメラを含んでもよい。この場合、カメラを含むので、第1画像を取得できる。
運転支援方法であって、出力回路は、音を放つスピーカを少なくとも含んでもよい。この場合、スピーカを含むので、危険を知らせることができる。
運転支援方法であって、危険度は、衝突の蓋然性を示す指標であってもよい。この場合、衝突の蓋然性を示すので、移動体が検出されない場合でも危険が発生するおそれを知らせることができる。
運転支援方法であって、第1画像において道路領域と道路領域以外の領域に、ニューラルネットワークを利用して区分してもよい。この場合、ニューラルネットワークを利用するので、道路領域と道路領域以外の領域への区分の精度を向上できる。
運転支援方法であって、エッジ部分を含む第2画像をもとに、ニューラルネットワークを利用して危険度を算出してもよい。この場合、ニューラルネットワークを利用するので、危険度の算出精度を向上できる。
運転支援方法であって、第2画像に加えて、さらに、エッジ部分を含み、かつ第1画素数より少なく、第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、第2画像および第3画像をもとに算出した危険度が所定の値以上である場合、出力回路は、所定の信号を出力してもよい。この場合、第3画像を使用するので、判定精度を向上できる。
運転支援方法であって、エッジ部分を含む第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、エッジ部分を含む第3画像と学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出してもよい。この場合、第3画像にもニューラルネットワークを利用するので、危険度の算出精度を向上できる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 ダッシュボード、 12 フロントガラス、 14 天井、 16 ルームミラー、 20 運転支援装置、 22 ネットワーク、 24 サーバ、 30 入力回路、 32 記憶装置、 34 CPU、 36 出力回路、 100 車両。
Claims (16)
- 入力回路と、出力回路とを備え、車両に設置可能な運転支援装置であって、
前記入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と前記道路領域以外の領域に区分し、
前記第1画像において、前記道路領域に、前記道路領域以外の前記領域から入り込んだエッジ部分を検出し、
前記エッジ部分を含み、かつ前記第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、
前記算出された危険度が所定の値以上である場合、前記出力回路は、所定の信号を出力する、
運転支援装置。 - 請求項1に記載の運転支援装置であって、
前記入力回路は、少なくともカメラを含む、
運転支援装置。 - 請求項1または2に記載の運転支援装置であって、
前記出力回路は、音を放つスピーカを少なくとも含む、
運転支援装置。 - 請求項1から3のいずれか1項に記載の運転支援装置であって、
前記危険度は、衝突の蓋然性を示す指標である、
運転支援装置。 - 請求項1から4のいずれか1項に記載の運転支援装置であって、
前記第1画像において前記道路領域と前記道路領域以外の前記領域に、ニューラルネットワークを利用して区分する、
運転支援装置。 - 請求項1から5のいずれか1項に記載の運転支援装置であって、
前記エッジ部分を含む前記第2画像をもとに、ニューラルネットワークを利用して前記危険度を算出する、
運転支援装置。 - 請求項6に記載の運転支援装置であって、
前記第2画像に加えて、さらに、前記エッジ部分を含み、かつ前記第1画素数より少なく、前記第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、
前記第2画像および前記第3画像をもとに算出した危険度が所定の値以上である場合、前記出力回路は、前記所定の信号を出力する、
運転支援装置。 - 請求項7に記載の運転支援装置であって、
前記エッジ部分を含む前記第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、前記エッジ部分を含む前記第3画像と前記学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出する、
運転支援装置。 - 入力回路と、出力回路とを備え、車両に設置可能な運転支援装置で利用可能な運転支援方法あって、
前記入力回路に入力される第1画素数を備える第1画像において、少なくとも道路領域と前記道路領域以外の領域に区分し、
前記第1画像において、前記道路領域に、前記道路領域以外の前記領域から入り込んだエッジ部分を検出し、
前記エッジ部分を含み、かつ前記第1画素数より少ない第2画素数を備える第2画像をもとに、危険度を算出し、
前記算出された危険度が所定の値以上である場合、前記出力回路は、所定の信号を出力する、
運転支援方法。 - 請求項9に記載の運転支援方法であって、
前記入力回路は、少なくともカメラを含む、
運転支援方法。 - 請求項9または10に記載の運転支援方法であって、
前記出力回路は、音を放つスピーカを少なくとも含む、
運転支援方法。 - 請求項9から11のいずれか1項に記載の運転支援方法であって、
前記危険度は、衝突の蓋然性を示す指標である、
運転支援方法。 - 請求項9から12のいずれか1項に記載の運転支援方法であって、
前記第1画像において前記道路領域と前記道路領域以外の前記領域に、ニューラルネットワークを利用して区分する、
運転支援方法。 - 請求項9から13のいずれか1項に記載の運転支援方法であって、
前記エッジ部分を含む前記第2画像をもとに、ニューラルネットワークを利用して前記危険度を算出する、
運転支援方法。 - 請求項14に記載の運転支援方法であって、
前記第2画像に加えて、さらに、前記エッジ部分を含み、かつ前記第1画素数より少なく、前記第2画素数と異なる第3画素数を備える第3画像を使用して、危険度を算出し、
前記第2画像および前記第3画像をもとに算出した危険度が所定の値以上である場合、前記出力回路は、前記所定の信号を出力する、
運転支援方法。 - 請求項15に記載の運転支援方法であって、
前記エッジ部分を含む前記第2画像と学習結果とをもとに、ニューラルネットワークを利用するとともに、前記エッジ部分を含む前記第3画像と前記学習結果とをもとに、ニューラルネットワークを利用することによって、危険度を算出する、
運転支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116224A JP2019003343A (ja) | 2017-06-13 | 2017-06-13 | 運転支援装置および運転支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116224A JP2019003343A (ja) | 2017-06-13 | 2017-06-13 | 運転支援装置および運転支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019003343A true JP2019003343A (ja) | 2019-01-10 |
Family
ID=65005879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017116224A Pending JP2019003343A (ja) | 2017-06-13 | 2017-06-13 | 運転支援装置および運転支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019003343A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020202741A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
JP2021103484A (ja) * | 2019-12-25 | 2021-07-15 | 株式会社デンソー | 車両用制御システムおよび車両制御装置 |
JP2021164034A (ja) * | 2020-03-31 | 2021-10-11 | 株式会社ユピテル | システム、プログラム、学習済みモデル、学習モデルの生成方法および生成装置等 |
-
2017
- 2017-06-13 JP JP2017116224A patent/JP2019003343A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020202741A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 |
JP2021103484A (ja) * | 2019-12-25 | 2021-07-15 | 株式会社デンソー | 車両用制御システムおよび車両制御装置 |
JP2021164034A (ja) * | 2020-03-31 | 2021-10-11 | 株式会社ユピテル | システム、プログラム、学習済みモデル、学習モデルの生成方法および生成装置等 |
JP7446605B2 (ja) | 2020-03-31 | 2024-03-11 | 株式会社ユピテル | システム、プログラム、学習済みモデル、学習モデルの生成方法および生成装置等 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107220581B (zh) | 通过后置摄像机的行人检测和运动预测 | |
US11606516B2 (en) | Image processing device, image processing method, and image processing system | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
CN108388834B (zh) | 利用循环神经网络和级联特征映射的对象检测 | |
CN109903310B (zh) | 目标跟踪方法、装置、计算机装置及计算机存储介质 | |
US10152649B2 (en) | Detecting visual information corresponding to an animal | |
CN109389863B (zh) | 提示方法及相关设备 | |
US11042999B2 (en) | Advanced driver assist systems and methods of detecting objects in the same | |
US10223910B2 (en) | Method and apparatus for collecting traffic information from big data of outside image of vehicle | |
US20180150704A1 (en) | Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera | |
US10121082B2 (en) | System and method for providing laser camera fusion for identifying and tracking a traffic participant | |
US20080166024A1 (en) | Image processing apparatus, method and program thereof | |
CN108725440A (zh) | 前向碰撞控制方法和装置、电子设备、程序和介质 | |
JP2019179372A (ja) | 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム | |
US20140002657A1 (en) | Forward collision warning system and forward collision warning method | |
JP2008172441A (ja) | 検出装置および方法、並びに、プログラム | |
JP2013061919A (ja) | 外界認識方法,装置,および車両システム | |
US11443622B2 (en) | Systems and methods for mitigating a risk of being followed by a vehicle | |
CN114424265B (zh) | 信号处理设备、信号处理方法、程序和移动设备 | |
JP2019003343A (ja) | 運転支援装置および運転支援方法 | |
CN113454692B9 (zh) | 驾驶信息提供方法以及车辆地图提供服务器和方法 | |
CN114677848B (zh) | 感知预警系统、方法、装置及计算机程序产品 | |
US12131551B2 (en) | Systems and methods for mitigating mis-detections of tracked objects in the surrounding environment of a vehicle | |
JP2008171141A (ja) | 画像処理装置および方法、並びに、プログラム | |
JP2015001966A (ja) | 物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180417 |