JP2011076214A - 障害物検出装置 - Google Patents
障害物検出装置 Download PDFInfo
- Publication number
- JP2011076214A JP2011076214A JP2009224711A JP2009224711A JP2011076214A JP 2011076214 A JP2011076214 A JP 2011076214A JP 2009224711 A JP2009224711 A JP 2009224711A JP 2009224711 A JP2009224711 A JP 2009224711A JP 2011076214 A JP2011076214 A JP 2011076214A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- road surface
- input image
- types
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【解決手段】障害物検出装置は、カメラで撮影した路面Rの入力画像(カラー静止画像)をフレームFに則して複数の領域に分割し、これら分割領域毎に入力ファクターとして平均輝度や平均彩度を抽出する。そして、入力ファクターに基づいて基準空間における距離を演算し、この距離が閾値を超える場合に障害物があると判定する。
【選択図】図7
Description
本発明の障害物検出装置は、所定の対象範囲を撮影するカメラと、このカメラにより撮影して得られた入力画像を用いて対象範囲内の障害物の有無を判定する制御手段とを備える。本発明において制御手段は、特に以下の手法により障害物の判定を行っている。なお、下記の(1)〜(3)の処理は、本発明の十分な開示のため便宜的に付したインデックスに過ぎず、ここで本発明の判定(検出)手法をこれらの手順ないしステップだけに限定する意図ではない。
制御手段は、カメラにより撮影された入力画像を分割した複数の分割領域毎に複数種類の入力ファクターを抽出(算出)する。ここで抽出する「入力ファクター」は、例えばカメラで撮影された入力画像を用いたデータ演算処理によって導き出すことができる。また、入力画像を複数の領域に分割することで、対象範囲についてより高精度な障害物の判定が可能となる。
次に制御手段は、抽出した複数種類の入力ファクターに基づき入力画像の分割領域毎に距離を演算する。ここで演算する「距離」は、障害物の判定に関して予め記憶した複数種類の基準ファクターにより形成される基準空間において、個々の分割領域毎にそれぞれの位置を当てはめた場合に得られる統計上の指標や尺度等となる値である。
制御手段は、演算した距離に基づき入力画像の分割領域毎に対象範囲内の障害物の有無を判定する。上記のように演算した「距離」は、今回の入力画像の各分割領域が基準空間においてどのような位置に存在するかを示すものである。このため例えば、演算した「距離」が予め設定しておいた閾値を超える場合は「障害物あり」と判定し、それ以外なら「障害物なし」と判定することができる。
図1は、障害物検出装置を車両10に搭載した場合の実施形態を示す概要図である。車両10は、ここでは普通自動車(乗用車)を例に挙げているが、トラックやバスに障害物検出装置を搭載することもできる。以下、車両10に搭載された障害物検出装置の構成について説明する。
障害物検出装置は、車両10の後部に搭載された後方カメラ12を備えている。この後方カメラ12は撮像素子(CCD、CMOS等)を有しており、例えば広角レンズを用いて車両10の後方を広範囲にわたって撮影することができる。後方カメラ12で撮影される対象範囲には、現在停車(駐車)している車両10の後方の路面Rが含まれる他、路上の空間や後方の遠景、場合によっては上空までをも含めることができる。ただし、後方カメラ12の撮影範囲(画角)をどの程度に設定するかは任意であり、少なくとも後方数メートル先までの路面Rやその上部の空間が撮影範囲に含まれていればよい。また車幅方向(水平方向)については、少なくとも車両10の全幅をカバーできる撮影範囲が確保されているものとする。
また障害物検出装置は、上記の後方カメラ12とともに制御ユニット14を備えている。この制御ユニット14は、例えばマイクロコンピュータとしてのハードウェアリソースを有するものであり、本実施形態では車載の電子コントロールユニット(ECU)をそのまま制御ユニット14として利用することができる。制御ユニット14は、上記の後方カメラ12で撮影された画像(デジタルデータ化された画像)を入力画像として処理する。なお、公知のように車載のECUには、プロセッサやメモリデバイス、周辺ICといった各種のコンピュータハードウェアが内蔵されているため、これらリソースを障害物検出装置の制御ユニット14として好適に活用することができる。
本実施形態のように障害物検出装置を車両10に適用する場合、車載の液晶ディスプレイ16を障害物検出装置の一部として活用することができる。この液晶ディスプレイ16には、上記の後方カメラ12で撮影された入力画像が表示される他、車載のECUに予め組み込まれている各種のサービス機能(例えばカーナビゲーション機能、AV管理機能、空調管理機能等)に関する操作メニュー等が表示されるものとなっている。
また障害物検出装置は、例えばシフト位置センサ18をその構成の一部として活用することもできる。シフト位置センサ18は、運転者によるシフトセレクタレバー20の操作状態に応じてそのときのシフト位置(「P」,「R」,「N」,「D」,「2」,「L」等)を表す信号(シフト位置信号)を出力する。本実施形態では主に、車両10の後方に位置する静止した障害物の検出を想定している。このため、運転者によりシフト位置が「R(後退)」に操作されたことをシフト位置信号に基づいて判断した場合、制御ユニット14は後方カメラ12による撮影機能や障害物検出機能をアクティブにすることができる。なおシフト位置センサ18には、車両10の電装部品をそのまま活用することができる。
さらに障害物検出装置は、例えば車載のスピーカ22をその構成の一部として活用することができる。本実施形態では、障害物検出装置により車両10の後方に位置する障害物を検出した場合、車室内の後部に設置されているスピーカ22から警報音を出力することができる。なおスピーカ22についても、車両10の電装部品をそのまま活用することができる。
次に、障害物検出装置による障害物の検出手法について説明する。図3は、後方カメラ12で撮影された画像を入力画像とし、これを複数の領域に分割するまでの処理を示す概要図である。
図3中(A):例えば、車両10の運転者がシフトセレクタレバー20を「R(後退)」に操作すると、制御ユニット14が後方カメラ12の撮影機能を起動することで、後方カメラ12により車両10の後方が撮影される。このとき撮影される画像には、車両10がこれから後進(バック)しようとする方向の路面Rが含まれる他、その周辺環境の様子が含まれている。いずれにしても制御ユニット14は、後方カメラ12で撮影された画像を入力画像として処理する。
図3中(B):制御ユニット14の処理部30は、入力画像を複数の領域(例えば16個)に分割する処理を行う。このとき分割される範囲は、入力画像の中で車両10の数メートル後方までの路面Rが映っている部分に設定されている。このため図3中(B)には、画像処理上で分割される範囲が台形状のフレームFで示されるとともに、その内側に16個の分割領域が区画して示されている。この例では、後方カメラ12と路面Rとの位置関係やその画角との関係から、入力画像中で車両10が後進する際の進路に該当する範囲に合わせてフレームFが台形状に設定されているが、フレームFは例えば入力画像全体の外形に沿った矩形状であってもよい。
一方で障害物検出装置は、予め上記の入力画像とは別に用意された複数の基準画像に基づく事前処理を行っている。具体的には、(1)複数の基準画像の取り込み、(2)各基準画像の分割、そして(3)基準ファクターの抽出である。以下、事前処理について具体的に説明する。
特に図示していないが、基準画像には例えば同種の舗装路(アスファルトの表面が多く露出している路面)を複数の場所や様々な環境下(明るさや天候、時間帯等が異なる条件下)で、かつ、障害物が存在しない状態で撮影したものを用いることができる。ここでは例として、m枚の画像(例えば10枚)を後方カメラ12で撮影したものを基準画像S1〜Smとして制御ユニット14に取り込むものとする。なお、基準画像の取り込みを含む以下の事前処理は、制御ユニット14とは別のコンピュータ機器を用いて行ってもよい。
図4は、m枚の基準画像S1〜Smについて、それぞれをフレームF内でn個の領域に分割する事前処理を示した概念図である。この事前処理では、取り込んだ基準画像Si(i=1〜m)のそれぞれを、さらにn個(この例では16個)の領域Si1〜Sinに分割する。分割領域の序列は、例えばフレームF内の左上隅をスタート地点として行方向に進み、各行の右端位置で折り返して下段に進むものとする。したがって、例えば1枚目の基準画像S1であれば、フレームF内の左上隅に分割領域S11を有し、右下隅に分割領域S116を有する。つまり任意の基準画像Siであれば、フレームF内に任意の分割領域Sijを有することになり、m枚目の基準画像Smであれば、フレームF内の右下隅に分割領域Smnを有することになる。
各基準画像Siについて、それぞれ分割領域Sij内に含まれるT個の画素から複数種類の基準ファクターxij,yij(2種類の場合)を計算により抽出する。このうち一方の基準ファクターxijは例えば分割領域Sij内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターyijは例えば分割領域Sij内の画素の平均彩度を示すファクターである。ここで抽出される複数種類の基準ファクターxij,yijの組の数は、全m枚の基準画像についてm×n個(この例では全部で160組)となる。
先ず、分割領域Sij内の画素の平均輝度xijは、例えば以下の式(1)から計算することができる。
xij=Σ(0.299R+0.587G+0.114B)/T ・・・(1)
上式(1)において、
R:各画素のR成分の値
G:各画素のG成分の値
B:各画素のB成分の値
T:分割領域内の全画素数
である。
次に分割領域Sij内の画素の平均彩度yijは、例えば以下の式(2)から計算することができる。
yij=Σ√[{(R−Y)/1.14}2+{(B−Y)/2.03}2]/T ・・・(2)
上式(2)において、
Y:分割領域Sijの平均輝度
R:各画素のR成分の値
B:各画素のB成分の値
T:分割領域内の全画素数
である。
先ず平均輝度の平均x_aveは、例えば以下の式(3)から計算することができる。
x_ave=Σx/n ・・・(3)
上式(3)において、
x:平均輝度xij(i=1〜m,j=1〜n)
m:基準画像枚数(=10)
n:分割領域数(=16)
である。
〔平均彩度の平均:y_ave〕
また平均彩度の平均y_aveは、例えば以下の式(4)から計算することができる。
y_ave=Σy/n ・・・(4)
上式(4)において、
y:平均彩度yij(i=1〜m,j=1〜n)
m:基準画像枚数(=10)
n:分割領域数(=16)
である。
次に平均輝度の分散x_sigmaは、例えば以下の式(5)から計算することができる。
x_sigma=Σ(x−x_ave)2/n ・・・(5)
上式(5)において、
x:平均輝度xij(i=1〜m,j=1〜n)
n:分割領域数(=16)
である。
また平均彩度の分散y_sigmaは、例えば以下の式(6)から計算することができる。
y_sigma=Σ(y−y_ave)2/n ・・・(6)
上式(6)において、
y:平均輝度yij(i=1〜m,j=1〜n)
n:分割領域数(=16)
である。
xy_sigma=Σ(x−x_ave)・(y−y_ave)/n ・・・(7)
次に、実際の入力画像(例えば図3)を用いて静止した障害物を検出する手法について説明する。制御ユニット14の処理部30は、例えば以下の処理を通じて障害物の検出を行うことができる。
処理部30は、上記のように後方カメラ12で撮影された入力画像を取り込む。ここでは入力画像として、図3中(A)に示されている舗装路面の画像を取り込むものとする。
また処理部30は、入力画像を複数の領域に分割する処理を行う。ここでは図3中(B)に示されるフレームFに則して入力画像の一部をn(=16)個の領域に分割するものとする。
次に処理部30は、入力画像についての分割領域aj(j=1〜n)内に含まれるT個の画素(画素数は分割領域ajにより異なる)から、複数種類の入力ファクターxj,yjを計算により抽出する。このうち一方の入力ファクターxjは、入力画像について分割領域aj内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターyjは例えば分割領域aj内の画素の平均彩度を示すファクターである。なお入力ファクターxjの計算には上式(1)の右辺、入力ファクターyjの計算には上式(2)の右辺をそれぞれ適用することができる。ここで抽出される複数種類の入力ファクターxj,yjの組の数は、今回の入力画像についてn個(この例では全部で16組)となる。
次に処理部30は、抽出した入力ファクターxj,yjの組に基づき分割領域aj毎のマハラノビス距離Djを演算する。分割領域aj毎のマハラノビス距離Djは、予め記憶されている基準ファクターxij,yijの組により形成されるマハラノビス空間において、各分割領域ajがどのような位置付けとなるかを示す尺度ないし指標となるものである。マハラノビス距離Djは、例えば以下の計算式(8)により演算することができる。
図5は、分割領域aj毎に演算されたマハラノビス距離Djを用いた障害物判定の手法を示す概念図である。
図5中(A):ここには、分割領域aj(a1〜a16)毎に演算されたマハラノビス距離Djの内部解析画像の例を示している。各分割領域aj内に示されている縦長のバー(棒図形)の長さは、分割領域aj毎のマハラノビス距離Djに相当する。このように処理部30による障害物判定の過程では、例えばその内部メモリ空間上で各分割領域ajのマハラノビス距離Djを仮想的にプロットし、1つの入力画像を分割領域aj毎に解析することができる。
図5中(B):ここには、分割領域aj毎に演算したマハラノビス距離Djの結果を一覧にして示している。また縦軸上には、障害物の判定に用いられる閾値Bを合わせて示している。処理部30による障害物の判定は、例えば各分割領域ajのマハラノビス距離Djが閾値Bを超えるか否かによって行うことができる。この例では、いずれの分割領域ajについてもマハラノビス距離Djが閾値Bを超えていないため、今回の入力画像からは障害物が検出されなかった(障害物がない)と判定することができる。なお閾値Bは、障害物が存在しない状態で撮影された多くのサンプル画像に基づき統計的に設定することができる。
図6は、マハラノビス空間を用いた解析例を図解して示す概念図である。上記のように、予め基準ファクターxij,yijとして平均輝度及び平均彩度を記憶部32に記憶しておくことにより、処理部30による内部解析上で仮想的にマハラノビス空間(この例では二次元空間)を形成することができる。
図7は、後方カメラ12で撮影された別の入力画像と、これを複数の領域に分割するまでの処理を示す概要図である。
図7中(A):ここでも同様に、車両10の運転者がシフトセレクタレバー20を「R(後退)」に操作すると、制御ユニット14が後方カメラ12の撮影機能を起動することで、後方カメラ12により車両10の後方が撮影される。このとき車両10の後方に各種の障害物BX,CNが存在していた場合、入力画像には、車両10がこれから後進(バック)しようとする方向の路面Rとともに障害物BX,CNが含まれる。
図7中(B):いずれにしても、処理部30は同様に入力画像を複数の分割領域aj(j=1〜n)に分割する処理を行う。この例では、ある1つの分割領域内に1つの障害物CNの輪郭全体が収まっている様子が示されているが、通常多くは障害物BXのように、その輪郭が複数の分割領域にまたがっていたり、フレームFから一部がはみ出ていたりする。
図8中(A):上記のように、障害物BX,CNが含まれている分割領域(例えば分割領域a3,a4,a7,a10等)では、いずれもマハラノビス距離が他の分割領域に比較して突出していることがわかる。なお図8中(A)では、縦長のバーが画像枠からはみ出た部分を破線で示している。
図8中(B):この場合、分割領域a3,a4,a10のマハラノビス距離D3,D4,D10がいずれも閾値Bを超えるため、処理部30による内部解析では、これら分割領域a3,a4,a10内に障害物が存在する(映り込んでいる)と判定することができる。それ以外の分割領域ではマハラノビス距離Djが閾値Bを超えていないものの、いずれかの分割領域aj内(つまりフレームF内)に障害物が存在すると判定した場合、処理部30は今回の入力画像から障害物が検出されたと最終的に判定する。
図9は、障害物が存在する場合のマハラノビス空間を用いた解析例を図解して示した概念図である。マハラノビス空間において、今回のように対象範囲内に障害物(BX,CN等)が存在する状態で撮影された入力画像(図7)の場合、マハラノビス空間を用いた解析結果は、実際に障害物が含まれている分割領域a3,a4,a10についてのドットが標準的なグループ(SG)の広がりよりも外側に大きくはみ出た状態となる。これはつまり、分割領域a3,a4,a10についてマハラノビス距離D3,D4,D10(それぞれ点線の矢印で示す)が標準的なグループから大きくかけ離れていることを意味する。したがってこの場合、これら分割領域a3,a4,a10内に障害物が存在する(画像に映り込んでいる)と判定することができる。
図10は、後方カメラ12で砂利道を撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。すなわち、ここでは路面Rの種類に例えば「舗装路」及び「砂利道」の2種類が含まれることを想定し、このうち「砂利道」が入力画像として撮影された場合を例に挙げている。
図10中(A):例えば、車両10が砂利道に停車(駐車)している状態で運転者がシフトセレクタレバー20を「R(後退)」に操作すると、後方カメラ12により車両10の後方が撮影される。このとき入力画像中には、その大部分に砂利道の表面(路面R)が灰色っぽい画像として映っており、その中に砂利や石塊等が点在して映っている。また入力画像中の右上には、例えばブロック塀が白っぽい画像として映っている。なおフレームFを用いた入力画像の分割についてはこれまでの処理と同様である。
図10中(B):ここでも同様に、分割領域aj(a1〜a16)毎に演算されたマハラノビス距離Djの内部解析画像の例を示している。特に障害物が存在していなければ、路面Rの種類が砂利道に該当する場合についても、マハラノビス距離Djは上記の閾値Bを超えることはない。
図11は、路面Rの種類が未知である入力画像から路面種類を設定する手法を図解した概要図である。
いずれにしても、路面Rの種類が未知である入力画像を取り込むと、ひとまず処理部30は、その分割領域aj毎に入力ファクターxj,yjを抽出した後、これら入力ファクターxj,yjに基づいて路面種類毎にマハラノビス距離Dkjを演算する。なお、路面種類毎のマハラノビス距離Dkjは、上式(8)において平均(x_ave,y_ave)や分散(x_sigma,y_sigma)、共分散(xy_sigma)等の諸変数を路面種類別に代入することで演算することができる。
図12は、路面R上に障害物がある砂利道を後方カメラ12で撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。ここまでの処理において、処理部30は今回の入力画像に基づき路面Rの種類を「砂利道」に設定しているものとする。
図12中(A):車両10の後方に障害物BXが存在していた場合、入力画像には、車両10がこれから後進(バック)しようとする方向の路面Rとともに障害物BXが含まれる。このため入力画像中には、障害物BXが明るく色彩の強い画像として映っている。なお、フレームFを用いた入力画像の分割については、これまでの処理と同様に行われる。
図12中(B):処理部30は、入力画像から抽出した入力ファクターxj,yjに基づき、設定した「砂利道」についての基準ファクターxij,yijを記憶部32から読み出してマハラノビス距離Djを演算する。その結果、障害物BXが含まれている分割領域a1,a2,a5,a6では、いずれもマハラノビス距離D1,D2,D5,D6が他の分割領域に比較して突出した状態となる。そして処理部30は、これらマハラノビス距離D1,D2,D5,D6が閾値Bを超える場合、分割領域a1,a2,a5,D6内に障害物が存在する(映り込んでいる)と判定することができる。これにより処理部30は、今回の入力画像から障害物が検出されたと最終的に判定することができる。
図13は、多数の路面種類に対応した障害物検出処理の手順例を示すフローチャートである。例えば車両10のメインスイッチONに伴い、制御ユニット14の処理部30は定期的に(例えば割込処理として)この障害物検出処理を実行する。以下、障害物検出処理の内容を手順例に沿って説明する。
ステップS16:次に処理部30は、画像分割処理を実行する。この処理では、処理部30は入力画像を複数の領域に分割する。具体的な分割処理の手法は、例えば図4に示されるフレームFに則した分割領域の例とともに説明したとおりである。
ステップS18:画像分割処理から復帰すると、次に処理部30は領域別抽出処理を実行する。この処理では、処理部30は複数の分割領域毎に上記の入力ファクターxj,yjを計算により抽出する。ここでも、入力ファクターxjの計算には上式(1)の右辺、入力ファクターyjの計算には上式(2)の右辺をそれぞれ適用することができる。
ステップS20:領域別演算処理から復帰すると、処理部30は路面種類設定処理を実行する。この処理では、処理部30は記憶部32に記憶されている路面種類毎の基準ファクターxij,yijに基づいて分割領域毎のマハラノビス距離を演算し、その中で最も距離が短くなる路面種類を設定する。複数の路面種類からいずれか1つの種類を設定する手法は、例えば図11に示される例とともに説明したとおりである。ただし、ここでは一般化に適した事前処理を例に挙げて路面種類の設定手法について説明する。
特に図示していないが、事前処理として上記の「舗装路」や「砂利道」の他、「農道」や「山道」、「林道」等のR種類(例えば10種類)の路面を複数の場所や様々な環境下で、かつ、障害物が存在しない状態で撮影した複数枚の基準画像を取り込む。なお基準画像は、例えば「舗装路」については10枚、「砂利道」については20枚といったように、各路面種類別にmk枚(k=1〜R)が用意されているものとする。
また事前処理として、取り込んだ路面種類別の基準画像Ski(i=1〜m)のそれぞれを、さらにn個(例えば16個)の領域Ski1〜Skinに分割する。なお分割の手法は、例えば図4の例を用いて既に説明したとおりである。また各分割領域Skijには、T個の画素(例えば平均して100個程度)が含まれるものとする。
路面種類別の各基準画像Skiについて、それぞれ分割領域Skij内に含まれるT個の画素から複数種類の基準ファクターxkij,ykij(2種類の場合)を計算により抽出する。このうち一方の基準ファクターxkijは例えば分割領域Skij内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターykijは例えば分割領域Skij内の画素の平均彩度を示すファクターである。ここで抽出される複数種類の基準ファクターxkij,yikjの組の数は、路面種類毎にそれぞれm枚の基準画像についてm×n個(例えば「舗装路」が160組、「砂利道」が320組等)となる。なお、平均輝度xkij、平均彩度ykijはそれぞれ上式(1),(2)を用いて計算することができる。
その上で処理部30は、今回の入力画像について計算した入力ファクターxj,yijに基づき、分割領域aj毎にマハラノビス距離Dkj(k=1〜R)を演算する。計算式は上式(8)になぞらえて、例えば以下の一般式(9)を用いるものとする。
そして処理部30は、演算結果Dkj2(k=1〜R)のうち、最も小さい値となる路面種類kを今回の入力画像に映っている路面の種類として設定する。これにより、今回の入力画像について路面種類が1つに特定される結果、分割領域aj毎のマハラノビス距離Djが改めて確定した状態となる。
ステップS24:処理部30は、ここで警報出力処理を実行する。この処理では、処理部30は上記の音響出力部36に対して警報音の出力コマンドを発行する。これを受けて音響出力部36は、スピーカ22を駆動して実際に警報音を出力させる。このとき警報音は、車室内の後方位置から運転席に向かって発せられるため、直感的にも運転者が車両10の後方に障害物が存在することを認識しやすくなる。
ここまでに説明した障害物検出手法の第1例及び第2例では、ファクターとして平均輝度と平均彩度の2種類を用いているが、以下のようなファクターを用いて障害物の検出を行ってもよい。
g_ave=ΣG/n ・・・(11)
b_ave=ΣB/n ・・・(12)
rg_sigma=Σ(R−r_ave)・(G−g_ave)/n ・・・(13)
gb_sigma=Σ(G−g_ave)・(B−b_ave)/n ・・・(14)
rb_sigma=Σ(R−r_ave)・(B−b_ave)/n ・・・(15)
上式(10)〜(15)において、
R:各画素のR成分の値
G:各画素のG成分の値
B:各画素のB成分の値
である。
12 後方カメラ
14 制御ユニット
16 液晶ディスプレイ
18 シフト位置センサ
20 シフトセレクタレバー
22 スピーカ
30 処理部
32 記憶部
Claims (3)
- 所定の対象範囲を撮影するカメラと、
前記カメラにより撮影して得られた入力画像を用いて前記対象範囲内の障害物の有無を判定する制御手段とを備え、
前記制御手段は、
前記入力画像を分割した複数の分割領域毎に複数種類の入力ファクターを抽出するとともに、
前記入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割した分割領域毎に抽出して得た複数種類の基準ファクターを予め記憶しておき、これら複数種類の基準ファクターにより形成される基準空間における前記入力画像の分割領域毎の距離を前記複数種類の入力ファクターに基づき演算し、
前記演算した距離に基づき前記入力画像の分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。 - 請求項1に記載の障害物検出装置において、
前記制御手段は、
前記複数種類の基準ファクターにより形成されるマハラノビス空間を前記基準空間として、前記マハラノビス空間における前記入力画像の分割領域毎のマハラノビス距離を前記基準空間における距離として演算し、
前記マハラノビス距離に基づき前記入力画像の分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。 - 請求項1又は2に記載の障害物検出装置において、
前記制御手段は、
前記対象範囲に含まれる複数の路面種類のそれぞれについて、前記入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割し、これら分割領域毎に抽出して得られた複数種類の基準ファクターを予め前記複数の路面種類毎に記憶しておき、前記複数の路面種類毎に前記基準空間における前記入力画像の分割領域毎の距離を前記複数種類の入力ファクターに基づき演算し、この演算した距離に基づいて前記対象範囲に含まれる路面種類を設定し、
前記設定した路面種類について演算した距離に基づき前記分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009224711A JP2011076214A (ja) | 2009-09-29 | 2009-09-29 | 障害物検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009224711A JP2011076214A (ja) | 2009-09-29 | 2009-09-29 | 障害物検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011076214A true JP2011076214A (ja) | 2011-04-14 |
Family
ID=44020165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009224711A Withdrawn JP2011076214A (ja) | 2009-09-29 | 2009-09-29 | 障害物検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011076214A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168098A (ja) * | 2011-02-16 | 2012-09-06 | Aisin Aw Co Ltd | 撮影位置特定システム、撮影位置特定プログラム、及び撮影位置特定方法 |
KR101316501B1 (ko) * | 2011-10-14 | 2013-10-10 | 현대자동차주식회사 | 메쉬형 공간 해석기법을 이용한 주차 공간 탐지방법 및 그 시스템 |
CN104331910A (zh) * | 2014-11-24 | 2015-02-04 | 沈阳建筑大学 | 一种基于机器视觉的轨道障碍物检测系统 |
JP2016223915A (ja) * | 2015-05-29 | 2016-12-28 | Kyb株式会社 | 監視装置 |
JP2017005468A (ja) * | 2015-06-09 | 2017-01-05 | 富士通テン株式会社 | 画像処理装置および画像処理方法 |
JP2018017101A (ja) * | 2016-07-29 | 2018-02-01 | エヌ・ティ・ティ・コムウェア株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2019125969A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社東芝 | 画像伝送システム、監視装置および画像伝送方法 |
JP2020501281A (ja) * | 2016-12-19 | 2020-01-16 | 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. | 障害物検出方法及び装置 |
CN113734048A (zh) * | 2020-05-29 | 2021-12-03 | 广州汽车集团股份有限公司 | 一种倒车预警方法和装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06288936A (ja) * | 1993-04-06 | 1994-10-18 | Fujikura Ltd | 異物検査方法 |
JP2000149026A (ja) * | 1998-11-16 | 2000-05-30 | Dainippon Printing Co Ltd | 画像トリミング装置 |
JP2000306191A (ja) * | 1999-04-16 | 2000-11-02 | Matsushita Electric Ind Co Ltd | 領域分割および対象物抽出装置 |
JP2002140789A (ja) * | 2000-10-31 | 2002-05-17 | Natl Inst For Land & Infrastructure Management Mlit | 路面状況判定装置 |
JP2003344163A (ja) * | 2002-05-23 | 2003-12-03 | Ohbayashi Corp | 石材の分類方法およびこの石材の分類方法を用いた構造物の製造方法 |
JP2004034946A (ja) * | 2002-07-08 | 2004-02-05 | Toyota Motor Corp | 画像処理装置、駐車支援装置、及び画像処理方法 |
JP2004251886A (ja) * | 2003-01-28 | 2004-09-09 | Nissan Motor Co Ltd | 周囲物体検出装置 |
JP2004274431A (ja) * | 2003-03-10 | 2004-09-30 | Fujitsu Ltd | 路面状況判定方法および装置 |
JP2005353101A (ja) * | 2005-08-25 | 2005-12-22 | Ricoh Co Ltd | 画像特徴抽出方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2006260310A (ja) * | 2005-03-17 | 2006-09-28 | Kyushu Institute Of Technology | 物品判別方法および物品判別装置ならびにプログラム |
JP2006268820A (ja) * | 2004-11-02 | 2006-10-05 | Matsushita Electric Ind Co Ltd | 画像識別方法、画像処理方法、画像識別装置、画像識別プログラムおよび集積回路 |
JP2007164737A (ja) * | 2005-12-16 | 2007-06-28 | Mitsubishi Heavy Ind Ltd | 色識別方法 |
JP2008544334A (ja) * | 2005-06-27 | 2008-12-04 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | シーンをモデル化する方法 |
-
2009
- 2009-09-29 JP JP2009224711A patent/JP2011076214A/ja not_active Withdrawn
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06288936A (ja) * | 1993-04-06 | 1994-10-18 | Fujikura Ltd | 異物検査方法 |
JP2000149026A (ja) * | 1998-11-16 | 2000-05-30 | Dainippon Printing Co Ltd | 画像トリミング装置 |
JP2000306191A (ja) * | 1999-04-16 | 2000-11-02 | Matsushita Electric Ind Co Ltd | 領域分割および対象物抽出装置 |
JP2002140789A (ja) * | 2000-10-31 | 2002-05-17 | Natl Inst For Land & Infrastructure Management Mlit | 路面状況判定装置 |
JP2003344163A (ja) * | 2002-05-23 | 2003-12-03 | Ohbayashi Corp | 石材の分類方法およびこの石材の分類方法を用いた構造物の製造方法 |
JP2004034946A (ja) * | 2002-07-08 | 2004-02-05 | Toyota Motor Corp | 画像処理装置、駐車支援装置、及び画像処理方法 |
JP2004251886A (ja) * | 2003-01-28 | 2004-09-09 | Nissan Motor Co Ltd | 周囲物体検出装置 |
JP2004274431A (ja) * | 2003-03-10 | 2004-09-30 | Fujitsu Ltd | 路面状況判定方法および装置 |
JP2006268820A (ja) * | 2004-11-02 | 2006-10-05 | Matsushita Electric Ind Co Ltd | 画像識別方法、画像処理方法、画像識別装置、画像識別プログラムおよび集積回路 |
JP2006260310A (ja) * | 2005-03-17 | 2006-09-28 | Kyushu Institute Of Technology | 物品判別方法および物品判別装置ならびにプログラム |
JP2008544334A (ja) * | 2005-06-27 | 2008-12-04 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | シーンをモデル化する方法 |
JP2005353101A (ja) * | 2005-08-25 | 2005-12-22 | Ricoh Co Ltd | 画像特徴抽出方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2007164737A (ja) * | 2005-12-16 | 2007-06-28 | Mitsubishi Heavy Ind Ltd | 色識別方法 |
Non-Patent Citations (2)
Title |
---|
CSNG200000966023; 山田 宗男、外3名: '"画像情報による路面状態の判別"' 情報処理学会論文誌 Vol.38, No.12, 19971215, p.2648-2655, 社団法人情報処理学会 * |
JPN6013009612; 山田 宗男、外3名: '"画像情報による路面状態の判別"' 情報処理学会論文誌 Vol.38, No.12, 19971215, p.2648-2655, 社団法人情報処理学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168098A (ja) * | 2011-02-16 | 2012-09-06 | Aisin Aw Co Ltd | 撮影位置特定システム、撮影位置特定プログラム、及び撮影位置特定方法 |
KR101316501B1 (ko) * | 2011-10-14 | 2013-10-10 | 현대자동차주식회사 | 메쉬형 공간 해석기법을 이용한 주차 공간 탐지방법 및 그 시스템 |
CN104331910A (zh) * | 2014-11-24 | 2015-02-04 | 沈阳建筑大学 | 一种基于机器视觉的轨道障碍物检测系统 |
JP2016223915A (ja) * | 2015-05-29 | 2016-12-28 | Kyb株式会社 | 監視装置 |
JP2017005468A (ja) * | 2015-06-09 | 2017-01-05 | 富士通テン株式会社 | 画像処理装置および画像処理方法 |
JP2018017101A (ja) * | 2016-07-29 | 2018-02-01 | エヌ・ティ・ティ・コムウェア株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2020501281A (ja) * | 2016-12-19 | 2020-01-16 | 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. | 障害物検出方法及び装置 |
US10997438B2 (en) | 2016-12-19 | 2021-05-04 | Cloudminds (Shanghai) Robotics Co., Ltd. | Obstacle detection method and apparatus |
JP2019125969A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社東芝 | 画像伝送システム、監視装置および画像伝送方法 |
CN113734048A (zh) * | 2020-05-29 | 2021-12-03 | 广州汽车集团股份有限公司 | 一种倒车预警方法和装置 |
CN113734048B (zh) * | 2020-05-29 | 2024-05-07 | 广州汽车集团股份有限公司 | 一种倒车预警方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11606516B2 (en) | Image processing device, image processing method, and image processing system | |
JP2011076214A (ja) | 障害物検出装置 | |
US10449899B2 (en) | Vehicle vision system with road line sensing algorithm and lane departure warning | |
US10078789B2 (en) | Vehicle parking assist system with vision-based parking space detection | |
US8766816B2 (en) | System for monitoring the area around a vehicle | |
US8988276B2 (en) | Vehicle surroundings monitoring device | |
JP6176028B2 (ja) | 車両制御システム、画像センサ | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
US9619716B2 (en) | Vehicle vision system with image classification | |
JP4173902B2 (ja) | 車両周辺監視装置 | |
JP5648655B2 (ja) | 対象物識別装置 | |
US11532233B2 (en) | Vehicle vision system with cross traffic detection | |
JP6376429B2 (ja) | 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体 | |
JP5171723B2 (ja) | 障害物検知装置、および当該装置を搭載した車両 | |
CN104952254A (zh) | 车辆识别方法、装置和车辆 | |
WO2005036371A2 (en) | Moving object detection using low illumination depth capable computer vision | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
WO2009101660A1 (ja) | 車両周辺監視装置、車両、車両周辺監視プログラム | |
JP2007241898A (ja) | 停止車両分別検出装置および車両の周辺監視装置 | |
JP5457224B2 (ja) | 路面状態検出装置 | |
WO2010007718A1 (ja) | 車両周辺監視装置 | |
JP4972116B2 (ja) | 車両の周辺監視装置 | |
JP4813304B2 (ja) | 車両周辺監視装置 | |
US20200118280A1 (en) | Image Processing Device | |
JP6847709B2 (ja) | カメラ装置、検出装置、検出システムおよび移動体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120405 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131112 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20131126 |