JP2002099906A - 物体認識装置 - Google Patents
物体認識装置Info
- Publication number
- JP2002099906A JP2002099906A JP2000288953A JP2000288953A JP2002099906A JP 2002099906 A JP2002099906 A JP 2002099906A JP 2000288953 A JP2000288953 A JP 2000288953A JP 2000288953 A JP2000288953 A JP 2000288953A JP 2002099906 A JP2002099906 A JP 2002099906A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- detection
- detected
- reliability
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 claims abstract description 166
- 238000000034 method Methods 0.000 claims description 95
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000002485 combustion reaction Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 35
- 238000012545 processing Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 238000012797 qualification Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000005484 gravity Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 102100028780 AP-1 complex subunit sigma-2 Human genes 0.000 description 1
- 101100055680 Homo sapiens AP1S2 gene Proteins 0.000 description 1
- 101001024616 Homo sapiens Neuroblastoma breakpoint family member 9 Proteins 0.000 description 1
- 102100037013 Neuroblastoma breakpoint family member 9 Human genes 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000011089 mechanical engineering Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
(57)【要約】
【課題】 検出方式が異なる2種類の検出手段を用い
て、監視すべき物体を高精度且つ高確度に認識する。 【解決手段】 距離センサ(LR)1と画像センサ(I
R)2とによってそれぞれ検出された先行車両の位置、
速度の相関関係を表わす値と、それぞれ算出された位置
及び速度の信頼性に関する値を算出する(S11, S12)と共
に、算出した値に基づくセンサフュージョンにより、そ
れら車両が、監視対象である1つの車両であるか否かを
判断する(S13)。
て、監視すべき物体を高精度且つ高確度に認識する。 【解決手段】 距離センサ(LR)1と画像センサ(I
R)2とによってそれぞれ検出された先行車両の位置、
速度の相関関係を表わす値と、それぞれ算出された位置
及び速度の信頼性に関する値を算出する(S11, S12)と共
に、算出した値に基づくセンサフュージョンにより、そ
れら車両が、監視対象である1つの車両であるか否かを
判断する(S13)。
Description
【0001】
【発明の属する技術分野】本発明は、物体認識装置に関
し、例えば、周囲の物体を認識すべく自動車等の車両に
搭載して好適な物体認識装置に関する。
し、例えば、周囲の物体を認識すべく自動車等の車両に
搭載して好適な物体認識装置に関する。
【0002】
【従来の技術】従来より、物体の存在を検出する技術分
野においては、複数種類のセンサによってそれぞれ同じ
検出対象を検出するように設定し、それらセンサの検出
結果を総合的に考慮して最終的な検出結果を求める、所
謂センサフュージョン技術が提案されている。
野においては、複数種類のセンサによってそれぞれ同じ
検出対象を検出するように設定し、それらセンサの検出
結果を総合的に考慮して最終的な検出結果を求める、所
謂センサフュージョン技術が提案されている。
【0003】このような技術の一例として、特開平10
−255019号には、可視光カメラによって撮影した
画像に基づいて算出したしきい値を用いて赤外線カメラ
によって撮影した画像を2値化し、求めた2値化画像か
ら自車両周囲に存在する車両の位置を検出する技術が提
案されている。
−255019号には、可視光カメラによって撮影した
画像に基づいて算出したしきい値を用いて赤外線カメラ
によって撮影した画像を2値化し、求めた2値化画像か
ら自車両周囲に存在する車両の位置を検出する技術が提
案されている。
【0004】また、特開平9−236672号には、略
同じ検出対象範囲を検出するように配設された超音波セ
ンサと赤外線センサとを用いて、トイレ内に人が存在す
るか否かの判定を行う技術が提案されている。
同じ検出対象範囲を検出するように配設された超音波セ
ンサと赤外線センサとを用いて、トイレ内に人が存在す
るか否かの判定を行う技術が提案されている。
【0005】
【発明が解決しようとする課題】上記の従来技術によれ
ば、何れか一方のセンサを単独で用いて検出した場合と
比較して確度の高い検出結果を得ることができるが、そ
れらセンサが個別に検出した結果の確度は考慮されてい
ないため、何れのセンサも正確に物体を検出しているこ
とが前提となる。
ば、何れか一方のセンサを単独で用いて検出した場合と
比較して確度の高い検出結果を得ることができるが、そ
れらセンサが個別に検出した結果の確度は考慮されてい
ないため、何れのセンサも正確に物体を検出しているこ
とが前提となる。
【0006】そこで本発明は、検出方式が異なる2種類
の検出手段を用いて、監視すべき物体を高精度且つ高確
度に認識する物体認識装置の提供を目的とする。
の検出手段を用いて、監視すべき物体を高精度且つ高確
度に認識する物体認識装置の提供を目的とする。
【0007】
【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る物体認識装置は、以下の構成を特徴と
する。
め、本発明に係る物体認識装置は、以下の構成を特徴と
する。
【0008】即ち、所定の検出波を送出すると共に、そ
の検出波の物体からの反射波に基づいて、その物体の位
置及び速度を検出する第1の検出手段と、前記検出波の
伝搬範囲を少なくとも含む領域を撮像装置によって撮像
すると共に、撮影された画像に基づいて、その画像に含
まれる物体の位置及び速度を検出する第2の検出手段
と、前記第1及び第2の検出手段によって個別に検出さ
れたそれぞれの物体の位置及び速度の相関関係を表わす
値を算出すると共に、算出した値に従って、それら物体
を、監視対象である1つの物体として認識する物体認識
手段とを備えることを特徴とする。
の検出波の物体からの反射波に基づいて、その物体の位
置及び速度を検出する第1の検出手段と、前記検出波の
伝搬範囲を少なくとも含む領域を撮像装置によって撮像
すると共に、撮影された画像に基づいて、その画像に含
まれる物体の位置及び速度を検出する第2の検出手段
と、前記第1及び第2の検出手段によって個別に検出さ
れたそれぞれの物体の位置及び速度の相関関係を表わす
値を算出すると共に、算出した値に従って、それら物体
を、監視対象である1つの物体として認識する物体認識
手段とを備えることを特徴とする。
【0009】好適な実施形態において、前記撮像装置は
赤外線カメラであって、前記第2の検出手段は、前記赤
外線カメラによって撮像された全体画像を対象として、
その全体画像に含まれるところの、物体である可能性が
高い部分画像領域を推定する推定手段と、前記推定手段
によって推定された部分画像領域に含まれるところの、
所定輝度より高輝度な箇所を検出し、検出した高輝度な
箇所を基準とする所定サイズのフレームを該部分画像領
域に対して用いるパターンマッチングに基づいて、該部
分画像領域が表わす物体の種類を特定すると共に、特定
された物体の位置及び速度を検出する処理を、該推定さ
れた部分画像領域毎に行う物体検出手段とを含むことを
特徴とする。
赤外線カメラであって、前記第2の検出手段は、前記赤
外線カメラによって撮像された全体画像を対象として、
その全体画像に含まれるところの、物体である可能性が
高い部分画像領域を推定する推定手段と、前記推定手段
によって推定された部分画像領域に含まれるところの、
所定輝度より高輝度な箇所を検出し、検出した高輝度な
箇所を基準とする所定サイズのフレームを該部分画像領
域に対して用いるパターンマッチングに基づいて、該部
分画像領域が表わす物体の種類を特定すると共に、特定
された物体の位置及び速度を検出する処理を、該推定さ
れた部分画像領域毎に行う物体検出手段とを含むことを
特徴とする。
【0010】上記の装置構成において、例えば前記物体
検出手段による検出対象の物体は、内燃機関によって駆
動される車両であって、前記所定輝度は、前記赤外線カ
メラによって前記排気管が撮像されたときの標準的な輻
射熱量に基づく値に設定されていると良い。
検出手段による検出対象の物体は、内燃機関によって駆
動される車両であって、前記所定輝度は、前記赤外線カ
メラによって前記排気管が撮像されたときの標準的な輻
射熱量に基づく値に設定されていると良い。
【0011】また、前記物体検出手段には、前記検出対
象である車両における排気管の標準的な取り付け位置
と、その車両の断面形状との関係を表わす特徴情報が予
め記憶されており、前記物体検出手段は、前記所定輝度
より高輝度な箇所を、前記部分画像領域における排気管
の取り付け位置と推定し、推定した取り付け位置と、前
記特徴情報とに従って、前記部分画像領域に対して用い
るべき前記フレームの所定のサイズと、設定すべき位置
とを決定すると良い。
象である車両における排気管の標準的な取り付け位置
と、その車両の断面形状との関係を表わす特徴情報が予
め記憶されており、前記物体検出手段は、前記所定輝度
より高輝度な箇所を、前記部分画像領域における排気管
の取り付け位置と推定し、推定した取り付け位置と、前
記特徴情報とに従って、前記部分画像領域に対して用い
るべき前記フレームの所定のサイズと、設定すべき位置
とを決定すると良い。
【0012】好適な実施形態において、前記物体認識手
段は、前記第1及び第2の検出手段によってそれぞれ検
出された位置及び速度の信頼性に関する値と、前記相関
関係を表わす値との和が所定のしきい値より大きいとき
に、前記物体を監視対象として認識することを特徴とす
る。
段は、前記第1及び第2の検出手段によってそれぞれ検
出された位置及び速度の信頼性に関する値と、前記相関
関係を表わす値との和が所定のしきい値より大きいとき
に、前記物体を監視対象として認識することを特徴とす
る。
【0013】上記の装置構成において、前記撮像装置は
赤外線カメラであって、前記物体認識手段は、物体認識
を行うべき周囲の環境変化に応じて、前記信頼性に関す
る値を変更すると良い。
赤外線カメラであって、前記物体認識手段は、物体認識
を行うべき周囲の環境変化に応じて、前記信頼性に関す
る値を変更すると良い。
【0014】また、例えば前記物体認識手段は、前記第
1の検出手段の検出特性が晴天時と比較して影響を受け
易い荒天時に、前記第1の検出手段による検出結果に対
する信頼性を、前記第2の検出手段による検出結果に対
する信頼性より低く設定すべく、前記信頼性に関する値
を変更すると良い。
1の検出手段の検出特性が晴天時と比較して影響を受け
易い荒天時に、前記第1の検出手段による検出結果に対
する信頼性を、前記第2の検出手段による検出結果に対
する信頼性より低く設定すべく、前記信頼性に関する値
を変更すると良い。
【0015】また、例えば前記物体認識手段は、前記赤
外線カメラの撮像特性が影響を受け易い路面温度が所定
温度より高温のときに、前記第2の検出手段による検出
結果に対する信頼性を、前記第1の検出手段による検出
結果に対する信頼性より低く設定すべく、前記信頼性に
関する値を変更すると良い。
外線カメラの撮像特性が影響を受け易い路面温度が所定
温度より高温のときに、前記第2の検出手段による検出
結果に対する信頼性を、前記第1の検出手段による検出
結果に対する信頼性より低く設定すべく、前記信頼性に
関する値を変更すると良い。
【0016】また、好ましくは、前記第2の検出手段
は、前記物体の位置及び速度を検出するときに、前記第
1の検出手段による検出結果を参照すると良く、より具
体的には、前記物体検出手段は、前記部分画像領域に対
して用いるべき前記所定サイズのフレームを、前記第1
の検出手段による検出結果と、予め記憶している検出対
象の物体の形状に関する特徴情報とに従って決定すると
良い。
は、前記物体の位置及び速度を検出するときに、前記第
1の検出手段による検出結果を参照すると良く、より具
体的には、前記物体検出手段は、前記部分画像領域に対
して用いるべき前記所定サイズのフレームを、前記第1
の検出手段による検出結果と、予め記憶している検出対
象の物体の形状に関する特徴情報とに従って決定すると
良い。
【0017】また、好ましくは、前記物体検出手段は、
前記全体画像内に前記所定輝度より高輝度な箇所が複数
個検出されたときに、前回の制御周期において検出した
物体に対応する部分画像領域に基づいて、その物体に対
応する高輝度な箇所を特定すると良い。
前記全体画像内に前記所定輝度より高輝度な箇所が複数
個検出されたときに、前回の制御周期において検出した
物体に対応する部分画像領域に基づいて、その物体に対
応する高輝度な箇所を特定すると良い。
【0018】
【発明の効果】上記の本発明によれば、検出方式が異な
る2種類の検出手段を用いて、監視すべき物体を高精度
且つ高確度に認識する物体認識装置の提供が実現する。
る2種類の検出手段を用いて、監視すべき物体を高精度
且つ高確度に認識する物体認識装置の提供が実現する。
【0019】即ち、請求項1の発明によれば、それぞれ
の検出手段による検出結果の信頼性を、相関関係を表わ
す値によって最終的な認識結果に反映することができる
ので、監視すべき物体を高精度且つ高確度に認識するこ
とができる。
の検出手段による検出結果の信頼性を、相関関係を表わ
す値によって最終的な認識結果に反映することができる
ので、監視すべき物体を高精度且つ高確度に認識するこ
とができる。
【0020】また、請求項2の発明によれば、検出すべ
き物体の特徴を輝度と位置とを利用して表わすと共に、
処理負担の大きな上記のパターンマッチングを、全体画
像ではなく部分画像領域に限って行うので、最終的な認
識結果を迅速に求めることができる。
き物体の特徴を輝度と位置とを利用して表わすと共に、
処理負担の大きな上記のパターンマッチングを、全体画
像ではなく部分画像領域に限って行うので、最終的な認
識結果を迅速に求めることができる。
【0021】また、請求項3の発明によれば、検出すべ
き車両(自動車)の特徴を表わす排気管部分の画像の輝
度によって推定しているので、正確な認識結果を行うこ
とができる。
き車両(自動車)の特徴を表わす排気管部分の画像の輝
度によって推定しているので、正確な認識結果を行うこ
とができる。
【0022】また、請求項4の発明によれば、排気管部
分の位置を基準として予め記憶している特徴情報を参照
してフレームサイズを決定しているので、パターンマッ
チングに使用すべきフレームのサイズの決定と、検出す
べき物体の種類(車両)の特定とを、シンプルな処理構
成で迅速に行うことができる。
分の位置を基準として予め記憶している特徴情報を参照
してフレームサイズを決定しているので、パターンマッ
チングに使用すべきフレームのサイズの決定と、検出す
べき物体の種類(車両)の特定とを、シンプルな処理構
成で迅速に行うことができる。
【0023】また、上記の各検出手段の検出範囲内に存
在する物体の移動速度は、それら各手段の制御周期と比
較してかなり遅いので、請求項5の発明の如く制御周期
を設定しても、高精度な認識結果を得ることができる。
在する物体の移動速度は、それら各手段の制御周期と比
較してかなり遅いので、請求項5の発明の如く制御周期
を設定しても、高精度な認識結果を得ることができる。
【0024】また、請求項6の発明によれば、比較的処
理負担の少ない計算により、監視すべき物体を高精度且
つ高確度に認識することができる。
理負担の少ない計算により、監視すべき物体を高精度且
つ高確度に認識することができる。
【0025】また、請求項7の発明によれば、周囲の環
境変化を認識結果の確度(信頼性)に反映することがで
きる。
境変化を認識結果の確度(信頼性)に反映することがで
きる。
【0026】また、請求項8の発明によれば、第1の検
出手段の検出特性を認識結果の確度(信頼性)に反映す
ることができる。
出手段の検出特性を認識結果の確度(信頼性)に反映す
ることができる。
【0027】また、請求項9の発明によれば、赤外線カ
メラを利用した第2の検出手段の検出特性を、認識結果
の確度(信頼性)に反映することができる。
メラを利用した第2の検出手段の検出特性を、認識結果
の確度(信頼性)に反映することができる。
【0028】また、請求項10の発明によれば、例え
ば、第2の検出手段と比較して検出誤差の小さい第1の
検出手段による検出結果を、例えば、パターンマッチン
グに使用するフレームのサイズ決定に利用する(請求項
11)ことにより、第2の検出手段の検出結果の信頼性
を向上することができる。
ば、第2の検出手段と比較して検出誤差の小さい第1の
検出手段による検出結果を、例えば、パターンマッチン
グに使用するフレームのサイズ決定に利用する(請求項
11)ことにより、第2の検出手段の検出結果の信頼性
を向上することができる。
【0029】
【発明の実施の形態】以下、本発明を、自動車等の車両
の警報システムに適用した実施形態として、図面を参照
して詳細に説明する。
の警報システムに適用した実施形態として、図面を参照
して詳細に説明する。
【0030】図1は、本実施形態における警報システム
が搭載された車両の装置構成を示すブロック図である。
が搭載された車両の装置構成を示すブロック図である。
【0031】同図に示す車両100において、1は、自
車両の前方を走行する他車両との車間距離を検出するレ
ーザーレーダ、或いはミリ波レーダ等の距離センサ(以
下、LR)である。2は、赤外線(近赤外線及び遠赤外
線を含む)を利用した撮像装置(赤外線カメラ)を用い
て、自車両の前方の所定の撮像範囲を撮影する画像セン
サ(以下、IS)である。
車両の前方を走行する他車両との車間距離を検出するレ
ーザーレーダ、或いはミリ波レーダ等の距離センサ(以
下、LR)である。2は、赤外線(近赤外線及び遠赤外
線を含む)を利用した撮像装置(赤外線カメラ)を用い
て、自車両の前方の所定の撮像範囲を撮影する画像セン
サ(以下、IS)である。
【0032】3は、自車両の速度を減速させるブレーキ
アクチュエータである。4は、自車両の速度を調整する
エンジンスロットルの開度を調整するスロットルアクチ
ュエータである。尚、車両100の速度調整には、自動
変速機を併用しても良い。
アクチュエータである。4は、自車両の速度を調整する
エンジンスロットルの開度を調整するスロットルアクチ
ュエータである。尚、車両100の速度調整には、自動
変速機を併用しても良い。
【0033】ここで、LR1とIS2とは、図1(b)
に示すように、車両100の車幅方向に略同じであっ
て、バンパー近傍において車両上下方向に重ねられるよ
うに搭載されており、上述したLR1及びIS2は、図
2に示すように当該センサの搭載位置から垂直上方向を
+Y方向、右横方向を+X方向、そして自車両の前方方
向を+Z方向とする座標系を基準としている。
に示すように、車両100の車幅方向に略同じであっ
て、バンパー近傍において車両上下方向に重ねられるよ
うに搭載されており、上述したLR1及びIS2は、図
2に示すように当該センサの搭載位置から垂直上方向を
+Y方向、右横方向を+X方向、そして自車両の前方方
向を+Z方向とする座標系を基準としている。
【0034】また、本実施形態において、IS2が図1
(b)に示すようにバンパーの下方に搭載される理由
は、検出対象である他車両の後部バンパーの下方に位置
する排気管の周辺を、IS2による撮影を容易にするた
めである。
(b)に示すようにバンパーの下方に搭載される理由
は、検出対象である他車両の後部バンパーの下方に位置
する排気管の周辺を、IS2による撮影を容易にするた
めである。
【0035】また、これら2種類のセンサLR1及びI
S2の検出範囲は、図3に示すように、IS2の検出範
囲がLR1の検出範囲を内包するように設定されてい
る。また、LR1の検出範囲(所定の検出波の走査範囲
(伝搬範囲))は、垂直方向に所定の仰角をなす立体的
な領域であり、その領域範囲内に存在する物体までの距
離と方向(角度)とを検出する。
S2の検出範囲は、図3に示すように、IS2の検出範
囲がLR1の検出範囲を内包するように設定されてい
る。また、LR1の検出範囲(所定の検出波の走査範囲
(伝搬範囲))は、垂直方向に所定の仰角をなす立体的
な領域であり、その領域範囲内に存在する物体までの距
離と方向(角度)とを検出する。
【0036】尚、本実施形態では、説明の便宜上、LR
1及びIS2の搭載位置を図1(b)に示すように配置
するが、搭載スペースの関係から実際には車幅方向にず
らして実装する場合には、それらセンサのずれ量がオフ
セットされた同一の座標系に変換することにより、計算
上は図2に示す座標系に調整すると良い。
1及びIS2の搭載位置を図1(b)に示すように配置
するが、搭載スペースの関係から実際には車幅方向にず
らして実装する場合には、それらセンサのずれ量がオフ
セットされた同一の座標系に変換することにより、計算
上は図2に示す座標系に調整すると良い。
【0037】次に、5は、本実施形態において少なくと
も自車両と前方の他車両との車間距離に関する警報音の
出力を行うスピーカである。6は、車両100のワイパ
ーの動作オン・オフ、動作速度、並びに動作周期の設定
をドライバが可能なワイパスイッチであり、本実施形態
では、ワイパスイッチ6の操作状態により、周囲の走行
環境が雨天や濃霧等の荒天状態であるかを推定する。
も自車両と前方の他車両との車間距離に関する警報音の
出力を行うスピーカである。6は、車両100のワイパ
ーの動作オン・オフ、動作速度、並びに動作周期の設定
をドライバが可能なワイパスイッチであり、本実施形態
では、ワイパスイッチ6の操作状態により、周囲の走行
環境が雨天や濃霧等の荒天状態であるかを推定する。
【0038】7は、IS2によって撮像した画像(以
下、赤外画像)の表示や、各種情報の表示を行う表示装
置である。8は、車両100に対する日光の照度を検出
することにより、周囲の走行環境が晴天状態であるかを
検出する照度センサである。
下、赤外画像)の表示や、各種情報の表示を行う表示装
置である。8は、車両100に対する日光の照度を検出
することにより、周囲の走行環境が晴天状態であるかを
検出する照度センサである。
【0039】9は、車両100の速度を検出する速度セ
ンサである。10は、外部より受信したGPS(グロー
バル・ポジショニング・システム)信号に基づいて車両
100の現在位置を検出するGPSセンサであり、本実
施形態では、現在時刻の検出にも利用する。
ンサである。10は、外部より受信したGPS(グロー
バル・ポジショニング・システム)信号に基づいて車両
100の現在位置を検出するGPSセンサであり、本実
施形態では、現在時刻の検出にも利用する。
【0040】そして、ECU(電子制御ユニット)11
は、上述した各種センサにより入手した情報に基づい
て、車間距離に関する警報をドライバに対してスピーカ
5から報知すると共に、ブレーキアクチュエータ3及び
/またはスロットルアクチュエータ4を制御することに
より、自車両の前方に存在する他車両との車間距離が所
定距離に維持する。ECU11には、不図示のマイクロ
コンピュータが搭載されており、予めメモリに格納され
たプログラムやパラメータに従って、CPUが動作する
ことにより、以下に説明する警報・制御処理を実現す
る。
は、上述した各種センサにより入手した情報に基づい
て、車間距離に関する警報をドライバに対してスピーカ
5から報知すると共に、ブレーキアクチュエータ3及び
/またはスロットルアクチュエータ4を制御することに
より、自車両の前方に存在する他車両との車間距離が所
定距離に維持する。ECU11には、不図示のマイクロ
コンピュータが搭載されており、予めメモリに格納され
たプログラムやパラメータに従って、CPUが動作する
ことにより、以下に説明する警報・制御処理を実現す
る。
【0041】[警報・制御処理]図4は、本実施形態に
おけるECU11が実行する警報・制御処理のフローチ
ャートを示す図であり、例えばイグニッションスイッチ
(不図示)がドライバによってオン状態に設定されるこ
とによって開始される。
おけるECU11が実行する警報・制御処理のフローチ
ャートを示す図であり、例えばイグニッションスイッチ
(不図示)がドライバによってオン状態に設定されるこ
とによって開始される。
【0042】同図において、ステップS1:LR1及び
IS2のそれぞれの検出結果に基づくセンサフュージョ
ンにより、車両100の前方に存在する車両(先行車
両)の存在を認識すると共に、その車両と自車両との相
対的な距離情報(車間距離、速度)を取得する(詳細は
後述する)。
IS2のそれぞれの検出結果に基づくセンサフュージョ
ンにより、車両100の前方に存在する車両(先行車
両)の存在を認識すると共に、その車両と自車両との相
対的な距離情報(車間距離、速度)を取得する(詳細は
後述する)。
【0043】ステップS2:車速センサ9の検出結果に
より、自車速を検出する。
より、自車速を検出する。
【0044】ステップS3〜ステップS5:例えば図5
に示すような危険判断の基準特性を予めルックアップテ
ーブル(LUT)としてROM等の記憶デバイスに記憶
しておき、ステップS1及びステップS2にて取得した
距離情報及び自車速に基づいて相対速度を算出すると共
に、該LUTを、算出した相対速度と、ステップS1に
て求めた車間距離とに従って参照することにより、ブレ
ーキアクチュエータ3及び/またはスロットルアクチュ
エータ4を駆動する車間距離制御を実行すべき危険な状
態か、スピーカ5からの警報音の出力を実行すべき危険
な状態かを判断する(ステップS3)。そして、この判
断結果により、危険ではないときにはステップS1にリ
ターンし、警報が必要な場合にはスピーカ5による警報
音の出力及び表示装置7へのガイダンス表示等を行い
(ステップS4)、警報に加えて車間距離制御の実行が
必要な場合には、ブレーキアクチュエータ3及び/また
はスロットルアクチュエータ4を駆動を制御することに
より、車間距離を制御し(ステップS5)、その後、ス
テップS1にリターンする。
に示すような危険判断の基準特性を予めルックアップテ
ーブル(LUT)としてROM等の記憶デバイスに記憶
しておき、ステップS1及びステップS2にて取得した
距離情報及び自車速に基づいて相対速度を算出すると共
に、該LUTを、算出した相対速度と、ステップS1に
て求めた車間距離とに従って参照することにより、ブレ
ーキアクチュエータ3及び/またはスロットルアクチュ
エータ4を駆動する車間距離制御を実行すべき危険な状
態か、スピーカ5からの警報音の出力を実行すべき危険
な状態かを判断する(ステップS3)。そして、この判
断結果により、危険ではないときにはステップS1にリ
ターンし、警報が必要な場合にはスピーカ5による警報
音の出力及び表示装置7へのガイダンス表示等を行い
(ステップS4)、警報に加えて車間距離制御の実行が
必要な場合には、ブレーキアクチュエータ3及び/また
はスロットルアクチュエータ4を駆動を制御することに
より、車間距離を制御し(ステップS5)、その後、ス
テップS1にリターンする。
【0045】[車両認識処理]以下、本実施形態におい
て図4のステップS1にて行われるところの、車両認識
処理について詳細に説明する。
て図4のステップS1にて行われるところの、車両認識
処理について詳細に説明する。
【0046】図6は、本実施形態におけるECU11が
実行する車両認識処理を示すフローチャートであり、同
図に示すように、ステップS1(図4)では、IS2を
用いた車両の認定処理(ステップS11)と、LR1を
用いた車両の認定処理(ステップS12)とが並行して
行われ、ステップS13における車両認識処理では、ス
テップS11及びステップS12におけるIS2及びL
R1の検出結果に基づくセンサフュージョンにより、最
終的な車両認識結果が算出される。そして、ステップS
13にて算出された車両認識結果は、本実施形態ではス
テップS3の危険判断に利用される。
実行する車両認識処理を示すフローチャートであり、同
図に示すように、ステップS1(図4)では、IS2を
用いた車両の認定処理(ステップS11)と、LR1を
用いた車両の認定処理(ステップS12)とが並行して
行われ、ステップS13における車両認識処理では、ス
テップS11及びステップS12におけるIS2及びL
R1の検出結果に基づくセンサフュージョンにより、最
終的な車両認識結果が算出される。そして、ステップS
13にて算出された車両認識結果は、本実施形態ではス
テップS3の危険判断に利用される。
【0047】以下、図6に示す各ステップの詳細な処理
手順について説明する。
手順について説明する。
【0048】<IS2による車両の認定処理>まず、I
S2による車両の認定処理について、図7乃至図14を
参照して説明する。
S2による車両の認定処理について、図7乃至図14を
参照して説明する。
【0049】はじめに、IS2による車両の認定処理を
概説する。本実施形態において、IS2による車両の認
定処理は、大別して、赤外線カメラ(IS2)によって
撮像された赤外画像の全体を対象として行われる「車両
画像の概略推定処理」と、その概略推定処理によって推
定された部分画像領域に対して個別に行われる「車両検
出処理」とにより構成される。
概説する。本実施形態において、IS2による車両の認
定処理は、大別して、赤外線カメラ(IS2)によって
撮像された赤外画像の全体を対象として行われる「車両
画像の概略推定処理」と、その概略推定処理によって推
定された部分画像領域に対して個別に行われる「車両検
出処理」とにより構成される。
【0050】まず、車両画像の概略推定処理では、赤外
画像(図7に例示する赤外画像21参照)の全体に含ま
れるところの、車両(車両の断面形状)である可能性が
高い部分画像領域(図7に例示する部分画像領域24)
を推定する。
画像(図7に例示する赤外画像21参照)の全体に含ま
れるところの、車両(車両の断面形状)である可能性が
高い部分画像領域(図7に例示する部分画像領域24)
を推定する。
【0051】次に、車両検出処理は、内燃機関によって
駆動される一般的な車両を検出対象の物体として、車両
画像の概略推定処理によって推定された部分画像領域か
ら、その領域内に含まれる所定輝度より高輝度な箇所
を、排気管の取り付け位置(図7に例示する排気管の領
域画像23)として検出し、検出した高輝度な箇所を基
準とする所定サイズのフレームを該部分画像領域に対し
て用いるパターンマッチング処理を施すことにより、該
部分画像領域が表わす物体が車両であることを特定する
と共に、特定された物体の位置及び速度を検出する。
駆動される一般的な車両を検出対象の物体として、車両
画像の概略推定処理によって推定された部分画像領域か
ら、その領域内に含まれる所定輝度より高輝度な箇所
を、排気管の取り付け位置(図7に例示する排気管の領
域画像23)として検出し、検出した高輝度な箇所を基
準とする所定サイズのフレームを該部分画像領域に対し
て用いるパターンマッチング処理を施すことにより、該
部分画像領域が表わす物体が車両であることを特定する
と共に、特定された物体の位置及び速度を検出する。
【0052】このとき、ECU11には、当該所定輝度
として、赤外線カメラによって排気管を含む一般的な車
両が撮像されたときの、その排気管の領域の標準的な輻
射熱量に基づく値を予めROM等のメモリに記憶してお
くと共に、係る車両における排気管の標準的な取り付け
位置と、その車両の断面形状との関係を表わす特徴情報
とを予めROM等のメモリに記憶しておく。
として、赤外線カメラによって排気管を含む一般的な車
両が撮像されたときの、その排気管の領域の標準的な輻
射熱量に基づく値を予めROM等のメモリに記憶してお
くと共に、係る車両における排気管の標準的な取り付け
位置と、その車両の断面形状との関係を表わす特徴情報
とを予めROM等のメモリに記憶しておく。
【0053】そして、パターンマッチング処理に際して
は、上記の特徴情報を参照することにより、所定輝度よ
り高輝度な排気管の取り付け位置を基準として上下左右
に所定割合のサイズを有するフレームと、注目している
部分画像領域に対して設定すする(詳細は図11を参照
して後述する)。
は、上記の特徴情報を参照することにより、所定輝度よ
り高輝度な排気管の取り付け位置を基準として上下左右
に所定割合のサイズを有するフレームと、注目している
部分画像領域に対して設定すする(詳細は図11を参照
して後述する)。
【0054】図8は、本実施形態におけるECU11が
実行するIS2による車両の認定処理を示すフローチャ
ートであり、図6のステップS11の詳細な処理手順を
示す。
実行するIS2による車両の認定処理を示すフローチャ
ートであり、図6のステップS11の詳細な処理手順を
示す。
【0055】図8において、ステップS21〜ステップ
S23:赤外線カメラの1フレーム分の撮影画像(赤外
画像)を入力し(ステップS21)、上記の如く概説し
た車両画像の概略推定処理を行うタイミングを決定する
ために使用するカウンタCの計数値を0にリセットし
(ステップS22)、当該1フレーム分の赤外画像の中
から検出された部分画像領域の数量(物体数X)を0に
リセットする(ステップS23)。
S23:赤外線カメラの1フレーム分の撮影画像(赤外
画像)を入力し(ステップS21)、上記の如く概説し
た車両画像の概略推定処理を行うタイミングを決定する
ために使用するカウンタCの計数値を0にリセットし
(ステップS22)、当該1フレーム分の赤外画像の中
から検出された部分画像領域の数量(物体数X)を0に
リセットする(ステップS23)。
【0056】尚、赤外線カメラ及びECU11の制御周
期と比較して、検出対象である車両の動作は緩慢なた
め、本実施形態では、ECU11の演算処理の負担を軽
減すべく、赤外線カメラの制御周期(本実施形態では1
00msec)毎に入力される赤外画像に対して行われ
る車両検出処理の実行頻度に対して、車両画像の概略推
定処理は10フレーム毎に行う。
期と比較して、検出対象である車両の動作は緩慢なた
め、本実施形態では、ECU11の演算処理の負担を軽
減すべく、赤外線カメラの制御周期(本実施形態では1
00msec)毎に入力される赤外画像に対して行われ
る車両検出処理の実行頻度に対して、車両画像の概略推
定処理は10フレーム毎に行う。
【0057】ステップS24,ステップS25:カウン
タCの計数値が0であるかを判断し(ステップS2
4)、この判断でカウンタC=0のときには、新たに入
力された1フレーム分の赤外画像全体に対して車両画像
の概略推定処理を行うことにより、車両の断面形状であ
ると推定した部分画像領域の赤外画像内における位置の
特定すると共に、推定した部分画像領域の全数量を物体
数Xに設定し(ステップS25:詳細は図9を参照して
後述する)、ステップS26に進む。
タCの計数値が0であるかを判断し(ステップS2
4)、この判断でカウンタC=0のときには、新たに入
力された1フレーム分の赤外画像全体に対して車両画像
の概略推定処理を行うことにより、車両の断面形状であ
ると推定した部分画像領域の赤外画像内における位置の
特定すると共に、推定した部分画像領域の全数量を物体
数Xに設定し(ステップS25:詳細は図9を参照して
後述する)、ステップS26に進む。
【0058】ステップS26〜ステップS28:一方、
カウンタC≠0のときには、上記の如く概説した車両検
出処理を、ステップS25にて設定されたX個の部分画
像領域(物体の画像)に対して個々に行うステップS2
6の一連の処理(詳細は図10を参照して後述する)
を、そのステップS26の処理が終了する度にカウンタ
Cの計数値を1加算しながら、計数値が9になるまで繰
り返し(ステップS27,ステップS28)、当該計数
値が9になったときにはステップS21にリターンす
る。
カウンタC≠0のときには、上記の如く概説した車両検
出処理を、ステップS25にて設定されたX個の部分画
像領域(物体の画像)に対して個々に行うステップS2
6の一連の処理(詳細は図10を参照して後述する)
を、そのステップS26の処理が終了する度にカウンタ
Cの計数値を1加算しながら、計数値が9になるまで繰
り返し(ステップS27,ステップS28)、当該計数
値が9になったときにはステップS21にリターンす
る。
【0059】(車両画像の概略推定処理)図9は、IS
2による車両の認定処理のうち、車両画像の概略推定処
理(図8のステップS25)の詳細を示すフローチャー
トである。
2による車両の認定処理のうち、車両画像の概略推定処
理(図8のステップS25)の詳細を示すフローチャー
トである。
【0060】同図において、ステップS31:赤外線カ
メラから新たな処理対象として、1フレーム分の赤外画
像を入力する。
メラから新たな処理対象として、1フレーム分の赤外画
像を入力する。
【0061】ステップS32,ステップS33:入力さ
れた赤外画像の特徴を検出すべく、まず、縦方向(Y方
向)の微分画像(ステップS32)と、横方向(X方
向)の微分画像(ステップS33)とを生成する。より
具体的に、ステップS32では、[1,0,−1]Tの
1−3行列を用いて、赤外画像の全体に対して、縦方向
のデジタルフィルタ処理を施す。また、ステップS33
では、[1,0,−1]の3−1行列を用いて、赤外画
像の全体に対して横方向のデジタルフィルタ処理を施
す。
れた赤外画像の特徴を検出すべく、まず、縦方向(Y方
向)の微分画像(ステップS32)と、横方向(X方
向)の微分画像(ステップS33)とを生成する。より
具体的に、ステップS32では、[1,0,−1]Tの
1−3行列を用いて、赤外画像の全体に対して、縦方向
のデジタルフィルタ処理を施す。また、ステップS33
では、[1,0,−1]の3−1行列を用いて、赤外画
像の全体に対して横方向のデジタルフィルタ処理を施
す。
【0062】ステップS34,ステップS35:上記の
両ステップにて生成した2方向の微分画像の論理積(A
ND)を採り(ステップS34)、その結果得られる微
分画像の縦方向の微分値の累積を採り、算出した累積値
は、後述するステップS39及びステップS40におい
て当該赤外画像から車両の部分画像領域以外の領域を除
去するためのしきい値として設定する(ステップS3
5)。
両ステップにて生成した2方向の微分画像の論理積(A
ND)を採り(ステップS34)、その結果得られる微
分画像の縦方向の微分値の累積を採り、算出した累積値
は、後述するステップS39及びステップS40におい
て当該赤外画像から車両の部分画像領域以外の領域を除
去するためのしきい値として設定する(ステップS3
5)。
【0063】ステップS36,ステップS37:後述す
るステップS39及びステップS40において当該赤外
画像から車両の部分画像領域以外の領域(即ち、空領
域、道路領域)を除去する際の濃度基準とすべく、入力
された赤外画像の中央上方の所定画素の濃度値を、当該
赤外画像における空領域の濃度値としてサンプリングし
(ステップS36)、中央下方の所定画素の濃度値を、
当該赤外画像における道路領域の濃度値としてサンプリ
ングする(ステップS37)。
るステップS39及びステップS40において当該赤外
画像から車両の部分画像領域以外の領域(即ち、空領
域、道路領域)を除去する際の濃度基準とすべく、入力
された赤外画像の中央上方の所定画素の濃度値を、当該
赤外画像における空領域の濃度値としてサンプリングし
(ステップS36)、中央下方の所定画素の濃度値を、
当該赤外画像における道路領域の濃度値としてサンプリ
ングする(ステップS37)。
【0064】尚、本実施形態では、濃度値を参照する所
定画素を、一例として赤外画像の中央上方及び下方とし
たが、ナビゲーション装置等によって外部より自車両前
方の道路形状に関する情報を取得可能な場合は、その情
報に応じて、参照すべき画素位置を適宜変更すると良
い。
定画素を、一例として赤外画像の中央上方及び下方とし
たが、ナビゲーション装置等によって外部より自車両前
方の道路形状に関する情報を取得可能な場合は、その情
報に応じて、参照すべき画素位置を適宜変更すると良
い。
【0065】ステップS38:後述するステップS39
及びステップS40において横方向の領域判定しきい値
として使用するところの、当該赤外画像の左右濃度(左
端と右端)の差分値を設定する。
及びステップS40において横方向の領域判定しきい値
として使用するところの、当該赤外画像の左右濃度(左
端と右端)の差分値を設定する。
【0066】ステップS39:本ステップでは、当該赤
外画像の全体領域から空領域の画像部分を除去する。即
ち、ステップS36にてサンプリングした濃度値以下で
あってステップS38にて設定した左右濃度のしきい値
以下という条件により、ステップS1にて入力された赤
外画像を当該画像の上から走査すると共に、ステップS
35にて設定した微分累積値のしきい値以下という条件
により、ステップS34にて算出した微分画像を当該画
像の上から走査する。そして、走査によって除去された
空領域の画像部分には、所定の濃度値(例えば黒)を設
定する。
外画像の全体領域から空領域の画像部分を除去する。即
ち、ステップS36にてサンプリングした濃度値以下で
あってステップS38にて設定した左右濃度のしきい値
以下という条件により、ステップS1にて入力された赤
外画像を当該画像の上から走査すると共に、ステップS
35にて設定した微分累積値のしきい値以下という条件
により、ステップS34にて算出した微分画像を当該画
像の上から走査する。そして、走査によって除去された
空領域の画像部分には、所定の濃度値(例えば黒)を設
定する。
【0067】ステップS40:本ステップでは、当該赤
外画像の全体領域から道路領域の画像部分を除去する。
即ち、ステップS37にてサンプリングした濃度値以下
であってステップS38にて設定した左右濃度のしきい
値以下という条件により、ステップS1にて入力された
赤外画像を当該画像の下から走査すると共に、ステップ
S35にて設定した微分累積値のしきい値以下という条
件により、ステップS34にて算出した微分画像を当該
画像の下から走査する。そして、走査によって除去され
た道路領域の画像部分には、所定の濃度値(例えば黒)
を設定する。
外画像の全体領域から道路領域の画像部分を除去する。
即ち、ステップS37にてサンプリングした濃度値以下
であってステップS38にて設定した左右濃度のしきい
値以下という条件により、ステップS1にて入力された
赤外画像を当該画像の下から走査すると共に、ステップ
S35にて設定した微分累積値のしきい値以下という条
件により、ステップS34にて算出した微分画像を当該
画像の下から走査する。そして、走査によって除去され
た道路領域の画像部分には、所定の濃度値(例えば黒)
を設定する。
【0068】ステップS41:ステップS37にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる車両の画像部分の濃度値Bを、
B=(サンプリング濃度値)×A(本実施形態では、A
>T1=1.0)なる計算によって推定する。
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる車両の画像部分の濃度値Bを、
B=(サンプリング濃度値)×A(本実施形態では、A
>T1=1.0)なる計算によって推定する。
【0069】ステップS42:ステップS41にて算出
した濃度値Bを利用して、ステップS1にて入力された
赤外画像を2値化する。本ステップにて算出される2値
化画像は、車両である可能性が高い高濃度部分の画像で
ある。
した濃度値Bを利用して、ステップS1にて入力された
赤外画像を2値化する。本ステップにて算出される2値
化画像は、車両である可能性が高い高濃度部分の画像で
ある。
【0070】ステップS43:ステップS339及びス
テップS40にて空領域及び道路領域が除去された2つ
の画像と、ステップS42にて算出された2値化画像と
の論理積(AND)を採ることにより、車両の輪郭画像
(図7の領域24)である可能性が高い部分画像領域
(エッジ画像領域)が得られる。
テップS40にて空領域及び道路領域が除去された2つ
の画像と、ステップS42にて算出された2値化画像と
の論理積(AND)を採ることにより、車両の輪郭画像
(図7の領域24)である可能性が高い部分画像領域
(エッジ画像領域)が得られる。
【0071】(車両検出処理)図10は、IS2による
車両の認定処理のうち、車両検出処理(図8のステップ
S26)の詳細を示すフローチャートである。
車両の認定処理のうち、車両検出処理(図8のステップ
S26)の詳細を示すフローチャートである。
【0072】同図において、ステップS51,ステップ
S52:赤外線カメラから新たな処理対象として、1フ
レーム分の赤外画像を入力し(ステップS51)、その
赤外画像の中央下方の画素の濃度値をサンプリングする
ことにより、図9のステップS37と同様に道路領域の
濃度値を入手する(ステップS52)。
S52:赤外線カメラから新たな処理対象として、1フ
レーム分の赤外画像を入力し(ステップS51)、その
赤外画像の中央下方の画素の濃度値をサンプリングする
ことにより、図9のステップS37と同様に道路領域の
濃度値を入手する(ステップS52)。
【0073】ステップS53:ステップS52にてサン
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる排気管領域の画像部分の濃度値
Dを、D=(サンプリング濃度値)×F(本実施形態で
は、F>T2=2.0>T1)なる計算によって推定す
る。
プリングした道路領域の濃度値を参照することにより、
当該赤外画像に含まれる排気管領域の画像部分の濃度値
Dを、D=(サンプリング濃度値)×F(本実施形態で
は、F>T2=2.0>T1)なる計算によって推定す
る。
【0074】ステップS54:ステップS53にて算出
した濃度値Dをしきい値として利用して、ステップS5
1にて入力された赤外画像を2値化する。本ステップに
て算出される2値化画像は、排気管である可能性が高い
高濃度部分の画像(図7の領域23)であり、この2値
化画像の当該赤外画像の全体における位置を、排気管部
分の画像位置として設定する。
した濃度値Dをしきい値として利用して、ステップS5
1にて入力された赤外画像を2値化する。本ステップに
て算出される2値化画像は、排気管である可能性が高い
高濃度部分の画像(図7の領域23)であり、この2値
化画像の当該赤外画像の全体における位置を、排気管部
分の画像位置として設定する。
【0075】ここで、本ステップにて使用する濃度値D
が十分に大きくない場合、算出される2値化画像は、車
両の排気口周辺を含む画像(図7の領域22)となって
しまうので、排気管の画像位置を基準として利用する本
実施形態には好ましくない。
が十分に大きくない場合、算出される2値化画像は、車
両の排気口周辺を含む画像(図7の領域22)となって
しまうので、排気管の画像位置を基準として利用する本
実施形態には好ましくない。
【0076】ステップS55:本実施形態において、E
CU11には、赤外線カメラの撮像範囲である画角(図
3参照)と、その赤外線カメラの撮像デバイス(例えば
CCD:Charge Coupled Device)を構成する画素との
距離に関する対応関係が予め記憶されている。そこで、
本ステップでは、ステップS54にて設定した排気管部
分の画像位置(図11の排気管領域の画像26)を基準
として、当該赤外画像の下辺から当該排気管部分の画像
位置までの画素数と、上記の距離に関する対応関係とに
基づいて、自車両の前方に存在する他車両との距離(即
ち、他車両の位置:図11の距離ZIR)を推定すると
共に、前回の制御周期における本ステップにて推定した
当該他車両との距離を参照することにより、単位時間当
たりの変化率を、自車両と当該他車両との相対速度とし
て算出する。
CU11には、赤外線カメラの撮像範囲である画角(図
3参照)と、その赤外線カメラの撮像デバイス(例えば
CCD:Charge Coupled Device)を構成する画素との
距離に関する対応関係が予め記憶されている。そこで、
本ステップでは、ステップS54にて設定した排気管部
分の画像位置(図11の排気管領域の画像26)を基準
として、当該赤外画像の下辺から当該排気管部分の画像
位置までの画素数と、上記の距離に関する対応関係とに
基づいて、自車両の前方に存在する他車両との距離(即
ち、他車両の位置:図11の距離ZIR)を推定すると
共に、前回の制御周期における本ステップにて推定した
当該他車両との距離を参照することにより、単位時間当
たりの変化率を、自車両と当該他車両との相対速度とし
て算出する。
【0077】ステップS56:ECU11には、図12
に示すように、検出対象である車両までの距離と、その
距離に応じた該車両の標準的な車幅に対応するところ
の、赤外画像における画素数との対応関係が予めルック
アップテーブルとして記憶されており、本ステップで
は、当該赤外画像を利用して推定した距離ZIRに従っ
て図12のルックアップテーブルを参照することより、
排気管領域の画像26に排気管が撮影されている車両の
車幅W(画素数)を推定する。
に示すように、検出対象である車両までの距離と、その
距離に応じた該車両の標準的な車幅に対応するところ
の、赤外画像における画素数との対応関係が予めルック
アップテーブルとして記憶されており、本ステップで
は、当該赤外画像を利用して推定した距離ZIRに従っ
て図12のルックアップテーブルを参照することより、
排気管領域の画像26に排気管が撮影されている車両の
車幅W(画素数)を推定する。
【0078】尚、IS2による赤外画像に基づく距離検
出の精度と、LR1による障害物までの距離検出の精度
とを比較した場合は、LR1による場合の方が検出精度
に優れる。
出の精度と、LR1による障害物までの距離検出の精度
とを比較した場合は、LR1による場合の方が検出精度
に優れる。
【0079】そこで、上記のステップS56では、車幅
W(画素数)の推定を、赤外画像に基づいて算出した距
離ZIRと、図12に示すルックアップテーブルとを利
用して算出したが、この方法は、LR1及びIS2によ
る重複した検出領域(以下、第2検出範囲)に車両が検
出されている場合に採用する。
W(画素数)の推定を、赤外画像に基づいて算出した距
離ZIRと、図12に示すルックアップテーブルとを利
用して算出したが、この方法は、LR1及びIS2によ
る重複した検出領域(以下、第2検出範囲)に車両が検
出されている場合に採用する。
【0080】そして、前回までの制御周期において後述
するセンサフュージョンによる最終的な車両特定がなさ
れており(即ち、両方式によって個別に検出された車両
が同一車両であるか否かの認定結果が求められてお
り)、且つLR1による検出結果によって対応する車両
(グループ)までの距離ZLRが検出されている場合に
は、検出されていた車両が、第2検出範囲から検出領域
が重複していないIS2による単独の検出領域(以下、
第1検出範囲)に移動したとき、その距離ZLRに従っ
て図12に示すルックアップテーブルを参照することに
より、精度の高い車幅W(画素数)の推定を行う。或い
は、センサフュージョンによる最終的な車両特定が同様
になされている場合には、後述するLR1による車両の
認定処理のグループ化処理(図15のステップS75)
において2つのブロックを1グループにまとめるとき
に、それらブロック間の距離(車体後面の左右端部にあ
るリフレクタ間の距離に対応する長さ)に応じて標準的
な車幅(画素数)を求めておき、その値をステップS5
6において採用しても良い。
するセンサフュージョンによる最終的な車両特定がなさ
れており(即ち、両方式によって個別に検出された車両
が同一車両であるか否かの認定結果が求められてお
り)、且つLR1による検出結果によって対応する車両
(グループ)までの距離ZLRが検出されている場合に
は、検出されていた車両が、第2検出範囲から検出領域
が重複していないIS2による単独の検出領域(以下、
第1検出範囲)に移動したとき、その距離ZLRに従っ
て図12に示すルックアップテーブルを参照することに
より、精度の高い車幅W(画素数)の推定を行う。或い
は、センサフュージョンによる最終的な車両特定が同様
になされている場合には、後述するLR1による車両の
認定処理のグループ化処理(図15のステップS75)
において2つのブロックを1グループにまとめるとき
に、それらブロック間の距離(車体後面の左右端部にあ
るリフレクタ間の距離に対応する長さ)に応じて標準的
な車幅(画素数)を求めておき、その値をステップS5
6において採用しても良い。
【0081】ステップS57:本ステップでは、上述し
た車両画像の概略推定処理にて算出した部分画像領域に
対して採用するフレーム(テンプレート)のサイズを決
定する。
た車両画像の概略推定処理にて算出した部分画像領域に
対して採用するフレーム(テンプレート)のサイズを決
定する。
【0082】即ち、ECU11には、決定すべきフレー
ムに関するサイズ情報として、排気管領域の画像位置を
基準とする上下左右の所定の割合情報(図11に示す横
方向の1/2、縦方向の2/7、5/7)が予め記憶さ
れており、この割合情報は、検出対象の車両(車種)の
断面形状における排気管位置の標準的な値に基づいて設
定されている。そこで、ステップS57では、ステップ
S56にて推定した車幅Wに基づいて当該割合情報を参
照することにより、ステップS54にて設定した排気管
部分の画像位置を基準として、上下左右に所定割合のサ
イズを有するフレーム(図11では、正方形で示すテン
プレート27)を設定する。
ムに関するサイズ情報として、排気管領域の画像位置を
基準とする上下左右の所定の割合情報(図11に示す横
方向の1/2、縦方向の2/7、5/7)が予め記憶さ
れており、この割合情報は、検出対象の車両(車種)の
断面形状における排気管位置の標準的な値に基づいて設
定されている。そこで、ステップS57では、ステップ
S56にて推定した車幅Wに基づいて当該割合情報を参
照することにより、ステップS54にて設定した排気管
部分の画像位置を基準として、上下左右に所定割合のサ
イズを有するフレーム(図11では、正方形で示すテン
プレート27)を設定する。
【0083】従って、本実施形態によれば、フレームサ
イズの決定に際して、前段の処理で検出されるであろう
赤外画像に含まれる車両画像の位置(即ち車両との距
離)に応じて多数のフレーム情報を、検出対象の車種毎
に予め記憶する必要は無く、フレームサイズの演算は車
幅Wと割合情報とに基づく車種毎に1回の処理で済むた
め、後述するパターンマッチング処理にて使用すべき最
適なフレームサイズを迅速に決定することができると共
に、ECU11に必要なメモリ領域を節約できる。
イズの決定に際して、前段の処理で検出されるであろう
赤外画像に含まれる車両画像の位置(即ち車両との距
離)に応じて多数のフレーム情報を、検出対象の車種毎
に予め記憶する必要は無く、フレームサイズの演算は車
幅Wと割合情報とに基づく車種毎に1回の処理で済むた
め、後述するパターンマッチング処理にて使用すべき最
適なフレームサイズを迅速に決定することができると共
に、ECU11に必要なメモリ領域を節約できる。
【0084】ステップS58:上述した車両画像の概略
推定処理にて算出した部分画像領域に対して、ステップ
S57にて設定したフレームを用いてパターンマッチン
グを施すことにより、注目している部分画像領域が車両
を表わす画像であるかを判定する。より具体的には、注
目している部分画像領域のエッジ画像と、ステップS5
7にて設定したフレームとの論理積(AND)を採り、
その演算結果、当該両画像の重複部分が所定値より大き
いときには、検出対象である車両と判断すれば良い。
推定処理にて算出した部分画像領域に対して、ステップ
S57にて設定したフレームを用いてパターンマッチン
グを施すことにより、注目している部分画像領域が車両
を表わす画像であるかを判定する。より具体的には、注
目している部分画像領域のエッジ画像と、ステップS5
7にて設定したフレームとの論理積(AND)を採り、
その演算結果、当該両画像の重複部分が所定値より大き
いときには、検出対象である車両と判断すれば良い。
【0085】また、ECU11にて複数車種を検出対象
とする場合は、上記の割合情報を車種毎に予め記憶して
おき、ステップS57にて検出対象の車種毎に1つ最適
なフレームサイズを決定し、ステップS58では、注目
している部分画像領域に対して当該車種毎のフレームを
用いてパターンマッチングを順次行い、最も重複部分が
多かったフレームを選択することにより、選択されたフ
レームに対応する車種の車両が、自車両の前方に存在す
ると判定することもできる。
とする場合は、上記の割合情報を車種毎に予め記憶して
おき、ステップS57にて検出対象の車種毎に1つ最適
なフレームサイズを決定し、ステップS58では、注目
している部分画像領域に対して当該車種毎のフレームを
用いてパターンマッチングを順次行い、最も重複部分が
多かったフレームを選択することにより、選択されたフ
レームに対応する車種の車両が、自車両の前方に存在す
ると判定することもできる。
【0086】ステップS59,ステップS60:ステッ
プS59におけるパターンマッチングの結果に対する重
み付け処理を行い(ステップS59)、その結果に基づ
いて、現在(今回の制御周期において)注目している部
分画像領域が検出対象の車両であるか否かを認定する
(ステップS60)。以下にステップS59及びステッ
プS60の詳細を説明する。
プS59におけるパターンマッチングの結果に対する重
み付け処理を行い(ステップS59)、その結果に基づ
いて、現在(今回の制御周期において)注目している部
分画像領域が検出対象の車両であるか否かを認定する
(ステップS60)。以下にステップS59及びステッ
プS60の詳細を説明する。
【0087】ステップS59において、IS2による車
両検出結果の時刻tにおける点数(重み付け値)WIS (t)
は、以下の(1)式: WIS (t) = WIS (t-1) + KAR*WAR (t) + KEP*WEP (t) + KCER*WCER (t) + KTA*WTA (t, t-1) + KTEP*WTEP (t, t-1) - KIS*e-1 ・・・・・(1), によって求めることができる。
両検出結果の時刻tにおける点数(重み付け値)WIS (t)
は、以下の(1)式: WIS (t) = WIS (t-1) + KAR*WAR (t) + KEP*WEP (t) + KCER*WCER (t) + KTA*WTA (t, t-1) + KTEP*WTEP (t, t-1) - KIS*e-1 ・・・・・(1), によって求めることができる。
【0088】但し、上記の式において、 ・時刻t−1において算出した点数: WIS (t-1), ・時刻tにおけるアスペクト比に関する点数: KAR*W
AR (t), ・時刻tにおける排気管の位置に関する点数: KEP*W
EP (t), ・排気管領域の画像面積/車両領域の画像面積の比に関
する点数: KCER*WCER ( t), ・車両領域の画像面積の時間変化に関する点数: KTA*
WTA (t, t-1), ・排気管の位置の時間変化に関する点数: KTEP*WTEP
(t, t-1), ・正規分布にするための係数: KIS*e-1, である。
AR (t), ・時刻tにおける排気管の位置に関する点数: KEP*W
EP (t), ・排気管領域の画像面積/車両領域の画像面積の比に関
する点数: KCER*WCER ( t), ・車両領域の画像面積の時間変化に関する点数: KTA*
WTA (t, t-1), ・排気管の位置の時間変化に関する点数: KTEP*WTEP
(t, t-1), ・正規分布にするための係数: KIS*e-1, である。
【0089】尚、本実施形態においてアスペクト比と
は、算出結果に対する信頼性を表わす値であり、信頼性
が高いほど1に近く、信頼性が低いほど0に近い値を採
る。
は、算出結果に対する信頼性を表わす値であり、信頼性
が高いほど1に近く、信頼性が低いほど0に近い値を採
る。
【0090】ここで、定数項WAR (t)は、図13(a)に
示すところの、時刻tにおける演算結果のアスペクト比
に関する定数であり、赤外画像の全体領域における部分
画像領域の位置に応じて設定される。この定数は、赤外
線カメラによって撮像された赤外画像に基づいて距離を
算出する場合、赤外画像の端に位置する画素(画角の端
の画素)ほど画像の信頼性が劣化するという一般的な特
性が有るので、その特性を反映するための値である。
示すところの、時刻tにおける演算結果のアスペクト比
に関する定数であり、赤外画像の全体領域における部分
画像領域の位置に応じて設定される。この定数は、赤外
線カメラによって撮像された赤外画像に基づいて距離を
算出する場合、赤外画像の端に位置する画素(画角の端
の画素)ほど画像の信頼性が劣化するという一般的な特
性が有るので、その特性を反映するための値である。
【0091】定数項WEP (t)は、図13(b)に示すとこ
ろの、時刻tにおける排気管の位置に関する定数であ
り、赤外画像の全体領域における排気管の画像位置に応
じて設定される。
ろの、時刻tにおける排気管の位置に関する定数であ
り、赤外画像の全体領域における排気管の画像位置に応
じて設定される。
【0092】定数項WCER (t)は、図13(c)に示すと
ころの、排気管領域の画像面積/車両領域の画像面積の
比に関するであり、注目している部分画像領域の面積に
対する排気管位置の画像部分の面積が所定値(本実施形
態では1/10)から大きく異なるほど小さな値が選択
される。
ころの、排気管領域の画像面積/車両領域の画像面積の
比に関するであり、注目している部分画像領域の面積に
対する排気管位置の画像部分の面積が所定値(本実施形
態では1/10)から大きく異なるほど小さな値が選択
される。
【0093】定数項WTA (t, t-1)は、図14(d)に示
すところの、車両領域の画像面積の時間変化に関する定
数であり、赤外線カメラの1回の制御周期(本実施形態
ではt=100msec)の僅かな時間間隔にも関ら
ず、注目している部分画像領域の面積が大きく異なるほ
ど小さな値が選択される。
すところの、車両領域の画像面積の時間変化に関する定
数であり、赤外線カメラの1回の制御周期(本実施形態
ではt=100msec)の僅かな時間間隔にも関ら
ず、注目している部分画像領域の面積が大きく異なるほ
ど小さな値が選択される。
【0094】定数項WTEP (t, t-1)は、図14(e)に示
すところの、排気管の位置の時間変化に関する定数であ
り、赤外線カメラの1回の制御周期(本実施形態ではt
=100msec)の僅かな時間間隔にも関らず、注目
している部分画像領域の内部における排気管領域の画像
位置が大きく異なるほど小さな値が選択される。
すところの、排気管の位置の時間変化に関する定数であ
り、赤外線カメラの1回の制御周期(本実施形態ではt
=100msec)の僅かな時間間隔にも関らず、注目
している部分画像領域の内部における排気管領域の画像
位置が大きく異なるほど小さな値が選択される。
【0095】尚、上述した図13及び図14に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
性は、ECU11に予めルックアップテーブルとして記
憶されている。
【0096】また、係数KISは、 係数KIS = KAR + KEP + KCER + KTA + KTEP, なる関係がある。
【0097】そして、ステップS60における認定処理
では、上記のステップS59の処理にて算出された点数
(重み付け値)WIS (t)の値が1以上のときには、今回の
制御周期において注目している部分画像領域の画像が検
出対象の車両を表わすと認定する。また、本ステップに
おいて車両であると認定した場合には、後述するセンサ
ーフュージョンの処理の都合から、点数WIS (t)の値を1
に設定する。
では、上記のステップS59の処理にて算出された点数
(重み付け値)WIS (t)の値が1以上のときには、今回の
制御周期において注目している部分画像領域の画像が検
出対象の車両を表わすと認定する。また、本ステップに
おいて車両であると認定した場合には、後述するセンサ
ーフュージョンの処理の都合から、点数WIS (t)の値を1
に設定する。
【0098】以上説明したIS2による車両の認定処理
によれば、車両画像の概略推定処理(図9)によって検
出された車両(車両である可能性の高いエッジ画像)毎
に車両検出処理(図10)が行われることにより、それ
ら車両の位置(相対距離)及び速度(図10のステップ
S55)と、その演算結果の信頼性に関する値(図10
のステップS60)とを、高精度に算出することができ
る。
によれば、車両画像の概略推定処理(図9)によって検
出された車両(車両である可能性の高いエッジ画像)毎
に車両検出処理(図10)が行われることにより、それ
ら車両の位置(相対距離)及び速度(図10のステップ
S55)と、その演算結果の信頼性に関する値(図10
のステップS60)とを、高精度に算出することができ
る。
【0099】<LR1による車両の認定処理>次に、L
R1による車両の認定処理について、図15乃至図18
を参照して説明する。
R1による車両の認定処理について、図15乃至図18
を参照して説明する。
【0100】はじめに、本実施形態におけるLR1によ
る車両の認定処理を概説する。LR1による車両の認定
処理では、検出した反射波のうち、所定のしきい値より
大きな強度の反射波から移動方向及び速度が近似するも
のを1ブロックにまとめるブロック化処理と、ブロック
化によってまとめられた複数のブロックのうち、近傍に
位置する2つのブロックを、検出対象である車両として
1つのグループにまとめるグループ化処理と、検出され
たグループ単位で、存在及び移動状態を判定する認定処
理とにより構成される。
る車両の認定処理を概説する。LR1による車両の認定
処理では、検出した反射波のうち、所定のしきい値より
大きな強度の反射波から移動方向及び速度が近似するも
のを1ブロックにまとめるブロック化処理と、ブロック
化によってまとめられた複数のブロックのうち、近傍に
位置する2つのブロックを、検出対象である車両として
1つのグループにまとめるグループ化処理と、検出され
たグループ単位で、存在及び移動状態を判定する認定処
理とにより構成される。
【0101】尚、本実施形態の前提として、検出対象で
ある車両の後部バンパーの両端部付近には、それぞれ反
射板(リフレクタ)が取り付けられており、LR1によ
る車両の検出は、反射板からの検出波の反射波に基づい
て行われる。以下、LR1による車両の認定処理につい
て、図15乃至図19を参照して説明する。
ある車両の後部バンパーの両端部付近には、それぞれ反
射板(リフレクタ)が取り付けられており、LR1によ
る車両の検出は、反射板からの検出波の反射波に基づい
て行われる。以下、LR1による車両の認定処理につい
て、図15乃至図19を参照して説明する。
【0102】図15は、本実施形態におけるECU11
が実行するLR1による車両の認定処理を示すフローチ
ャートであり、図6のステップS12の詳細な処理手順
を示す。
が実行するLR1による車両の認定処理を示すフローチ
ャートであり、図6のステップS12の詳細な処理手順
を示す。
【0103】図15において、ステップS71:LR1
によって図3に示す検出波の伝搬範囲を走査し、その結
果、車両100の前方に存在する障害物から戻ってくる
反射波に基づいて、当該障害物までの距離及び存在方向
(位置)の情報を入手する。本ステップにて入手する情
報は、図16(a)に「レーザレーダの出力データ」に
示すように、図3に示す検出波の伝搬範囲において複数
の点状に離散した状態の検出結果である。
によって図3に示す検出波の伝搬範囲を走査し、その結
果、車両100の前方に存在する障害物から戻ってくる
反射波に基づいて、当該障害物までの距離及び存在方向
(位置)の情報を入手する。本ステップにて入手する情
報は、図16(a)に「レーザレーダの出力データ」に
示すように、図3に示す検出波の伝搬範囲において複数
の点状に離散した状態の検出結果である。
【0104】ステップS72:ステップS71にて検出
された障害物までの距離(位置)と、前回までの制御周
期において後述するステップS74にて既にブロック化
されている障害物までの距離(位置)とを参照すること
により、今回の制御周期においてステップS71にて検
出された障害物が既にブロック化されているかを判断す
る。
された障害物までの距離(位置)と、前回までの制御周
期において後述するステップS74にて既にブロック化
されている障害物までの距離(位置)とを参照すること
により、今回の制御周期においてステップS71にて検
出された障害物が既にブロック化されているかを判断す
る。
【0105】ステップS73:ステップS72の判断に
てブロック化済みであるので、対象となる障害物からの
反射波の強度が所定値より大きな検出値であるものを選
択し、1つのブロックとしてまとめる。
てブロック化済みであるので、対象となる障害物からの
反射波の強度が所定値より大きな検出値であるものを選
択し、1つのブロックとしてまとめる。
【0106】ステップS74:ステップS72の判断に
て未だブロック化されていないので、ステップS71に
て検出された障害物に対して、所定のしきい値より大き
な強度の反射波から移動方向及び速度が近似するものを
1ブロックにまとめるブロック化処理(ブロックラベリ
ング)を行う。これにより、図16(a)の「レーザレ
ーダの出力データ」は、図16(b)の「ブロックラベ
リング」に示すように、複数のブロックにまとめられ
る。このとき、レーザレーダの出力データを1ブロック
としてまとめる基準は、標準的なリフレクタの大きさに
基づいて設定する。
て未だブロック化されていないので、ステップS71に
て検出された障害物に対して、所定のしきい値より大き
な強度の反射波から移動方向及び速度が近似するものを
1ブロックにまとめるブロック化処理(ブロックラベリ
ング)を行う。これにより、図16(a)の「レーザレ
ーダの出力データ」は、図16(b)の「ブロックラベ
リング」に示すように、複数のブロックにまとめられ
る。このとき、レーザレーダの出力データを1ブロック
としてまとめる基準は、標準的なリフレクタの大きさに
基づいて設定する。
【0107】ステップS75:ステップS74にて入手
した複数のブロック、またはステップS73にて入手し
たブロックのうち、相対速度が略等しく、且つ近傍に位
置する2つのブロックを、検出対象である車両として1
つのグループにまとめるグループ化処理(グループラベ
リング)を行う。これにより、図16(b)の「ブロッ
クラベリング」に示す各ブロックは、図16(C)の
「グループラベリング」に示すように、複数のグループ
にまとめられる。そして、本ステップによれば、例え
ば、1つのグループを構成するために参照した2つのブ
ロックをなすLR1の検出結果の平均値を求めることに
より、グループ(車両)毎に、自車両との相対的な位置
関係(距離)が求まる。
した複数のブロック、またはステップS73にて入手し
たブロックのうち、相対速度が略等しく、且つ近傍に位
置する2つのブロックを、検出対象である車両として1
つのグループにまとめるグループ化処理(グループラベ
リング)を行う。これにより、図16(b)の「ブロッ
クラベリング」に示す各ブロックは、図16(C)の
「グループラベリング」に示すように、複数のグループ
にまとめられる。そして、本ステップによれば、例え
ば、1つのグループを構成するために参照した2つのブ
ロックをなすLR1の検出結果の平均値を求めることに
より、グループ(車両)毎に、自車両との相対的な位置
関係(距離)が求まる。
【0108】尚、IS2による単独の第1検出範囲にお
いて検出されていた車両が、LR1及びIS2による重
複した第2検出範囲に移動したときに、その車両が前回
までの制御周期においてIS2によって既に検出されて
いる車両(グループ)であるときには、その車両に対す
る上記ステップS75に記載したブロック化処理を簡略
化することができる。即ち、前述したIS2による車両
位置(距離)及びIS2による車幅データに基づいて、
LR1の検出範囲に存在する同一車両のリフレクタから
の反射波データの存在すべき領域を推定し、推定した領
域内に存在する2つのブロックについては、1つのグル
ープとしてまとめれば良い。但し、この処理は、IS2
による車幅データの信頼性が低いとき(例えば、夕方等
のように路面温度が比較的高いとき)には行わないもの
とする。この場合、第2検出範囲から第1検出範囲に移
動した車両に対するIS2による検出結果は、所定時間
にわたって記憶しておけば良い。これにより、自車両先
方における割り込み車両を迅速に認識することができ
る。
いて検出されていた車両が、LR1及びIS2による重
複した第2検出範囲に移動したときに、その車両が前回
までの制御周期においてIS2によって既に検出されて
いる車両(グループ)であるときには、その車両に対す
る上記ステップS75に記載したブロック化処理を簡略
化することができる。即ち、前述したIS2による車両
位置(距離)及びIS2による車幅データに基づいて、
LR1の検出範囲に存在する同一車両のリフレクタから
の反射波データの存在すべき領域を推定し、推定した領
域内に存在する2つのブロックについては、1つのグル
ープとしてまとめれば良い。但し、この処理は、IS2
による車幅データの信頼性が低いとき(例えば、夕方等
のように路面温度が比較的高いとき)には行わないもの
とする。この場合、第2検出範囲から第1検出範囲に移
動した車両に対するIS2による検出結果は、所定時間
にわたって記憶しておけば良い。これにより、自車両先
方における割り込み車両を迅速に認識することができ
る。
【0109】ステップS76:検出されたグループ単位
で、ステップS75におけるグループ化によって検出さ
れた車両(グループ)の移動状態を検出するトラッキン
グ処理を行う。即ち、時刻tにおける先行車両の位置情
報と、その車両の時刻tー1における位置情報とによ
り、当該車両の車両100に対する速度(相対速度)ベ
クトルVは算出可能であり(図17参照)、算出した速
度ベクトルVのX方向成分を算出することにより、当該
車両の横移動速度が求まる。
で、ステップS75におけるグループ化によって検出さ
れた車両(グループ)の移動状態を検出するトラッキン
グ処理を行う。即ち、時刻tにおける先行車両の位置情
報と、その車両の時刻tー1における位置情報とによ
り、当該車両の車両100に対する速度(相対速度)ベ
クトルVは算出可能であり(図17参照)、算出した速
度ベクトルVのX方向成分を算出することにより、当該
車両の横移動速度が求まる。
【0110】即ち、自車両前方に存在する他車両の横方
向速度は、 ・平滑化距離Xsk = 予測距離Xpk + α(検出距離Xk - 予測距離Xpk) ・・・ (2), ・横移動速度Vsk = 前回の横移動速度Vsk-1 + β/サンプリング周期T(検出 距離Xk - 予測距離Xpk) ・・・(3), ・予測距離Xpk+1 = 平滑化距離Xsk + サンプリング周期T×横移動速度Vsk ・・・(4), なる数式によって表現することができる。
向速度は、 ・平滑化距離Xsk = 予測距離Xpk + α(検出距離Xk - 予測距離Xpk) ・・・ (2), ・横移動速度Vsk = 前回の横移動速度Vsk-1 + β/サンプリング周期T(検出 距離Xk - 予測距離Xpk) ・・・(3), ・予測距離Xpk+1 = 平滑化距離Xsk + サンプリング周期T×横移動速度Vsk ・・・(4), なる数式によって表現することができる。
【0111】ここで、他車両の速度に関する上記の式
(2)乃至(4)において、αは移動量に関し、検出値
と予測値をどれくらいの割合で合成するかを表わすパラ
メータである。βは次の予測距離を決定するのに、どれ
くらいの割合で合成するかを表わすパラメータである。
また、縦方向速度は、上記の各式においてxをyに置き
換える式によって同様に算出できる。
(2)乃至(4)において、αは移動量に関し、検出値
と予測値をどれくらいの割合で合成するかを表わすパラ
メータである。βは次の予測距離を決定するのに、どれ
くらいの割合で合成するかを表わすパラメータである。
また、縦方向速度は、上記の各式においてxをyに置き
換える式によって同様に算出できる。
【0112】従って、LR1からの出力信号がECU1
1に時系列に入力される限り、このようなトラッキング
処理をグループ化によって検出された車両(グループ)
毎に行うことにより、それら車両の次回の制御周期にお
ける挙動(位置及び速度)を正確に予測することができ
る。この次回の制御周期における挙動予測の結果は、後
述するセンサフュージョンの処理において特定しいてい
た車両が第2検出範囲から第1検出範囲に移動してしま
い、実測値を利用したLR1による検出結果が求められ
ない場合においても、センサフュージョンを継続する際
に使用される(詳細は後述する)。
1に時系列に入力される限り、このようなトラッキング
処理をグループ化によって検出された車両(グループ)
毎に行うことにより、それら車両の次回の制御周期にお
ける挙動(位置及び速度)を正確に予測することができ
る。この次回の制御周期における挙動予測の結果は、後
述するセンサフュージョンの処理において特定しいてい
た車両が第2検出範囲から第1検出範囲に移動してしま
い、実測値を利用したLR1による検出結果が求められ
ない場合においても、センサフュージョンを継続する際
に使用される(詳細は後述する)。
【0113】ステップS77,ステップS78:検出さ
れたグループ単位で、ステップS76におけるトラッキ
ング処理の結果に対する重み付け処理を行い(ステップ
S77)、その結果に基づいて、現在(今回の制御周期
において)注目している各車両(1つの注目グループ)
が検出対象の車両であるか否かを認定する(ステップS
78)。以下にステップS77及びステップS78の詳
細を説明する。
れたグループ単位で、ステップS76におけるトラッキ
ング処理の結果に対する重み付け処理を行い(ステップ
S77)、その結果に基づいて、現在(今回の制御周期
において)注目している各車両(1つの注目グループ)
が検出対象の車両であるか否かを認定する(ステップS
78)。以下にステップS77及びステップS78の詳
細を説明する。
【0114】ステップS77において、LR1による車
両検出結果の時刻tにおける点数(重み付け値)WLR (t)
は、以下の式(5): WLR (t) = WLR (t-1) + KBL*WBL (t) + KDB*WDB (t) + KTDR*WTDR (t, t-1) + KE PR *WEPR (t) - KBL - (KDB + KTDR + KEPR)*e-1 ・・・・・(5), によって求めることができる。
両検出結果の時刻tにおける点数(重み付け値)WLR (t)
は、以下の式(5): WLR (t) = WLR (t-1) + KBL*WBL (t) + KDB*WDB (t) + KTDR*WTDR (t, t-1) + KE PR *WEPR (t) - KBL - (KDB + KTDR + KEPR)*e-1 ・・・・・(5), によって求めることができる。
【0115】但し、上記の式において、 ・時刻t−1において算出した点数: WLR (t-1), ・注目グループについて検出したブロック数に関する点
数: KBL*WBL (t), ・注目グループをなす2つのブロック間の距離に関する
点数: KDB*WDB (t), ・注目グループをなす2つのブロック間の距離変化に関
する点数: KTDR*WTDR ( t, t-1), ・注目グループの予測位置と検出位置との差に関する点
数: KEPR*WEPR (t), ・正規分布にするための係数: KBL - (KDB + KTDR +
KEPR)*e-1 である。
数: KBL*WBL (t), ・注目グループをなす2つのブロック間の距離に関する
点数: KDB*WDB (t), ・注目グループをなす2つのブロック間の距離変化に関
する点数: KTDR*WTDR ( t, t-1), ・注目グループの予測位置と検出位置との差に関する点
数: KEPR*WEPR (t), ・正規分布にするための係数: KBL - (KDB + KTDR +
KEPR)*e-1 である。
【0116】ここで、定数項WBL (t)は、図18(a)に
示すところの、注目グループについて検出したブロック
数に関する定数であり、本実施形態では1台の車両に2
つのリフレクタが取り付けられていることを前提として
いるので、検出されたブロック(リフレクタ)数が2の
ときに当該定数として1が選択される。
示すところの、注目グループについて検出したブロック
数に関する定数であり、本実施形態では1台の車両に2
つのリフレクタが取り付けられていることを前提として
いるので、検出されたブロック(リフレクタ)数が2の
ときに当該定数として1が選択される。
【0117】定数項WDB (t)は、図18(b)に示すとこ
ろの、注目グループをなす2つのブロック間の距離に関
する定数であり、ブロック(リフレクタ)間の距離が検
出対象の車両における2つのリフレクタ間の標準的な距
離(本実施形態では1.2m)に近いほど当該定数は1
に近い値が選択される。
ろの、注目グループをなす2つのブロック間の距離に関
する定数であり、ブロック(リフレクタ)間の距離が検
出対象の車両における2つのリフレクタ間の標準的な距
離(本実施形態では1.2m)に近いほど当該定数は1
に近い値が選択される。
【0118】定数項WTDR (t, t-1)は、図19(c)に示
すところの、注目グループをなす2つのブロック間の距
離変化に関する定数であり、LR1の1回の制御周期の
僅かな時間間隔にも関らず、ブロック(リフレクタ)間
の距離が大きく異なるほど小さな値が選択される。
すところの、注目グループをなす2つのブロック間の距
離変化に関する定数であり、LR1の1回の制御周期の
僅かな時間間隔にも関らず、ブロック(リフレクタ)間
の距離が大きく異なるほど小さな値が選択される。
【0119】定数項WEPR (t)は、図19(d)に示すと
ころの、注目グループの予測位置と検出位置との差に関
する定数であり、上記の式(2)乃至(4)を用いてス
テップS76にて算出した予測位置と、ステップS75
のグループ化の時点で入手した実際の検出位置との差が
大きいほど、小さな値が選択される。
ころの、注目グループの予測位置と検出位置との差に関
する定数であり、上記の式(2)乃至(4)を用いてス
テップS76にて算出した予測位置と、ステップS75
のグループ化の時点で入手した実際の検出位置との差が
大きいほど、小さな値が選択される。
【0120】尚、上述した図18及び図19に示した特
性は、ECU11に予めルックアップテーブルとして記
憶されている。
性は、ECU11に予めルックアップテーブルとして記
憶されている。
【0121】そして、ステップS78における認定処理
では、上記のステップS77の処理にて算出された点数
(重み付け値)WLR (t)の値が1以上のときには、注目グ
ループが検出対象の車両を表わすと認定する。また、本
ステップにおいて車両であると認定した場合には、後述
するセンサーフュージョンの処理の都合から、点数WL R
(t)の値を1に設定する。
では、上記のステップS77の処理にて算出された点数
(重み付け値)WLR (t)の値が1以上のときには、注目グ
ループが検出対象の車両を表わすと認定する。また、本
ステップにおいて車両であると認定した場合には、後述
するセンサーフュージョンの処理の都合から、点数WL R
(t)の値を1に設定する。
【0122】以上説明したLR1による車両の認定処理
によれば、車両検出処理(図15)が行われることによ
り、車両を表わすグループ毎に、位置(相対距離)及び
速度(図15のステップS75及びステップS76)
と、その演算結果の信頼性に関する値(図15のステッ
プS78)とを算出することができる。
によれば、車両検出処理(図15)が行われることによ
り、車両を表わすグループ毎に、位置(相対距離)及び
速度(図15のステップS75及びステップS76)
と、その演算結果の信頼性に関する値(図15のステッ
プS78)とを算出することができる。
【0123】<センサフュージョンによる車両の認識処
理>上述した各工程により、LR1及びIS2を用いた
車両の認定処理による検出結果とその信頼性に関する値
が求まったので、それらの値に基づくセンサフュージョ
ンによる車両の認識処理について、図20及び図21を
参照して説明する。
理>上述した各工程により、LR1及びIS2を用いた
車両の認定処理による検出結果とその信頼性に関する値
が求まったので、それらの値に基づくセンサフュージョ
ンによる車両の認識処理について、図20及び図21を
参照して説明する。
【0124】はじめに、本実施形態に係るセンサフュー
ジョンによる車両の認識処理を概説する。この認識処理
では、上述したLR1及びIS2による車両の認定処理
によって車両であると認定されたそれぞれの物体の位置
及び速度の相関関係を表わす値を算出すると共に、その
相関関係を表わす値と、LR1及びIS2による車両の
認定処理によってそれぞれ検出された位置及び速度の信
頼性に関する値との和が所定のしきい値より大きいとき
に、それら物体を、監視対象である1つの車両として正
式に認識する処理を行う。
ジョンによる車両の認識処理を概説する。この認識処理
では、上述したLR1及びIS2による車両の認定処理
によって車両であると認定されたそれぞれの物体の位置
及び速度の相関関係を表わす値を算出すると共に、その
相関関係を表わす値と、LR1及びIS2による車両の
認定処理によってそれぞれ検出された位置及び速度の信
頼性に関する値との和が所定のしきい値より大きいとき
に、それら物体を、監視対象である1つの車両として正
式に認識する処理を行う。
【0125】(LR1及びIS2の検出結果によるセン
サフュージョン)以下、センサフュージョンによる車両
の認識処理について、図20及び図21を参照して説明
する。本実施形態において、センサフュージョンによる
LR1及びIS2を用いた車両の認定処理結果の評価
は、赤外画像の座標系において行う。
サフュージョン)以下、センサフュージョンによる車両
の認識処理について、図20及び図21を参照して説明
する。本実施形態において、センサフュージョンによる
LR1及びIS2を用いた車両の認定処理結果の評価
は、赤外画像の座標系において行う。
【0126】但し、IS2による距離推定は、光学系及
び撮像デバイスを利用した方法であるため、赤外画像の
中央部分と比較して左右の端部の信頼性に劣り、且つ自
車両から遠方方向(Z方向)の信頼性もある程度の距離
を越えると徐々に低くなることが一般的に知られてい
る。また、検出対象の物体の一部が画角から外れてしま
った場合には正確な検出を行うことができない。そこ
で、図20に示すように、IS2に関して、X方向(横
方向)の信頼性の定義(図20(a))と、Z方向(縦
方向)の信頼性の定義(図20(b))とをECU11
に予め記憶しておくことにより、IS2による距離推定
の信頼性を定義する。
び撮像デバイスを利用した方法であるため、赤外画像の
中央部分と比較して左右の端部の信頼性に劣り、且つ自
車両から遠方方向(Z方向)の信頼性もある程度の距離
を越えると徐々に低くなることが一般的に知られてい
る。また、検出対象の物体の一部が画角から外れてしま
った場合には正確な検出を行うことができない。そこ
で、図20に示すように、IS2に関して、X方向(横
方向)の信頼性の定義(図20(a))と、Z方向(縦
方向)の信頼性の定義(図20(b))とをECU11
に予め記憶しておくことにより、IS2による距離推定
の信頼性を定義する。
【0127】一方、LR1による距離推定は、IS2を
用いた場合と比較して検出範囲が長く、検出結果の信頼
性も高いが、左右方向に対する検出範囲が狭い。そこ
で、図21に示すように、LR1に関して、X方向(横
方向)の信頼性の定義(図21(a))と、Z方向(縦
方向)の信頼性の定義(図21(b))とをECU11
に予め記憶しておくことにより、LR1による距離推定
の信頼性を定義する。
用いた場合と比較して検出範囲が長く、検出結果の信頼
性も高いが、左右方向に対する検出範囲が狭い。そこ
で、図21に示すように、LR1に関して、X方向(横
方向)の信頼性の定義(図21(a))と、Z方向(縦
方向)の信頼性の定義(図21(b))とをECU11
に予め記憶しておくことにより、LR1による距離推定
の信頼性を定義する。
【0128】次に、センサフュージョンのアルゴリズム
について説明する。
について説明する。
【0129】図3を参照して示したように、IS2の検
出範囲は、LR1の検出範囲を内包するように設定され
ているので、当該2種類の検出方式には、検出領域が重
複していない第1検出範囲と、重複している第2検出範
囲とがある。これに対して、センサフュージョンの基本
概念としては、同じ検出対象に対して複数の検出結果が
存在することが前提となるため、本実施形態において
も、基本的には、LR1及びIS2による実測値に基づ
く2種類の検出結果が存在する場合にセンサフュージョ
ンを行う。
出範囲は、LR1の検出範囲を内包するように設定され
ているので、当該2種類の検出方式には、検出領域が重
複していない第1検出範囲と、重複している第2検出範
囲とがある。これに対して、センサフュージョンの基本
概念としては、同じ検出対象に対して複数の検出結果が
存在することが前提となるため、本実施形態において
も、基本的には、LR1及びIS2による実測値に基づ
く2種類の検出結果が存在する場合にセンサフュージョ
ンを行う。
【0130】(LR1及びIS2による検出結果のセン
サフュージョン)LR1及びIS2によるそれぞれの検
出結果が存在する場合に、センサフュージョンでは、当
該2種類のセンサによって検出された物体が本当に車両
であるのか、或いは何等かのノイズによるものなのかを
判断しなければならない。
サフュージョン)LR1及びIS2によるそれぞれの検
出結果が存在する場合に、センサフュージョンでは、当
該2種類のセンサによって検出された物体が本当に車両
であるのか、或いは何等かのノイズによるものなのかを
判断しなければならない。
【0131】ここで、第2検出範囲に車両が存在する場
合には、 ・LR1及びIS2によって検出される信頼性の点数
(WIS,WLR)が高い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が高い、 ・そして、LR1及びIS2の両センサに時間的に比較
的長く反応する、という特徴がある。
合には、 ・LR1及びIS2によって検出される信頼性の点数
(WIS,WLR)が高い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が高い、 ・そして、LR1及びIS2の両センサに時間的に比較
的長く反応する、という特徴がある。
【0132】また、第2検出範囲にノイズが存在する場
合には、 ・LR1及びIS2によって検出される信頼性(WIS,
WLR)が低い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が低い、 ・そして、LR1及びIS2の両センサに反応する時間
が比較的短い、という特徴がある。
合には、 ・LR1及びIS2によって検出される信頼性(WIS,
WLR)が低い、 ・LR1及びIS2によって検出される車両の位置と速
度との相関度が低い、 ・そして、LR1及びIS2の両センサに反応する時間
が比較的短い、という特徴がある。
【0133】そこで、本実施形態では、上記の第2検出
範囲における特徴を踏まえたセンサフュージョンの式
を、下記の式(6)のように定式化することにより、セ
ンサフュージョンの点数SFを求める。
範囲における特徴を踏まえたセンサフュージョンの式
を、下記の式(6)のように定式化することにより、セ
ンサフュージョンの点数SFを求める。
【0134】
【数1】
【0135】また、係数θIS()及びθLR()について
は、式(13)及び式(14)を参照して後述する。
は、式(13)及び式(14)を参照して後述する。
【0136】そして、上記の式(6)によって算出した
センサフュージョンの点数SFが1以上であるときに
は、「車両である」と認定する。また、このとき、時系
列なデータに基づいて算出した位置と速度との相関度、
或いはLR1及びIS2による検出結果の信頼性の点数
WISまたはWLRの何れか一方が1点満点に近い点数であ
れば、他方の値が比較的低い点数であっても、「車両で
ある」と認定する。
センサフュージョンの点数SFが1以上であるときに
は、「車両である」と認定する。また、このとき、時系
列なデータに基づいて算出した位置と速度との相関度、
或いはLR1及びIS2による検出結果の信頼性の点数
WISまたはWLRの何れか一方が1点満点に近い点数であ
れば、他方の値が比較的低い点数であっても、「車両で
ある」と認定する。
【0137】ここで、式(6)の第1項の位置と速度と
の相関度を表す関係式において、f() は位置の相関
度、 g()は速度の相関度を表しており、0≦f()
≦1、0≦g()≦1の範囲の値を採る。これらの関数
の具体的な式を、下記の式(7)及び式(8)に示す。
の相関度を表す関係式において、f() は位置の相関
度、 g()は速度の相関度を表しており、0≦f()
≦1、0≦g()≦1の範囲の値を採る。これらの関数
の具体的な式を、下記の式(7)及び式(8)に示す。
【0138】
【数2】
【0139】ここで、ωX()、ωZ()は、以下に示すX方
向(自車両の横方向)、Z方向(自車両の前方方向)の
相対的な信頼性の関数であり、ωX()+ωZ()=1 を満
たす。また、LX()、LZ()は、X方向、Z方向の限界偏差
であり、共に距離ZIS,ZLRの関数である。更に、
Tは、サンプリング時間である。
向(自車両の横方向)、Z方向(自車両の前方方向)の
相対的な信頼性の関数であり、ωX()+ωZ()=1 を満
たす。また、LX()、LZ()は、X方向、Z方向の限界偏差
であり、共に距離ZIS,ZLRの関数である。更に、
Tは、サンプリング時間である。
【0140】例えば、車両(先行車両)が自車両より遠く
に存在する場合、LR1と比較してIS2の検出精度が
劣化するため、当該両センサによって検出されるZ方向
の位置の偏差は大きくなる。従ってこのような場合は、
ωZ()の値がωX()に比べて低くなるように調整する。ま
た、Z方向において車両(先行車両)が自車両の至近距離
に存在する場合には、ωX()>ωZ()となるように調整す
る。これにより、周囲の環境変化を認識結果の確度(信
頼性)に反映することができる。
に存在する場合、LR1と比較してIS2の検出精度が
劣化するため、当該両センサによって検出されるZ方向
の位置の偏差は大きくなる。従ってこのような場合は、
ωZ()の値がωX()に比べて低くなるように調整する。ま
た、Z方向において車両(先行車両)が自車両の至近距離
に存在する場合には、ωX()>ωZ()となるように調整す
る。これにより、周囲の環境変化を認識結果の確度(信
頼性)に反映することができる。
【0141】同様な考え方により、車両(先行車両)が自
車両の前方を基準として左右に存在する(X方向の)場
合には、ωX()<ωZ()となるように調整する。また、車
両(先行車両)が自車両の前方(Z軸上)の比較的近距離
な位置に存在する場合は、何れのセンサによる検出結果
の信頼性も同じであるとみなせるので、ωX()=ωZ()と
する。
車両の前方を基準として左右に存在する(X方向の)場
合には、ωX()<ωZ()となるように調整する。また、車
両(先行車両)が自車両の前方(Z軸上)の比較的近距離
な位置に存在する場合は、何れのセンサによる検出結果
の信頼性も同じであるとみなせるので、ωX()=ωZ()と
する。
【0142】また、一般にレーザレーダによる検出結果
は、雨天や霧等の天候の影響を受け易い。そこで、本実
施形態において、ECU11は、上記の如くセンサフュ
ージョンを行うに際して、悪天候を検出した場合にはL
R1による検出結果に対する信頼性を晴天時と比較して
低く調整する。このとき、自車両周囲の天候の検出は、
ワイパースイッチ6の操作状態(当該スイッチがオン状
態であれば悪天候と推定する)及び照度センサ8の検出
結果に基づいて判断すれば良い。
は、雨天や霧等の天候の影響を受け易い。そこで、本実
施形態において、ECU11は、上記の如くセンサフュ
ージョンを行うに際して、悪天候を検出した場合にはL
R1による検出結果に対する信頼性を晴天時と比較して
低く調整する。このとき、自車両周囲の天候の検出は、
ワイパースイッチ6の操作状態(当該スイッチがオン状
態であれば悪天候と推定する)及び照度センサ8の検出
結果に基づいて判断すれば良い。
【0143】また、一般に赤外線カメラによる検出結果
は、路面温度が高くなる夏季や夕方の時間、並びに夕方
の時間帯に大きく傾いた太陽光の方向に自車両が進む場
合には影響を受け易い。特に本実施形態では、前方に存
在する車両の排気管位置の撮影を容易にすべくIS2の
取り付け位置を低くしているので何等かの対策が必要で
ある。そこで、ECU11は、上記の如くセンサフュー
ジョンを行うに際して、例えばGPSセンサ10を介し
て入手した時間情報やナビゲーションユニット(不図
示)から入手した進行方向やカレンダー情報、並びに照
度センサ8の検出結果を参照することにより、係る走行
環境であるか否かを推定し、検出結果が影響を受け易い
走行環境であると判断した場合には、IS2による検出
結果に対する信頼性を、そうでない場合と比較して低く
調整する。これにより、周囲の環境変化を認識結果の確
度(信頼性)に反映することができる。
は、路面温度が高くなる夏季や夕方の時間、並びに夕方
の時間帯に大きく傾いた太陽光の方向に自車両が進む場
合には影響を受け易い。特に本実施形態では、前方に存
在する車両の排気管位置の撮影を容易にすべくIS2の
取り付け位置を低くしているので何等かの対策が必要で
ある。そこで、ECU11は、上記の如くセンサフュー
ジョンを行うに際して、例えばGPSセンサ10を介し
て入手した時間情報やナビゲーションユニット(不図
示)から入手した進行方向やカレンダー情報、並びに照
度センサ8の検出結果を参照することにより、係る走行
環境であるか否かを推定し、検出結果が影響を受け易い
走行環境であると判断した場合には、IS2による検出
結果に対する信頼性を、そうでない場合と比較して低く
調整する。これにより、周囲の環境変化を認識結果の確
度(信頼性)に反映することができる。
【0144】信頼性の関数ωX()、ωZ()、LX()、LZ()
を、以下の式(9)乃至式(12)の如く定式化する。
を、以下の式(9)乃至式(12)の如く定式化する。
【0145】
【数3】
【0146】また、φf(),φg()は係数であり、車
両(先行車両)の位置により変動する関数であり、0≦φ
f()≦1、0≦φg()≦1の範囲の値を採り、
φf()+φg()=1なる関係を満たす。そして、係数
φf(),φg()のECU11による具体的な調整の傾
向としては、 ・φf()<φg():即ち、車両(先行車両)が自車両に
近いほど速度に比重を置く(IS2を優先する)。 ・φf()>φg():即ち、車両(先行車両)が自車両か
ら遠いほど位置に比重を置く(LR1を優先する)。
両(先行車両)の位置により変動する関数であり、0≦φ
f()≦1、0≦φg()≦1の範囲の値を採り、
φf()+φg()=1なる関係を満たす。そして、係数
φf(),φg()のECU11による具体的な調整の傾
向としては、 ・φf()<φg():即ち、車両(先行車両)が自車両に
近いほど速度に比重を置く(IS2を優先する)。 ・φf()>φg():即ち、車両(先行車両)が自車両か
ら遠いほど位置に比重を置く(LR1を優先する)。
【0147】実際のパラメータとしては、同様に、LR
1及びIS2のX方向及びZ方向の信頼性の関数を用い
る。
1及びIS2のX方向及びZ方向の信頼性の関数を用い
る。
【0148】以下にφf()とφg()とを定式化する。
【0149】
【数4】
【0150】式(6)の第2項のLR1及びIS2の信頼
性を表す式において、WISはIS2における信頼性の点
数であり、WLRはLR1における信頼性の点数であり、
0≦WIS≦1、0≦WLR≦1の範囲の値を採る。また、
θIS、θLRは係数であり、車両の位置により変動する関
数であり、0≦θIS≦1、0≦θLR≦1の範囲の値を採
り、θIS+θLR=1を満たす。
性を表す式において、WISはIS2における信頼性の点
数であり、WLRはLR1における信頼性の点数であり、
0≦WIS≦1、0≦WLR≦1の範囲の値を採る。また、
θIS、θLRは係数であり、車両の位置により変動する関
数であり、0≦θIS≦1、0≦θLR≦1の範囲の値を採
り、θIS+θLR=1を満たす。
【0151】そして、係数θIS,θLRのECU11によ
る具体的な調整の傾向としては、 ・係数θIS<θLR:即ち、基本的にはIS2よりLR1
に大きい比重を置く(LR1を優先する)。 ・係数θIS<<θLR:但し、車両(先行車両)が自車両か
ら遠方になるほどLR1により大きな比重を置く。
る具体的な調整の傾向としては、 ・係数θIS<θLR:即ち、基本的にはIS2よりLR1
に大きい比重を置く(LR1を優先する)。 ・係数θIS<<θLR:但し、車両(先行車両)が自車両か
ら遠方になるほどLR1により大きな比重を置く。
【0152】これらの実際のパラメータも同じようにL
R1及びIS2のX方向及びZ方向の信頼性の関数を用
いる。
R1及びIS2のX方向及びZ方向の信頼性の関数を用
いる。
【0153】以下に示す式(13)及び式(14)によ
り、θIR()とθLR()を定式化する。
り、θIR()とθLR()を定式化する。
【0154】
【数5】
【0155】本実施形態におけるLR1及びIS2によ
る検出結果のセンサフュージョンによれば、より正確な
車両位置を特定することができる。但し、LR1及びI
S2による検出範囲が重複する第2検出範囲では、実際
には、自車両の前後方向(Z方向)に存在する先行車両の
位置特定はLR1による検出結果だけで十分であり、X
方向に存在する先行車両の位置特定は、以下に示す式
(15)乃至式(16)によるセンサフュージョンによ
って求めることができる。
る検出結果のセンサフュージョンによれば、より正確な
車両位置を特定することができる。但し、LR1及びI
S2による検出範囲が重複する第2検出範囲では、実際
には、自車両の前後方向(Z方向)に存在する先行車両の
位置特定はLR1による検出結果だけで十分であり、X
方向に存在する先行車両の位置特定は、以下に示す式
(15)乃至式(16)によるセンサフュージョンによ
って求めることができる。
【0156】 XSF=ηISX()×XIS+ηLRX()×XLR ・・・・・・・・・(15) , 但し、式(15)は、 (X座標(SF)) = (LR1に対するIS2のX方向に対
する信頼性)×(X座標(IS2)) + (IS2に対するL
R1のX方向に対する信頼性)×(X座標(LR1)) である。
する信頼性)×(X座標(IS2)) + (IS2に対するL
R1のX方向に対する信頼性)×(X座標(LR1)) である。
【0157】 ZSF=ηISZ()×ZIS+ηLRZ×ZLR ・・・・・・・・・(16), 但し、式(16)は、 (Z座標(SF)) = (LR1に対するIS2のZ方向に対
する信頼性)×(Z座標(IS2)) + (IS2に対するL
R1のZ方向に対する信頼性)×(Z座標(LR1)) である。
する信頼性)×(Z座標(IS2)) + (IS2に対するL
R1のZ方向に対する信頼性)×(Z座標(LR1)) である。
【0158】式(15)及び式(16)において、0≦
ηISX()≦1,0≦ηLRX()≦1,0≦ηISZ()≦
1,0≦ηLRZ()≦1の値を採り、ηISX()+ηLRX
()=1、ηISZ()+ηLRZ()=1を満たす。
ηISX()≦1,0≦ηLRX()≦1,0≦ηISZ()≦
1,0≦ηLRZ()≦1の値を採り、ηISX()+ηLRX
()=1、ηISZ()+ηLRZ()=1を満たす。
【0159】そして、これらの係数のECU11による
具体的な調整の傾向としては、 ・ηISX()=ηLRX():X方向においては、基本的に
はLR1とIS2に同等の比重を置く。 ・ηISX()>ηLRX():但し、赤外画像の両端に近づ
くほどIS2に比重を置く(IS2を優先する)。 ・ηISZ()<ηLRZ():Z方向においては基本的にI
S2よりLR1に大きい比重を置く(LR1を優先す
る)。 ・ηISZ()<<ηLRZ():但し、車両(先行車両)が自
車両から遠方になるほどLR1により大きな比重を置
く。
具体的な調整の傾向としては、 ・ηISX()=ηLRX():X方向においては、基本的に
はLR1とIS2に同等の比重を置く。 ・ηISX()>ηLRX():但し、赤外画像の両端に近づ
くほどIS2に比重を置く(IS2を優先する)。 ・ηISZ()<ηLRZ():Z方向においては基本的にI
S2よりLR1に大きい比重を置く(LR1を優先す
る)。 ・ηISZ()<<ηLRZ():但し、車両(先行車両)が自
車両から遠方になるほどLR1により大きな比重を置
く。
【0160】以下に示す式(17)及び式(20)によ
り、ηISX(),ηLRX(),ηISZ(),ηLRZ()を定
式化する。
り、ηISX(),ηLRX(),ηISZ(),ηLRZ()を定
式化する。
【0161】
【数6】
【0162】このように、上述したLR1及びIS2に
よって個別に検出した車両の位置、速度、検出結果の信
頼性に基づいて相関関係を算出する上記のセンサフュー
ジョンによれば、監視すべき物体を高精度且つ高確度に
認識することができる。
よって個別に検出した車両の位置、速度、検出結果の信
頼性に基づいて相関関係を算出する上記のセンサフュー
ジョンによれば、監視すべき物体を高精度且つ高確度に
認識することができる。
【0163】<第1検出範囲に他車両(先行車両)が存
在する場合>上記のセンサフュージョンの手順は、上述
したようにLR1及びIS2による実測値に基づく検出
結果が存在する場合に行うことを基本としている。この
ため、第1検出範囲に他車両(先行車両)が存在する場
合は、LR1による検出が行えないため、上記のセンサ
フュージョンを行うことができない。
在する場合>上記のセンサフュージョンの手順は、上述
したようにLR1及びIS2による実測値に基づく検出
結果が存在する場合に行うことを基本としている。この
ため、第1検出範囲に他車両(先行車両)が存在する場
合は、LR1による検出が行えないため、上記のセンサ
フュージョンを行うことができない。
【0164】そこで、本実施形態では、第1検出範囲に
他車両(先行車両)が存在する場合に、以下に説明する
2つの処理を行う。
他車両(先行車両)が存在する場合に、以下に説明する
2つの処理を行う。
【0165】(IS2の検出結果のみによるセンサフュ
ージョン)式(21)に示す評価関数により、IS2の
検出結果のみによるセンサフュージョンを行う。
ージョン)式(21)に示す評価関数により、IS2の
検出結果のみによるセンサフュージョンを行う。
【0166】
【数7】
【0167】但し、式(21)において、(SFの点数)
= (位置によるIS2の信頼性の関数)×(IS2の点
数)である。ECU11が実際に使用するパラメータと
しては、図20に示したIS2のX方向及びZ方向の信
頼性の関数を用いる。
= (位置によるIS2の信頼性の関数)×(IS2の点
数)である。ECU11が実際に使用するパラメータと
しては、図20に示したIS2のX方向及びZ方向の信
頼性の関数を用いる。
【0168】また、式(22)は、IS2の点数に車両
(先行車)の位置によって変動する係数を掛けることによ
り、自車両の前方に他車両が存在する可能性を定式化し
たものである。この式(22)の5つめのパラメータV
は、車両(先行車)の横方向(X方向)ベクトルであり、
この速度ベクトルが所定の時間にわたって赤外画面の略
中央に向いているならば、θ'IR()=1と設定すること
により、自車両前方への飛び出し車両と認識する。これ
は純粋にIS2による点数を評価の対象としていること
を意味している。
(先行車)の位置によって変動する係数を掛けることによ
り、自車両の前方に他車両が存在する可能性を定式化し
たものである。この式(22)の5つめのパラメータV
は、車両(先行車)の横方向(X方向)ベクトルであり、
この速度ベクトルが所定の時間にわたって赤外画面の略
中央に向いているならば、θ'IR()=1と設定すること
により、自車両前方への飛び出し車両と認識する。これ
は純粋にIS2による点数を評価の対象としていること
を意味している。
【0169】このように、LR1及びIS2による実測
値に基づく検出結果が第1検出範囲において行えない場
合には、上記の如く車両(先行車)の横方向ベクトルが所
定の時間にわたって赤外画面の略中央に向いているとき
に限って上記のIS2の検出結果のみによるセンサフュ
ージョンを行うことにより、自車両前方への飛び出し車
両を早期の段階で迅速に検出することができる。
値に基づく検出結果が第1検出範囲において行えない場
合には、上記の如く車両(先行車)の横方向ベクトルが所
定の時間にわたって赤外画面の略中央に向いているとき
に限って上記のIS2の検出結果のみによるセンサフュ
ージョンを行うことにより、自車両前方への飛び出し車
両を早期の段階で迅速に検出することができる。
【0170】(トラッキング処理による車両の挙動予測
情報を用いたセンサフュージョンの継続)上述したLR
1の車両認定処理(図15)を行っているときに、第2
検出範囲から第1検出範囲に車両が移動してしまい、L
R1からの実測データが入力されなくなった場合には、
他車両が第2検出範囲に存在するときにトラッキング処
理(図15のステップS76)において行っていた車両
の挙動予測情報を用いて所定時間(例えば1秒程度)に
わたってLR1の車両認定処理(図15)を継続する。
ここで、係る挙動予測情報を利用したLR1の車両認定
処理の継続を上記の所定時間に限る理由は、車両の挙動
予測情報を用いたLR1の車両認定処理の継続時間が長
くなるほど演算結果の信頼性が低くなっていくからであ
る。
情報を用いたセンサフュージョンの継続)上述したLR
1の車両認定処理(図15)を行っているときに、第2
検出範囲から第1検出範囲に車両が移動してしまい、L
R1からの実測データが入力されなくなった場合には、
他車両が第2検出範囲に存在するときにトラッキング処
理(図15のステップS76)において行っていた車両
の挙動予測情報を用いて所定時間(例えば1秒程度)に
わたってLR1の車両認定処理(図15)を継続する。
ここで、係る挙動予測情報を利用したLR1の車両認定
処理の継続を上記の所定時間に限る理由は、車両の挙動
予測情報を用いたLR1の車両認定処理の継続時間が長
くなるほど演算結果の信頼性が低くなっていくからであ
る。
【0171】このように、車両の挙動予測情報を用いて
LR1の車両認定処理(図15)を継続するように構成
すれば、上述したLR1及びIS2による検出結果に基
づくセンサフュージョンに必要な情報が揃うので、係る
センサフュージョンを継続することができる。但し、L
R1による検出結果は、雨天の場合等のように、先行車
両によって撒き上げられた雨滴の影響等の影響を受け易
いので、上記の挙動予測情報を用いた継続処理は、悪天
候の場合は行わないほうが良い。
LR1の車両認定処理(図15)を継続するように構成
すれば、上述したLR1及びIS2による検出結果に基
づくセンサフュージョンに必要な情報が揃うので、係る
センサフュージョンを継続することができる。但し、L
R1による検出結果は、雨天の場合等のように、先行車
両によって撒き上げられた雨滴の影響等の影響を受け易
いので、上記の挙動予測情報を用いた継続処理は、悪天
候の場合は行わないほうが良い。
【0172】尚、上述した本実施形態では、LR1及び
IS2の検出結果に基づいて算出した車両認識の結果
を、一例として、車間距離警報を行う警報・制御処理
(図4)に適用したが、本実施形態におけるセンサフュ
ージョンによる車両認識処理(図6)は、係るシステム
構成に限られるものではなく、他の警報システムや自動
走行システム、或いは走行支援装置等における他車両の
認識に広く利用して好適である。
IS2の検出結果に基づいて算出した車両認識の結果
を、一例として、車間距離警報を行う警報・制御処理
(図4)に適用したが、本実施形態におけるセンサフュ
ージョンによる車両認識処理(図6)は、係るシステム
構成に限られるものではなく、他の警報システムや自動
走行システム、或いは走行支援装置等における他車両の
認識に広く利用して好適である。
【0173】また、本実施形態では、自車両の先方に存
在するところの、当該自車両と同方向に進む他車両を検
出する場合を例として、LR1による車両の検出に、検
出対象の車両後部に取り付けられた2つのリフレクタか
らの反射波を利用したが、この処理構成に限られるもの
ではなく、車両前部にリフレクタが設けられている場
合、或いはリフレクタと同等な反射率の部位があるとき
には、それらからの反射波を利用して上述した本実施形
態と同様な手順の処理を行うことにより、対向車の検出
を行っても良い。
在するところの、当該自車両と同方向に進む他車両を検
出する場合を例として、LR1による車両の検出に、検
出対象の車両後部に取り付けられた2つのリフレクタか
らの反射波を利用したが、この処理構成に限られるもの
ではなく、車両前部にリフレクタが設けられている場
合、或いはリフレクタと同等な反射率の部位があるとき
には、それらからの反射波を利用して上述した本実施形
態と同様な手順の処理を行うことにより、対向車の検出
を行っても良い。
【図1】本実施形態における警報システムが搭載された
車両の装置構成を示すブロック図である。
車両の装置構成を示すブロック図である。
【図2】本実施形態におけるXYZ座標の定義を説明す
る図である。
る図である。
【図3】本実施形態におけるLR1及びIS2の検出範
囲を示す図である。
囲を示す図である。
【図4】本実施形態におけるECU11が実行する警報
・制御処理のフローチャートを示す図である。
・制御処理のフローチャートを示す図である。
【図5】警報・制御処理においてECU11が参照する
判断基準を例示する図である。
判断基準を例示する図である。
【図6】本実施形態におけるECU11が実行する車両
認識処理を示すフローチャートである。
認識処理を示すフローチャートである。
【図7】自車両の前方に存在する車両を撮像した赤外画
像を例示する図である。
像を例示する図である。
【図8】本実施形態におけるECU11が実行するIS
2による車両の認定処理を示すフローチャートである。
2による車両の認定処理を示すフローチャートである。
【図9】IS2による車両の認定処理のうち、車両画像
の概略推定処理(図8のステップS25)の詳細を示す
フローチャートである。
の概略推定処理(図8のステップS25)の詳細を示す
フローチャートである。
【図10】IS2による車両の認定処理のうち、車両検
出処理(図8のステップS26)の詳細を示すフローチ
ャートである。
出処理(図8のステップS26)の詳細を示すフローチ
ャートである。
【図11】赤外画像を利用した距離ZISの推定方法
と、排気管領域の画像を基準として設定されるフレーム
のサイズの決定方法とを説明する図である。
と、排気管領域の画像を基準として設定されるフレーム
のサイズの決定方法とを説明する図である。
【図12】距離ZISと車幅Wとの関係を表わす特性曲
線を示す図である。
線を示す図である。
【図13】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図14】IS2による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図15】本実施形態におけるECU11が実行するL
R1による車両の認定処理を示すフローチャートであ
る。
R1による車両の認定処理を示すフローチャートであ
る。
【図16】LR1による車両の認定処理におけるグルー
プ化までの手順を説明する図である。
プ化までの手順を説明する図である。
【図17】トラッキング処理における車両の横方向移動
速度説明する図である。
速度説明する図である。
【図18】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図19】LR1による検出結果の重み付け処理におい
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
て定数項の決定のためにECU11が参照する特性曲線
を示す図である。
【図20】IS2のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
の信頼性の定義を示す図である。
【図21】LR1のX方向及びZ方向に対する検出結果
の信頼性の定義を示す図である。
の信頼性の定義を示す図である。
1:距離センサ(LR), 2:画像センサ(IS), 3:ブレーキアクチュエータ, 4:スロットルアクチュエータ, 5:スピーカ, 6:ワイパースイッチ, 7:表示装置, 8:照度センサ, 9:車速センサ, 10:GPSセンサ, 11:電子制御ユニット(ECU), 100:車両,
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01B 11/00 G01B 11/00 H 5J084 G01S 5/14 G01S 5/14 5L096 13/93 13/93 Z 17/93 G06T 7/20 B G06T 7/20 100 100 G08G 1/16 E G08G 1/16 G01S 17/88 A (72)発明者 藤岡 健彦 東京都文京区本郷7−3−1 東京大学 工学部 産業機械工学科内 Fターム(参考) 2F065 AA06 CC11 FF04 FF64 FF67 JJ26 QQ01 QQ08 QQ13 QQ24 QQ33 QQ39 SS09 UU05 5B057 AA16 BA01 BA08 BA19 CE12 DA06 DA07 DA15 DB02 DB09 DC04 DC14 DC22 DC30 DC34 DC36 5H180 AA01 BB15 CC02 CC03 CC04 CC12 CC14 FF05 LL07 5J062 AA13 BB01 CC07 5J070 AB24 AC02 AE01 AF03 BF12 5J084 AA05 AA07 AA14 AB01 AC02 AD03 AD05 AD12 BA03 BA34 CA31 CA34 DA09 EA22 EA29 FA03 5L096 AA06 BA04 CA04 CA05 DA02 DA03 EA43 FA14 FA34 FA59 FA66 FA69 GA02 GA34 HA04 JA16
Claims (12)
- 【請求項1】 所定の検出波を送出すると共に、その検
出波の物体からの反射波に基づいて、その物体の位置及
び速度を検出する第1の検出手段と、 前記検出波の伝搬範囲を少なくとも含む領域を撮像装置
によって撮像すると共に、撮影された画像に基づいて、
その画像に含まれる物体の位置及び速度を検出する第2
の検出手段と、 前記第1及び第2の検出手段によって個別に検出された
それぞれの物体の位置及び速度の相関関係を表わす値を
算出すると共に、算出した値に従って、それら物体を、
監視対象である1つの物体として認識する物体認識手段
と、を備えることを特徴とする物体認識装置。 - 【請求項2】 前記撮像装置は赤外線カメラであって、 前記第2の検出手段は、 前記赤外線カメラによって撮像された全体画像を対象と
して、その全体画像に含まれるところの、物体である可
能性が高い部分画像領域を推定する推定手段と、 前記推定手段によって推定された部分画像領域に含まれ
るところの、所定輝度より高輝度な箇所を検出し、検出
した高輝度な箇所を基準とする所定サイズのフレームを
該部分画像領域に対して用いるパターンマッチングに基
づいて、該部分画像領域が表わす物体の種類を特定する
と共に、特定された物体の位置及び速度を検出する処理
を、該推定された部分画像領域毎に行う物体検出手段
と、を含むことを特徴とする請求項1記載の物体認識装
置。 - 【請求項3】 前記物体検出手段による検出対象の物体
は、内燃機関によって駆動される車両であって、 前記所定輝度は、前記赤外線カメラによって前記排気管
が撮像されたときの標準的な輻射熱量に基づく値に設定
されていることを特徴とする請求項2記載の物体認識装
置。 - 【請求項4】 前記物体検出手段には、前記検出対象で
ある車両における排気管の標準的な取り付け位置と、そ
の車両の断面形状との関係を表わす特徴情報が予め記憶
されており、 前記物体検出手段は、前記所定輝度より高輝度な箇所
を、前記部分画像領域における排気管の取り付け位置と
推定し、推定した取り付け位置と、前記特徴情報とに従
って、前記部分画像領域に対して用いるべき前記フレー
ムの所定のサイズと、設定すべき位置とを決定すること
を特徴とする請求項3記載の物体認識装置。 - 【請求項5】 前記推定手段の実行頻度は、前記物体検
出手段の実行頻度より少ないことを特徴とする請求項2
記載の物体認識装置。 - 【請求項6】 前記物体認識手段は、前記第1及び第2
の検出手段によってそれぞれ検出された位置及び速度の
信頼性に関する値と、前記相関関係を表わす値との和が
所定のしきい値より大きいときに、前記物体を監視対象
として認識することを特徴とする請求項1記載の物体認
識装置。 - 【請求項7】 前記撮像装置は赤外線カメラであって、 前記物体認識手段は、物体認識を行うべき周囲の環境変
化に応じて、前記信頼性に関する値を変更することを特
徴とする請求項6記載の物体認識装置。 - 【請求項8】 前記物体認識手段は、前記第1の検出手
段の検出特性が晴天時と比較して影響を受け易い荒天時
に、前記第1の検出手段による検出結果に対する信頼性
を、前記第2の検出手段による検出結果に対する信頼性
より低く設定すべく、前記信頼性に関する値を変更する
ことを特徴とする請求項7記載の物体認識装置。 - 【請求項9】 前記物体認識手段は、前記赤外線カメラ
の撮像特性が影響を受け易い路面温度が所定温度より高
温のときに、前記第2の検出手段による検出結果に対す
る信頼性を、前記第1の検出手段による検出結果に対す
る信頼性より低く設定すべく、前記信頼性に関する値を
変更することを特徴とする請求項7記載の物体認識装
置。 - 【請求項10】 前記第2の検出手段は、前記物体の位
置及び速度を検出するときに、前記第1の検出手段によ
る検出結果を参照することを特徴とする請求項1または
請求項2記載の物体認識装置。 - 【請求項11】 前記物体検出手段は、前記部分画像領
域に対して用いるべき前記所定サイズのフレームを、前
記第1の検出手段による検出結果と、予め記憶している
検出対象の物体の形状に関する特徴情報とに従って決定
することを特徴とする請求項2記載の物体認識装置。 - 【請求項12】 前記物体検出手段は、前記全体画像内
に前記所定輝度より高輝度な箇所が複数個検出されたと
きに、前回の制御周期において検出した物体に対応する
部分画像領域に基づいて、その物体に対応する高輝度な
箇所を特定することを特徴とする請求項2記載の物体認
識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000288953A JP2002099906A (ja) | 2000-09-22 | 2000-09-22 | 物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000288953A JP2002099906A (ja) | 2000-09-22 | 2000-09-22 | 物体認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002099906A true JP2002099906A (ja) | 2002-04-05 |
Family
ID=18772444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000288953A Withdrawn JP2002099906A (ja) | 2000-09-22 | 2000-09-22 | 物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002099906A (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117071A (ja) * | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2004301567A (ja) * | 2003-03-28 | 2004-10-28 | Fujitsu Ltd | 衝突予測装置 |
JP2004347471A (ja) * | 2003-05-22 | 2004-12-09 | Fuji Heavy Ind Ltd | 先行車両検出装置 |
EP1378762A3 (en) * | 2002-07-03 | 2005-05-04 | Fuji Jukogyo Kabushiki Kaisha | Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system |
JP2005121496A (ja) * | 2003-10-17 | 2005-05-12 | Toyota Motor Corp | 車輌の障害物検出レーダー装置 |
JP2006182086A (ja) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | 車両検知装置 |
WO2007055215A1 (ja) * | 2005-11-09 | 2007-05-18 | Toyota Jidosha Kabushiki Kaisha | 物体検出装置 |
WO2008044592A1 (en) | 2006-10-06 | 2008-04-17 | Aisin Seiki Kabushiki Kaisha | Mobile object recognizing device, mobile object recognizing method, and computer program |
JP2008116357A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 物体検出装置 |
US7542825B2 (en) | 2003-11-28 | 2009-06-02 | Denso Corporation | Sensor fusion system and vehicle control system therewith |
JP2009137494A (ja) * | 2007-12-07 | 2009-06-25 | Toyota Motor Corp | 障害物判定装置 |
JP2009192430A (ja) * | 2008-02-15 | 2009-08-27 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
JP2010039705A (ja) * | 2008-08-04 | 2010-02-18 | Sumitomo Electric Ind Ltd | 移動体識別装置、コンピュータプログラム及び移動体識別装置の学習方法 |
JP2011106904A (ja) * | 2009-11-16 | 2011-06-02 | Nec Corp | 対象物特定システム、対象物特定装置、制御方法、及びプログラム |
JP2014059734A (ja) * | 2012-09-18 | 2014-04-03 | Denso Corp | 車両検出装置および警報装置 |
JP2016166802A (ja) * | 2015-03-10 | 2016-09-15 | 株式会社東芝 | 位置検出システム、位置検出装置、および位置検出方法 |
WO2016199244A1 (ja) * | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
KR20170116305A (ko) * | 2016-04-08 | 2017-10-19 | 한국전자통신연구원 | 코파일럿 차량을 위한 이종 다중 센서의 추적정보 융합기반 주변 장애물 인식 장치 |
CN108983247A (zh) * | 2017-05-31 | 2018-12-11 | 本田技研工业株式会社 | 物体目标识别系统、物体目标识别方法及存储介质 |
CN109923442A (zh) * | 2016-11-08 | 2019-06-21 | 三菱电机株式会社 | 物体检测装置及物体检测方法 |
JP2019101573A (ja) * | 2017-11-29 | 2019-06-24 | トヨタ自動車株式会社 | 物体情報取得装置 |
JPWO2021025123A1 (ja) * | 2019-08-08 | 2021-02-11 | ||
JP2021157251A (ja) * | 2020-03-25 | 2021-10-07 | 株式会社Soken | 情報統合装置 |
JP2022506262A (ja) * | 2018-11-02 | 2022-01-17 | ルノー エス.ア.エス. | 自動車に関する制御設定を生成するための方法 |
JP2023038164A (ja) * | 2021-09-06 | 2023-03-16 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体 |
-
2000
- 2000-09-22 JP JP2000288953A patent/JP2002099906A/ja not_active Withdrawn
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1378762A3 (en) * | 2002-07-03 | 2005-05-04 | Fuji Jukogyo Kabushiki Kaisha | Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system |
US6999896B2 (en) | 2002-07-03 | 2006-02-14 | Fuji Jukogyo Kabushiki Kaisha | Identical object determination method and apparatus and displacement correction method and apparatus |
JP2004117071A (ja) * | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2004301567A (ja) * | 2003-03-28 | 2004-10-28 | Fujitsu Ltd | 衝突予測装置 |
JP2004347471A (ja) * | 2003-05-22 | 2004-12-09 | Fuji Heavy Ind Ltd | 先行車両検出装置 |
JP2005121496A (ja) * | 2003-10-17 | 2005-05-12 | Toyota Motor Corp | 車輌の障害物検出レーダー装置 |
US7542825B2 (en) | 2003-11-28 | 2009-06-02 | Denso Corporation | Sensor fusion system and vehicle control system therewith |
JP2006182086A (ja) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | 車両検知装置 |
JP2007132748A (ja) * | 2005-11-09 | 2007-05-31 | Toyota Motor Corp | 物体検出装置 |
WO2007055215A1 (ja) * | 2005-11-09 | 2007-05-18 | Toyota Jidosha Kabushiki Kaisha | 物体検出装置 |
US7777669B2 (en) | 2005-11-09 | 2010-08-17 | Toyota Jidosha Kabushiki Kaisha | Object detection device |
WO2008044592A1 (en) | 2006-10-06 | 2008-04-17 | Aisin Seiki Kabushiki Kaisha | Mobile object recognizing device, mobile object recognizing method, and computer program |
US8290209B2 (en) | 2006-10-06 | 2012-10-16 | Aisin Seiki Kabushiki Kaisha | Mobile object recognizing device, mobile object recognizing method, and computer program thereof |
JP2008116357A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 物体検出装置 |
JP2009137494A (ja) * | 2007-12-07 | 2009-06-25 | Toyota Motor Corp | 障害物判定装置 |
JP2009192430A (ja) * | 2008-02-15 | 2009-08-27 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
JP2010039705A (ja) * | 2008-08-04 | 2010-02-18 | Sumitomo Electric Ind Ltd | 移動体識別装置、コンピュータプログラム及び移動体識別装置の学習方法 |
JP2011106904A (ja) * | 2009-11-16 | 2011-06-02 | Nec Corp | 対象物特定システム、対象物特定装置、制御方法、及びプログラム |
JP2014059734A (ja) * | 2012-09-18 | 2014-04-03 | Denso Corp | 車両検出装置および警報装置 |
JP2016166802A (ja) * | 2015-03-10 | 2016-09-15 | 株式会社東芝 | 位置検出システム、位置検出装置、および位置検出方法 |
US10540777B2 (en) | 2015-06-10 | 2020-01-21 | Hitachi, Ltd. | Object recognition device and object recognition system |
WO2016199244A1 (ja) * | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
CN107615334A (zh) * | 2015-06-10 | 2018-01-19 | 株式会社日立制作所 | 物体识别装置以及物体识别系统 |
JPWO2016199244A1 (ja) * | 2015-06-10 | 2018-02-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
CN107615334B (zh) * | 2015-06-10 | 2020-11-06 | 株式会社日立制作所 | 物体识别装置以及物体识别系统 |
KR20170116305A (ko) * | 2016-04-08 | 2017-10-19 | 한국전자통신연구원 | 코파일럿 차량을 위한 이종 다중 센서의 추적정보 융합기반 주변 장애물 인식 장치 |
CN109923442A (zh) * | 2016-11-08 | 2019-06-21 | 三菱电机株式会社 | 物体检测装置及物体检测方法 |
CN108983247A (zh) * | 2017-05-31 | 2018-12-11 | 本田技研工业株式会社 | 物体目标识别系统、物体目标识别方法及存储介质 |
JP2018205878A (ja) * | 2017-05-31 | 2018-12-27 | 本田技研工業株式会社 | 物標認識システム、物標認識方法、およびプログラム |
CN108983247B (zh) * | 2017-05-31 | 2022-08-23 | 本田技研工业株式会社 | 物体目标识别系统、物体目标识别方法及存储介质 |
JP2019101573A (ja) * | 2017-11-29 | 2019-06-24 | トヨタ自動車株式会社 | 物体情報取得装置 |
JP2022506262A (ja) * | 2018-11-02 | 2022-01-17 | ルノー エス.ア.エス. | 自動車に関する制御設定を生成するための方法 |
JP7439079B2 (ja) | 2018-11-02 | 2024-02-27 | ルノー エス.ア.エス. | 自動車に関する制御設定を生成するための方法 |
JPWO2021025123A1 (ja) * | 2019-08-08 | 2021-02-11 | ||
WO2021025123A1 (ja) * | 2019-08-08 | 2021-02-11 | 住友建機株式会社 | ショベル、情報処理装置 |
CN114144556A (zh) * | 2019-08-08 | 2022-03-04 | 住友建机株式会社 | 挖土机及信息处理装置 |
JP2021157251A (ja) * | 2020-03-25 | 2021-10-07 | 株式会社Soken | 情報統合装置 |
JP2023038164A (ja) * | 2021-09-06 | 2023-03-16 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | 障害物検出方法、装置、自動運転車両、機器、及び記憶媒体 |
US12293574B2 (en) | 2021-09-06 | 2025-05-06 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Obstacle detection method, electronic device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002099906A (ja) | 物体認識装置 | |
JP2002099907A (ja) | 物体認識装置 | |
JP4856612B2 (ja) | 物体検出装置 | |
US5249128A (en) | System and method for determining the distance to an energy emitting object | |
JP3861781B2 (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP3352655B2 (ja) | 車線認識装置 | |
JP4857839B2 (ja) | 物体検出装置 | |
JP4763250B2 (ja) | 物体検出装置 | |
JP7095640B2 (ja) | 物体検出装置 | |
JP2003296736A (ja) | 障害物検知装置及びその方法 | |
WO2007007906A1 (ja) | 物体検出装置 | |
JP2002096702A (ja) | 車間距離推定装置 | |
JP2001099930A (ja) | 周辺監視センサ | |
JPH09142236A (ja) | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 | |
JP2007255979A (ja) | 物体検出方法および物体検出装置 | |
JP2007015676A (ja) | 衝突予知装置および衝突予知方法 | |
JP2000030197A (ja) | 温体検出装置 | |
JPH08329393A (ja) | 先行車検出装置 | |
JP3823782B2 (ja) | 先行車両認識装置 | |
CN114945839B (zh) | 检测器的姿势/位置检测系统以及检测器的姿势/位置检测方法 | |
JP2002098509A (ja) | 車両検出装置 | |
JP4321142B2 (ja) | 標識認識装置 | |
JP7154470B2 (ja) | 情報処理システム、情報処理装置、プログラム及び情報処理方法 | |
JPH11259634A (ja) | オプティカルフロー式後方情報検出装置 | |
JP2001041741A (ja) | ステレオ式車外監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071204 |