JP2007334511A - 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム - Google Patents
対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム Download PDFInfo
- Publication number
- JP2007334511A JP2007334511A JP2006163834A JP2006163834A JP2007334511A JP 2007334511 A JP2007334511 A JP 2007334511A JP 2006163834 A JP2006163834 A JP 2006163834A JP 2006163834 A JP2006163834 A JP 2006163834A JP 2007334511 A JP2007334511 A JP 2007334511A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- vehicle
- pitching
- image acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】車両の旋回時やピッチング時に画像上に生じる残像の影響を低減して、車両に搭載された撮像手段により得られた車両周辺の画像から互いに異なる時刻で抽出された歩行者等の対象物の同一性を精度良く認識することができる対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラムを提供する。
【解決手段】同一性判定手段16は、少なくとも時刻Taにヨーレートの大きさが所定閾値以上であるとき(又はピッチングが検出されたとき)に、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、車両10の旋回方向(又はピッチング方向)と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、車両10の旋回方向(又はピッチング方向)と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。
【選択図】図1
【解決手段】同一性判定手段16は、少なくとも時刻Taにヨーレートの大きさが所定閾値以上であるとき(又はピッチングが検出されたとき)に、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、車両10の旋回方向(又はピッチング方向)と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、車両10の旋回方向(又はピッチング方向)と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。
【選択図】図1
Description
本発明は、車両に搭載されたカメラ等の撮像手段を介して取得した画像から、車両の周辺に存在する歩行者等の対象物を検出する装置及び方法に関する。さらに、その装置の処理をコンピュータに実行させるためのプログラムに関する。
近年、車両にCCDカメラ等の撮像手段を搭載して周辺を撮像し、撮像された画像から車両の周辺に存在する歩行者等の対象物を検出し、該車両と接触する可能性が高い歩行者等の対象物を判定して、運転者への情報の提示等を行う技術が知られている(例えば特許文献1参照)。
特許文献1の車両の周辺監視装置においては、2つの赤外線カメラから得られる画像のうちの一方の画像(基準画像)に2値化処理やラベリング処理等を施して、車両の周辺の対象物を抽出する。そして、基準画像上で抽出された対象物を時刻間で追跡すると共に、基準画像上で抽出された対象物に対応する対象物を他方の画像上で探索し、2つの赤外線カメラから得られる画像上での対象物のずれ(視差)に基づいて、車両の周辺に存在する対象物の該車両に対する相対位置を位置データとして検出する。これにより、対象物の位置の時系列データが取得され、この時系列データに基づいて該対象物の該車両に対する移動ベクトルが算出される。そして、対象物の位置データと移動ベクトルとに基づいて該車両と接触する可能性が高い対象物が判定される。
このとき、特許文献1の車両の周辺監視装置において、対象物を時刻間で追跡する処理は、互いに異なる時刻で抽出された対象物の同一性を認識する処理であり、具体的には、時刻kにおいて基準画像から対象物Tkが抽出され、次の演算処理周期の時刻k+1において基準画像から対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)が判定される。この同一性の判定は、対象物の重心位置、面積、縦横比等の対象物の全体的な特徴に基づいて行われる。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて時刻間で追跡される。
一方、車両の旋回時やピッチング時には、撮像手段の撮像性能に比べて対象物の車両に対する相対位置の時間変化が大きくなるために、車両に搭載された撮像手段から得られた道路周辺の画像上で、歩行者等の対象物の残像が生じる場合がある。例えば、車両が右方向に旋回している場合には、画像上で対象物が左側にずれるため右側に残像が生じ、車両が左方向に旋回している場合には、画像上で対象物が右側にずれるため左側に残像が生じる。また、例えば、車両が上方向にピッチングしている場合には、画像上で対象物が下側にずれるため上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物が上側にずれるため下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の影響で、対象物の重心位置、面積、縦横比等の特徴が変化する。このため、同一の対象物である場合でも、画像上での対象物の重心位置、面積、縦横比等の特徴が、残像が生じていない画像上で該対象物が示していた特徴と相違することとなる。
しかしながら、特許文献1の車両の周辺監視装置では、このような残像の影響は考慮されていないため、車両の旋回時やピッチング時には、同一の対象物であるか否かを判定する際に、同一の対象物でないと誤判定される可能性がある。このため、車両の旋回時やピッチング時に、互いに異なる時刻で抽出された対象物の同一性を適切に認識し得る技術が望まれていた。
特開2001−6096号公報
本発明は、かかる背景に鑑みてなされたものであり、車両の旋回時やピッチング時に画像上に生じる残像の影響を低減して、車両に搭載された撮像手段により得られた車両周辺の画像から、互いに異なる時刻で抽出された歩行者等の対象物の同一性を精度良く認識することができる対象物検出装置、車両、対象物検出方法、並びに該対象物検出装置の処理をコンピュータに実行させる対象物検出用プログラムを提供することを目的とする。
かかる目的を達成するために、本発明の第1態様の対象物検出装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、前記車両のヨーレートを逐次検出するヨーレート検出手段を備え、前記同一性判定手段は、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第1発明)。
この第1発明の対象物検出装置において、前記同一性判定手段は、任意の時刻Taに取得された画像から前記対象物抽出手段により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する。このとき、車両の旋回時には、取得された画像上で対象物の残像が生じることがある。例えば、車両が右方向に旋回している場合には、画像上で対象物の右側に残像が生じ、車両が左方向に旋回している場合には、画像上で対象物の左側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の画像部分が対象物の画像部分に含まれて抽出される。このため、残像の影響で、抽出された対象物の画像部分の重心位置、面積、縦横比等の全体的な特徴量が変化する。
そこで、前記同一性判定手段は、前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるとき(車両が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きいとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。
すなわち、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。従って、前記同一性判定手段により、この部分の特徴量に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
なお、前記同一性判定手段は、時刻Taにおける前記ヨーレートの大きさが所定閾値未満であるとき(ヨーレートの大きさが画像上に残像が生じない程度に十分に小さいとき)には、時刻Taに取得された画像における前記第1の対象物の画像部分の全体的な特徴量(該対象物の左右の両側部分のいずれも含む画像部分全体の特徴量)と、時刻Tbに取得された画像における前記第2の対象物の画像部分の全体的な特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定すればよい。
また、前記第1発明の対象物検出装置において、前記ヨーレート検出手段により検出されたヨーレートの大きさが前記所定閾値未満であるときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することが好ましい(第2発明)。
これによれば、前記対象物画像記憶手段は、前記ヨーレート検出手段により検出されたヨーレートの大きさが前記所定閾値未満であるとき(ヨーレートの大きさが画像上に残像が生じない程度に十分に小さいとき)に取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する。この対象物画像は、残像が生じていない状態での対象物の画像部分であり、この対象物画像には、残像によるノイズが含まれないため対象物の特徴量が顕著に現れている。
一方、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合には、時刻Taに取得された画像上と、時刻Tbに取得された画像上とのいずれにおいても、残像が生じている状態であり、これらの画像から抽出された第1の及び第2の対象物の画像部分には、残像によるノイズが含まれている。なお、前記所定期間は、画像上に同一の対象物が存在しなくなるまでの期間である。
ここで、前記時刻Taに取得された画像における前記第1の対象物と、前記時刻Tbに取得された画像における前記第2の対象物とのいずれもが、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像に対応する対象物(時刻Tcに取得された画像から前記対象物抽出手段により抽出された第3の対象物)と同一であることが判れば、該第1の対象物が該第2の対象物と同一であることが判る。なお、前記ヨーレートの大きさが前記所定閾値以上に変化する直前の時刻Tcにおける対象物画像とは、該所定閾値以上に変化する前に記憶された対象物画像であって、そのうちの最新に記憶された対象物画像である。
そこで、前記同一性判定手段は、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。
すなわち、前記第1及び第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、これらの部分の特徴量は、残像の影響が低減されたものとなる。さらに、これらの部分の特徴量が、残像が生じていない対象物画像の特徴量と比較されるので、残像の影響が排除され、前記第1及び第2の類似の度合には、前記第1及び第2の対象物が前記第3の対象物と同一であるか否かが精度良く示される。よって、前記同一性判定手段により、前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
次に、本発明の第2態様の対象物検出装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、前記車両のピッチングを逐次検出するピッチング検出手段を備え、前記同一性判定手段は、少なくとも前記時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第3発明)。
この第3発明の対象物検出装置において、前記第1発明と同様に、前記同一性判定手段は、任意の時刻Taに取得された画像から前記対象物抽出手段により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する。このとき、車両のピッチング時には、取得された画像上で対象物の残像が生じることがある。例えば、車両が上方向にピッチングしている場合には、画像上で対象物の上側に残像が生じ、車両が下方向にピッチングしている場合には、画像上で対象物の下側に残像が生じる。そして、このように残像が生じている画像から対象物を抽出すると、残像の画像部分が対象物の画像部分に含まれて抽出される。このため、残像の影響で、抽出された対象物の画像部分の重心位置、面積、縦横比等の全体的な特徴量が変化する。
そこで、前記同一性判定手段は、時刻Taにおいて前記ピッチング検出手段により車両のピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。なお、前記ピッチング検出手段は、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。
すなわち、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が低減されたものとなる。従って、前記同一性判定手段により、この部分の特徴量に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
なお、前記同一性判定手段は、時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されていないとき(車両が画像上に残像が生じる程度にピッチングしていないとき)には、時刻Taに取得された画像における前記第1の対象物の画像部分の全体的な特徴量(該対象物の左右の両側部分のいずれも含む画像部分全体の特徴量)と、時刻Tbに取得された画像における前記第2の対象物の画像部分の全体的な特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定すればよい。
また、前記第3発明の対象物検出装置において、前記ピッチング検出手段によりピッチングが検出されていないときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することが好ましい(第4発明)。
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することが好ましい(第4発明)。
これによれば、前記対象物画像記憶手段は、前記ピッチング検出手段によりピッチングが検出されていないとき(車両が画像上に残像が生じる程度にピッチングしていないとき)に取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する。この対象物画像は、残像が生じていない状態での対象物の画像部分であり、この対象物画像には、残像によるノイズが含まれないため対象物の特徴量が顕著に現れている。
一方、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合には、時刻Taに取得された画像上と、時刻Tbに取得された画像上とのいずれにおいても、残像が生じている状態であり、これらの画像から抽出された第1の及び第2の対象物の画像部分には、残像によるノイズが含まれている。なお、前記所定期間は、画像上に同一の対象物が存在しなくなるまでの期間である。
ここで、前記時刻Taに取得された画像における前記第1の対象物と、前記時刻Tbに取得された画像における前記第2の対象物とのいずれもが、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像に対応する対象物(時刻Tcに取得された画像から前記対象物抽出手段により抽出された第3の対象物)と同一であることが判れば、該第1の対象物が該第2の対象物と同一であることが判る。なお、前記ピッチングが検出された状態となる直前の時刻Tcにおける対象物画像とは、該ピッチングが検出された状態となる前に記憶された対象物画像であって、そのうちの最新に記憶された対象物画像である。
そこで、前記同一性判定手段は、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する。
すなわち、前記第1及び第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、これらの部分の特徴量は、残像の影響が低減されたものとなる。さらに、これらの部分の特徴量が、残像が生じていない対象物画像の特徴量と比較されるので、残像の影響が排除され、前記第1及び第2の類似の度合には、前記第1及び第2の対象物が前記第3の対象物と同一であるか否かが精度良く示される。よって、前記同一性判定手段により、前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
さらに、前記第1〜第4発明の対象物検出装置において、前記対象物抽出手段により抽出された対象物の、前記車両に対する距離を検出する距離検出手段を備え、前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第1の類似の度合を算出すると共に、前記時刻Tbに取得された画像における前記第2の対象物の、該距離検出手段により検出された距離と、該時刻Tcにおける該対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第2の類似の度合を算出することが好ましい(第5発明)。
すなわち、対象物の車両に対する距離が変化すると、該車両に搭載された撮像手段を介して取得された画像上で、該対象物の画像部分の大きさが該距離の変化に応じて変化する。そこで、前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する。また、前記時刻Tbに取得された画像における前記第2の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する。すなわち、前記対象物画像の大きさが、対象物の車両に対する距離の変化の影響を低減するように補正される。
そして、前記同一性判定手段により、前記それぞれ補正された対象物画像を用いて前記第1及び第2の類似の度合が算出される。従って、算出された前記第1及び第2の類似の度合は、対象物の車両に対する距離の変化によらずに、前記第1及び第2の対象物の画像部分の特徴量と前記対象物画像に対応する対象物との類似の度合をより適切に示すものとなる。よって、前記同一性判定手段により、算出された前記第1及び第2の類似の度合に基づいて該第1の対象物が該第2の対象物と同一であるか否かを判定することで、車両の旋回時又はピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
次に、本発明の車両は、前記第1〜第5発明のうちいずれかの対象物検出装置が搭載されたことを特徴とする(第6発明)。この第6発明の車両によれば、本発明の対象物検出装置と同等の効果を奏する車両を実現できる。
次に、本発明の第1態様の対象物検出方法は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、前記車両のヨーレートを逐次検出するヨーレート検出ステップを備え、前記同一性判定ステップにおいて、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第7発明)。
この第7発明の対象物検出方法によれば、前記第1発明に関して説明したように、時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるとき(車両が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きいとき)に、時刻Taに抽出された対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が排除されたものとなる。そして、時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときには、前記同一性判定ステップにおいて、この残像の影響が低減された部分の特徴量に基づいて、該第1の対象物が時刻Tbに取得された画像における前記第2の対象物と同一であるか否かが判定される。よって、本発明によれば、車両の旋回時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
次に、本発明の第2態様の対象物検出方法は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、前記車両のピッチングを逐次検出するピッチング検出ステップを備え、前記同一性判定ステップにおいて、少なくとも前記時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする(第8発明)。
この第8発明の対象物検出方法によれば、前記第3発明に関して説明したように、時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたとき(車両が画像上に残像が生じる程度にピッチングしているとき)に、時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分は、残像が生じていない側の画像部分であるので、この部分の特徴量は、残像の影響が排除されたものとなる。なお、前記ピッチング検出ステップでは、車両のピッチングによって変化する状態量の検出値(例えば、車両の上下方向の並進速度や、車両のピッチング軸周りの角速度等)の大きさが所定閾値以上であるときに、ピッチングが検出されたと判断し、該検出値の大きさが該所定閾値未満であるときに、ピッチングが検出されていないと判断する。
そして、時刻Taにおいてピッチングが検出されたときには、前記同一性判定ステップにおいて、この残像の影響が低減された部分の特徴量に基づいて、該第1の対象物が時刻Tbに取得された画像における前記第2の対象物と同一であるか否かが判定される。よって、本発明によれば、車両のピッチング時に、画像上に生じる残像の影響を低減して、車両周辺の画像から互いに異なる時刻で抽出された対象物の同一性を精度良く認識することができる。
次に、本発明の第1態様の対象物検出用プログラムは、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出処理により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、前記車両のヨーレートの検出値を逐次取得するヨーレート取得処理をコンピュータに実行させる機能を備え、前記同一性判定処理として、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする(第9発明)。
この第9発明の対象物検出用プログラムによれば、前記第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
次に、本発明の第2態様の対象物検出用プログラムは、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、前記車両のピッチングによって変化する状態量の検出値を逐次取得するピッチング取得処理をコンピュータに実行させる機能を備え、前記同一性判定処理として、少なくとも前記時刻Taにおいて前記ピッチング取得処理で取得された検出値によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする(第10発明)。
この第10発明の対象物検出用プログラムによれば、前記第3発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
本発明の一実施形態を添付の図面を参照して説明する。まず、本発明の第1実施形態について説明する。図1は、本実施形態による対象物検出装置の機能ブロック図であり、図2は、図1に示した対象物検出装置の車両への取り付け態様の説明図であり、図3は、図1の対象物検出装置における対象物検出・注意喚起動作を示すフローチャートである。また、図4は、図3の対象物検出・注意喚起動作における処理画像の例示図である。なお、本実施形態は、本発明の第1態様の対象物検出装置に相当する。
図1,2を参照して、本実施形態の対象物検出装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを逐次検出するヨーレートセンサ3と、自車両10の走行速度(車速)を逐次検出する車速センサ4と、自車両10のブレーキの操作を逐次検出するためのブレーキセンサ5とが接続されている。なお、加速度センサ17は、本実施形態には備えられず、後述の第2実施形態に備えられるものであるので、ここでは説明を省略する。
また、画像処理ユニット1には、自車両10に搭載された、音声等による聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。表示装置7は、例えば、自車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)7a等を備えている。HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が表示されるように設けられている。
赤外線カメラ2R,2Lは、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。なお、赤外線カメラ2R,2Lは、本発明の撮像手段に相当する。
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部に所定の間隔で取り付けられている。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行であって、且つ、それぞれの光軸の路面からの高さが等しくなるように自車両10の前部に固定されている。
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4及びブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、所定の演算処理周期毎に、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関する所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ6や表示装置7を介して注意喚起(対象物に対する運転者の注意の喚起)を行う処理等を実行する。これらの処理は、画像処理ユニット1のROMに予め実装されたプログラムを画像処理ユニット1により実行することにより実現され、そのプログラムは、本発明の対象物検出用プログラムを含んでいる。
より詳しくは、画像処理ユニット1は、上記プログラムにより実現される機能として、取得された画像から自車両10の周辺に存在する対象物を抽出する対象物抽出手段11と、抽出された対象物の画像部分から該対象物が歩行者であるか否かを判定する歩行者判定手段12と、ヨーレートセンサ3により検出されたヨーレートの大きさが所定閾値未満である場合に歩行者画像を逐次記憶する歩行者画像記憶手段13と、対象物の自車両10に対する距離を検出する距離検出手段14とを備える。また、画像処理ユニット1は、その機能として、演算処理周期毎に抽出された対象物の同一性を判定する同一性判定手段16と、ヨーレートセンサ3により検出されたヨーレートの大きさが所定閾値未満である場合に対象物画像を逐次記憶する対象物画像記憶手段15とを備える。
対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像から、自車両10の周辺に存在する対象物を抽出する。具体的には、対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像のうちの所定の基準画像(本実施形態では、赤外線カメラ2Rを介して取得された画像とする)に2値化処理等を施して、さらにラベリング処理等を施し、対象物の画像部分を抽出する。
距離検出手段14は、基準画像上で対象物抽出手段11により抽出された対象物に対応する対象物を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出する。なお、画像に基づいて対象物の距離を検出する具体的な手法としては、例えば、上述の特許文献1に記載したような手法を用いることができる。
歩行者画像記憶手段13は、ヨーレートセンサ3より検出されたヨーレートの大きさが所定閾値未満であるときに取得された画像から、歩行者判定手段12により歩行者であると判定された対象物の画像部分を、歩行者画像として逐次記憶する。
歩行者判定手段12は、対象物抽出手段11により抽出された対象物の画像部分から、該対象物が歩行者であるか否かを判定する。具体的には、歩行者判定手段12は、ヨーレートの大きさが所定閾値以上であるときには、このとき取得された画像から抽出された対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが所定閾値以上に変化する直前に記憶された歩行者画像の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量との類似の度合に基づいて、該対象物が歩行者であるか否かを判定する。なお、歩行者判定手段12は、距離検出手段14の検出結果に基づいて前記歩行者画像の大きさを補正し、該補正した歩行者画像を用いて前記類似の度合を算出する。
また、歩行者判定手段12は、ヨーレートの大きさが所定閾値未満であるときには、このとき取得された画像から抽出された対象物の画像部分の全体的な特徴量に基づいて、該対象物が歩行者であるか否かを判定する。なお、歩行者の判定に用いる対象物の画像部分の全体的な特徴量は、例えば、対象物の形状、輝度分散等である。
対象物画像記憶手段15は、ヨーレートセンサ3より検出されたヨーレートの大きさが所定閾値未満であるときに取得された画像から対象物抽出手段11により抽出された対象物の画像部分を、対象物画像として逐次記憶する。
同一性判定手段16は、任意の時刻Taに取得された画像から対象物抽出手段11により抽出された第1の対象物が、該時刻Taよりも前の演算処理周期の時刻Tbに取得された画像から対象物抽出手段11により抽出された第2の対象物と同一であるか否かを判定する。具体的には、同一性判定手段16は、時刻Taにおけるヨーレートの大きさが所定閾値以上であるときに、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。
また、同一性判定手段16は、時刻Taにおけるヨーレートの大きさが所定閾値未満であるときは、時刻Taに取得された画像における第1の対象物の画像部分の全体的な特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の全体的な特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。なお、同一性の判定に用いる対象物の画像部分の全体的な特徴量は、例えば、対象物の重心位置、面積、対象物の外接四角形の縦横比等である。
次に、本実施形態の対象物検出装置の全体的な作動(対象物検出・警報動作)を、図3に示したフローチャートに従って説明する。図3を参照して、画像処理ユニット1は、所定の演算処理周期毎に、STEP001〜STEP020の処理を繰り返して、対象物検出・注意喚起動作を実行する。まず、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。なお、赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。右画像と左画像とでは、同一の対象物の画像上での横方向(x方向)の位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
次に、画像処理ユニット1は、グレースケール画像のうちの基準画像に対して、その画像信号を2値化する(STEP004)。すなわち、基準画像の画像信号の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
図4(a)に、ある演算処理周期の時刻(離散系時刻)kにおいて赤外線カメラ2Rによって得られる画像を2値化した画像を例示する。図4(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2Rから得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。なお、図4(a)に示した例は、自車両10の前方に歩行者が存在しており、自車両10が直進している場合の例である。
次に、画像処理ユニット1は、2値化処理で「白」となった領域(以下、2値化領域という)からランレングスデータを作成する(STEP005)。作成されるランレングスデータは、2値化領域を画像の横方向の1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、画像の縦方向(y方向)に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。
上述のSTEP005〜007の処理により、図4(a)に示す2値化領域が、図4(b)に例示するように、対象物(2値化対象物)Tkとして抽出される。このとき、例えばラベルTkの対象物は、n個のランレングスデータL1〜Lnで示される。なお、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。図4(b)の例では、対象物Tkは、自車両10の前方に存在する歩行者に対応する2値化対象物である。
次に、画像処理ユニット1は、抽出された対象物の面積S、重心位置Gc、対象物の外接四角形の高さHb、幅Wb、重心位置Gb、縦横比ASPを算出する(STEP008)。具体的には、図4(b)の例では、対象物Tkの面積Skは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物Tkのn個のランレングスデータについて積算することにより算出する。また、対象物Tkの重心位置Gckは、各ランレングスデータLiで示されるラインの長さと、各ランレングスデータLiのラインの中点の座標(x[i],y[i])とをそれぞれ掛け合わせ、更にこれを対象物T1のn個のランレングスデータについて積算したものを、面積Skで割ることにより算出する。また、対象物Tkの外接四角形の縦横比ASPkは、対象物Tkの外接四角形の高さ(縦方向の長さ)Hbkと幅(横方向の長さ)Wbkとの比Hbk/Wbkとして算出する。なお、対象物Tkの画像部分Rkは、対象物Tkを囲む外接四角形の領域全体とする。
次に、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCARとを読み込む(STEP009)。なお、このSTEP009では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。
次に、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う(STEP010)。同一対象物認識処理は、時刻kにおけるSTEP007の処理により対象物Tkが抽出され、次の演算処理周期の時刻k+1におけるSTEP007の処理により対象物Tk+1が抽出されたとしたとき、対象物Tk+1と対象物Tkとの同一性(対象物Tk+1が対象物Tkと同一の対象物であるか否か)を判定する処理である。そして、対象物Tkと対象物Tk+1とが同一の対象物であると判定された場合には、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更される。これにより、対象物Tkと対象物Tk+1とが同一の対象物であると認識されて、時刻間で追跡される。この同一対象物認識処理は、基準画像において実行される。なお、同一対象物認識処理については、詳細を後述する。
一方、画像処理ユニット1は、STEP009,010の処理に平行して、STEP011〜014の処理を実行する。STEP011〜014の処理は、対象物と自車両10との距離z(自車両10の前後方向の距離)を算出する処理である。
まず、画像処理ユニット1は、基準画像の2値化画像によって追跡される対象物の中の1つを選択して、基準画像から探索画像R1(選択した対象物を囲む外接四角形の領域全体を探索画像とする)を抽出する(STEP011)。
次に、画像処理ユニット1は、参照画像(赤外線カメラ2R,2Lから得られた右画像及び左画像のうちの基準画像でない画像、今回の例では赤外線カメラ2Lから得られた左画像)中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(STEP012)。具体的には、探索画像R1の各頂点座標に応じて、参照画像中に探索領域R2を設定し、探索領域R2内に、座標(x0,y0)を基点(領域の左上の頂点)とした探索画像R1と同一形状の局所領域R3を設定する。そして、基点の座標(x0,y0)を変化させて、探索領域R2内で局所領域R3を移動させながら、局所領域R3と探索画像R1との相関の度合を示す輝度値の絶対差分和(SAD,Sum of Absolute Difference)C(x0,y0)を次式(1)により算出する。
ここで、絶対差分和C(x0,y0)は、探索画像R1内の座標(m,n)の画素の輝度値IRと、探索領域R2内の座標(x0,y0)を基点とした局所領域R3内の座標(x0+m,y0+n)の画素の輝度値ILとの差の絶対値を取り、この差の絶対値の探索画像R1及び局所領域R3内の全画素(m=0,...,M-1,n=0,...,N-1)についての総和値を求めたものである。なお、絶対差分和C(x0,y0)の値が小さいほど、探索画像R1と局所領域R3との相関の度合が高いことを示す。これにより、絶対差分和C(x0,y0)が最小となる基点の座標(x0,y0)を求め、この位置の局所領域R3を対応画像R4として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。STEP011〜012の処理により、基準画像中の探索画像R1と、参照画像中の対応画像R4とが抽出される。
次に、画像処理ユニット1は、探索画像R1の重心位置と、対応画像R4の重心位置とに基づいて、視差Δd(画素数)を算出する(STEP013)。そして、画像処理ユニット1は、算出された視差Δdを用いて、次式(2)により、自車両10と対象物との距離zを算出する(STEP014)。
z=B×F/(Δd×p) …(2)
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
STEP010及びSTEP014の処理の終了後、画像処理ユニット1は、次に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP015)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点(自車両10に固定された位置)を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向及びY方向は、それぞれ自車両10の左右方向(車幅方向)、上下方向であり、これらのX方向及びY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、実空間位置(X,Y,Z)は、次式(3)(4)(5)により算出される。
X=x×z×p/f …(3)
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP009で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP016)。回頭角補正は、時刻kから時刻k+1までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP009で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP016)。回頭角補正は、時刻kから時刻k+1までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP017)。具体的には、同一対象物についての実空間位置の、所定期間dT(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(座標PvdT=(XvdT,YvdT,ZvdT))から、現在時刻における該直線上の対象物の位置(座標Pv0=(Xv0,Yv0,Zv0))に向かうベクトルを対象物の移動ベクトルとして求める。なお、近似直線の具体的な算出処理には、前記特許文献1に記載された手法を用いる。
次に、画像処理ユニット1は、検出した対象物と自車両10とが接触する可能性を判定して、該対象物が回避対象(自車両10との接触を回避すべき対象)であるか否かを判定する回避判定処理を行う(STEP018)。なお、回避判定処理については、詳細を後述する。STEP018において、検出した対象物が回避対象でないと判定された場合(STEP018の判定結果がNO)には、STEP001に戻り、上述の処理を繰り返す。また、STEP018において、検出した対象物が回避対象であると判定された場合(STEP018の判定結果がYES)、STEP019へ進む。
STEP019では、画像処理ユニット1は、対象物に対する車両10の運転者の注意を喚起すべきか否かを判定する注意喚起出力判定処理を行う。この注意喚起出力判定処理では、ブレーキセンサ5の出力BRから、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行わないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行うべきと判定される。
そして、画像処理ユニット1は、注意喚起を行うべきと判定した場合(STEP019の判定結果がYES)には、スピーカ6と表示装置7とによる注意喚起を自車両10の運転者に対して行う注意喚起処理を実行し(STEP020)、STEP001に戻り、上述の処理を繰り返す。この警報出力処理では、例えば表示装置7に基準画像を表示すると共に、その基準画像中の回避対象である対象物の画像を強調的に表示する。さらに、回避対象である対象物が存在することをスピーカ6から運転者に音声案内する。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP019で注意喚起を行わないと判定した場合(全ての対象物について注意喚起を行わないと判定した場合)には、STEP019の判定結果がNOとなり、この場合には、そのままSTEP001に戻り、上述の処理を繰り返す。
以上が、本実施形態の対象物検出装置の画像処理ユニット1における対象物検出・注意喚起動作である。これにより、自車両10の周辺の赤外線画像と、自車両10の走行状態を示す信号とから、自車両10の前方の歩行者等の対象物が検出され、回避対象である対象物について運転者に注意喚起が行われる。
次に、図5に示すフローチャートを参照して、図3に示したフローチャートのSTEP010における同一対象物認識処理について詳細に説明する。以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進を継続し、時刻k+2で、自車両10が右方向に旋回している場合を例にして説明する。なお、時刻kにおける処理画像は、図4(a)に例示したようになる。
図4(c)には、時刻k+1において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(c)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。図4(c)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(d)に例示するように、対象物(2値化対象物)Tk+1として抽出される。このとき、対象物Tk+1の画像部分Rk+1は、幅Wbk+1、高さHbk+1とする。
また、図4(e)には、時刻k+2において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図4(e)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図4(e)の例では、自車両10が右方向に旋回しているため、歩行者の画像部分の右側に残像が生じている。このため、図4(e)に示す2値化領域には、歩行者に相当する領域F1と共に、残像に相当する領域F2(点描を付した領域)が含まれている。そして、図4(e)に示す2値化領域は、上述のSTEP005〜007の処理により、図4(f)に例示するように、対象物(2値化対象物)Tk+2として抽出される。このとき、対象物Tk+2の画像部分Rk+2は、幅Wbk+2、高さHbk+2とする。
図5を参照して、同一対象物認識処理において、まず、画像処理ユニット1は、図3のSTEP009で読み込まれたヨーレートYRが所定閾値YRth以上であるか否かを判断する(STEP101)。
STEP101の判断結果がNOの場合(|YR|<YRth)は、自車両10のヨーレートの大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP102〜104の処理が行われ、STEP110又はSTEP111に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当しており、以下ではこの例を用いて説明する。
まず、STEP102に進み、画像処理ユニット1は、抽出された対象物Tk+1の画像部分Rk+1を、対象物画像として画像メモリに記憶する。なお、対象物画像は逐次(演算処理周期毎に)更新されて記憶される。
次に、STEP103で、画像処理ユニット1は、時刻k+1で抽出された対象物Tk+1と、時刻kで抽出された対象物Tkとの同一性の判定に用いる特徴量を算出する。なお、本実施形態では、同一性判定用の特徴量として、時刻k+1のSTEP008で算出された対象物Tk+1の重心位置Gck+1、面積Sk+1、縦横比ASPk+1と、時刻kにおいてSTEP008で算出された対象物Tkの重心位置Gck、面積Sk、縦横比ASPkとを用いている。そして、画像処理ユニット1は、それぞれの差ΔGc(=Gck+1−Gck),ΔS(=Sk+1−Sk),ΔASP(=ASPk+1−ASPk)を算出する。
次に、STEP104で、画像処理ユニット1は、ΔGc,ΔS,ΔASPが、それぞれ所定範囲内であるか否か判断する。なお、所定範囲は、ΔGc,ΔS,ΔASPのそれぞれについて、対象物Tkと対象物Tk+1とが同一であるときに採り得る値の範囲として予め定められる範囲である。
STEP104の判断結果がYES(ΔGc,ΔS,ΔASPの全てが所定範囲内である)の場合には、STEP110に進み、対象物Tkと対象物Tk+1とが同一であると判定されて、対象物Tk+1のラベルが対象物Tkのラベルと同じラベルに変更され、同一対象物認識処理が終了される。STEP104の判断結果がNO(ΔGc,ΔS,ΔASPのうちの少なくともいずれかが所定範囲内でない)の場合には、STEP111に進み、対象物Tkと対象物Tk+1とが同一でないと判定されて、同一対象物認識処理が終了される。
一方、STEP101の判断結果がYESの場合(|YR|≧YRth)は、自車両10が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分大きい場合であり、以下のSTEP105〜109の処理が行われ、STEP110又はSTEP111に進む。上述の図4(e)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2の画像部分Rk+2は、図6(b)に示したようになる。
まず、STEP105に進み、画像処理ユニット1は、時刻k+1でSTEP102において画像メモリに記憶された対象物画像Rk+1(ヨーレートYRの大きさが所定閾値YRth以上となる直前の対象物画像)を読み込む。次に、STEP106で、画像処理ユニット1は、読み込んだ対象物画像Rk+1の大きさ(幅Wbk+1と高さHbk+1)を補正する。具体的には、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の対象物画像Rk+1’の幅Wbk+1’=Wbk+1×Zv0k+2/Zv0k+1、高さHbk+1’=Hbk+1×Zv0k+2/Zv0k+1となるように補正する。
なお、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1としては、時刻k+1のSTEP014で算出された値を用いる。また、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2は、例えば、対象物Tk+2が対象物Tk+1と同一であると仮定して、時刻k+1における対象物Tk+1の位置及び速度とヨーレートYRと自車速VCARとに基づいて、移動軌跡を推定することにより算出する。補正された対象物画像Rk+1’は、図6(a)に示したようになる。
次に、STEP107で、画像処理ユニット1は、補正した対象物画像Rk+1’と、対象物Tk+2の画像部分Rk+2とに、それぞれ、自車両10の旋回方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+2を、図6(a)(b)に示したように設定する(この部分領域Ck+1,Ck+2は、図示のごとく、自車両10の旋回方向と逆側寄りのエッジを含む領域である)。なお、部分領域Ck+2は、部分領域Ck+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Ck+1,Ck+2が設定される。
次に、STEP108で、画像処理ユニット1は、部分領域Ck+1と部分領域Ck+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布を用いており、部分領域Ck+1,Ck+2の輝度分布の類似の度合として、絶対差分和を用いている。
次に、STEP109で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Ck+1,Ck+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。
STEP109の判断結果がYES(類似の度合が高い)の場合には、STEP110に進み、対象物Tk+1と対象物Tk+2とが同一であると判定されて、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更され、同一対象物認識処理が終了される。図6に示した例では、類似の度合が高いと判断され、対象物Tk+1と対象物Tk+2とが同一であると判定される。STEP109の判定結果がNO(類似の度合が低い)の場合には、STEP111に進み、対象物Tk+1と対象物Tk+2とが同一でないと判定されて、同一対象物認識処理が終了される。これにより、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
さらに、時刻k+3で、画像上に対象物Tk+3が(対象物Tk+2と同一の対象物)抽出され、時刻k+2と同様に、自車両10が右方向に旋回している場合(|YR|≧YRth)には、時刻k+2と同様に、STEP105〜109の処理が行われる。この場合に、時刻k+1,k+2,k+3は、それぞれ、前記第2発明の時刻Tc,Tb,Taに相当する。
このとき、STEP106で、画像処理ユニット1は、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+3の対象物Tk+3の自車両10に対する距離Zv0k+3とを用いて、対象物画像Rk+1の大きさを補正する。次に、STEP107で、画像処理ユニット1は、補正した対象物画像Rk+1”と、対象物Tk+3の画像部分Rk+3とに、それぞれ、自車両10の旋回方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+3を設定する。次に、STEP108で、部分領域Ck+1と部分領域Ck+3との輝度値の絶対差分和が算出され、STEP109で、部分領域Ck+1と部分領域Ck+3との輝度分布の類似の度合が判断される。
そして、STEP109の判断結果がYESとなり、STEP110で、対象物Tk+1と対象物Tk+3とが同一であると判定されて、対象物Tk+3のラベルが対象物Tk+1のラベルと同じラベルに変更される。このとき、時刻k+2の演算処理周期において、STEP109で部分領域Ck+1,Ck+2の輝度分布の類似の度合が高いと判断され、STEP110で、対象物Tk+1と対象物Tk+2とが同一であると判定され、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更されている。よって、対象物Tk+3のラベルが対象物Tk+2のラベルと同じラベルに変更されることとなり、時刻k+3の対象物Tk+3が時刻k+2の対象物Tk+2と同一であることが認識される。
以上が、本実施形態における同一対象物認識処理の詳細である。
なお、本実施形態では、画像処理ユニット1がその機能として対象物画像記憶手段13を備え、画像処理ユニット1は、ヨーレートの大きさが所定閾値以上に変化する直前に対象物画像記憶手段13により記憶された対象物画像と、対象物の画像部分との類似の度合に基づいて、対象物の同一性を判定するものとがしたが、他の実施形態として、画像処理ユニット1は、対象物画像の代わりに、例えば逐次直前の演算処理周期に抽出された対象物の画像部分を用いて類似の度合を算出し、対象物の同一性を判定してもよい。
このとき、画像処理ユニット1は、例えば、上述の時刻k+3の場合に、時刻k+2とk+3とで、対象物Tk+2,Tk+3の画像部分のうちの自車両10の旋回方向と逆側のエッジ寄り部分Ck+2,Ck+3の特徴量を直接比較して類似の度合を算出し、対象物Tk+2と対象物Tk+3との同一性を判定する。この場合に、時刻k+2,k+3は、それぞれ、前記第1発明の時刻Tb,Taに相当する。このようにしても、自車両10の旋回方向と逆側のエッジ寄りの部分の特徴量は、残像の影響が低減されたものとなるので、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
次に、図7に示すフローチャートを参照して、図3に示したフローチャートのSTEP018における回避判定処理について詳細に説明する。図7は、本実施形態の回避判定処理を示すフローチャートである。回避判定処理は、以下に示す第1接触判定処理、第2接触判定処理、進入接触判定処理、歩行者判定処理、及び人工構造物判定処理により、検出した対象物と自車両10との接触の可能性及び対象物の種類を判定して、該対象物が回避対象であるか否かを判定する処理である。
図7を参照して、まず、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第1接触判定処理を行う(STEP201)。第1接触判定処理は、対象物と自車両10との接触を自車両10の操舵やブレーキ操作によって余裕を持って回避できるか否かを判定するための処理である。具体的には、第1接触判定処理では、赤外線カメラ2R,2Lにより撮像される自車両10の前方の領域(赤外線カメラ2R,2Lの視野角内の領域)AR0のうち、自車両10からのZ方向の距離(自車両10の前後方向の距離)が、所定値以下となる領域AR1(以下、第1接触判定領域という)に対象物の現在の実空間位置が存在するか否かが判定される。
この場合、自車両10からの距離に関する所定値は、対象物毎に設定される。具体的には、対象物と自車両10とのZ方向の相対速度Vs(=(Zv0−ZvdT)/dT)を求め、この相対速度Vsに所定の時間T1(例えば2〜5秒程度)を乗じた値Vs×T1が、第1接触判定領域AR1の、Z方向の境界を規定する上記所定値として設定される。なお、相対速度Vsが自車両10から遠ざかる向きの相対速度である場合には、対象物は第1接触判定領域AR1に存在しないと判定される。
ここで、図8を参照して説明すると、図8は、自車両10の走行する道路を上方から見た図であり、自車両10の前方の領域区分が示されている。図8に示したように、領域AR0を太い実線で示す外側の三角形の領域とすると、第1接触判定領域AR1は、領域AR0内のZ1(=Vs×T1)より自車両10に近い領域となる。なお、第1衝突判定領域AR1は、上下方向では、所定の高さH(例えば自車両10の車高の2倍程度の高さ)を有する領域である。従って、対象物の現在のZ方向の座標値(距離)Zv0がVs×T1以下で、且つ、対象物の現在のY方向の座標値(高さ)Yv0がH以下である場合に、対象物が第1接触判定領域AR1に存在すると判定される。
STEP201の判定結果がNOの場合(対象物が第1接触判定領域内AR1に存在しない)には、車両10の操舵やブレーキ操作によって対象物と車両10との接触を余裕を持って回避しうる状況である。この場合には、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
STEP201の判定結果がYESの場合(対象物が第1接触判定領域AR1内に存在している)には、STEP202に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、第2接触判定処理を行う。第2接触判定処理は、対象物の実空間位置が現在位置に維持されたとした場合に、対象物と車両10との接触の可能性が高いか否かを判定するための処理である。具体的には、第2接触判定処理では、対象物が、図8に示したように、第1接触判定領域AR1のうちの、自車両10の車幅αの両側に余裕βを加えた幅(α+2β)を有する領域AR2(以下、第2接触判定領域という)内に存在するか否かを判定する。なお、第2接触判定領域AR2も所定高さHを有する。
STEP202の判定結果がYESの場合(対象物が第2接触判定領域AR2内に存在している)には、対象物が現在の実空間位置に留まったとした場合に、該対象物が自車両10と接触する可能性が高い。この場合には、STEP203に進み、画像処理ユニット1は、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う。なお、歩行者判定処理については、詳細を後述する。
STEP203の判定結果がYESの場合(対象物は歩行者の可能性がある)には、STEP204に進み、更に対象物が歩行者である可能性の判定の信頼性を上げるために、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。人工構造物判定処理は、対象物の画像に、例えば予め登録された人工構造物の形状と一致する等の、歩行者ではないと考えられる特徴が検出された場合に、該対象物を人工構造物と判定し、回避対象から除外する処理である。
STEP204の判定結果がNOの場合(対象物が人工構造物でない)には、STEP206に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。従って、対象物が第1接触判定領域内の第2接触判定領域に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
また、STEP203の判定結果がNOの場合(対象物は歩行者の可能性がない)、あるいは、STEP204の判定結果がYESの場合(対象物が人工構造物である)には、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
一方、STEP202の判定結果がNOの場合(対象物が第2接触判定領域AR2内に存在しない)には、STEP205に進み、画像処理ユニット1は、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、進入接触判定処理を行う。進入接触判定処理は、対象物が第2接触判定領域AR2内へ進入し、且つ自車両10との接触する可能性が高いか否かを判定する処理である。進入接触判定処理では、図8に示したように、第1接触判定領域AR1内で第2接触判定領域AR2よりX座標の絶対値が大きい(第2接触判定領域AR2の横方向外側の)領域AR3,AR4(以下、進入判定領域という)内にある対象物が、第2接触判定領域AR2に進入して自車両10と接触するか否かを、対象物の移動ベクトルに基づいて判定する。なお、進入判定領域AR3,AR4も所定高さHを有する。
具体的には、自車両10の前面のXY平面(自車両10の前後方向に垂直な面)と、対象物の移動ベクトルを含む直線との交点のX座標(車幅方向の位置)が、自車両10の車幅αよりも若干広い所定範囲内に存在する場合(対象物が相対的に自車両10に向かってくる場合)に、第2接触判定領域AR2に進入して接触する可能性が高いと判定される。
STEP205の判定結果がYESの場合には、対象物が将来、自車両10と接触する可能性が高い。そこで、この場合には、STEP206に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。また、STEP205の判定結果がNOの場合には、対象物が自車両10と接触する可能性が低いので、STEP207に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
以上が、本実施形態における回避判定処理の詳細である。
次に、図9に示すフローチャートを参照して、図7に示したフローチャートのSTEP203における歩行者判定処理について詳細に説明する。以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進しており、時刻k+2で、自車両10が右方向に旋回している場合を例にして説明する。なお、時刻k,k+1,k+2における処理画像は、図4(a),(c),(e)に例示したようになる。
図9を参照して、まず、画像処理ユニット1は、図3のSTEP009で検出されたヨーレートYRが所定閾値YRth以上であるか否かを判断する(STEP301)。
STEP301の判断結果がNOの場合(|YR|<YRth)は、自車両10のヨーレートの大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP302〜304の処理が行われ、STEP310又はSTEP311に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当しており、以下ではこの例を用いて説明する。
まず、STEP302に進み、画像処理ユニット1は、抽出された対象物Tk+1が歩行者であるか否かを判定するために用いる特徴量を算出する。具体的には、まず、画像処理ユニット1は、STEP008で算出された対象物Tk+1(2値化対象物)の面積Sk+1、重心位置Gck+1、対象物Tk+1の外接四角形の縦横比ASPk+1、高さHbk+1、幅Wbk+1、重心位置Gbk+1、面積(Hbk+1×Wbk+1)と、STEP014で算出された自車両10との距離Zv0k+1とを用いて、実空間での2値化対象物の形状特徴量を、歩行者判定用の特徴量として算出する。この実空間での2値化対象物の形状特徴量は、例えば、実空間における2値化対象物の幅ΔWb、実空間における2値化対象物の高さΔHb、実空間における2値化対象物の上端位置Yt、2値化対象物の面積と外接四角形の面積との比Rate=Sk+1/(Hbk+1×Wbk+1)、2値化対象物の重心位置と外接四角形の重心位置との実空間における距離Dis、外接四角形の縦横比ASPk+1等である。
さらに、画像処理ユニット1は、2値化画像上での対象物Tk+1の画像部分Rk+1基づいて、図10に示したように、グレースケール画像上での対象物Tk+1の画像部分AREA0k+1(高さHgk+1,幅Wgk+1)を求める。なお、図10において、2値化画像上での対象物Tk+1の領域を、太い実線で囲まれた領域で示している。また、グレースケール画像上での対象物の画像部分を算出する具体的な手法としては、例えば、本出願人による特開2003−284057号公報の図8のS43に記載された手法を用いることができる。そして、画像処理ユニット1は、画像部分AREA0k+1内に、図10に示したように、マスク領域AREA1,AREA2,AREA3を設定し、AREA1の輝度平均値Ave_A1と、AREA2の輝度分散Var_A2と、AREA3の輝度分散Var_A3とを、歩行者判定用の特徴量として算出する。なお、AREA1は、対象物の頭部に相当する領域であり、AREA2は、対象物の腕及び胴部に相当する領域であり、AREA3は、対象物の頭部から下半身にかけての全身に相当する領域である。さらに、画像処理ユニット1は、AREA1と予め登録されている歩行者の頭部パターンを示すテンプレート画像との相関演算を行い、AREA1と頭部パターンとの類似の度合を、歩行者判定用の特徴量として算出する。
次に、STEP303で、画像処理ユニット1は、上述の各特徴量が所定範囲内であるか否か判断する。なお、前記所定範囲は、対象物が歩行者の上半身や全身であるときに採り得る値の範囲として予め定められる範囲である。
STEP303の判断結果がYES(全特徴量が所定範囲内である)の場合には、STEP304に進み、画像処理ユニット1は、対象物Tk+1のグレースケール上での画像部分AREA0k+1を歩行者画像として画像メモリに記憶する。なお、歩行者画像は逐次(演算処理周期毎に)更新されて記憶される。そして、STEP310に進み、対象物が歩行者であると判定され、歩行者判定処理が終了される。STEP303の判断結果がNO(特徴量の少なくともいずれかが所定範囲内でない)の場合には、STEP311に進み、対象物が歩行者でないと判定され、歩行者判定処理が終了される。なお、この歩行者を判定する手法については、上述の特許文献1に詳細に記載されている。
一方、STEP301の判断結果がYESの場合(|YR|≧YRth)は、自車両10が旋回してヨーレートの大きさが画像上に残像が生じる程度に十分に大きい場合であり、以下のSTEP305〜309の処理が行われ、STEP310又はSTEP311に進む。上述の図4(e)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2のグレースケール上での画像部分AREA0k+2(高さHgk+2,幅Wgk+2)は、図11(b)に示したようになる。なお、図11(b)において、2値化画像上での対象物Tk+1の領域を、太い実線で囲まれた領域で示している。
まず、STEP305に進み、画像処理ユニット1は、時刻k+1でSTEP304において画像メモリに記憶された歩行者画像AREA0k+1(ヨーレートYRの大きさが所定閾値YRth以上となる直前の歩行者画像)を読み込む。次に、STEP306で、画像処理ユニット1は、読み込んだ歩行者画像AREA0k+1の大きさを補正する。具体的には、時刻k+1のSTEP014で算出された対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2のSTEP014で算出された対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の歩行者画像AREA0k+1’の幅Wgk+1’=Wgk+1×Zv0k+2/Zv0k+1、高さHgk+1’=Hgk+1×Zv0k+2/Zv0k+1となるように補正する。補正された歩行者画像AREA0k+1’は、図11(a)に示したようになる。なお、図11(a)において、2値化画像上での対象物Tk+2領域を、太い実線で囲まれた領域で示している。
次に、STEP307で、画像処理ユニット1は、補正した歩行者画像AREA0k+1’と、対象物Tk+2のグレースケール画像上での画像部分AREA0k+2とに、それぞれ、自車両10の旋回方向の逆側寄りのエッジ部分の部分領域Dk+1,Dk+2を、図11(a)(b)に示したように設定する。本実施形態では、部分領域Dk+1,Dk+2は、対象物が歩行者である場合に、その頭部と肩とが含まれるように設定される。なお、部分領域Dk+2は、部分領域Dk+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Dk+1,Dk+2が設定される。
次に、STEP308で、画像処理ユニット1は、部分領域Dk+1と部分領域Dk+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、歩行者判定用の特徴量として、部分領域Dk+1,Dk+2の輝度分布を用いており、部分領域Dk+1,Dk+2の輝度分布の類似の度合として、絶対差分和を用いている。
次に、STEP309で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Dk+1,Dk+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。STEP309の判断結果がYES(類似の度合が高い)の場合には、STEP310に進み、対象物Tk+2が歩行者である(歩行者の可能性がある)と判定され、歩行者判定処理が終了される。図11に示した例では、類似の度合が高いと判断され、対象物Tk+2が歩行者であると判定される。STEP309の判断結果がNO(類似の度合が低い)の場合には、STEP311に進み、対象物Tk+2が歩行者でない(歩行者の可能性がない)と判定され、歩行者判定処理が終了される。これにより、自車両10の旋回時に、取得される画像上に生じる残像の影響を低減して、抽出された対象物Tk+2が歩行者であるか否かを精度良く判定することができる。
以上の処理により、本実施形態によれば、自車両10の旋回時に、画像上に生じる残像の影響を低減して、赤外線カメラ2R,2Lにより得られた画像から、自車両10の周辺に存在する歩行者を精度良く検出することができる。これにより、自車両10の運転者に情報の提示等を適切に行うことができる。
なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、対象物抽出手段11と、歩行者判定手段12と、歩行者画像記憶手段13と、距離検出手段14とを含んでいる。より具体的には、図3のSTEP004〜007が対象物抽出手段11に相当し、図3のSTEP011〜014が距離検出手段14に相当し、図7のSTEP203及び図9のSTEP301〜303,STEP305〜311が歩行者判定手段12に相当し、図9のSTEP304が歩行者画像記憶手段13に相当する。
また、本実施形態では、前述したように、画像処理ユニット1が、その機能として、同一性判定手段16と、対象物画像記憶手段15とを含んでいる。より具体的には、図3のSTEP010及び図5のSTEP101,103〜111が同一性判定手段16に相当し、図5のSTEP102が対象物画像記憶手段15に相当する。
次に、本発明の第2実施形態について説明する。なお、本実施形態は、第1実施形態において、画像処理ユニット1に、自車両10の上下方向の加速度を逐次検出する加速度センサ17が接続されて自車両10の上下方向の速度が算出されるものであり、画像処理ユニット1の機能である対象物画像記憶手段15と同一性判定手段16との作動が第1実施形態と相違する。以下の説明では、第1実施形態と同一の構成については、第1実施形態と同一の参照符号を用いて説明を省略する。なお、本実施形態は、本発明の第2態様の対象物検出装置に相当する。
本実施形態の対象物検出装置において、画像処理ユニット1の機能である対象物画像記憶手段15は、加速度センサ17より検出された自車両10の上下方向の加速度を積分して得られた自車両10の上下方向の速度の大きさが所定閾値未満であるとき(自車両10のピッチングが検出されていないとき)に取得された画像から対象物抽出手段11により抽出された対象物の画像部分を、対象物画像として逐次記憶する。
同一性判定手段16は、時刻Taにおける上下方向の速度の大きさが所定閾値以上であるとき(自車両10のピッチングが検出されたとき)に、時刻Taに取得された画像における第1の対象物の画像部分の左右の両側部分のうちの、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の左右の両側部分のうちの、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。また、同一性判定手段16は、時刻Taにおける上下方向の速度の大きさが所定閾値未満であるとき(自車両10のピッチングが検出されていないとき)は、時刻Taに取得された画像における第1の対象物の画像部分の全体的な特徴量と、時刻Tbに取得された画像における第2の対象物の画像部分の全体的な特徴量とに基づいて、第1の対象物が第2の対象物と同一であるか否かを判定する。以上説明した以外の構成は、第1実施形態と同じである。
次に、本実施形態の対象物検出装置の全体的な作動(対象物検出・警報動作)を説明する。なお、本実施形態における対象物検出装置の対象物検出・警報動作は、第1実施形態と、自車両10の走行状態に関する検出値の読み込み等を行う処理(図3のSTEP009)と、同一対象物認識処理(図3のSTEP010)のみが相違するものである。
本実施形態のSTEP009で、画像処理ユニット1は、ヨーレートセンサ3により検出されるヨーレートYRと、車速センサ4により検出される車速VCAR(水平方向の速度)と共に、加速度センサ17により検出される上下方向の加速度GYを読み込む(STEP009)。なお、このSTEP009では、ヨーレートYRを時間積分することにより、自車両10の回頭角θrの算出も行われる。また、加速度GYを時間積分することにより、自車両10の上下方向の速度VYの算出も行われる。
次に、STEP010で、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎に同一対象物を認識する処理を行う。ここで、本実施形態の同一対象物認識処理について、図12に示すフローチャートを参照して説明する。なお、本実施形態では、図3のSTEP010及び図12のSTEP401,403〜411が同一性判定手段16に相当し、図12のSTEP402が対象物画像記憶手段15に相当する。
以下の説明では、時刻kに、自車両10の前方に歩行者が存在して自車両10が直進している場合において、時刻k+1で、自車両10が直進を継続し、時刻k+2で、自車両10が下方向にピッチングしている場合を例にして説明する。なお、時刻k,k+1における処理画像は、図4(a),(c)に例示したようになる。
図13(a)には、時刻k+2において、上述のSTEP004で、赤外線カメラ2Rによって得られる画像を2値化した画像が例示されている。図13(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。このとき、図13(a)の例では、自車両10が下方向にピッチングしているため、歩行者の画像部分の下側に残像が生じている。このため、図13(a)に示す2値化領域には、歩行者に相当する領域F3と共に、残像に相当する領域F4(点描を付した領域)が含まれている。そして、図13(a)に示す2値化領域は、上述のSTEP005〜007の処理により、図13(b)に例示するように、対象物(2値化対象物)Tk+2として抽出される。このとき、対象物Tk+2の画像部分Rk+2は、幅Wbk+2、高さHbk+2とする。
図12を参照して、同一対象物認識処理において、まず、画像処理ユニット1は、図3のSTEP009で算出された自車両10の上下方向の速度VYが所定閾値VYth以上であるか否かを判断する(STEP401)。
STEP401の判断結果がNOの場合(|VY|<VYth)は、自車両10の上下方向の速度の大きさが画像上に残像が生じない程度に十分に小さい場合であり、以下のSTEP402〜404の処理が行われ、STEP410又はSTEP411に進む。上述の図4(c)に示した時刻k+1の例がこの場合に相当している。なお、STEP402〜404,410,411の処理は、それぞれ、第1実施形態のSTEP102〜104,110,111の処理と同じであるので、説明を省略する。
一方、STEP401の判断結果がYESの場合(|VY|≧VYth)は、自車両10がピッチングして上下方向の速度の大きさが画像上に残像が生じる程度に十分大きい場合であり、以下のSTEP405〜409の処理が行われ、STEP410又はSTEP411に進む。上述の図13(a)に示した時刻k+2の例がこの場合に相当しており、以下ではこの例を用いて説明する。時刻k+2で抽出された対象物Tk+2の画像部分Rk+2は、図14(b)に示したようになる。
まず、STEP405に進み、画像処理ユニット1は、時刻k+1でSTEP402において画像メモリに記憶された対象物画像Rk+1(上下方向の速度VYが所定閾値VRth以上となる直前の対象物画像)を読み込む。次に、STEP406で、画像処理ユニット1は、読み込んだ対象物画像Rk+1の大きさ(幅Wbk+1と高さHbk+1)を補正する。具体的には、第1実施形態のSTEP105と同様に、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+2の対象物Tk+2の自車両10に対する距離Zv0k+2とを用いて、補正後の対象物画像Rk+1’の幅Wbk+1’=Wbk+1×Zv0k+2/Zv0k+1、高さHbk+1’=Hbk+1×Zv0k+2/Zv0k+1となるように補正する。補正された対象物画像Rk+1’は、図14(a)に示したようになる。
次に、STEP407で、画像処理ユニット1は、補正した対象物画像Rk+1’と、対象物Tk+2の画像部分Rk+2とに、それぞれ、自車両10のピッチング方向の逆側寄りのエッジ部分の部分領域Ck+1,Ck+2を、図13(a)(b)に示したように設定する。なお、部分領域Ck+2は、部分領域Ck+1と同一形状とする。これにより、残像が生じていない側の画像部分に、部分領域Ck+1,Ck+2が設定される。
次に、STEP408で、画像処理ユニット1は、部分領域Ck+1と部分領域Ck+2との相関の度合を示す値である輝度値の絶対差分和を算出する。なお、本実施形態では、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布を用いており、部分領域Ck+1,Ck+2の輝度分布の類似の度合として、絶対差分和を用いている。
次に、STEP409で、画像処理ユニット1は、算出された絶対差分和に基づいて、部分領域Ck+1,Ck+2の輝度分布の類似の度合を判断する。具体的には、算出された絶対差分和が所定閾値以下(相関の度合が高い)である場合に、類似の度合が高いと判断する。
STEP409の判断結果がYES(類似の度合が高い)の場合には、STEP410に進み、対象物Tk+1と対象物Tk+2とが同一であると判定されて、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更され、同一対象物認識処理が終了される。図13に示した例では、類似の度合が高いと判断され、対象物Tk+1と対象物Tk+2とが同一であると判定される。STEP409の判定結果がNO(類似の度合が低い)の場合には、STEP411に進み、対象物Tk+1と対象物Tk+2とが同一でないと判定されて、同一対象物認識処理が終了される。これにより、自車両10のピッチング時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く認識することができる。
さらに、時刻k+3で、画像上に対象物Tk+3が(対象物Tk+2と同一の対象物)抽出され、時刻k+2と同様に、自車両10が下方向にピッチングしている場合(VY≧VYth)には、時刻k+2と同様に、STEP405〜409の処理が行われる。この場合に、時刻k+1,k+2,k+3は、それぞれ、前記第4発明の時刻Tc,Tb,Taに相当する。
このとき、STEP406で、画像処理ユニット1は、時刻k+1の対象物Tk+1の自車両10に対する距離Zv0k+1と、時刻k+3の対象物Tk+3の自車両10に対する距離Zv0k+3とを用いて、対象物画像Rk+1の大きさを補正する。次に、STEP407で、画像処理ユニット1は、補正した対象物画像Rk+1”と、対象物Tk+3の画像部分Rk+3とに、それぞれ、自車両10のピッチング方向と逆側のエッジ寄りの部分である部分領域Ck+1,Ck+3を設定する。次に、STEP408で、部分領域Ck+1と部分領域Ck+3との輝度値の絶対差分和が算出され、STEP409で、部分領域Ck+1と部分領域Ck+3との輝度分布の類似の度合が判断される。
そして、STEP409の判断結果がYESとなり、STEP410で、対象物Tk+1と対象物Tk+3とが同一であると判定されて、対象物Tk+3のラベルが対象物Tk+1のラベルと同じラベルに変更される。このとき、時刻k+2の演算処理周期において、STEP409で部分領域Ck+1,Ck+2の輝度分布の類似の度合が高いと判断され、STEP410で、対象物Tk+1と対象物Tk+2とが同一であると判定され、対象物Tk+2のラベルが対象物Tk+1のラベルと同じラベルに変更されている。よって、対象物Tk+3のラベルが対象物Tk+2のラベルと同じラベルに変更されることとなり、時刻k+3の対象物Tk+3が時刻k+2の対象物Tk+2と同一であることが認識される。
以上が、本実施形態における同一対象物認識処理の詳細である。
なお、本実施形態の歩行者判定処理では、自車両10のピッチングにより画像上に生じる上下方向の残像が、歩行者であることを示す特徴量(例えば頭部の輝度分布等)に及ぼす影響は少ないと想定して、第1実施形態のSTEP302〜303と同様に、対象物の画像部分の全体的な特徴量に基づいて、該対象物が歩行者であるか否かを判定すればよい。
また、本実施形態では、画像処理ユニット1がその機能として対象物画像記憶手段13を備え、画像処理ユニット1は、ピッチングが検出された状態となる直前に対象物画像記憶手段13により記憶された対象物画像と、対象物の画像部分との類似の度合に基づいて、対象物の同一性を判定するものとがしたが、他の実施形態として、画像処理ユニット1は、対象物画像の代わりに、例えば逐次直前の演算処理周期に抽出された対象物の画像部分を用いて類似の度合を算出し、対象物の同一性を判定してもよい。
このとき、画像処理ユニット1は、例えば、上述の時刻k+3の場合に、時刻k+2とk+3とで、対象物Tk+2,Tk+3の画像部分のうちの自車両10のピッチング方向と逆側のエッジ寄り部分Ck+2,Ck+3の特徴量を直接比較して類似の度合を算出し、対象物Tk+2と対象物Tk+3との同一性を判定する。この場合に、時刻k+2,k+3は、それぞれ、前記第3発明の時刻Tb,Taに相当する。このようにしても、自車両10のピッチング方向と逆側のエッジ寄りの部分の特徴量は、残像の影響が低減されたものとなるので、自車両10のピッチング時に、取得される画像上に生じる残像の影響を低減して、演算処理周期毎に抽出された対象物の同一性を精度良く判定することができる。
また、本実施形態では、画像処理ユニット1は、ピッチングによって変化する状態量の検出値として、上下方向の速度(並進速度)VYを用いて、速度VYの大きさが所定閾値VYth以上のときにピッチングが検出されたと判断し、速度VYの大きさが所定閾値VYth未満のときにピッチングが検出されていないと判断するものとしている。これに対し、他の実施形態として、画像処理ユニット1は、上下方向の速度VYの代わりに、自車両10のピッチング軸周りの角速度PRを用いて、ピッチング軸周りの角速度PRの大きさに応じて自車両10のピッチングを検出し、対象物の同一性を判定する処理を実行するようにしてもよい。
このとき、ピッチング検出手段として、自車両10の前部(赤外線カメラ2R,2Lの近傍箇所)に取り付けられた上下方向及び前後方向の加速度センサを用い、逐次検出した上下方向及び前後方向の加速度を時間積分することにより、ピッチング軸周りの角速度PRを算出してもよい。または、ピッチング検出手段として、自車両10のピッチング軸周りの角速度PRを逐次検出するレートセンサを用いてもよい。または、自車両10のピッチング角度(ピッチング軸周りの角度)を逐次検出し、所定時間当たりのピッチング角度の変化量(ピッチング軸周りの角速度PR)を算出してもよい。
また、前記第1及び第2実施形態では、画像処理ユニット1は、距離Zv0k+2,Zv0k+1に基づいて対象物画像Rk+1の大きさを補正し、補正した対象物画像Rk+1’を用いて類似の度合を算出したが(STEP106〜108,STEP406〜408)、画像処理ユニット1は、演算処理周期が十分に短い場合には、時刻k+1とk+2とで、画像上での対象物の大きさの変化が少ないと想定して、補正を行わず対象物画像Rk+1をそのまま用いて類似の度合を算出してもよい。
また、前記第1及び第2実施形態では、画像処理ユニット1は、同一対象物認識処理で同一性判定用の特徴量を算出する際に、2値化画像上での対象物の画像部分を用いたが、第1実施形態の歩行者判定処理のように、グレースケール画像上での対象物の画像部分を用いてもよい。
また、前記第1及び第2実施形態では、画像処理ユニット1は、同一対象物認識処理で同一性判定用の特徴量を算出する際に、部分領域Ck+1,Ck+2の輝度分布を用いるものとしたが(STEP108,STEP408)、他の実施形態として、例えば、同一性判定用の特徴量を算出する際に、部分領域Ck+1,Ck+2における対象物の輪郭線の形状を用いてもよい。さらに、同一性判定用の特徴量として、部分領域Ck+1,Ck+2の輝度分布、部分領域Ck+1,Ck+2における対象物の輪郭線の形状等の複数の特徴量を組み合わせて用いてもよい。
また、前記第1及び第2実施形態では、画像処理ユニット1は、STEP018で回避対象であると判定された対象物について、自車両10の運転者に注意喚起を行うものとしたが、他の実施形態として、例えば、車両10が、車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては車両10の走行挙動を操作可能)なものである場合には、STEP018で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように自車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して、加速しにくくする。あるいは、回避対象と車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための車両10の運転が容易になる。また、上記のようなステアリング装置の制御と、表示装置7もしくはスピーカ6による注意喚起とは、並行して行うようにしてもよい。
また、前記第1及び第2実施形態では、距離検出手段14は、対象物の自車両10に対する距離を、赤外線カメラ2R,2Lを介して取得された画像に基づいて算出したが、他の実施形態として、距離検出手段14は、対象物の自車両10に対する距離を、ミリ波レーダ等の他のセンサにより検出された対象物の位置情報に基づいて算出するものとしてもよい。
また、前記第1及び第2実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や走行中の車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。
2R,2L…赤外線カメラ(撮像手段)、3…ヨーレートセンサ(ヨーレート検出手段)、10…車両、11…対象物抽出手段、14…距離検出手段、15…対象物画像記憶手段、16…同一性判定手段、17…加速度センサ(ピッチング検出手段)。
Claims (10)
- 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、
前記車両のヨーレートを逐次検出するヨーレート検出手段を備え、
前記同一性判定手段は、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出装置。 - 前記ヨーレート検出手段により検出されたヨーレートの大きさが前記所定閾値未満であるときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ヨーレートの大きさが前記所定値未満から該所定値以上に変化した直後で、且つ、該ヨーレートの大きさが該所定値以上に維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、該ヨーレートの大きさが該所定閾値以上に変化する直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする請求項1記載の対象物検出装置。 - 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出手段と、任意の時刻Taに取得された画像から該対象物抽出手段により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定手段とを備えた対象物検出装置において、
前記車両のピッチングを逐次検出するピッチング検出手段を備え、
前記同一性判定手段は、少なくとも前記時刻Taにおいて前記ピッチング検出手段によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出装置。 - 前記ピッチング検出手段によりピッチングが検出されていないときに取得された画像から前記対象物抽出手段により抽出された対象物の画像部分を、対象物画像として逐次記憶する対象物画像記憶手段を備え、
前記同一性判定手段は、前記時刻Ta及び時刻Tbが、少なくとも前記ピッチング検出手段によりピッチングが検出されていない状態からピッチングが検出された状態に変化した直後で、且つ、該ピッチングが検出された状態が維持される所定期間内の時刻である場合に、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、該ピッチングが検出された状態となる直前の時刻Tcに取得された画像から前記対象物画像記憶手段により記憶された対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第1の類似の度合と、該時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄り部分の特徴量と、該時刻Tcにおける該対象物画像の左右の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量との第2の類似の度合とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする請求項3記載の対象物検出装置。 - 前記対象物抽出手段により抽出された対象物の、前記車両に対する距離を検出する距離検出手段を備え、
前記同一性判定手段は、前記時刻Taに取得された画像における前記第1の対象物の、前記距離検出手段により検出された距離と、前記時刻Tcにおける前記対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第1の類似の度合を算出すると共に、前記時刻Tbに取得された画像における前記第2の対象物の、該距離検出手段により検出された距離と、該時刻Tcにおける該対象物画像に対応する対象物の、該距離検出手段により検出された距離とに基づいて、該対象物画像の大きさを補正する手段を備え、該補正された対象物画像を用いて、前記第2の類似の度合を算出することを特徴とする請求項2又は請求項4記載の対象物検出装置。 - 請求項1〜請求項5のうちいずれか1項記載の対象物検出装置が搭載されたことを特徴とする車両。
- 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、
前記車両のヨーレートを逐次検出するヨーレート検出ステップを備え、
前記同一性判定ステップにおいて、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出方法。 - 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出ステップと、任意の時刻Taに取得された画像から該対象物抽出ステップにより抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出ステップにより抽出された第2の対象物と同一であるか否かを判定する同一性判定ステップとを備える対象物検出方法であって、
前記車両のピッチングを逐次検出するピッチング検出ステップを備え、
前記同一性判定ステップにおいて、少なくとも前記時刻Taにおいて前記ピッチング検出ステップでピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定することを特徴とする対象物検出方法。 - 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出処理により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、
前記車両のヨーレートの検出値を逐次取得するヨーレート取得処理をコンピュータに実行させる機能を備え、
前記同一性判定処理として、少なくとも前記時刻Taにおける前記ヨーレートの大きさが所定閾値以上であるときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の左右の両側部分のうちの、前記車両の旋回方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の左右の両側部分のうちの、該車両の旋回方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする対象物検出用プログラム。 - 車両に搭載された撮像手段を介して取得した画像から、該車両の周辺に存在する対象物を逐次抽出する対象物抽出処理と、任意の時刻Taに取得された画像から該対象物抽出処理により抽出された第1の対象物が、該時刻Taよりも前の時刻Tbに取得された画像から該対象物抽出手段により抽出された第2の対象物と同一であるか否かを判定する同一性判定処理とを、コンピュータに実行させる対象物検出用プログラムであって、
前記車両のピッチングによって変化する状態量の検出値を逐次取得するピッチング取得処理をコンピュータに実行させる機能を備え、
前記同一性判定処理として、少なくとも前記時刻Taにおいて前記ピッチング取得処理で取得された検出値によりピッチングが検出されたときに、該時刻Taに取得された画像における前記第1の対象物の画像部分の上下の両側部分のうちの、前記車両のピッチング方向と逆側のエッジ寄りの部分の特徴量と、前記時刻Tbに取得された画像における前記第2の対象物の画像部分の上下の両側部分のうちの、該車両のピッチング方向と逆側のエッジ寄りの部分の特徴量とに基づいて、該第1の対象物が該第2の対象物と同一であるか否かを判定する処理をコンピュータに実行させる機能を有するプログラムであることを特徴とする対象物検出用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006163834A JP2007334511A (ja) | 2006-06-13 | 2006-06-13 | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006163834A JP2007334511A (ja) | 2006-06-13 | 2006-06-13 | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007334511A true JP2007334511A (ja) | 2007-12-27 |
Family
ID=38933950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006163834A Pending JP2007334511A (ja) | 2006-06-13 | 2006-06-13 | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007334511A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009150771A1 (ja) * | 2008-06-12 | 2009-12-17 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP2011119917A (ja) * | 2009-12-02 | 2011-06-16 | Denso Corp | 車両用表示装置 |
US8284253B2 (en) | 2008-04-24 | 2012-10-09 | Honda Motor Co., Ltd. | Vehicle periphery monitoring apparatus |
CN105015469A (zh) * | 2014-04-25 | 2015-11-04 | 本田技研工业株式会社 | 物体检测装置以及物体检测方法 |
KR101835409B1 (ko) * | 2015-12-03 | 2018-03-09 | 현대오트론 주식회사 | 헤드업 디스플레이의 제어 장치 및 그 방법 |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
KR20190025698A (ko) * | 2016-08-01 | 2019-03-11 | 코너트 일렉트로닉스 리미티드 | 객체의 운동을 예측하여 자동차의 주위 영역의 객체를 캡처하기 위한 방법, 카메라 시스템 및 자동차 |
WO2021193352A1 (ja) * | 2020-03-25 | 2021-09-30 | Necソリューションイノベータ株式会社 | 画像追跡装置、画像追跡方法、及びコンピュータ読み取り可能な記録媒体 |
-
2006
- 2006-06-13 JP JP2006163834A patent/JP2007334511A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8284253B2 (en) | 2008-04-24 | 2012-10-09 | Honda Motor Co., Ltd. | Vehicle periphery monitoring apparatus |
WO2009150771A1 (ja) * | 2008-06-12 | 2009-12-17 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP2009301283A (ja) * | 2008-06-12 | 2009-12-24 | Honda Motor Co Ltd | 車両周辺監視装置 |
US8189868B2 (en) | 2008-06-12 | 2012-05-29 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
JP2011119917A (ja) * | 2009-12-02 | 2011-06-16 | Denso Corp | 車両用表示装置 |
CN105015469A (zh) * | 2014-04-25 | 2015-11-04 | 本田技研工业株式会社 | 物体检测装置以及物体检测方法 |
KR101835409B1 (ko) * | 2015-12-03 | 2018-03-09 | 현대오트론 주식회사 | 헤드업 디스플레이의 제어 장치 및 그 방법 |
KR20190025698A (ko) * | 2016-08-01 | 2019-03-11 | 코너트 일렉트로닉스 리미티드 | 객체의 운동을 예측하여 자동차의 주위 영역의 객체를 캡처하기 위한 방법, 카메라 시스템 및 자동차 |
KR102202343B1 (ko) * | 2016-08-01 | 2021-01-13 | 코너트 일렉트로닉스 리미티드 | 객체의 운동을 예측하여 자동차의 주위 영역의 객체를 캡처하기 위한 방법, 카메라 시스템 및 자동차 |
US11170232B2 (en) * | 2016-08-01 | 2021-11-09 | Connaught Electronics Ltd. | Method for capturing an object in an environmental region of a motor vehicle with prediction of the movement of the object, camera system as well as motor vehicle |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
WO2021193352A1 (ja) * | 2020-03-25 | 2021-09-30 | Necソリューションイノベータ株式会社 | 画像追跡装置、画像追跡方法、及びコンピュータ読み取り可能な記録媒体 |
JPWO2021193352A1 (ja) * | 2020-03-25 | 2021-09-30 | ||
JP7351571B2 (ja) | 2020-03-25 | 2023-09-27 | Necソリューションイノベータ株式会社 | 画像追跡装置、画像追跡方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4410292B1 (ja) | 車両の周辺監視装置 | |
JP4470067B2 (ja) | 対象物種別判定装置、車両 | |
JP4173896B2 (ja) | 車両周辺監視装置 | |
JP5706874B2 (ja) | 車両の周辺監視装置 | |
CN102783144B (zh) | 车辆的周围监测装置 | |
JP4173901B2 (ja) | 車両周辺監視装置 | |
JP4203512B2 (ja) | 車両周辺監視装置 | |
JP4173902B2 (ja) | 車両周辺監視装置 | |
EP2352136A1 (en) | System for monitoring the area around a vehicle | |
JP4171501B2 (ja) | 車両の周辺監視装置 | |
JP2007193445A (ja) | 車両の周辺監視装置 | |
US7483549B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
JP2007334511A (ja) | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム | |
JP2010146494A (ja) | 車両周辺監視装置 | |
US7969466B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4887537B2 (ja) | 車両周辺監視装置 | |
JP4629638B2 (ja) | 車両の周辺監視装置 | |
JP4823753B2 (ja) | 車両の周辺監視装置 | |
JP4627305B2 (ja) | 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム | |
US7526104B2 (en) | Vehicle surroundings monitoring apparatus | |
US7515737B2 (en) | Vehicle surroundings monitoring apparatus | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP2007311866A (ja) | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム | |
JP2007336091A (ja) | 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム |