[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5949861B2 - 車両の接近物体検出装置及び車両の接近物体検出方法 - Google Patents

車両の接近物体検出装置及び車両の接近物体検出方法 Download PDF

Info

Publication number
JP5949861B2
JP5949861B2 JP2014181602A JP2014181602A JP5949861B2 JP 5949861 B2 JP5949861 B2 JP 5949861B2 JP 2014181602 A JP2014181602 A JP 2014181602A JP 2014181602 A JP2014181602 A JP 2014181602A JP 5949861 B2 JP5949861 B2 JP 5949861B2
Authority
JP
Japan
Prior art keywords
vector
vehicle
image
vectors
time point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014181602A
Other languages
English (en)
Other versions
JP2016057698A (ja
Inventor
雅道 大杉
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014181602A priority Critical patent/JP5949861B2/ja
Priority to US14/823,459 priority patent/US20160073062A1/en
Priority to DE102015114403.4A priority patent/DE102015114403A1/de
Priority to CN201510553061.5A priority patent/CN105405319B/zh
Publication of JP2016057698A publication Critical patent/JP2016057698A/ja
Application granted granted Critical
Publication of JP5949861B2 publication Critical patent/JP5949861B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両に固定された撮像装置(カメラ)によって撮影された画像に基づいて同車両に接近する物体を検出する車両の接近物体検出装置及び車両の接近物体検出方法に関する。
車両の前端に設けられた撮像装置が撮影した画像に基づいて算出されたオプティカルフローベクトルを利用して同車両に接近する物体を検出するノーズビューモニタ装置(以下、「従来装置」とも称呼される。)が特許文献1に記載されている。オプティカルフローベクトル(以下、単に「フローベクトル」とも称呼される。)は、同一の撮像装置によって撮影された所定時間だけ離れた2枚の画像の両方に含まれる対象物(被写体又は被写体の一部)の同画像内における移動を表すベクトルである。
従来装置は、車両の左側方領域を撮影した画像(左側方画像)に含まれる対象物に基づくフローベクトルが右向きの水平方向成分を有していれば、その対象物を接近物体であると判定する。同様に、従来装置は、車両の右側方領域を撮影した画像(右側方画像)に含まれる対象物に基づくフローベクトルが左向きの水平方向成分を有していれば、その対象物を接近物体であると判定する。
より具体的に述べると、従来装置が備えるノーズビューカメラが撮影する画像において車両の直進方向を示す点(即ち、無限遠点)は、その画像内において車両の進行方向前方にある。そのため、車両が停止しているとき、移動している対象物であって、やがて車両の進行方向前方を横切る対象物に基づくフローベクトルは、画像上の無限遠点を通る垂直な線(仮想中心線)に向かう水平方向成分を有する。
例えば、車両の左側方にある対象物であって、やがて画像上の仮想中心線を左から右に横切る方向に移動している対象物に基づくフローベクトルは、右向きの水平方向成分を有する。そこで、従来装置は、左側方画像において右向きの水平方向成分を有するフローベクトルに対応する対象物を接近物体であると特定する。同様に、従来装置は、右側方画像において左向きの水平方向成分を有するフローベクトルに対応する対象物を接近物体であると特定する。
ただし、車両の方向が変わるとき(即ち、操舵輪を左方向又は右方向に向けながら車両が走行するとき)、接近物体の判定が正しく行われない場合がある。例えば、車両が右に旋回しているとき(即ち、操舵輪を右方向に向けながら車両が前進する結果、車両の方向が変わるとき)、車両が旋回していないときと比較して各フローベクトルの水平方向成分は左方向に大きくなる。
その結果、「左側方画像に含まれる接近物体に基づくフローベクトルが有していた右向きの水平方向成分」が車両の右旋回によって小さくなり、場合によっては、同フローベクトルが左向きの水平方向成分を有する。この場合、実際には接近している対象物を従来装置が接近物体であると判定しない「不検出」が発生する虞がある。
他方、右側方画像に含まれる対象物に基づくフローベクトルが元々左向きの成分を有していなかったにも拘わらず、車両の右旋回によって同フローベクトルが左向きの水平方向成分を有するようになる可能性がある。この場合、この対象物が接近物体では無いにも拘わらず従来装置が接近物体であると判定する「誤検出」が発生する虞がある。
そこで、車両の旋回に起因して接近物体の不検出及び/又は誤検出が発生する可能性が高く、従って、車両の運転者が期待する精度の接近物体検出機能を発揮出来ない虞があるとき、従来装置は接近物体の検出処理を停止していた。具体的には、従来装置は、車両の旋回速度(水平方向の回転速度)に相関を有する同車両の操舵角の大きさが所定値を越える場合に接近物体の検出処理を停止していた。
特許第4259368号公報
従来装置によれば、例えば、車両が左折又は右折をするためにT字路に進入する際、左側方及び右側方から接近する車両の有無を確認するためにハンドルを切った状態で(即ち操舵角が上記所定値を越えた状態で)停止したとき、接近物体の検出処理を停止していた。その結果、側方からの接近物体(例えば、他の車両)の検出が最も有効な場面の一つであるT字路への進入時において従来装置が備える接近物体検出機能が活用できない場合があった。
本発明はこの問題に対処するために成され、その目的は車両がハンドルを切った状態で停止している場合、或いは、車両がハンドルを切った状態で走行している(即ち、旋回している)場合であっても接近物体を検出できる車両の接近物体検出装置を提供することにある。
上記目的を達成するための車両の接近物体検出装置(以下、「本発明装置」とも称呼される。)は、
車両の車体に固定されるとともに同車体の左側方領域及び右側方領域を含む画像を取得する撮像装置、ベクトル取得部、補正ベクトル算出部、補正部、及び、接近物体特定部を備える。
前記ベクトル取得部は、
前記撮像装置により第1時点にて取得された第1画像と、前記撮像装置により前記第1時点よりも所定時間後の第2時点にて取得された第2画像と、に基づいて、前記第1画像及び前記第2画像の双方に撮影されている任意の対象物の、前記第1時点における始点、前記第1時点から前記第2時点までの移動量及び移動方向を表すオプティカルフローベクトルを複数取得する。
前記補正ベクトル算出部は、
前記オプティカルフローベクトルのうちの一対のベクトルであって、「前記左側方領域及び前記右側方領域を含む画像平面における前記車両の直進方向を示す点を通り且つ前記車体の左右水平方向に直交する仮想中心線」に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する。
前記画像平面は、前記撮像装置によって撮影される任意の対象物(立体)が投影される平面である。例えば、前記撮像装置が、単一の撮像装置ではなく、「左側方領域を撮影する第1撮像装置」と「右側方領域を撮影する第2撮像装置」とによって構成される場合がある。この場合、前記画像平面は、「第1撮像装置によって撮影される対象物が投影される平面(第1平面)」と「第2撮像装置によって撮影される対象物が投影される平面(第2平面)」とを含む平面である。
前記画像平面における前記車両の直進方向を示す点は、車両が前進(直進)したときに静止している対象物(例えば、建造物)に基づいて取得される各フローベクトルの始点と終点とを通る直線のそれぞれが交わる点でもある(図3を参照。)。即ち、前記車両の直進方向を示す点は、前記画像平面における無限遠点(Focus Of Expansion)であると捉えることが可能である。
従って、前記補正ベクトル算出部は、以下のように説明することも可能である。
即ち、前記補正ベクトル算出部は、
前記オプティカルフローベクトルのうちの一対のベクトルであって、「前記左側方領域及び前記右側方領域を含む画像平面における無限遠点を通り且つ前記車体の左右水平方向に直交する仮想中心線」に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する。
前記補正部は、
前記複数のオプティカルフローベクトルのそれぞれを前記旋回補正ベクトルに基づいて補正することにより補正後ベクトルを複数取得するベクトル補正を行う。
前記接近物体特定部は、
前記複数の補正後ベクトルに基づいて前記車両に接近する物体を特定する。
本発明装置は、車両旋回時の画像に基づいて取得された複数のフローベクトル(例えば、図4[B]の各矢印)に対してベクトル補正を行い、「車両が方向を変えることなく直進していれば得られたフローベクトル(例えば、図4[A]の各矢印)」を推定する。即ち、本発明装置は、前記ベクトル取得部が取得したフローベクトル(旋回による影響を受けている可能性があるベクトル)に基づいて補正後ベクトル(旋回による影響が排除されたベクトル)を取得する。
より具体的に述べると、各フローベクトルは、
(a)車両が移動したことによって生じた自車移動ベクトル、
(b)車両の方向が変わることによって生じた自車回転ベクトル、及び、
(c)対象物が移動したことによって生じた対象物移動ベクトル、
の和として捉えることができる。
車両と各対象物との距離が一定である場合、図5[A]に示されるように、上記一対のベクトルの一方に含まれる自車移動ベクトルの水平方向成分が、一対のベクトルの他方に含まれる自車移動ベクトルの水平方向成分と、方向が逆であって大きさが等しくなる。換言すれば、この場合、一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均は、零ベクトルとなる。即ち、一対のベクトルのそれぞれの平均を算出することによって自車移動ベクトルの水平方向成分が相殺される。
一方、自車回転ベクトルの水平方向成分のそれぞれは、図5[B]に示されるように、フローベクトルの始点がある場所に依らず向きと大きさとが互いに等しい。換言すれば、一対のベクトルのそれぞれに含まれる自車回転ベクトルの水平方向成分の平均は、元の一対のベクトルのそれぞれに含まれる自車回転ベクトルの水平方向成分と互いに等しい。
ところで、各対象物が移動しない場合、実際に得られるフローベクトルの水平成分は、図5[C]に示されるような「自車移動ベクトルの水平方向成分と自車回転ベクトルの水平方向成分との和(合成)」である。
そこで、本発明装置は、一対のフローベクトルの水平方向成分の平均に基づいて、旋回補正ベクトルを取得する。更に、本発明装置は、旋回補正ベクトルに基づいてベクトル補正を行うことによって、車両が直進していれば得られたフローベクトルを推定する。
その結果、本発明装置は、車両が旋回している場合であっても「旋回によるフローベクトルの水平方向成分の変化」を排除したうえで接近物体の特定を行うことが可能となる。加えて、本発明装置の実施にあたり車両の操舵角を検出するためのセンサは不要であるため、旋回時における接近物体を特定するためにコストが上昇することを防ぐことができる。
更に、本発明の一態様において、
前記補正ベクトル算出部は、
前記第1時点から前記第2時点にかけて発生した前記車両の方向の変化に起因して発生した前記オプティカルフローベクトルの水平方向成分の変化に相当するベクトルを前記旋回補正ベクトルとして算出し、
前記補正部は、
前記複数のオプティカルフローベクトルのそれぞれから前記旋回補正ベクトルを減じることにより前記ベクトル補正を行う、
ように構成されることが好適である。
これによれば、本発明装置は、車両の方向が変わることによって生じた各フローベクトルの水平方向成分の変化、即ち、各フローベクトルの水平方向成分に含まれる自車回転ベクトル(の水平方向成分)をベクトル補正によって確実に除去することができる。
更に、本発明の他の態様において、前記補正ベクトル算出部は、
複数の前記一対のベクトルに対し、それぞれの一対のベクトルの水平方向成分の平均である平均ベクトルを求めることにより同平均ベクトルを複数求め、そのうち、最も発生頻度の高いベクトルを前記旋回補正ベクトルとして採用するように構成されることが好適である。
上述したように、本発明装置は、一対のベクトルの水平方向成分の平均に基づいて旋回補正ベクトルを取得する。しかし、一対のベクトルのそれぞれに対応する対象物(車両の進行方向左側にある対象物及び進行方向右側にある対象物)の少なくとも一方が移動している場合がある。この場合、一対のベクトルの少なくとも一方は、対象物移動ベクトルを含んでいる。そのため、一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均が零ベクトルであっても、対象物移動ベクトルの影響により、この一対のベクトルの水平方向成分の平均は、自車回転ベクトルの水平方向成分とは相違する。
加えて、上述したように、車両と各対象物との距離が一定である場合、一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均は、零ベクトルとなるが、実際には、多くの場合、車両と各対象物との距離が一定ではなくばらつきがある。更に、自車移動ベクトルは、車両から対象物までの距離が短いほど大きくなる。そのため、車両と、一対のベクトルのそれぞれに対応する対象物(車両の進行方向左側にある対象物及び進行方向右側にある対象物)と、の距離が互いに異なる場合、自車移動ベクトルの水平方向成分の平均は、零ベクトルとはならない。従って、この場合、車両と各対象物との距離のばらつきの影響により、この一対のベクトルの水平方向成分の平均は、自車回転ベクトルの水平方向成分とは相違する。
しかし、例えば、図2に示されるように、車両がT字路に進入するとき、一対のベクトルのそれぞれに対応する対象物(車両の進行方向左側にある対象物及び進行方向右側にある対象物)は、路面、ビル及び塀等の建造物である場合が多い。そのため、車両と一対のベクトルのそれぞれに対応する対象物との距離が互いに略等しくなる可能性が高い。従って、一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均は、零ベクトルとなる場合が相対的に多い。
加えて、画像上の対象物は静止物体(例えば、建造物)と移動物体(例えば、他の走行している車両)とに分類され得るが、一般的に移動物体が占める画像上の面積は静止物体の占める画像上の面積よりも小さい。従って、画像上の各フローベクトルに基づいて算出された平均ベクトルの多くは、対象物移動ベクトルの水平方向成分の平均を含んでいない。換言すれば、平均ベクトルの多くは自車回転ベクトルの水平方向成分の平均のみを含んでいる。
以上より、複数取得された平均ベクトルのうち、最も発生頻度の高いベクトルは、対象物移動ベクトルの影響及び車両と各対象物との距離のばらつきの影響を受けておらず、従って、自車回転ベクトルの水平方向成分と等しい可能性が高い。換言すれば、本態様によれば、自車回転ベクトルの水平方向成分に相当するベクトルである旋回補正ベクトルを精度良く取得することができる。
なお、本発明は、上記車両の接近物体検出装置を搭載する車両にも係り、更に、上記車両の接近物体検出装置にて使用される方法にも及ぶ。
本発明の実施形態に係る車両の接近物体検出装置(本検出装置)が適用される車両(本車両)の概略図である。 本車両がT字路に進入する場合において、本車両に接近する対象物及び本車両から離れていく対象物を示した図である。 本検出装置によって取得された画像及びオプティカルフローベクトルの例である。 本検出装置が備える表示装置に表示された左側方画像及び右側方画像の例である。 自車移動ベクトルの水平方向成分及び自車回転ベクトルの水平方向成分を説明するための図である。 本検出装置のCPUが実行する接近物体検出処理ルーチンを示したフローチャートである。 一対のフローベクトルを示した図である。 平均ベクトルの分布を示したヒストグラムである。
(構成)
以下、図面を参照しながら本発明の実施形態に係る車両の接近物体検出装置(以下、「本検出装置」とも称呼される。)について説明する。本検出装置は、図1に概略構成が示された車両10に適用される。本検出装置は、カメラ20及びECU30を含んでいる。
カメラ20は、車両10の車体の前端中央部に固定されている。カメラ20の水平方向の画角(視野)は、車両10の進行方向正面を含み、左水平方向近傍から右水平方向近傍までの略180度である。具体的には、カメラ20の水平方向の画角は、図1に示された直線Leと直線Reとがなす角度(2α+2β)に等しい。カメラ20によって撮影される対象物のそれぞれが投影された平面は、「画像平面」とも称呼される。カメラ20は、撮影した画像を表す信号をECU30へ出力する。
ECU30は、周知のマイクロコンピュータを含む電子回路であり、CPU、ROM、RAM及びインターフェース等を含んでいる。ROMは、CPUが実行するプログラムを記憶している。
ECU30は、表示装置41及び車速センサ42と接続されている。表示装置41は、車両10の車室内に設けられた図示しないセンターコンソールに配設されている。後述する接近物体検出処理が実行されるとき、表示装置41はカメラ20によって撮影された画像の一部であって車両10の左側方領域を撮影した画像(左側方画像)と車両10の右側方領域を撮影した画像(右側方画像)とを並べて連続的に表示する。換言すれば、表示装置41には、車両10の左側方領域と右側方領域とを表す動画像が表示される。
図2に示されるように、左側方画像及び右側方画像のそれぞれの画角αは、車両10が左右の見通しの悪いT字路に進入するとき、車両10の運転者にとって視認しにくい範囲である。左側方画像の水平方向の画角は、カメラ20の画角の一部であって直線Leと直線LCeとがなす角度である。右側方画像の水平方向の画角は、カメラ20の画角の一部であって直線RCeと直線Reとがなす角度である。
上述したように、左側方画像の水平方向の画角と、右側方画像の水平方向の画角と、はいずれも角度αであり、互いに等しい。加えて、図1に示されるように、「カメラ20から車両10の進行方向正面に伸びる直線(半直線)Lh0」と直線LCeとがなす角度と、直線Lh0と直線RCeとがなす角度と、はいずれも角度βであり、互いに等しい。従って、左側方画像の水平方向の画角と、右側方画像との水平方向の画角と、は互いに直線Lh0に対して左右対称である。
表示装置41は、図示しない操作スイッチを備えている。車両10の運転者は、この操作スイッチを操作することによって接近物体検出処理のオン状態及びオフ状態のいずれか一方を選択することができる。加えて、表示装置41は、図示しないスピーカーを備えている。
車速センサ42は、車両10の車軸の回転速度を検出し、車両10の走行速度(車速)Vsを表す信号を出力する。
(接近物体検出処理の概要)
カメラ20は所定の撮影周期(所定時間)Δt毎に画像を撮影する。ECU30は、カメラ20によって撮影された画像(第1画像)と撮影周期Δt後に撮影された画像(第2画像)とに基づいてフローベクトルを取得する。換言すれば、第2画像はカメラ20によって撮影された最新の画像であり、第1画像はカメラ20によって第2画像よりも撮影周期Δtだけ以前に撮影された画像である。第1画像が撮影された時刻は、便宜的に「第1時点」とも称呼される。第2画像が撮影された時刻は、便宜的に「第2時点」とも称呼される。
ECU30は、第1画像と第2画像との双方に撮影されている任意の対象物の第1時点における始点及び第1時点から第2時点までの移動量及び移動方向を表すベクトルであるフローベクトルを複数の対象物のそれぞれに対し取得する。即ち、ECU30は、複数のフローベクトルを取得する。
図3にフローベクトルの例を各黒矢印により示す。図3には、便宜上、表示装置41に表示される左側方画像及び右側方画像に代わり、カメラ20によって撮影された車両10の進行方向正面を含む画像が示されている。図3の例において、車両10は、第1時点から第2時点にかけて前進(直進)している。図3に示されている画像は、第1画像である。各フローベクトルは、この第1画像と(第1画像よりも後に撮影された)第2画像とに基づいて取得されている。なお、図3において、静止している対象物(例えば、建造物)に基づく各フローベクトルの始点と終点とを通る直線のそれぞれが交わる点は、「無限遠点FOE」とも称呼される。無限遠点FOEは、図3に示された画像における車両10の直進方向を示す点であると捉えることも可能である。
図3に示された各フローベクトルは、対象物が移動することによって発生した対象物の画像平面上の移動を表すベクトルと、車両10が前進することによって発生した対象物の画像平面上の移動を表すベクトルと、の和として捉えることができる。便宜上、前者のベクトルは「対象物移動ベクトル」とも称呼され、後者のベクトルは「自車移動ベクトル」とも称呼される。
一方、車両10が操舵輪を左方又は右方に向けながら走行する(即ち、旋回する)ことによって車両10の方向が変わるとき、即ち、車両10が水平方向に回転するとき、その回転によって各フローベクトルが変化する。車両10が回転した場合のフローベクトルと、車両10が回転しなかった場合のフローベクトルと、の差分として得られるベクトルは、便宜上、「自車回転ベクトル」とも称呼される。即ち、各フローベクトルは、対象物移動ベクトル、自車移動ベクトル及び自車回転ベクトルの和として捉えることができる。
ECU30は、後述するように、車両10の方向が変わる際に接近物体検出処理を実行する場合、自車回転ベクトルの影響を考慮する必要がある。そこで、図2に示されるように、車両10がT字路に進入する場合を例に接近物体検出処理の実行時におけるECU30の作動を説明する。
図4[A]及び[B]は、表示装置41に表示された左側方画像及び右側方画像の例である。図4[A]及び[B]に示された画像は、図3の例と同様に第1画像であり、車両10が図2の位置Psにあるときに撮影された画像である。図4[A]及び[B]に示される各フローベクトルは、この第1画像と(第1画像よりも後に撮影された)第2画像とに基づいて取得されている。図4[A]には、車両10が図2の破線矢印Adで示されるように(方向を変えずに)直進する場合のフローベクトルの例が示されている。一方、図4[B]には、車両10が図2の実線矢印Atで示されるように右に方向を変えながらT字路に進入する(即ち、右に旋回する)場合のフローベクトルの例が示されている。
図4[A]及び[B]に示された黒矢印は、車両10以外の車両に基づくフローベクトルを表している。一方、これらの図に示された白抜き矢印は、建物及び道路標識等の移動しない対象物に基づくフローベクトルを表している。
図4[A]において、即ち、車両10が直進する場合において、ECU30は、「左側方画像に現れる対象物であって対応するフローベクトルが右向きの水平方向成分を有する対象物」が接近物体であると特定することが可能である。同様に、ECU30は、「右側方画像に現れる対象物であって対応するフローベクトルが左向きの水平方向成分を有する対象物」が接近物体であると特定することが可能である。
この点、図2及び図4を参照しながら具体的に説明する。半直線Lh0と、移動する対象物からその対象物の進行方向前方に伸びる半直線と、が交わる場合、その対象物に基づくフローベクトルは、画像上の無限遠点FOEを通る垂直な直線Lmに向かう水平方向成分を有する。無限遠点FOEを通る垂直な直線(即ち、車両10の直進方向を示す点を通る垂直な直線)Lmは、「仮想中心線Lm」とも称呼される。仮想中心線Lmは、画像平面における無限遠点FOEを通り且つ車両10の車体の左右水平方向に直交する直線であるとも定義され得る。
例えば、半直線Lh0と、左側方から車両10に接近する車両である対象物51から対象物51の進行方向前方に伸びる半直線Lh1と、は点Pi1にて交わる。換言すれば、車両10が停止していれば、対象物51は、やがて車両10の進行方向前方を左から右に横切る。そのため、図4[A]の左側方画像における対象物51に基づくフローベクトルは、右向きの水平方向成分を有している。従って、ECU30は、対象物51が接近物体であると特定できる。
同様に、図2において、半直線Lh0と、右側方から車両10に接近する車両である対象物52から対象物52の進行方向前方に伸びる半直線Lh2と、は点Pi2にて交わる。そのため、図4[A]の右側方画像における対象物52に基づくフローベクトルは、左向きの水平方向成分を有している。従って、ECU30は、対象物52が接近物体であると特定できる。
一方、図2において、半直線Lh0と、車両10の左側方にあって、車両10から離れていく車両である対象物53から対象物53の進行方向前方に伸びる半直線Lh3と、は交わらない。そのため、図4[A]の左側方画像における対象物53に基づくフローベクトルは右向きの水平方向成分を有していない。従って、ECU30は、対象物53が接近物体ではないと特定できる。
同様に、図2において、半直線Lh0と、車両10の右側方にあって、車両10から離れていく車両である対象物54から対象物54の進行方向前方に伸びる半直線Lh4と、は交わらない。そのため、図4[A]の右側方画像における対象物54に基づくフローベクトルは左向きの水平方向成分を有していない。従って、ECU30は、対象物54が接近物体ではないと特定できる。
一方、図4[B]において、即ち、車両10が右に旋回している場合において、自車回転ベクトルの影響によって同図[B]に示されたフローベクトルのそれぞれは、同図[A]に示されたフローベクトルのそれぞれと比較して左向きの水平方向成分が大きくなっている。
その結果、図4[B]における対象物51に基づくフローベクトルは、左向きの水平方向成分を有している。そのため、ECU30が接近している対象物51を接近物体ではないと特定する「不検出」が発生し得る。
加えて、図4[B]における対象物54に基づくフローベクトルは、左向きの水平方向成分を有している。そのため、ECU30が遠ざかっている対象物54を接近物体であると特定する「誤検出」が発生し得る。
そこで、ECU30は、接近物体検出処理の実行時、車両10が方向を変化させることによる影響を排除するため、フローベクトルのそれぞれに対してベクトル補正を行う。より具体的に述べると、ECU30は、自車回転ベクトルの水平方向成分に相当するベクトルを「旋回補正ベクトル」として推定する。「各フローベクトルから旋回補正ベクトルを減じることによって(即ち、ベクトル補正によって)得られるベクトル(即ち、補正後ベクトル)」の水平方向成分は、自車移動ベクトルの水平方向成分と対象物移動ベクトルの水平方向成分との和に相当する。ECU30は、補正後ベクトルに基づいて接近物体の特定を行うことにより、接近物体検出処理において各フローベクトルに対する自車回転ベクトルの影響(即ち、車両10が方向を変化させることによる影響)を排除することができる。
旋回補正ベクトルの推定方法について図5を参照しながら説明する。図5[A]は、車両10と各対象物との距離が一定である場合に移動していない対象物についてカメラ20によって撮影された車両10の正面を含む画像(第1画像及び第2画像)に基づいて取得されるフローベクトルに含まれる自車移動ベクトルの水平方向成分の例を示している。この場合、自車移動ベクトルは、画像平面上の対象物と無限遠点FOEとの距離が長いほど大きくなる。加えて、自車移動ベクトルの大きさが同一であれば、自車移動ベクトルの水平方向成分は画像平面上の対象物と無限遠点FOEとの垂直方向の距離(例えば、同図[A]において距離Dh)が長いほど小さくなる。
図5[A]において、一対の自車移動ベクトルであって、仮想中心線Lmに対し線対称位置に始点を有する一対のベクトル(例えば、ベクトルVL1及びVR1)の水平方向成分は、方向が逆であって大きさが等しい。換言すれば、車両10と各対象物との距離が一定である場合、この一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均は、下式(1)に示すように零ベクトルとなる。

{VL1ベクトルの水平方向成分(ベクトル)
+VR1ベクトルの水平方向成分(ベクトル)}/2=0(ベクトル) …(1)
図5[B]は、図5[A]の画像に含まれていた対象物について、車両10が右に旋回した場合にカメラ20によって撮影される画像(第1画像及び第2画像)に基づいて取得されたフローベクトルに含まれる自車回転ベクトルの水平方向成分の例を示している。自車回転ベクトルの向きと大きさは、その自車回転ベクトルの始点の位置に依らず互いに等しい。換言すれば、一対の自車回転ベクトルであって、仮想中心線Lmに対しそれぞれが線対称位置に始点を有する一対のベクトル(例えば、ベクトルVL2及びVR2)の水平方向成分の平均は、下式(2)に示すように元の自車回転ベクトルの水平方向成分と等しい。

{VL2ベクトルの水平方向成分(ベクトル)
+ VR2ベクトルの水平方向成分(ベクトル)}/2
= 自車回転ベクトルの水平方向成分(ベクトル) …(2)
図5[C]は、図5[A]及び[B]に表されたベクトルの和(即ち、自車移動ベクトルの水平方向成分及び自車回転ベクトルの水平方向成分の和)を表している。これらは実際に取得されるフローベクトルの水平方向成分である。式(1)及び式(2)によって、図5[C]に表された一対のベクトルであって、仮想中心線Lmに対しそれぞれが線対称位置に始点を有する一対のベクトル(例えば、ベクトルVL3及びVR3)の平均を算出すれば、自車移動ベクトルの水平方向成分が取り除かれ、自車回転ベクトルの水平方向成分が得られることが理解される。
しかしながら、実際にカメラ20によって撮影された画像に基づいて算出されたフローベクトルのそれぞれには、自車移動ベクトル及び自車回転ベクトルに加えて対象物移動ベクトルが含まれている場合がある。即ち、上記一対のベクトルのうちの一方又は両方が移動している対象物に基づいていれば、それらのフローベクトルの水平方向成分から算出される平均は、対象物移動ベクトルの寄与分を含み、従って、自車回転ベクトルの水平方向成分とは異なる。
加えて、実際には、車両10と各対象物との距離は一定ではなく、ばらつきがあるので、自車移動ベクトルの水平方向成分のそれぞれは、図5[A]に示されるような左右対称とはならない。その結果、上記一対のベクトルのそれぞれに含まれる自車移動ベクトルの水平方向成分の平均が零ベクトルとはならない場合がある。
とはいえ、左側方画像及び右側方画像における移動している対象物(例えば、他の車両)が占める面積と、移動していない対象物(例えば、建造物)が占める面積と、を比較すると、一般に、移動していない対象物の面積の方が大きい。
加えて、図2の実線矢印Atで示されるように車両10がT字路に進入して右折する場合、左側方画像及び右側方画像に含まれる対象物の多くは路面及び建造物等である場合が多い。従って、「上記一対のベクトルの一方に対応し且つ左側方画像に含まれる左方対象物」から車両10までの距離(左方距離)と、「同一対のベクトルの他方に対応する右方対象物」から車両10までの距離(右方距離)と、は略同一である場合が比較的多い。
例えば、図4[B]の左側方画像に示された点P1(左方対象物)から車両10までの距離(左方距離)と、点P2(右方対象物)から車両10までの距離(右方距離)と、は略同一である。加えて、同図の左側方画像に示された点P3(左方対象物)から車両10までの距離(左方距離)と、点P4(右方対象物)から車両10までの距離(右方距離)と、は略同一である。
以上より、種々のフローベクトルについて上記一対のベクトルの水平方向成分の平均を算出したとき、「移動している対象物」及び/又は「左方距離と右方距離との間の差分」に起因してその平均が自車回転ベクトルの水平方向成分と等しくならない場合が発生し得る。しかし、その頻度は相対的に高くないので、比較的多くの場合、上記一対のベクトルの水平方向成分の平均は、自車回転ベクトルの水平方向成分と等しくなる。
そこで、ECU30は、各フローベクトルについて一対のベクトルの水平方向成分の平均(平均ベクトル)を算出し、算出された複数の平均ベクトルのうち最も発生頻度の高い平均ベクトルを旋回補正ベクトルとして採用する。
ECU30は、各フローベクトルを旋回補正ベクトルに基づいて補正することにより補正後ベクトルを取得するベクトル補正を行う。具体的には、ECU30は、各フローベクトルの水平方向成分から旋回補正ベクトルを減じることによって補正後ベクトルを取得する。
更に、ECU30は、補正後ベクトルに基づいて接近物体を特定する。より具体的に述べると、左側方画像において、補正後ベクトルが右方向の成分を有していれば、ECU30は、そのフローベクトルに対応する対象物を接近物体であると特定する。同様に、右側方画像において、補正後ベクトルが左方向の成分を有していれば、ECU30は、そのフローベクトルに対応する対象物を接近物体であると特定する。ECU30は、この接近物体を特定するための処理を各フローベクトルに対して実行する。
(具体的作動)
次に、ECU30の具体的作動について説明する。ECU30のCPU(以下、単に「CPU」とも称呼される。)は、撮影周期Δtが経過する毎に図6にフローチャートにより示した「接近物体検出処理ルーチン」を実行する。
従って、適当なタイミングになると、CPUは、図6のステップ600から処理を開始してステップ605に進み、カメラ20によって撮影された左側方画像及び右側方画像を取得する。CPUは、取得した画像をRAM上に記憶する。
次いで、CPUは、ステップ610に進み、接近物体検出条件が成立しているか否かを判定する。本例において、接近物体検出条件は、車両10の運転者による操作によって接近物体検出処理がオン状態となっており且つ車速Vsが速度閾値Vth以下である場合に成立する。
速度閾値Vthは、車速Vsが上昇して自車移動ベクトルの水平方向成分が大きくなることによって、フローベクトルの水平方向成分に含まれる対象物移動ベクトルの水平方向成分が相殺され、その結果、不検出が発生する頻度が増加し得る速度である。より具体的に述べると、車速Vsが上昇するほど自車移動ベクトルの大きさが大きくなる。そのため、例えば、「左側方画像における接近物体に基づくフローベクトルに含まれる対象物移動ベクトルの右向きの水平方向成分の大きさ」よりも「同フローベクトルに含まれる自車移動ベクトルの左向きの水平方向成分の大きさ」の方が大きくなり得る。その結果、不検出が発生する。
接近物体検出条件が成立していた場合、CPUはステップ610にて「Yes」と判定してステップ615に進み、本ルーチンが前回実行されたときに取得された画像(第1画像)と、今回取得された画像(第2画像)と、に基づいてブロックマッチング法によりフローベクトルを取得する。
より具体的に述べると、CPUは、第1画像を所定の大きさの矩形に分割し(即ち、第1画像を矩形の集合として捉え)、それぞれの矩形が第2画像においてどの位置に現れるかを探索する。その結果、第1画像におけるその矩形の位置(移動元)を始点とし、第2画像における同矩形の位置(移動先)を終点とするフローベクトルが得られる。CPUは、この処理を、第1画像(左側方画像及び右側方画像)を構成する矩形のそれぞれに対して実行する。従って、複数の(非常に多くの)フローベクトルが取得される。
次いで、CPUは、ステップ620に進み、一対のフローベクトルの水平方向成分の平均を算出する(即ち、平均ベクトルを取得する)。例えば、図7において、左側方画像を分割して得られる矩形RcLを始点とするフローベクトルFLと、右側方画像を分割して得られる矩形RcRを始点とするフローベクトルFRと、が一対のフローベクトルに相当する。即ち、矩形RcL及び矩形RcRは、仮想中心線Lmに対して互いに線対称位置にある。
換言すれば、画像平面において、仮想中心線Lmから矩形RcLまでの距離と、仮想中心線Lmから矩形RcRまでの距離と、は何れもLvであり、互いに等しい。加えて、画像平面において、無限遠点FOEから矩形RcLまでの垂直方向の距離と、無限遠点FOEから矩形RcRまでの垂直方向の距離と、は何れもLhであり、互いに等しい。別の観点から述べると、左側方画像の右端から矩形RcLまでの距離と、右側方画像の左端から矩形RcRまでの距離と、は何れもLvsであり、互いに等しい。加えて、左側方画像の上端から矩形RcLまでの距離と、右側方画像の上端から矩形RcRまでの距離と、は何れもLhsであり、互いに等しい。
CPUは、平均ベクトルを算出するため、フローベクトルFLの水平方向成分FLhが右向きの成分を有するときに正の値となり、左向きの成分を有するときに負の値となり、絶対値が水平方向成分FLhの大きさに等しい左側水平値HLを取得する。同様に、CPUは、フローベクトルFRの水平方向成分FRhが右向きの成分を有するときに正の値となり、左向きの成分を有するときに負の値となり、絶対値が水平方向成分FRhの大きさに等しい右側水平値HRを取得する。
そして、CPUは、左側水平値HL及び右側水平値HRの平均値VA(即ち、VA=(HL+HR)/2)を算出する。平均ベクトルは、平均値VAが正の値であれば右向きであり、平均値VAが負の値であれば左向きであり、その大きさが平均値VAの絶対値に等しいベクトルである。平均値VAが「0」であれば、平均ベクトルは零ベクトルである。CPUは、この処理を、各フローベクトルに対して実行する。即ち、CPUは平均ベクトルを複数求める。
次いで、CPUは、ステップ625に進み、複数の平均ベクトルに基づいて旋回補正ベクトルを算出する。より具体的に述べると、CPUは、算出された平均値VAについて内部的に図8に示されるようなヒストグラムを生成し、最も頻繁に現れる値(最頻値)VMを取得する。
CPUは、最頻値VMに基づいて、旋回補正ベクトルを取得する。具体的には、旋回補正ベクトルは、最頻値VMが正の値であれば右向きであり、最頻値VMが負の値であれば左向きであり、その大きさが最頻値VMの絶対値に等しいベクトルである。最頻値VMが「0」であれば、旋回補正ベクトルは零ベクトルである。
次いで、CPUは、ステップ630に進み、各フローベクトルの水平方向成分から旋回補正ベクトルを減じることによって(即ち、ベクトル補正を行うことによって)補正後ベクトルを取得する。
次いで、CPUは、ステップ635に進み、車両10に接近する物体を特定する。より具体的に述べると、CPUは、左側方画像において右方向の水平方向成分を有する補正後ベクトルが存在していれば、この補正後ベクトルに対応する対象物を接近物体であると特定する。同様に、CPUは、右側方画像において左方向の水平方向成分を有する補正後ベクトルが存在していれば、この補正後ベクトルに対応する対象物を接近物体であると特定する。
次いで、CPUは、ステップ640に進み、特定された接近物体の有無を判定する。CPUは、接近物体であると特定された対象物があれば、ステップ640にて「Yes」と判定してステップ645に進む。ステップ645にてCPUは、表示装置41に表示された左側方画像及び右側方画像において、接近物体であると特定された対象物体が表示されている箇所の色彩をその他の箇所と異なる色(本例において、赤色)に変更する。加えて、CPUは、表示装置41が備えるスピーカーから警告音を発生させる。その後、CPUは、ステップ695に進み、本ルーチンを一旦終了する。
一方、接近物体であると特定された対象物が無ければ、CPUは、ステップ640にて「No」と判定してステップ695に直接進む。なお、接近物体検出条件が成立していなかった場合、CPUは、ステップ610にて「No」と判定してステップ695に直接進む。
以上、説明したように、本検出装置(カメラ20及びECU30)は、
車両(10)の車体に固定されるとともに同車体の左側方領域及び右側方領域(図1及び図2を参照。)を含む画像を取得する撮像装置(カメラ20)と、
前記撮像装置により第1時点にて取得された第1画像と、前記撮像装置により前記第1時点よりも所定時間(撮影周期Δt)後の第2時点にて取得された第2画像と、に基づいて、前記第1画像及び前記第2画像の双方に撮影されている任意の対象物の、前記第1時点における始点、前記第1時点から前記第2時点までの移動量及び移動方向を表すオプティカルフローベクトルを複数取得する(図4及び図6のステップ615)ベクトル取得部と、
前記オプティカルフローベクトルのうちの一対のベクトルであって、前記左側方領域及び前記右側方領域を含む画像平面における前記車両の直進方向を示す点(無限遠点FOE)を通り且つ前記車体の左右水平方向に直交する仮想中心線(Lm)に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する(図6のステップ625及び図7)補正ベクトル算出部と、
前記複数のオプティカルフローベクトルのそれぞれを前記旋回補正ベクトルに基づいて補正することにより補正後ベクトルを複数取得するベクトル補正を行う(図6のステップ630)補正部と、
前記複数の補正後ベクトルに基づいて前記車両に接近する物体を特定する(図6のステップ635)接近物体特定部と、
を備えている。
更に、本検出装置において、
前記補正ベクトル算出部は、
前記第1時点から前記第2時点にかけて発生した前記車両の方向の変化に起因して発生した前記オプティカルフローベクトルの水平方向成分の変化に相当するベクトル(図5[B]を参照。)を前記旋回補正ベクトルとして算出し、
前記補正部は、
前記複数のオプティカルフローベクトルのそれぞれから前記旋回補正ベクトルを減じる(図6のステップ630)ことにより前記ベクトル補正を行う、
ように構成されている。
加えて、本検出装置は、
前記補正ベクトル算出部は、
複数の前記一対のベクトルに対し、それぞれの一対のベクトルの水平方向成分の平均である平均ベクトルを求めることにより同平均ベクトルを複数求め(図6のステップ620)、そのうち、最も発生頻度の高いベクトルを前記旋回補正ベクトルとして採用する(図6のステップ625及び図8)ように構成されている。
本検出装置によれば、車両が旋回している場合であっても同旋回がフローベクトルの水平方向成分へ及ぼす影響を排除したうえで同フローベクトルに基づいて接近物体の特定を精度良く行うことができる。加えて、本検出装置によれば、車両10の操舵角を検出するためのセンサは不要となる。
以上、本発明に係る車両の接近物体検出装置の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。例えば、本実施形態において、カメラ20が左側方画像と右側方画像とを撮影していた。しかし、車両10に配設された2台のカメラのうちの一方のカメラが左側方画像を撮影し、他方のカメラが右側方画像を撮影しても良い。
加えて、本実施形態において、第2画像はカメラ20によって撮影された最新の画像であり、第1画像はカメラ20によって第2画像よりも撮影周期Δtだけ以前に撮影された画像(即ち、第1画像は第2画像の1世代前の画像)であった。しかし、第2画像は最新の画像でなくても良い。更に、第1画像は、第2画像の2世代以上前の画像であっても良い。
加えて、カメラ20は、車両10の車体の前端中央部に固定されていた。しかし、カメラ20は、車両10の車室内に固定されていても良い。例えば、カメラ20は、車室内に配設されたルームミラー(不図示)に固定されていても良い。
或いは、カメラ20は車両10の車体の後端に固定されても良い。この場合、ECU30は、車両10が後進する際に車両10の左側方及び右側方から接近する物体を特定しても良い。
ECU30は、車両10の運転者による操作によって接近物体検出処理がオン状態となっており且つ車速Vsが速度閾値Vth以下である場合に接近物体検出条件が成立していると判定していた。しかし、ECU30は、車速Vsに依らず、接近物体検出処理がオン状態となっていれば接近物体検出条件が成立していると判定しても良い。
加えて、ECU30は、図6のステップ615にて、ブロックマッチング法によりオプティカルフローベクトルを取得していた。ECU30は、他の方法(例えば、勾配法)によりオプティカルフローベクトルを取得しても良い。
加えて、ECU30は、図6のステップ625にて最頻値を旋回補正値として採用していた。しかし、ECU30は、最頻値の代わりに平均値又は中央値を旋回補正値として採用しても良い。
車両…10、カメラ…20、ECU…30、表示装置…41、車速センサ…42。

Claims (5)

  1. 車両の車体に固定されるとともに同車体の左側方領域及び右側方領域を含む画像を取得する撮像装置と、
    前記撮像装置により第1時点にて取得された第1画像と、前記撮像装置により前記第1時点よりも所定時間後の第2時点にて取得された第2画像と、に基づいて、前記第1画像及び前記第2画像の双方に撮影されている任意の対象物の、前記第1時点における始点、前記第1時点から前記第2時点までの移動量及び移動方向を表すオプティカルフローベクトルを複数取得するベクトル取得部と、
    前記オプティカルフローベクトルのうちの一対のベクトルであって、前記左側方領域及び前記右側方領域を含む画像平面における前記車両の直進方向を示す点を通り且つ前記車体の左右水平方向に直交する仮想中心線に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する補正ベクトル算出部と、
    前記複数のオプティカルフローベクトルのそれぞれを前記旋回補正ベクトルに基づいて補正することにより補正後ベクトルを複数取得するベクトル補正を行う補正部と、
    前記複数の補正後ベクトルに基づいて前記車両に接近する物体を特定する接近物体特定部と、
    を備えた、車両の接近物体検出装置。
  2. 請求項1に記載の接近物体検出装置において、
    前記補正ベクトル算出部は、
    前記第1時点から前記第2時点にかけて発生した前記車両の方向の変化に起因して発生した前記オプティカルフローベクトルの水平方向成分の変化に相当するベクトルを前記旋回補正ベクトルとして算出し、
    前記補正部は、
    前記複数のオプティカルフローベクトルのそれぞれから前記旋回補正ベクトルを減じることにより前記ベクトル補正を行う、
    ように構成された車両の接近物体検出装置。
  3. 請求項2に記載の接近物体検出装置において、
    前記補正ベクトル算出部は、
    複数の前記一対のベクトルに対し、それぞれの一対のベクトルの水平方向成分の平均である平均ベクトルを求めることにより同平均ベクトルを複数求め、そのうち、最も発生頻度の高いベクトルを前記旋回補正ベクトルとして採用するように構成された車両の接近物体検出装置。
  4. 車両の車体に固定されるとともに同車体の左側方領域及び右側方領域を含む画像を取得する撮像装置と、
    前記撮像装置により第1時点にて取得された第1画像と、前記撮像装置により前記第1時点よりも所定時間後の第2時点にて取得された第2画像と、に基づいて、前記第1画像及び前記第2画像の双方に撮影されている任意の対象物の、前記第1時点における始点、前記第1時点から前記第2時点までの移動量及び移動方向を表すオプティカルフローベクトルを複数取得するベクトル取得部と、
    前記オプティカルフローベクトルのうちの一対のベクトルであって、前記左側方領域及び前記右側方領域を含む画像平面における無限遠点を通り且つ前記車体の左右水平方向に直交する仮想中心線に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する補正ベクトル算出部と、
    前記複数のオプティカルフローベクトルのそれぞれを前記旋回補正ベクトルに基づいて補正することにより補正後ベクトルを複数取得するベクトル補正を行う補正部と、
    前記複数の補正後ベクトルに基づいて前記車両に接近する物体を特定する接近物体特定部と、
    を備えた、車両の接近物体検出装置。
  5. 車両の車体に固定された撮像装置によって同車体の左側方領域及び右側方領域を含む画像を取得する撮像工程と、
    前記撮像装置により第1時点にて取得された第1画像と、前記撮像装置により前記第1時点よりも所定時間後の第2時点にて取得された第2画像と、に基づいて、前記第1画像及び前記第2画像の双方に撮影されている任意の対象物の、前記第1時点における始点、前記第1時点から前記第2時点までの移動量及び移動方向を表すオプティカルフローベクトルを複数取得するベクトル取得工程と、
    前記オプティカルフローベクトルのうちの一対のベクトルであって、前記左側方領域及び前記右側方領域を含む画像平面における無限遠点を通り且つ前記車体の左右水平方向に直交する仮想中心線に対し線対称位置に始点を有する一対のベクトル、の水平方向成分の平均に基づくベクトルを旋回補正ベクトルとして算出する補正ベクトル算出工程と、
    前記複数のオプティカルフローベクトルのそれぞれを前記旋回補正ベクトルに基づいて補正することにより補正後ベクトルを複数取得するベクトル補正を行う補正工程と、
    前記複数の補正後ベクトルに基づいて前記車両に接近する物体を特定する接近物体特定工程と、
    を備えた、車両の接近物体検出方法。
JP2014181602A 2014-09-05 2014-09-05 車両の接近物体検出装置及び車両の接近物体検出方法 Expired - Fee Related JP5949861B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014181602A JP5949861B2 (ja) 2014-09-05 2014-09-05 車両の接近物体検出装置及び車両の接近物体検出方法
US14/823,459 US20160073062A1 (en) 2014-09-05 2015-08-11 Approaching object detection apparatus for a vehicle and approaching object detection method for the same
DE102015114403.4A DE102015114403A1 (de) 2014-09-05 2015-08-28 Annäherungsobjekterfassungsvorrichtung für ein Fahrzeug und Annäherungsobjekterfassungsverfahren dafür
CN201510553061.5A CN105405319B (zh) 2014-09-05 2015-09-01 车辆的接近物体检测装置以及车辆的接近物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014181602A JP5949861B2 (ja) 2014-09-05 2014-09-05 車両の接近物体検出装置及び車両の接近物体検出方法

Publications (2)

Publication Number Publication Date
JP2016057698A JP2016057698A (ja) 2016-04-21
JP5949861B2 true JP5949861B2 (ja) 2016-07-13

Family

ID=55358609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014181602A Expired - Fee Related JP5949861B2 (ja) 2014-09-05 2014-09-05 車両の接近物体検出装置及び車両の接近物体検出方法

Country Status (4)

Country Link
US (1) US20160073062A1 (ja)
JP (1) JP5949861B2 (ja)
CN (1) CN105405319B (ja)
DE (1) DE102015114403A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102485317B1 (ko) * 2016-05-26 2023-01-05 현대자동차주식회사 움직임 정보에 기반한 장애물 검출 시스템 및 방법
JP6727985B2 (ja) * 2016-08-18 2020-07-22 株式会社東芝 情報処理装置、情報処理方法、および移動体
IT201600094858A1 (it) * 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
KR20180045745A (ko) * 2016-10-26 2018-05-04 삼성에스디에스 주식회사 이동체에서의 객체 검출 장치 및 방법
TWI632814B (zh) * 2016-11-11 2018-08-11 財團法人工業技術研究院 視訊畫幀產生方法及其系統
US20180150703A1 (en) * 2016-11-29 2018-05-31 Autoequips Tech Co., Ltd. Vehicle image processing method and system thereof
JP6863728B2 (ja) * 2016-12-14 2021-04-21 株式会社デンソーテン 運転支援装置および運転支援方法
JP6961964B2 (ja) * 2017-03-16 2021-11-05 トヨタ自動車株式会社 衝突回避装置
CN107577988B (zh) * 2017-08-03 2020-05-26 东软集团股份有限公司 实现侧方车辆定位的方法、装置及存储介质、程序产品
JP6662356B2 (ja) * 2017-08-03 2020-03-11 トヨタ自動車株式会社 車両制御装置
CN108171725A (zh) * 2017-12-25 2018-06-15 北京航空航天大学 一种基于法向流信息的动态环境下目标检测方法
US20210097707A1 (en) * 2018-03-23 2021-04-01 Sony Corporation Information processing device, movement device, and method, and program
JP7227112B2 (ja) * 2019-09-27 2023-02-21 日立Astemo株式会社 物体検出装置、走行制御システム、および走行制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04259368A (ja) 1991-02-12 1992-09-14 Mitsubishi Heavy Ind Ltd 金属間化合物シートの製造方法
JP2000168442A (ja) * 1998-12-11 2000-06-20 Mitsubishi Motors Corp 車両の後方監視装置
EP1223083B1 (en) * 1999-09-20 2004-03-17 Matsushita Electric Industrial Co., Ltd. Device for assisting automobile driver
JP4259357B2 (ja) * 2004-03-12 2009-04-30 三菱ふそうトラック・バス株式会社 車両走行状態判定装置
JP4193740B2 (ja) * 2004-03-26 2008-12-10 三菱自動車工業株式会社 ノーズビューモニタ装置
DE102005013920B4 (de) * 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Frontsicht-Überwachungsvorrichtung
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009060499A (ja) * 2007-09-03 2009-03-19 Sanyo Electric Co Ltd 運転支援システム及び連結車両
JP4337929B2 (ja) * 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
US20110298988A1 (en) * 2010-06-04 2011-12-08 Toshiba Alpine Automotive Technology Corporation Moving object detection apparatus and moving object detection method

Also Published As

Publication number Publication date
US20160073062A1 (en) 2016-03-10
DE102015114403A1 (de) 2016-03-10
CN105405319B (zh) 2018-02-23
JP2016057698A (ja) 2016-04-21
CN105405319A (zh) 2016-03-16

Similar Documents

Publication Publication Date Title
JP5949861B2 (ja) 車両の接近物体検出装置及び車両の接近物体検出方法
JP5421072B2 (ja) 接近物体検知システム
JP6532229B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP5054612B2 (ja) 接近物検出装置および接近物検出方法
US10609337B2 (en) Image processing apparatus
JP6084048B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
CN114572113B (zh) 拍摄系统、拍摄装置及驾驶支援装置
WO2016092967A1 (ja) 画像生成装置及び画像生成方法
JP2018005811A (ja) 車両の接近物体検出装置
KR101190789B1 (ko) 차량의 거리 측정 장치 및 방법
US9827906B2 (en) Image processing apparatus
JP6178580B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
JP6323262B2 (ja) 車両の接近物体検出装置
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP2008042759A (ja) 画像処理装置
US9519833B2 (en) Lane detection method and system using photographing unit
KR20150012044A (ko) 차량의 차선 이탈 경보 장치 및 방법
JP2015001812A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6361347B2 (ja) 車両用表示装置
JP2010018223A (ja) 車両用走行路面検出装置
JP6023030B2 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP6564682B2 (ja) 対象物検出装置、対象物検出方法、及び、対象物検出プログラム
US10417505B2 (en) Vehicle detection warning device and vehicle detection warning method
JP2020042716A (ja) 異常検出装置および異常検出方法
JP7322651B2 (ja) 障害物認識装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R151 Written notification of patent or utility model registration

Ref document number: 5949861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees