[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012198857A - 接近物体検知装置及び接近物体検知方法 - Google Patents

接近物体検知装置及び接近物体検知方法 Download PDF

Info

Publication number
JP2012198857A
JP2012198857A JP2011064048A JP2011064048A JP2012198857A JP 2012198857 A JP2012198857 A JP 2012198857A JP 2011064048 A JP2011064048 A JP 2011064048A JP 2011064048 A JP2011064048 A JP 2011064048A JP 2012198857 A JP2012198857 A JP 2012198857A
Authority
JP
Japan
Prior art keywords
vehicle
movement vector
approaching
image
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011064048A
Other languages
English (en)
Other versions
JP5539250B2 (ja
JP2012198857A5 (ja
Inventor
Ikuro Sato
育郎 佐藤
Chiharu Yamano
千晴 山野
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2011064048A priority Critical patent/JP5539250B2/ja
Publication of JP2012198857A publication Critical patent/JP2012198857A/ja
Publication of JP2012198857A5 publication Critical patent/JP2012198857A5/ja
Application granted granted Critical
Publication of JP5539250B2 publication Critical patent/JP5539250B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】低い処理負荷で、自車両と接近物体の位置関係及び自車両が移動しているか否かによらず、接近物体を検知できる接近物体検知装置を提供する。
【解決手段】接近物体検知装置は、異なる時刻に撮像部(2)により取得された車両(10)の周囲を撮影した二つの画像から特徴点を抽出する特徴点抽出部(432)と、その二つの画像間で同一の物体に関する特徴点からその物体の画像上の観測移動ベクトルを求める観測移動ベクトル算出部(435)と、撮像部(2)の移動に起因する各特徴点に対応する物体の見かけの移動ベクトルの最小値を算出する最小見かけ移動ベクトル算出部(434)と、特徴点ごとに観測移動ベクトルから見かけの移動ベクトルの最小値を減じて補正移動ベクトルを算出する移動ベクトル補正部(436)と、その補正移動ベクトルに対応する物体が車両(10)に接近する移動物体か否か判定する判定部(437)とを有する。
【選択図】図2

Description

本発明は、接近物体検知装置及び接近物体検知方法に関し、特に、車両に接近する物体をその車両に搭載されたカメラを用いて検知する接近物体検知装置及び接近物体検知方法に関する。
駐車されている車両が後退発進する際に、その車両に接近してくる他の車両または歩行者といった移動物体とその車両との接触事故が発生することがある。この種の事故は、後退発進する車両のドライバから、接近してくる移動物体が見え難いことが主な原因の一つである。そこで、接近してくる移動物体を見易くするために、車両にリアカメラを搭載し、リアカメラにより撮影された画像に基づいて車両に接近する物体を検知し、その検知結果に基づいて、車両の運転者に対して警告を行う装置及び方法が提案されている(例えば、特許文献1〜3を参照)。
そのような方法の一つは、時間的に連続した複数の画像上に占める対象物のサイズの時間変化を求め、対象物のサイズが拡大していれば、その対象物を接近物体として検知する。例えば、特許文献1に開示された装置は、異なる時刻に得られた二つの画像間の略水平方向のオプティカルフローを算出し、オプティカルフローが類似した移動領域の中から鉛直方向の信号値の分布(プロファイル)を求め、異なる時刻に得られた二つの画像上の上記のプロファイル間で動的計画法を施すことにより移動領域内の物体の拡大率を算出する。そしてその装置は、物体の拡大率に応じてその物体が真に接近してくる物体か否か判定する。
他の方法として,時空間画像内に現れる傾斜した線を抽出することにより、接近してくる物体の存在を判定する方法が知られている。例えば、特許文献2に開示された装置は、画像上での道路の消失点を基準として水平方向の一次元の検査ラインを複数設定し、この検査ラインのそれぞれにおいて所定フレーム数の画像上のピクセルの値を時系列に積み上げ時空間画像を作成する。そしてこの装置は、時空間画像に対してエッジ抽出処理と2値化処理を施して、移動物体に対応する傾斜した線を抽出することにより、接近する車両を検出する。
さらに他の方法として、視点変換による鳥瞰図画像に基づいて、接近してくる物体の存在を判定する方法が知られている。例えば、特許文献3に開示された装置は、異なる時刻に得られた二つの画像を視点変換によって鳥瞰図画像に変換し、変換された画像の位置合わせを行う。そしてこの装置は、位置合わせ後の2つの鳥瞰図画像において特徴点の移動量を求めることにより障害物を検出し、障害物が地面に接している点の移動量から、障害物の静止/移動を判定する。
特開2010−152873号公報 特開2005−217482号公報 特開2008−219063号公報
しかし、拡大率に基づいて移動物体の接近を検知する装置は、車両に接近してくる移動物体が比較的遠方に位置する場合、画像上での移動物体のサイズが小さいために拡大率を正確に求めることができず、その結果としてその移動物体が接近してくるか否かを正確に判定できないおそれがあった。例えば、なるべく広い領域を視野に収めるために、リアカメラとして広角カメラが使用されると、車両から約20m程度離れた位置にある他の車両の画像上の面積は極めて小さく、例えば、数ピクセル〜10数ピクセル程度となる。そして、拡大率を求めるために利用する二つの画像の取得時間の間隔が短いと、拡大率の真値は1.0をわずかに上回る程度の値となるので、その二つの画像間での、画像上の他の車両の面積の変化も1ピクセル未満から1ピクセル程度となる。そのため、このような場合に、拡大率に基づいて移動物体の接近を検知する装置は、画像上に写っている他の車両が接近してくるか否かを正確に判定することは困難である。
また、時空間画像に基づいて接近物体を検知する装置は、自車両の速度を無視できない場合に接近物体の検出が困難となるおそれがあった。例えば、自車両の直進方向に対して直交する方向に進む接近物体が存在する場合、自車両の速度と接近物体の速度によっては、自車両の直進方向と自車両から接近物体を結ぶ直線とのなす角が殆ど変化しないことがある。このような場合、時空間画像に写るエッジは時間が経過しても変化せず、したがって接近物体の検出が困難となる。これよりさらに自車両の速度が速くなれば、接近物体によるエッジの傾きは背景点によるエッジの傾きと類似するため、この装置は、接近物体を検知することができなくなる。
さらに、鳥瞰図画像に基づいて接近物体を検知する装置は、画像の視点変換に加え特徴点検出とオプティカルフローの算出が必要であるため、処理負荷が高い。
そこで、本発明は、低い処理負荷で、自車両と接近物体の位置関係及び自車両が移動しているか否かによらず、接近物体を検知できる接近物体検知装置及び接近物体検知方法を提供することを目的とする。
請求項1の記載によれば、本発明の一つの形態として、接近物体検知装置が提供される。係る接近物体検知装置は、車両(10)に搭載され、車両(10)の周囲を撮影した画像を順次取得する撮像部(2)と、異なる時間において撮像部(2)により取得された二つの画像から、それぞれ特徴点を抽出する特徴点抽出部(432)と、その二つの画像からそれぞれ抽出された特徴点のうち、同一の物体に関する二つの特徴点を対応付け、その対応付けられた特徴点間の画像上の位置の差を求めることにより、その物体の画像上の移動量及び移動方向を表す観測移動ベクトルを求める観測移動ベクトル算出部(435)と、二つの画像のうちの一方から抽出された特徴点のそれぞれについて、二つの画像のそれぞれの取得時刻の間における撮像部(2)の移動に起因する、画像上での物体の移動量及び移動方向を表す見かけの移動ベクトルの最小値を算出する最小見かけ移動ベクトル算出部(434)と、二つの画像のうちの一方から抽出された特徴点のそれぞれについて、観測移動ベクトルから見かけの移動ベクトルの最小値を減じることにより、補正移動ベクトルを算出する移動ベクトル補正部(436)と、二つの画像のうちの一方から抽出された特徴点のうちの少なくとも一つの特徴点についての補正移動ベクトルに、車両(10)の進行方向に接近する方向の移動成分が含まれる場合に、その補正移動ベクトルに対応する物体は車両に接近する移動物体であると判定する判定部(437)とを有する。
本発明に係る接近物体検知装置は、上記の構成を有することにより、低い処理負荷で、自車両と接近物体の位置関係及び自車両が移動しているか否かによらず、接近物体を検知できる。
また請求項2の記載によれば、最小見かけ移動ベクトル算出部(434)は、撮像部(2)から、二つの画像のうちの一方の画像から抽出された特徴点を通る視線上の地面の位置を求め、二つの画像のそれぞれの取得時刻の間における撮像部(2)の移動に起因するその地面の位置についての画像上の見かけの移動ベクトルを見かけの移動ベクトルの最小値とすることが好ましい。
車両に搭載された撮像部から見た視線上に存在する物体のうち、最も遠方に位置するのは地面であると推定される。そのため、最小見かけ移動ベクトル算出部(434)は、視線上の地面の位置を基準とすることで、見かけの移動ベクトルの最小値を正確に決定できる。
あるいは請求項3の記載によれば、判定部(437)は、車両(10)の進行方向に接近する方向の移動成分が含まれる補正ベクトルに対応する特徴点を接近物体候補点として検出し、一つの物体に対応する接近物体候補点が複数存在する場合に限り、その物体は車両に接近する移動物体であると判定することが好ましい。
これにより、接近物体検知装置は、特徴点を誤検出したり、あるいは複数の画像間で特徴点同士が誤って対応付けられることにより、移動物体が接近物体であると誤って判定される可能性を低減できる。
また請求項4の記載によれば、この接近物体検知装置は、車両(10)に接近する移動物体であると判定された物体の存在を表す画像を表示部(3)に表示させる表示制御部(438)を有することがさらに好ましい。
これにより、この接近物体検知装置は、車両のドライバが、自車両に接近する移動物体が存在することを気付き易くできるので、衝突事故の発生を未然に防止できる。
また請求項5の記載によれば、本発明の他の形態として、接近物体検知方法が提供される。係る接近物体検知方法は、車両(10)の周囲を撮影した画像を、その車両(10)に搭載された撮像部(2)により順次取得するステップと、異なる時刻において撮像部(2)により取得された二つの画像から、それぞれ特徴点を抽出するステップと、その二つの画像からそれぞれ抽出された特徴点のうち、同一の物体に関する二つの特徴点を対応付け、対応付けられた特徴点間の画像上の位置の差を求めることにより、その物体の画像上の移動量及び移動方向を表す観測移動ベクトルを求めるステップと、二つの画像のうちの一方から抽出された特徴点のそれぞれについて、二つの画像のそれぞれの取得時刻の間における撮像部(2)の移動に起因する、画像上での物体の移動量及び移動方向を表す見かけの移動ベクトルの最小値を算出するステップと、二つの画像のうちの一方から抽出された特徴点のそれぞれについて、観測移動ベクトルから見かけの移動ベクトルの最小値を減じることにより、補正移動ベクトルを算出するステップと、二つの画像のうちの一方から抽出された特徴点のうちの少なくとも一つの特徴点についての補正移動ベクトルに、車両(10)の進行方向に接近する方向の移動成分が含まれる場合に、その補正移動ベクトルに対応する物体は車両(10)に接近する移動物体であると判定するステップとを有する。
本発明に係る接近物体検知方法は、上記のステップを有することにより、低い処理負荷で、自車両と接近物体の位置関係及び自車両が移動しているか否かによらず、接近物体を検知できる。
上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。
本発明の一つの実施形態に係る接近物体検知装置の概略構成図である。 本発明の一つの実施形態に係る接近物体検知装置の制御部の機能ブロック図である。 車載カメラの撮影範囲と、2台の仮想ピンホールカメラの撮影範囲との関係を示す図である。 車載カメラの並進移動とMDPPとの関係を表す図である。 (a)〜(d)は、観測移動ベクトル、MDPP及び補正移動ベクトルの関係の一例を示す図である。 補正移動ベクトルと車両の進行方向との関係を示す図である。 接近物体検知処理の動作フローチャートである。
以下、図を参照しつつ、一つの実施形態による、接近物体検知装置について説明する。
この接近物体検知装置は、車両の周囲を撮影するカメラから取得された画像から、車両に接近する移動物体を検出する。その際、この接近物体検知装置は、取得時間の異なる複数の画像上の移動物体の位置から、画像上での移動物体の移動量及び移動方向を表す観測移動ベクトルを求める。ここで、車両自体が移動している場合、カメラによって取得された画像上での移動物体の観測移動ベクトルは、移動物体そのものの移動方向及び移動量に対応する真の移動ベクトルと、カメラの移動に起因する見かけの移動ベクトルとを足し合わせたものになる。見かけの移動ベクトルが真の移動ベクトルに対して無視できない程度に大きければ、観測移動ベクトルにおける、車両に接近する方向の成分が非常に小さくなったり、場合によっては、移動物体が車両に接近しているにもかかわらず、その成分が、移動物体が車両から遠ざかることを表す値となることもある。そのため、移動物体が車両に接近しているか否かを正確に判定するためには、接近物体検知装置は、観測移動ベクトルから見かけの移動ベクトルを減算したベクトルを用いることが好ましい。
しかし、カメラが単眼カメラである場合、接近物体検知装置は、車両から画像上に写っている移動物体までの正確な距離を求めることができないため、見かけの移動ベクトルを正確に算出することはできない。また、画像上に写っている静止物体に関しては、その静止物体がカメラから遠く離れているほど、その静止物体についての見かけの移動ベクトルは小さくなる。そして注目する画素に写っている静止物体が地面である場合、カメラからその静止物体までの距離は最長となる。
一方、カメラの焦点距離、光軸方向及び地面からカメラまでの高さといった、カメラの位置及び光学系に関する情報は既知である。そのため、そのカメラにより生成された画像上の各画素における、カメラから地面までの距離は算出可能である。そのため、接近物体検知装置は、各画素における見かけの移動ベクトルの最小値を求めることができる。
そこでこの接近物体検知装置は、観測移動ベクトルから、車両の移動に伴うカメラから移動物体を通る直線上に位置する地面の見かけの移動ベクトルを減算することにより観測移動ベクトルを補正する。そしてこの接近物体検知装置は、補正された観測移動ベクトルに基づいて移動物体が自車両に接近するか否かを判定する。これによりこの接近物体検知装置は、移動物体が自車両に接近するか否かの判定精度の向上を図る。
図1は、一つの実施形態による接近物体検知装置の概略構成図である。図1に示すように、接近物体検知装置1は、車両10に搭載され、車載カメラ2と、ディスプレイ3と、コントローラ4とを有する。車載カメラ2及びディスプレイ3と、コントローラ4とは、コントロールエリアネットワーク(以下、CANという)5によって互いに接続されている。なお、図1では、説明の都合のため、接近物体検知装置1の各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。
車載カメラ2は、撮像部の一例であり、車両の後方領域を撮影し、その後方領域の画像を生成する。そのために、車載カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に車両10の後方に存在する地面または構造物などの像を結像する結像光学系を有する。そして車載カメラ2は、例えば、結像光学系の光軸が地面に対して略平行となり、かつ車両10の後方を向くように、車両10の後端部の略中央に配置される。また本実施形態では、車両10の後方の広い範囲を撮影できるように、車載カメラ2は水平画角が180°以上である超広角カメラとする。そして車載カメラ2は、一定の時間間隔(例えば1/30秒)ごとに撮影を行う。そして車載カメラ2は、車両10の後方領域を撮影した画像を、例えば、横640画素×縦480画素を持ち、各画素の輝度が赤、緑、青それぞれ256階調で表されるカラー画像として生成する。なお、車載カメラ2は、画像を、その撮像範囲内の近赤外光の照度に応じたグレー画像として生成してもよい。
本実施形態では、便宜上、実空間において、車載カメラ2の像側焦点を原点とする座標系を設定する。そして車載カメラ2の光軸に平行な方向をz軸とし、鉛直方向をy軸とする。そして車載カメラ2から車両10の後方へ向かう方向、及び車両10から地面へ向かう方向を、それぞれ、z軸、y軸における正の方向とする。またx軸の正方向は右手座標系により規定される。
なお、接近物体検知装置1は、撮像部として、車両10の後方領域を撮影するリアカメラの代わりに、あるいはリアカメラとともに、車両の前方領域または側方領域を撮影するカメラを有していてもよい。例えば、そのようなカメラは、フロントウインドウの上端近傍に、前方を向くように配置されてもよい。
車載カメラ2は、生成した画像を逐次コントローラ4へ送信する。なお、車両の前方領域を撮影する車載カメラと車両の後方領域を撮影する車載カメラが取り付けられている場合、コントローラ4は、車両が進行している方向を撮影する車載カメラからの画像のみを選択的に取得してもよい。そのために、コントローラ4は、CAN5を介して車両10の電子制御ユニット(ECU)11から、シフトレバーのポジションを表すシフトポジション信号を取得する。そしてコントローラ4は、シフトポジション信号が、車両10が前進することを示すドライブポジジョンなどとなっている場合、車両の前方領域を撮影する車載カメラから画像を取得する。一方、コントローラ4は、シフトポジション信号が、車両10が後進することを示すリバースポジションとなっている場合、車両の後方領域を撮影する車載カメラから画像を取得する。
ディスプレイ3は、例えば、液晶ディスプレイあるいは有機ELディスプレイで構成され、表示画面が運転者に向くように、インストルメントパネル内に配置される。また、ディスプレイ3は、インストルメントパネルと独立して配置されてもよい。あるいは、ディスプレイ3は、ナビゲーション装置など、他の車載装置のディスプレイであってもよい。そしてディスプレイ3は、コントローラ4により制御され、またコントローラ4から受信した画像を表示する。
コントローラ4は、記憶部41と、通信部42と、制御部43とを有する。記憶部41は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部41は、接近物体検知装置1を制御するための各種プログラム、及び車載カメラ2の地面からの高さ及び光軸方向といった車載カメラの位置情報、結像光学系の焦点距離及び画角といったカメラパラメータなどの各種パラメータ、及び制御部43による一時的な演算結果などを記憶する。また記憶部41は、車載カメラ2の結像光学系による歪曲収差を補正するためのパラメータ、例えば、画素ごとの歪曲収差の補正量(すなわち、歪曲収差を打ち消すための画像上での画素の移動量及び移動方向)を記憶してもよい。
また、通信部42は、車載カメラ2、ディスプレイ3、ECU11及び車速センサなどの各種センサとCAN5を通じて通信する通信インターフェース及びその制御回路を有する。
制御部43は、1個もしくは複数個の図示してないプロセッサ及びその周辺回路を有する。そして制御部43は、接近物体検知装置1全体を制御する。
図2に、制御部43の機能ブロック図を示す。図2に示すように、制御部43は、画像補正部431と、特徴点抽出部432と、カメラ運動量算出部433と、最小見かけ移動ベクトル算出部434と、観測移動ベクトル算出部435と、移動ベクトル補正部436と、接近判定部437と、表示制御部438とを有する。制御部43が有するこれらの各部は、例えば、制御部43が有するマイクロプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
画像補正部431は、制御部43が車載カメラ2から画像を受け取る度に、その受け取った画像の歪曲収差を補正し、補正された画像をピンホールカメラモデルによって表される仮想画像に変換する。この仮想画像は、例えば、ディスプレイ3に表示するために用いられる。一般に、カメラによって得られた画像は、その画像に写っている範囲に関して、撮影したカメラの焦点と同一の焦点を持つ仮想的な任意のカメラにより撮影された画像に変換することが可能である。本実施形態では、画像補正部431は、ピンホールカメラモデルに従って、超広角カメラである車載カメラ2により撮影された一つの画像を、光軸の向きが異なる2台の仮想的なピンホールカメラにより撮影された2枚の仮想画像を作成する。
図3は、車載カメラ2の撮影範囲と、2台の仮想ピンホールカメラの撮影範囲との関係を示す図である。図3に示されるように、車載カメラ2の水平画角は180°以上であるため、車載カメラ2の撮影範囲300は、車両10の後方全体をカバーしている。仮想ピンホールカメラ301、302の光軸OA1、OA2は、それぞれ、車載カメラ2の光軸(すなわち、z軸)に対して水平方向に+45°、-45°の角をなすように配置される。そして仮想ピンホールカメラ301、302による仮想撮影範囲311、312は、それぞれ、車両10の右側後方、左側後方をカバーするように、光軸OA1、OA2を中心とする水平画角90°の領域に設定される。このように、接近物体検知装置1は、光軸がy軸に対して互いに異なる角度で回転した二つの仮想カメラによる仮想画像を接近物体の検知に用いることで、広い視界にわたって接近物体を検知できる。
画像補正部431は、車載カメラ2から取得した画像から、上記の仮想ピンホールカメラの撮影範囲に相当する領域を切り出し、その領域内の各画素の位置を、歪曲収差の補正パラメータを用いて車載カメラ2の歪曲収差を打ち消すように補正することで仮想画像を作成する。
画像補正部431は、作成した仮想画像を表示制御部438に渡す。
特徴点抽出部432は、車載カメラ2から制御部43が画像を受け取る度に、その画像から、車載カメラ2の撮影領域内にある、地面、構造物あるいは移動物体などの特徴点を抽出する。特徴点抽出部432は、例えば、コーナー検出アルゴリズムなどを用いて画像上のエッジのコーナーを特徴点として検出する。特徴点抽出部432は、コーナー検出アルゴリズムとして、例えば、J.Shi他、"Good Features to Track"、 IEEE CVPR、 1994年、pp.593-600に開示されたアルゴリズムを利用できる。あるいは、特徴点抽出部432は、特徴点として、画像からSIFT(Scale Invariant Feature Transform)特徴点を抽出してもよい。SIFT特徴点及びその抽出手法の詳細については、例えば、David G.Lowe、 "Distinctive Image Features from Scale-Invariant Keypoints"、 Journal of Computer Vision、 2004年、vol.60、 No.2、 pp.91-110に開示されている。
特徴点抽出部432は、画像ごとに、その画像の取得時刻及び抽出した特徴点の座標を、最小見かけ移動ベクトル算出部434及び観測移動ベクトル算出部435へ渡す。
カメラ運動量算出部433は、制御部43が車載カメラ2から最新の画像を受け取る度に、その最新の画像(すなわち、現画像)の取得時刻と直前の画像の取得時刻との間での仮想ピンホールカメラの並進移動量及び回転移動量を算出する。そのために、カメラ運動量算出部433は、例えば、CAN5を介して、車速センサ(図示せず)から車両10の車速に関する情報を取得し、かつ操舵角センサ(図示せず)からステアリングの回転角に関する情報を取得する。なお、カメラ運動量算出部433は、CAN5を介して、y軸を回転軸とする回転速度を検知するヨーレートセンサから、車両10の回転速度に関する情報を取得してもよい。そしてカメラ運動量算出部433は、直前の画像が取得された時刻から最新の画像が取得された時刻までに渡って、車速及び車両10の回転速度若しくはステアリングの回転角を積分することにより、車両10のその2枚の画像の取得時刻間での車両10の並進移動量及び回転移動量を求める。そしてカメラ運動量算出部433は、仮想ピンホールカメラの光軸と車載カメラ2の光軸とのなす角、車載カメラ2の位置情報に基づいて車両10の並進移動量及び回転移動量を、仮想ピンホールカメラの焦点を原点とし、仮想ピンホールカメラの光軸をz軸、鉛直方向をy軸とする座標系に応じた値に変換することにより、仮想ピンホールカメラの並進移動量及び回転移動量を求める。
カメラ運動量算出部433は、仮想ピンホールカメラの並進移動量を最小見かけ移動ベクトル算出部434へ渡し、回転移動量を観測移動ベクトル算出部435へ渡す。
最小見かけ移動ベクトル算出部434は、特徴点抽出部432から最新の画像についての特徴点の座標を受け取る度に、仮想画像上の各特徴点における、仮想ピンホールカメラの並進運動に起因する仮想画像上の見かけの移動ベクトルの最小値を算出する。なお、この見かけの移動ベクトルの最小値を、以下ではMinimum Displacement on Projected Plane(MDPP)と呼ぶ。
図4を参照しつつ、MDPPについて説明する。MDPPは、カメラの並進運動に起因する地面上の点の画像平面上における移動ベクトルと定義される。ここで、図4に示されるように、地面400からの高さHの位置にカメラ401が設置されており、カメラ401が地面と平行に並進運動すると仮定する。カメラ401により地面400を含む領域が撮影されることにより画像410が生成されたとする。この場合、画像410上で、地平線411が地面上の無限遠点の集合として表される。画像410上で地平線411より地面側の領域(以下、地面投影領域と呼ぶ)内の任意の一点421に着目すると、カメラ401の焦点とその着目点421とを通る直線は、地面上の一点422を通る。すなわち、画像410上の地面投影領域内の各点は、それぞれ、カメラ401の撮影領域内の地面の一点と1対1に対応する。また、カメラ401の並進移動量が既知であれば、地面上の点のカメラ401に対する移動量も算出できる。したがって、地面上の各点と対応している画像410上の点の移動ベクトルも算出できる。この移動ベクトルがMDPPである。
最小見かけ移動ベクトル算出部434は、特徴点抽出部432により得られた特徴点の座標を、記憶部41に記憶されている歪曲収差の補正量のうち、その座標に対応する補正量を用いて歪曲収差を打ち消すように補正する。そして最小見かけ移動ベクトル算出部434は、補正後の特徴点の座標を、仮想画像上の座標に変換する。この変換は、画像補正部431と同様に、ピンホールカメラモデルに従って実行される。
さらに、最小見かけ移動ベクトル算出部434は、仮想ピンホールカメラの焦点と仮想画像上の補正後の特徴点を通る直線が通る地面の位置(以下、仮想地面点と呼ぶ)を、車載カメラ2の地面からの高さ、車載カメラ2の焦点距離及び光軸方向に基づいて決定する。そして最小見かけ移動ベクトル算出部434は、仮想ピンホールカメラの並進移動量に応じて仮想地面点が移動した先の地面の位置(すなわち、仮想地面点から仮想ピンホールカメラが移動する方向と逆方向かつその並進移動量だけ移動した位置)を仮想画像上に透視投影することによって得られる仮想画像上の座標を求める。最小見かけ移動ベクトル算出部434は、仮想画像上の仮想地面点の移動先の座標から補正後の特徴点の座標を減算することで、その補正後の特徴点についてのMDPPを求める。
最小見かけ移動ベクトル算出部434は、特徴点の組ごとに、MDPP及び仮想画像上の特徴点の座標を、移動ベクトル補正部436へ渡す。
観測移動ベクトル算出部435は、特徴点抽出部432から最新の画像についての特徴点の座標を受け取る度に、最新の画像及び直前の画像のそれぞれから得られた複数の特徴点のうち、同一の物体に対応する特徴点の組を求める。そして観測移動ベクトル算出部435は、特徴点の組ごとに、画像上でのその特徴点の移動量及び移動方向を表す観測移動ベクトルを算出する。
観測移動ベクトル算出部435は、同一の物体に対応する特徴点の組を求めるために、時系列に取得された複数の画像上で同一物体を追跡するための様々なトラッキング技術を利用することができる。
例えば、観測移動ベクトル算出部435は、過去に取得された時系列の複数の画像からそれぞれ検出された同一物体に対応する特徴点の位置ずれ量に基づいて、その物体の移動方向及び移動速度を推定する。そして観測移動ベクトル算出部435は、その移動方向及び移動速度と、過去に取得された画像上での特徴点の位置から、最新の画像における特徴点の位置を推定する。そしてその推定位置及びその近傍で特徴点が検出されている場合、観測移動ベクトル算出部435は、その特徴点に移っている物体は、移動方向及び移動速度の推定に用いられた、過去に取得された画像上の特徴点に写っている物体と同一であると判定する。
なお、観測移動ベクトル算出部435は、他の様々なトラッキング方法、例えば、オプティカルフローのアルゴリズムを用いて、同一物体に対応する複数の画像上の特徴点の組を求めてもよい。観測移動ベクトル算出部435は、そのようなオプティカルフローのアルゴリズムとして、例えば、B. Lucas and T. Kanade、"An iterative image registration technique with an Application to Stereo Vision"、1981年、 Proc. of the DARPA IU Workshop、pp. 121-130に開示されているアルゴリズムを利用できる。
観測移動ベクトル算出部435は、同一物体に対応する各特徴点の組について、記憶部41に記憶されている歪曲収差補正量を用いて各特徴点の座標を補正する。そして観測移動ベクトル算出部435は、各特徴点の座標を、ピンホールカメラモデルに従って、上記の仮想画像上の座標に変換する。そして観測移動ベクトル算出部435は、各特徴点の組について、最新の画像についての補正後の特徴点の仮想画像上の座標から、その特徴点に対応する過去の画像上の補正後の特徴点の仮想画像上の座標を減じることにより、見かけの回転移動量及び並進移動量を含む特徴点の移動ベクトルを算出する。
次に、観測移動ベクトル算出部435は、各特徴点の組に対応する、それぞれの移動ベクトルから仮想ピンホールカメラの回転移動に伴う見かけの回転移動量を除去することにより、観測移動ベクトルを算出する。
仮想ピンホールカメラの回転移動量をΩ=(Ωx, Ωy, Ωz)(ただし、原点は仮想ピンホールカメラの主点、すなわちピンホールの位置であり、z軸は仮想ピンホールカメラの光軸と平行な方向、y軸は鉛直方向及びx軸は右手座標系によってy軸、z軸と直交する方向である)としたとき、仮想画像上の点(x, y)における見かけの回転移動量(rx, ry)は次式で表される。
Figure 2012198857
ただし、fは仮想画像の画素単位で表された焦点距離である。観測移動ベクトル算出部435は、移動ベクトル(vx, vy)から見かけの回転移動量(rx, ry)を減じることにより、観測移動ベクトルを求める。
なお、仮想ピンホールカメラの回転移動量Ωは、上記のように、車両10の実際の回転移動量に応じて決まるので、一般的に地面に直交する鉛直方向の軸のみが回転軸となる。したがって、観測移動ベクトル算出部435は、Ωxz=0と仮定し、Ωyのみを車両10のヨーレートセンサなどの測定値から求められた回転移動量として、カメラ運動量算出部433から取得するようにしてもよい。
また回転移動量Ωについて、画像上の移動量と拡張焦点(xF, yF)の関係式は次式で表されることが知られている。
Figure 2012198857
そこで、観測移動ベクトル算出部435は、(2)式を各特徴点の組に適用することにより得られる、その特徴点の組の数の方程式を含む連立方程式を解くことで、見かけの回転移動量(rx, ry)を直接推定してもよい。この場合には、観測移動ベクトル算出部435は、カメラ運動量算出部433で算出された仮想ピンホールカメラの回転移動量Ωを利用しなくてもよい。なお上記の(2)式は、静止点に対してのみ成立する。したがって、特徴点の組が移動物体上の点であったり、あるいは特徴点の組が同一の物体に対応していない場合には、(2)式により算出される見かけの回転移動量(rx, ry)の誤差は大きな値をとなり得る。そこで、観測移動ベクトル算出部435は、このような誤差を軽減するため、ロバスト推定による解法を用いることが好ましい。観測移動ベクトル算出部435は、ロバスト推定として、例えば、P. J. Huber and E. M. Ronchetti、"Robust Statistics, 2nd Edition"、Wiley Interscience、2009年に開示されているM推定を適用できる。
観測移動ベクトル算出部435は、各特徴点の組のうちの最新の画像から抽出された特徴点の仮想画像上の座標値と観測移動ベクトルとを移動ベクトル補正部436へ渡す。
移動ベクトル補正部436は、同一物体に対応する特徴点の組のそれぞれについて、観測移動ベクトルから、対応する最新の画像上の特徴点のMDPPを減算することにより、補正移動ベクトルを求める。そして移動ベクトル補正部436は、特徴点の組ごとに、最新の画像から抽出された特徴点の仮想画像上の座標値と、補正移動ベクトルを接近判定部437へ渡す。
図5(a)〜図5(d)は、観測移動ベクトル、MDPP及び補正移動ベクトルの関係の一例を示す図である。図5(a)に示されるように、図4と同様に、地面からの高さHの位置にカメラ501が設置されており、カメラ501が地面と平行に並進運動すると仮定する。カメラ501により地面上の静止点502及び移動物体上の移動点503を含む領域が撮影されることにより画像510が生成されたとする。ここで、カメラ501は手前側から奥側へ(図5(a)において上方へ)移動し、移動点503は、左から右へ移動していたとする。この場合、カメラ501の移動により、矢印521に相当する、実空間上での見かけの移動量が生じる。実空間上でカメラ501が接近する点502、503は、画像510上では、上から下へ移動し、かつ、カメラ501の光軸上の点から離れるように、すなわち、画像510の側方へ向けて移動することになる。
そのため、図5(b)に示されるように、画像510において、画像510の中心(すなわち、カメラ501の光軸上の点)よりも右側に位置する地面上の静止点502の観測移動ベクトル522は、右斜め下方へ向かうベクトルとなる。また、画像510の中心よりも左側に位置する移動点503の観測移動ベクトル523は、移動点503が右方向へ向けて移動しているにもかかわらず、左斜め下方へ向かうベクトルとなる。このように、観測移動ベクトルそのものは、移動物体が自車両に接近しているか否かを判定するための基準としては適していない。
一方、図5(c)に静止点502におけるMDPP532及び移動点503におけるMDPP533を示す。なお、この例では、静止点502は地面上の点なので、静止点502に対する観測移動ベクトルとMDPPは同一となる。また移動点503におけるMDPP533も、観測移動ベクトル522と同様に、左斜め下方へ向かうベクトルとなる。
図5(d)は、静止点502に対する補正移動ベクトル542及び移動点503に対する補正移動ベクトル543を示す。観測移動ベクトルからMDPPが減算されることにより、補正移動ベクトル542、543が示す移動方向は、静止点502及び移動点503の本来の移動方向とほぼ等しくなる。そのため、補正移動ベクトルは、移動物体が自車両に接近しているか否かを判定するための基準として適していることが分かる。
接近判定部437は、同一物体に対応する複数の画像上の特徴点の組について求められた補正移動ベクトルに基づいて、車両10に接近する移動物体が存在するか否か判定する。
図6を参照しつつ、補正移動ベクトルに基づいて接近物体が存在するか否かを判定する方法について説明する。図6に示されるように、カメラ600が車両610の後端に設置され、カメラ600の光軸が車両610の後進方向と略平行であるとする。ここで、カメラ600の焦点を起点とし、所定の時間間隔でのカメラ600の並進移動量を表すベクトルをVbとする。すなわち、ベクトルVbは、車両の進行方向を表すベクトルである。また、カメラ600の焦点を通り、ベクトルVbに平行かつ地面に垂直な平面をPとする。ベクトルVbを算出する際の時間と同じ時間において平面Pに対する距離が減少していく移動物体620がある場合、この移動物体620は、車両610の進行方向へ向かって進んでいるので、移動物体620と車両610の距離は時間経過とともに短くなる。したがって、このような移動物体を「接近物体」と呼ぶ。
このように、接近判定部437は、注目する物体が自車両に接近しているか否かを判定するために、その物体に対応する特徴点の補正移動ベクトルの平面Pに垂直な方向の成分、すなわち、車両の進行方向に接近する方向の移動成分が含まれるか否かを調べればよい。なお、平面Pに垂直な方向を、便宜上接近方向と呼ぶ。
そこで、接近判定部437は、仮想画像上での平面Pに相当する直線を設定する。車載カメラ2の地面からの高さ、地面とその光軸のなす角度、及び車載カメラ2の焦点距離は既知である。そのため、ピンホールカメラモデルによって作成された仮想画像についても、そのモデルとなった仮想ピンホールカメラの地面からの高さ、地面とその光軸のなす角度、及び仮想ピンホールカメラの焦点距離も予め設定できる。また、仮想画像上での地面投影領域内の任意の点qに対応する実空間での位置Qは、仮想ピンホールカメラの焦点と点qを結ぶ直線上に存在する。そして位置Qが仮想ピンホールカメラから最も遠方に位置するのは、位置Qが、仮想ピンホールカメラの焦点と点qとを結ぶ直線と地面との交点Gである場合となる。以下では、便宜上、この交点Gを仮想地面点と呼ぶ。上記のように、仮想ピンホールカメラの地面からの高さなど、仮想ピンホールカメラの位置を表す情報は既知であるので、接近判定部437は、仮想地面点Gの実空間上の座標(XG,YG,ZG)を次式に従って算出できる。
Figure 2012198857
ここで(x,y)は、点qの仮想画像上の水平座標及び垂直座標である。またHは、仮想ピンホールカメラの地面からの高さであり、fは仮想ピンホールカメラの焦点距離である。ただし、仮想ピンホールカメラの光軸は地面と平行とする。
次に、仮想地面点Gについての接近方向を表すベクトルAは、上記の接近方向の定義から、仮想地面点Gをとおり、かつ平面Pと直交する直線と平行となる。すなわち、ベクトルAは、この直線と平面Pとの交点をGp=(Xp,H,Zp)とすれば、仮想地面点Gを起点とし、交点Gpを終点とするベクトルとして表される。仮想ピンホールカメラの並進移動量を表すベクトルvbのx,y,z軸それぞれの成分を(vbx,vby,vbz)とすれば、直線と平面の直交の条件から次式が導出される。
Figure 2012198857
また交点Gpは、平面P上に位置するので、次式が成立する。
Figure 2012198857
そこで、(4)式及び(5)式から、Xp、Zpは以下のように算出される。
Figure 2012198857
したがって、ベクトルAは、(6)式により算出された交点Gpの座標から仮想地面点Gの座標を減算することで算出される。
接近判定部437は、仮想画像上での同一物体に対応する各特徴点の組について、最新の画像から得られた方の特徴点を上記の点qとして上記のベクトルAを算出し、そのベクトルAを仮想画像上に透視投影することで、その特徴点についての仮想画像上における接近方向を表すベクトルを算出できる。さらにこのベクトルを正規化することにより得られる単位ベクトルaを、便宜上接近方向ベクトルと呼ぶ。
接近判定部437は、仮想画像上での同一物体に対応する各特徴点の組について、接近方向ベクトルaと補正移動ベクトルとの内積を算出する。この内積値は、車両10の進行方向に接近する方向の移動成分を表す。特徴点の組が表す物体が接近物体である場合、この内積値は正の値を持つ。一方、特徴点の組が表す物体が接近物体でなければ、この内積値は0以下の値となる。そこで接近判定部437は、ある特徴点の組に対する内積値が所定の閾値Th以上である場合、その特徴点の組を接近物体候補とする。一方、接近判定部437は、その内積値が閾値Th未満であれば、その特徴点の組は接近物体ではないと判定する。なお、閾値Thは、正の値を持ち、例えば、補正移動ベクトルに含まれる誤差分布のスケールよりも大きな値に設定される。補正移動ベクトルに含まれる誤差は、観測移動ベクトルに含まれる誤差とMDPPに含まれる誤差が重畳されたものとなる。しかし、MDPPは、車速センサといった比較的精度の高いセンサにより得られた測定値に基づいて算出されるので、MDPPの誤差は無視できる程度に小さい。したがって、補正移動ベクトルに含まれる誤差の主要因は、観測移動ベクトルを求める際のオプティカルフローの誤差である。車載カメラ2は、車両10のエンジンなどの微振動の影響を受けて位置が変動する。そのため、例え車両10が停止していても、複数の画像から抽出された同一の静止点に対応する特徴点間のオプティカルフローは無視できない大きさの誤差を持つことがある。そこで、例えば、補正移動ベクトルに含まれる誤差の分布は、車両10の速度が'0'の時の静止点のオプティカルフローの分布と同一であると推定し、このオプティカルフローの分布のスケールσを実験等によって求める。なお、スケールσは、例えば、オプティカルフローの分布の分散である。そして閾値Thは、例えば、4σに相当するオプティカルフローの絶対値といった、スケールσよりも大きな値に設定される。
なお、接近判定部437は、車両10が停止中の状態から移動を開始した時点(すなわち、車速センサによる車両10の移動速度の測定値が最初に0より大きくなった時点)の仮想ピンホールカメラの並進移動量に基づいて定められる平面Pを平面P0とし、車両10が後退している間中、その平面P0に基づいて上記の接近判定を行ってもよい。ただしこの場合、現在の時刻における仮想ピンホールカメラの並進移動量に基づいて定めされる平面Pと平面P0に挟まれた領域にある特徴点に関しては、接近判定部437は、接近判定を行わない。もし、この領域内に接近物体が存在すれば、車両10の移動開始時から現在時刻になるまでの間にその接近物体は既に検知されていると推定されるためである。
接近判定部437は、接近物体候補点のうち、同一の移動物体上の点であると推定されるほど互いに近い候補点を同一のグループに含めるよう、各接近物体候補点をグループ化する。例えば、接近判定部437は、接近物体候補点のそれぞれに、その候補点を中心とする正方形あるいは円形のパッチ領域を与え,パッチ領域が一部でも重なる接近物体候補点群を同一のグループに分類する。なお、パッチ領域のサイズは、例えば、仮想画像上での、検知しようとする移動物体の想定されるサイズよりも小さい値に設定される。一方、接近判定部437は、他の何れの接近物体候補点のパッチ領域とも重ならないパッチ領域を持つ接近物体候補点は、誤検出された候補点と判定し、その候補点を削除してもよい。そして接近判定部437は、一つ以上のグループがある場合、各グループをそれぞれ一つの接近物体と判定する。なお、接近判定部437は、グループごとに、重なったパッチ領域全体を内包する外接矩形を求め、その外接矩形を接近物体の検出枠とする。
接近判定部437は、接近物体が検出された場合、検出された接近物体に対応する検出枠を特定するための仮想画像上の基準点の座標を表示制御部438へ通知する。基準点は、その検出枠の左上端のコーナー及び右下端のコーナーである。なお、検出枠の形状は矩形に限られず、例えば、検出枠は、一つの接近物体を重なったパッチ領域の外接楕円形であってもよい。
表示制御部438は、画像補正部431により作成された仮想画像をディスプレイ3に表示させる。その際、表示制御部438は、例えば、左後方を撮影領域とする仮想画像と右後方を撮影領域とする仮想画像とが、ディスプレイ3上に同時に表示されるように、例えば、ディスプレイ3の表示領域を水平方向に2分割してそれぞれの分割領域に一つの仮想画像を表示する。表示制御部438は、接近判定部437により接近物体の存在が検知されていると、接近物体に対応する検出枠を仮想画像に重畳し、検出枠が重畳された仮想画像をディスプレイ3に表示させる。その際、ドライバが検出枠に気付き易くするように、表示制御部438は、検出枠を点滅表示させたり、検出枠に相当する画素の輝度値を取り得る最大値にしてもよい。
また表示制御部438は、検知された接近物体の数、あるいは検知された接近物体に相当する検出枠のサイズに応じて、仮想画像上での検出枠の色を変えたり、検出された接近物体の数が多いほど、あるいは、検出枠が大きいほど、検出枠の点滅速度を速めてもよい。これにより、表示制御部438は、接近物体が近い場合(検出枠が大きいほど、その検出枠に相当する物体が自車両に近いと推定される)により危険性が高いことをドライバに報知することができる。また表示制御部438は、接近物体が複数存在する場合に、ドライバが一つ目の接近物体が車両10の進行方向を横切って通過した後に直ぐに車両10の後退を開始させることで後続する接近物体と衝突する危険性を低減できる。
さらに、表示制御部438は、接近物体が左側、あるいは右側の何れか一方にのみ存在する場合、接近物体が写る方の仮想画像のみをディスプレイ3に表示させてもよい。この場合には、表示制御部438は、表示中の仮想画像の撮影領域が左後方か右後方かを表すマーカをその画像上に重畳させてもよい。
さらに、表示制御部438は、車両10に搭載されたスピーカ(図示せず)を介して、接近物体が検知されたことをドライバに報知してもよい。例えば、表示制御部438は、右側から近づいてくる接近物体がある場合、右のスピーカーから警報音を発し、左側から近づいてくる接近物体がある場合、左のスピーカーから警報音を発するようにしてもよい。これにより、表示制御部438は、ドライバが前を向いていても後ろを向いていても、どちらの方向に接近物体があるのかを直感的に理解させることができる。
なお,表示制御部438は、車両10の速度が接近物体を検出可能な上限速度を超えた場合は、その旨が分かるように音声などによりドライバに警告してもよい。
図7に、制御部43により制御される、接近物体検知処理の動作フローチャートを示す。なお、制御部43は、車載カメラ2から新たな画像を取得する度に、このフローチャートに示す動作を繰り返す。
まず、制御部43の画像補正部431は、車載カメラ2から取得した画像に対して歪曲収差の補正及び画像変換を行ってピンホールカメラモデルに従った仮想画像を作成する(ステップS101)。そして画像補正部431は、仮想画像を表示制御部438へ渡す。また、特徴点抽出部432は、画像上で特徴点を抽出する(ステップS102)。そして特徴点抽出部432は、抽出した特徴点の座標を最小見かけ移動ベクトル算出部434及び観測移動ベクトル算出部435へ渡す。
また、カメラ運動量算出部433は、車速センサ、操舵角センサなどから得た車両の挙動を表す情報に基づいて、直前の画像の取得時刻から現画像の取得時刻までの間における仮想ピンホールカメラの並進移動量及び回転移動量を算出する(ステップS103)。そしてカメラ運動量算出部433は、仮想ピンホールカメラの並進移動量を最小見かけ移動ベクトル算出部434へ渡し、回転移動量を観測移動ベクトル算出部435へ渡す。最小見かけ移動ベクトル算出部434は、仮想ピンホールカメラの並進移動量に基づいて、特徴点抽出部432により抽出された各特徴点におけるMDPPを算出する(ステップS104)。そして最小見かけ移動ベクトル算出部434は、各特徴点におけるMDPPを移動ベクトル補正部436へ渡す。
一方、観測移動ベクトル算出部435は、最新画像の各特徴点に対応する直前の画像の特徴点を求めることで、同一物体に対応する特徴点の組を決定する(ステップS105)。そして観測移動ベクトル算出部435は、特徴点の組ごとに観測移動ベクトルを算出する(ステップS106)。観測移動ベクトル算出部435は、各特徴点の組の観測移動ベクトルを移動ベクトル補正部346へ渡す。
移動ベクトル補正部436は、特徴点の組ごとに観測移動ベクトルからMDPPを減算して補正移動ベクトルを算出する(ステップS107)。そして移動ベクトル補正部436は、各特徴点の組の補正移動ベクトルを接近判定部437へ渡す。
接近判定部437は、各特徴点の組の補正移動ベクトルの接近方向成分を算出する(ステップS108)。そして接近判定部437は、接近方向成分が閾値Thより大きい特徴点の組のうち最新画像に対応する仮想画像上の特徴点を接近物体候補点として検出する(ステップS109)。
その後、接近判定部437は、接近物体候補点をグループ化する(ステップS110)。上記のように、接近判定部437は、例えば、上記のように、複数の接近物体候補点のパッチ領域が一部でも重なれば、その接近物体候補点を同一のグループにグループ化し、一方、パッチ領域が他の接近物体候補点のパッチ領域と重ならない接近物体候補点をグループ化しない。接近判定部437は、接近物体候補点のグループが存在するか否か判定する(ステップS111)。
接近判定部437は、接近物体候補点のグループが存在する場合、そのグループのパッチ領域全体を内包する検出枠を設定し、その検出枠を表示制御部438へ通知する。
表示制御部438は、例えば、検出枠を画像補正部431から受け取った仮想画像に重畳し、検出枠が重畳された仮想画像をディスプレイ3に表示することにより、接近物体の存在をドライバに報知する(ステップS112)。
ステップS112の後、あるいはステップS111にて接近物体候補点のグループが存在しない場合、制御部43は接近物体検知処理を終了する。なお、制御部43は、ステップS103、S104の処理と、ステップS105、S106の処理の順序を入れ替えてもよい。
以上説明してきたように、本発明の一実施形態である接近物体検知装置は、車両の周囲を撮影するカメラから取得された複数の画像から検出した同一物体に対応する特徴点の画像上での観測移動ベクトルから、カメラの並進移動に起因する見かけの移動ベクトルの最小値を減じた補正移動ベクトルを求める。これにより、この接近物体検知装置は、カメラの並進移動による、画像上での物体の真の移動方向からのずれを小さくできる。そのため、この接近物体検知装置は、補正移動ベクトルを用いることで、移動物体の速度と自車両の速度の関係によらず、その移動物体が自車両に接近するか否かを正確に判定できる。また移動方向自体は、カメラからの距離によらずに判別できるので、この接近物体検知装置は、自車両から遠くにいる移動物体についても自車両に接近しているか否かを正確に識別できる。さらに、補正移動ベクトルの算出及び接近方向成分の算出などの演算量は、鳥瞰図画像の作成のような視点変換処理の演算量に比べて非常に少ない。そのため、この接近物体検知装置は、接近物体検知処理による、プロセッサの演算負荷を軽減できる。
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、仮想画像は、他のカメラモデル、例えば、透視射影モデルまたはParaperspectiveモデルに従って作成されてもよい。この場合、車載カメラで得られた画像上の特徴点の座標を仮想画像上の座標に変換する制御部の各部も、仮想画像の生成に用いられるカメラモデルを用いる。
また変形例によれば、特徴点抽出部は、画像補正部により作成された仮想画像上で特徴点の抽出を行い、最小見かけ移動ベクトル算出部及び観測移動ベクトル算出部は、仮想画像上で抽出された特徴点に基づいてMDPPの算出及び観測移動ベクトルの算出を行ってもよい。これにより、特徴点の座標を変換する処理の回数が少なくなるので、制御部は、演算負荷をさらに軽減できる。あるいは、車載カメラが有する結像光学系の歪曲収差が無視できるほど小さい場合、制御部は、画像に対する歪曲収差の補正を行わなくてもよい。さらに、制御部は、仮想画像の作成を行わず、車載カメラにより取得された画像そのものに対して補正移動ベクトルの算出、接近判定及び検出枠の設定などの処理を行ってもよい。この場合、画像補正部は省略されてもよい。
また、車載カメラが、車両の前端に取り付けられ、車両の前方を撮影するノーズビューカメラである場合にも、制御部は、上記の実施形態による接近物体検知処理と同様の処理を行って、自車両に接近する移動物体を検知できる。特に、車両が狭い路地から広い通りに出るような場合、自車両に接近する他の車両または歩行者がドライバの視界に含まれないことがある。このような場合に、この変形例による接近物体検知装置は、ドライバに接近物体の存在を報知できるので、接触事故の発生を未然に防止することができる。
さらに他の変形例によれば、制御部は、時間的に連続する2枚の画像でなく、例えば、撮像部により取得された最新の画像と、その最新の画像よりも2〜5枚前に取得された画像とを用いて、観測移動ベクトル、MDPP及び補正移動ベクトルを求めてもよい。また制御部は、撮像部から取得された二つの画像のうちの古い方の画像から抽出された特徴点を基準として、MDPP及び補正移動ベクトルを算出してもよい。
さらに他の変形例によれば、判定部は、接近物体候補点が一つでも存在する場合、その接近物体候補点に対応する物体は接近物体であると判定してもよい。あるいは、判定部は、検出枠のサイズが、検出すべき接近物体の想定されるサイズ以上となる場合に限り、その検出枠に含まれる接近物体候補点に対応する物体は接近物体であると判定してもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 接近物体検知装置
2 車載カメラ
3 ディスプレイ
4 コントローラ
5 コントロールエリアネットワーク(CAN)
41 記憶部
42 通信部
43 制御部
431 画像補正部
432 特徴点抽出部
433 カメラ運動量算出部
434 最小見かけ移動ベクトル算出部
435 観測移動ベクトル算出部
436 移動ベクトル補正部
437 接近判定部
438 表示制御部

Claims (5)

  1. 車両(10)に搭載され、当該車両(10)の周囲を撮影した画像を順次取得する撮像部(2)と、
    異なる時刻において前記撮像部(2)により取得された二つの画像から、それぞれ少なくとも一つの特徴点を抽出する特徴点抽出部(432)と、
    前記二つの画像からそれぞれ抽出された特徴点のうち、同一の物体に関する二つの特徴点を対応付け、当該対応付けられた特徴点間の画像上の位置の差を求めることにより、当該物体の画像上の移動量及び移動方向を表す観測移動ベクトルを求める観測移動ベクトル算出部(435)と、
    前記二つの画像のうちの一方から抽出された前記特徴点のそれぞれについて、前記二つの画像のそれぞれの取得時刻の間における前記撮像部(2)の移動に起因する、画像上での前記物体の移動量及び移動方向を表す見かけの移動ベクトルの最小値を算出する最小見かけ移動ベクトル算出部(434)と、
    前記二つの画像のうちの一方から抽出された前記特徴点のそれぞれについて、前記観測移動ベクトルから前記見かけの移動ベクトルの最小値を減じることにより、補正移動ベクトルを算出する移動ベクトル補正部(436)と、
    前記二つの画像のうちの一方から抽出された前記特徴点のうちの少なくとも一つの特徴点についての前記補正移動ベクトルに、前記車両(10)の進行方向に接近する方向の移動成分が含まれる場合に、前記物体は前記車両に接近する移動物体であると判定する判定部(437)と、
    を有することを特徴とする接近物体検知装置。
  2. 前記最小見かけ移動ベクトル算出部(434)は、前記撮像部(2)から、前記二つの画像のうちの一方の画像から抽出された前記特徴点を通る視線上の地面の位置を求め、前記二つの画像のそれぞれの取得時刻の間における前記撮像部(2)の移動に起因する当該地面の位置についての前記画像上の見かけの移動ベクトルを前記見かけの移動ベクトルの最小値とする、請求項1に記載の接近物体検知装置。
  3. 前記判定部(437)は、前記車両(10)の進行方向に接近する方向の移動成分が含まれる前記補正ベクトルに対応する前記特徴点を接近物体候補点として検出し、前記物体に対応する前記接近物体候補点が複数存在する場合に限り、前記物体は前記車両に接近する移動物体であると判定する、請求項1または2に記載の接近物体検知装置。
  4. 前記車両(10)に接近する移動物体であると判定された前記物体の存在を表す画像を表示部(3)に表示させる表示制御部(438)をさらに有する、請求項1〜3の何れか一向に記載の接近物体検知装置。
  5. 車両(10)の周囲を撮影した画像を、当該車両(10)に搭載された撮像部(2)により順次取得するステップと、
    異なる時刻において前記撮像部(2)により取得された二つの画像から、それぞれ特徴点を抽出するステップと、
    前記二つの画像からそれぞれ抽出された特徴点のうち、同一の物体に関する二つの特徴点を対応付け、当該対応付けられた特徴点間の画像上の位置の差を求めることにより、当該物体の画像上の移動量及び移動方向を表す観測移動ベクトルを求めるステップと、
    前記二つの画像のうちの一方から抽出された前記特徴点のそれぞれについて、前記二つの画像のそれぞれの取得時刻の間における前記撮像部(2)の移動に起因する、画像上での前記物体の移動量及び移動方向を表す見かけの移動ベクトルの最小値を算出するステップと、
    前記二つの画像のうちの一方から抽出された前記特徴点のそれぞれについて、前記観測移動ベクトルから前記見かけの移動ベクトルの最小値を減じることにより、補正移動ベクトルを算出するステップと、
    前記二つの画像のうちの一方から抽出された前記特徴点のうちの少なくとも一つの特徴点についての前記補正移動ベクトルに、前記車両(10)の進行方向に接近する方向の移動成分が含まれる場合に、前記物体は前記車両に接近する移動物体であると判定するステップと、
    を含むことを特徴とする接近物体検知方法。
JP2011064048A 2011-03-23 2011-03-23 接近物体検知装置及び接近物体検知方法 Active JP5539250B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011064048A JP5539250B2 (ja) 2011-03-23 2011-03-23 接近物体検知装置及び接近物体検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011064048A JP5539250B2 (ja) 2011-03-23 2011-03-23 接近物体検知装置及び接近物体検知方法

Publications (3)

Publication Number Publication Date
JP2012198857A true JP2012198857A (ja) 2012-10-18
JP2012198857A5 JP2012198857A5 (ja) 2013-06-20
JP5539250B2 JP5539250B2 (ja) 2014-07-02

Family

ID=47180982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011064048A Active JP5539250B2 (ja) 2011-03-23 2011-03-23 接近物体検知装置及び接近物体検知方法

Country Status (1)

Country Link
JP (1) JP5539250B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182637A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2016051465A (ja) * 2014-09-01 2016-04-11 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両
JP2016134764A (ja) * 2015-01-20 2016-07-25 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置
JP2020107064A (ja) * 2018-12-27 2020-07-09 株式会社デンソーテン 接近物検出装置及び接近物検出方法
US10825191B2 (en) 2018-03-13 2020-11-03 Fujitsu Limited Non-transitory computer readable recording medium, assessment method, and assessment device
KR102312932B1 (ko) * 2020-07-31 2021-10-14 한화시스템 주식회사 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6699902B2 (ja) 2016-12-27 2020-05-27 株式会社東芝 画像処理装置及び画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249127A (ja) * 1994-03-09 1995-09-26 Honda Motor Co Ltd 移動物体検出装置
JPH0986314A (ja) * 1995-09-27 1997-03-31 Yazaki Corp 車両用後側方監視装置
JP2000168442A (ja) * 1998-12-11 2000-06-20 Mitsubishi Motors Corp 車両の後方監視装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249127A (ja) * 1994-03-09 1995-09-26 Honda Motor Co Ltd 移動物体検出装置
JPH0986314A (ja) * 1995-09-27 1997-03-31 Yazaki Corp 車両用後側方監視装置
JP2000168442A (ja) * 1998-12-11 2000-06-20 Mitsubishi Motors Corp 車両の後方監視装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182637A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2016051465A (ja) * 2014-09-01 2016-04-11 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両
JP2016134764A (ja) * 2015-01-20 2016-07-25 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置
US10825191B2 (en) 2018-03-13 2020-11-03 Fujitsu Limited Non-transitory computer readable recording medium, assessment method, and assessment device
JP2020107064A (ja) * 2018-12-27 2020-07-09 株式会社デンソーテン 接近物検出装置及び接近物検出方法
JP7148390B2 (ja) 2018-12-27 2022-10-05 株式会社デンソーテン 接近物検出装置及び接近物検出方法
KR102312932B1 (ko) * 2020-07-31 2021-10-14 한화시스템 주식회사 표적 핸드오버를 활용한 360도 파노라마 영상 획득용 상황 감시장치 및 상황 감시방법

Also Published As

Publication number Publication date
JP5539250B2 (ja) 2014-07-02

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US11836989B2 (en) Vehicular vision system that determines distance to an object
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
JP6036065B2 (ja) 注視位置検出装置及び注視位置検出方法
US20190039518A1 (en) Vehicular vision system
KR100466458B1 (ko) 운전지원장치
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP4876118B2 (ja) 立体物出現検知装置
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
CN108692719B (zh) 物体检测装置
US20130300872A1 (en) Apparatus and method for displaying a blind spot
JP2007183432A (ja) 自動走行用マップ作成装置、及び自動走行装置。
JP2017091284A (ja) 車両用画像処理装置および車両用画像処理システム
JP6032034B2 (ja) 物体検知装置
US20150078619A1 (en) System and method for detecting obstacles using a single camera
JP2011100174A (ja) 車線内車両検出装置及び車線内車両検出方法
KR101203816B1 (ko) 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법
EP2936386A1 (en) Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle
JP2000293693A (ja) 障害物検出方法および装置
JP2018073275A (ja) 画像認識装置
JP5587852B2 (ja) 画像処理装置及び画像処理方法
JP7380443B2 (ja) 部分画像生成装置及び部分画像生成用コンピュータプログラム
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP2021077061A (ja) 障害物検知装置及び障害物検知方法
JP3994954B2 (ja) 物体検出装置及び物体検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5539250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250