[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009077022A - 運転支援システム及び車両 - Google Patents

運転支援システム及び車両 Download PDF

Info

Publication number
JP2009077022A
JP2009077022A JP2007242111A JP2007242111A JP2009077022A JP 2009077022 A JP2009077022 A JP 2009077022A JP 2007242111 A JP2007242111 A JP 2007242111A JP 2007242111 A JP2007242111 A JP 2007242111A JP 2009077022 A JP2009077022 A JP 2009077022A
Authority
JP
Japan
Prior art keywords
image
bird
dimensional object
feature point
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2007242111A
Other languages
English (en)
Inventor
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007242111A priority Critical patent/JP2009077022A/ja
Publication of JP2009077022A publication Critical patent/JP2009077022A/ja
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】1台のカメラにて、センサを用いることなく画像処理によって立体物領域(障害物領域)を推定する。
【解決手段】車両に設置されたカメラから時刻t1及びt2の撮影画像(カメラ画像)を取得し、それらを時刻t1及びt2の鳥瞰図画像に変換する。時刻t1の撮影画像から特徴点を抽出すると共に、第1及び第2の撮影画像間における前記特徴点の移動ベクトルを検出し、特徴点と移動ベクトルを鳥瞰図座標上へマッピングすることにより、時刻t1の鳥瞰図画像上の特徴点(331、332)及び時刻t2の鳥瞰図画像上の特徴点(341、342)を検出する。時刻t1及びt2の鳥瞰図画像間で、特徴点の近傍領域(NR[k]t1とNR[k]t2)の画像を対比して相違度を求め、高い相違度を与える近傍領域を立体物領域として特定する。
【選択図】図9

Description

本発明は、運転支援システムに関する。特に、移動体に取り付けられたカメラの撮影画像から立体物が描画されている立体物領域を推定する技術に関する。また本発明は、その運転支援システムを利用した車両に関する。
路面上の位置する立体物は車両にとって障害物となるが、その立体物を運転者が見落として接触事故が発生することがある。このような接触事故は、特に、運転者の死角領域において良く発生する。このため、運転者の死角となりやすい領域を監視するカメラを車両に搭載し、カメラから得られた画像を運転席付近に配置された表示装置に表示するという手法が提案されている。
また、画像処理技術とセンサを用いて、車両周辺の立体物を検出する手法も開発されている。車両周辺の立体物を検出できれば、その検出結果に応じて、表示装置上で立体物の存在を提示したり警報の出力を行ったりすることができるため有益である。
車両周辺の立体物を検出する手法として、ステレオカメラを用いる手法が提案されている。しかしながら、ステレオカメラは、2つのカメラにて形成されるため、それ自体の使用がコストアップを招く。また、2つのカメラの取り付け位置や取り付け角度を極めて高精度に調整してやる必要があり、導入が煩雑である。
これに鑑み、単眼のカメラにて立体物を検出する手法も提案されている。例えば、下記特許文献1に記載の技術では、車両速度を検出するセンサ及び車両の舵角を検出するセンサから得た車両移動情報と、車両移動前後のカメラの撮影画像と、から立体物(障害物)を検出する。そして、この技術では、撮影画像を鳥瞰図画像に変換し、その鳥瞰図画像に立体物の検出結果を重畳した画像を表示する。この手法によれば、単眼のカメラにて立体物を検出することができるものの、センサから車両移動情報を得る必要があるため、システムの構築が煩雑となり、コスト面においても好ましくない。
特開2002−34035号公報
そこで本発明は、システムの低廉化及びシステムの構築容易化に寄与する、立体物領域の推定機能を備えた運転支援システムを提供することを目的とする。また、本発明は、それを利用した車両を提供することを目的とする。
上記目的を達成するために本発明に係る運転支援システムは、移動体に取り付けられて前記移動体の周辺を撮影するカメラを備え、前記カメラから時系列で並ぶ第1及び第2のカメラ画像を取得して、各カメラ画像に基づく表示用画像を表示装置に表示させる運転支援システムにおいて、前記第1のカメラ画像から特徴点を抽出するとともに、前記第1と第2のカメラ画像間における前記特徴点の移動ベクトルを検出する移動ベクトル検出手段と、各カメラ画像を所定の鳥瞰図座標上に投影することによって前記第1及び第2のカメラ画像を第1及び第2の鳥瞰図画像に変換するとともに、前記第1のカメラ画像における前記特徴点の位置及び前記移動ベクトルに基づいて前記第1及び第2の鳥瞰図画像上の前記特徴点の各位置を検出する鳥瞰変換手段と、前記第1の鳥瞰図画像内における前記特徴点の近傍領域の画像と、前記第2の鳥瞰図画像内における前記特徴点の近傍領域の画像と、の相違度を検出する相違度検出手段と、前記第1のカメラ画像、前記第2のカメラ画像、前記第1の鳥瞰図画像、又は、前記第2の鳥瞰図画像を推定対象画像として取り扱い、前記推定対象画像中の、立体物が描画されている立体物領域を、前記推定対象画像上の前記特徴点の位置と前記相違度に基づいて推定する立体物領域推定手段と、を備えたことを特徴とする。
これにより、用いるカメラの台数が1台であっても、良好に立体物領域を推定することができる。また、立体物領域の推定を行うに当たり、センサを用いる必要も無い。このため、システムの低廉化及びシステムの構築容易化に寄与する。
具体的には例えば、前記特徴点は、複数の特徴点から成り、前記相違度検出手段は、特徴点ごとに、前記相違度を検出し、前記立体物領域推定手段は、各相違度と所定の基準相違度とを比較して前記基準相違度より高い相違度に対応する特徴点を立体物特徴点として特定し、前記立体物特徴点の位置に基づいて前記立体物領域を推定する。
更に具体的には例えば、前記立体物領域推定手段は、前記推定対象画像中の前記立体物特徴点の近傍領域を候補領域として特定し、前記候補領域の全部または一部を含む領域を前記立体物領域として推定する。
そして例えば、前記候補領域がn個存在する場合(nは2以上の整数)、前記立体物領域推定手段は、前記n個の候補領域の内の複数の候補領域を結合する処理を実行し、前記立体物領域に前記複数の候補領域と前記複数の候補領域を結合する領域とを含める。
また例えば、前記候補領域がn個存在する場合(nは2以上の整数)、前記立体物領域推定手段は、前記n個の候補領域の中から一部の候補領域を消去する処理を実行し、前記立体物領域から前記一部の候補領域を除外する。
また例えば、当該運転支援システムは、前記立体物領域を視認可能とするための画像加工処理を前記推定対象画像に施すことによって前記表示用画像を生成する表示用画像生成手段を更に備えている。
また例えば、当該運転支援システムは、前記立体物領域を視認可能とするための画像加工処理を前記推定対象画像に施すことによって前記表示用画像を生成する表示用画像生成手段を更に備え、前記立体物特徴点は、第1及び第2の立体物特徴点を含むn個の立体物特徴点から成り(nは2以上の整数)、前記立体物領域推定手段は、前記推定対象画像中の前記第1及び第2の立体物特徴点についての各近傍領域を前記立体物領域に含め、前記表示用画像生成手段は、前記第1の立体物特徴点について検出された前記相違度に応じて前記第1の立体物特徴点の前記近傍領域に対する前記画像加工処理の内容を決定し、前記第2の立体物特徴点について検出された前記相違度に応じて前記第2の立体物特徴点の前記近傍領域に対する前記画像加工処理の内容を決定する。
これにより、立体物の高さをも表現した映像をユーザに提供することが可能となる。
また例えば、前記相違度検出手段は、前記第2の鳥瞰図画像内の前記特徴点の位置を中心として前記第2の鳥瞰図画像についての前記近傍領域の画像を複数段階で回転させ、回転ごとに、前記第1の鳥瞰図画像についての前記近傍領域の画像と前記第2の鳥瞰図画像についての回転後の前記近傍領域の画像とを対比して、対比した両画像間の相関を表す相関値を算出し、回転ごとに算出された前記相関値の内の最小の相関値に基づいて前記相違度を検出する。
これにより、移動体が旋回運動を行っていた場合でも、立体物領域を良好に推定できる。
また、本発明に係る車両には、上記の何れかに記載の運転支援システムが設置されている。
本発明によれば、システムの低廉化及びシステムの構築容易化に寄与する、立体物領域の推定機能を備えた運転支援システムを提供することが可能となる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第5実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1に、本発明の実施形態に係る運転支援システムの構成ブロック図を示す。図1の運転支援システムは、カメラ1と、画像処理装置2と、表示装置3と、を備える。カメラ1は、撮影を行い、撮影によって得られた画像を表す信号を画像処理装置2に出力する。画像処理装置2は、カメラ1から得た画像より表示用画像を生成する。画像処理装置2は、生成した表示用画像を表す映像信号を表示装置3に出力し、表示装置3は、与えられた映像信号に従って表示用画像を映像として表示する。
カメラ1の撮影によって得られた画像そのものは、レンズ歪みの影響を受けていることが多い。従って、画像処理装置2は、カメラ1の撮影によって得られた画像そのものに対してレンズ歪み補正を施し、レンズ歪み補正後の画像に基づいて表示用画像の生成を行う。このレンズ歪み補正後の画像を、以下、撮影画像と呼ぶことにする。レンズ歪み処理が不要である場合には、カメラ1の撮影によって得られた画像そのものが、撮影画像である。尚、撮影画像をカメラ画像と読み替えてもよい。
図2は、図1の運転支援システムが適用される車両100の外観側面図である。図2に示すように、車両100の後部に後方斜め下向きにカメラ1が配置される。車両100は、例えばトラックである。水平面とカメラ1の光軸とのなす角は、図2にθで表される角度と、θ2で表される角度との2種類がある。角度θ2は、一般的には、見下ろし角または俯角と呼ばれている。今、角度θを、水平面に対するカメラ1の傾き角度として捉える。90°<θ<180°且つθ+θ2=180°、が成立する。
カメラ1は、車両100の周辺を撮影する。特に、車両100の後方側に視野を有するようにカメラ1は車両100に設置される。カメラ1の視野には、車両100の後方側に位置する路面が含まれる。尚、以下の説明において、地面は水平面上にあるものとし、「高さ」は、地面を基準とした高さを表すものとする。また、本実施形態において、地面と路面は同義である。
カメラ1として、例えばCCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。画像処理装置2は、例えば集積回路から形成される。表示装置3は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、運転支援システムにおける表示装置3として流用しても良い。また、画像処理装置2は、カーナビゲーションシステムの一部として組み込まれうる。画像処理装置2及び表示装置3は、例えば、車両100の運転席付近に設置される。
[鳥瞰図画像の生成方法]
画像処理装置2は、座標変換を用いてカメラ1の撮影画像から鳥瞰図画像を生成する。撮影画像から鳥瞰図画像を生成するための座標変換を「鳥瞰変換」と呼ぶ。この鳥瞰変換の手法について説明する。以下に示す、鳥瞰図画像を生成するための座標変換は、一般に透視投影変換と呼ばれる。
図3は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。座標系Xbubuは、撮影画像が定義される座標系である。
カメラ座標系XYZは、X軸、Y軸及びZ軸を座標軸とする三次元の座標系である。撮像面Sの座標系Xbubuは、Xbu軸及びYbu軸を座標軸とする二次元の座標系である。2次元地面座標系Xw wは、Xw軸及びZw軸を座標軸とする二次元の座標系である。世界座標系Xw wwは、Xw軸、Yw軸及びZw軸を座標軸とする三次元の座標系である。
以下、カメラ座標系XYZ、撮像面Sの座標系Xbubu、2次元地面座標系Xw w 及び世界座標系Xw w w を、夫々、単にカメラ座標系、撮像面Sの座標系、2次元地面座標系及び世界座標系と略記することがある。
カメラ座標系XYZでは、カメラ1の光学中心を原点Oとして、光軸方向にZ軸がとられ、Z軸に直交しかつ地面に平行な方向にX軸がとられ、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸がとられ、撮像面Sの縦方向にYbu軸がとられている。
世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸がとられ、カメラ座標系XYZのX軸と平行な方向にXw 軸がとられ、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。
w 軸とX軸との間の平行移動量はhであり、その平行移動の方向は鉛直線方向である。Zw 軸とZ軸との成す鈍角の角度は、傾き角度θと一致する。h及びθの値は予め設定され、画像処理装置2に与えられる。
カメラ座標系XYZにおける画素の座標値を(x,y,z)と表記する。x、y及びzは、夫々、カメラ座標系XYZにおける、X軸成分、Y軸成分及びZ軸成分である。
世界座標系Xw w wにおける画素の座標値を(xw ,yw ,zw )と表記する。xw 、yw 及びzwは、夫々、世界座標系Xw w wにおける、Xw軸成分、Yw軸成分及びZw軸成分である。
二次元地面座標系Xw w における画素の座標値を(xw ,zw )と表記する。xw及びzwは、夫々、二次元地面座標系Xw wにおける、XW軸成分及びZW軸成分であり、それらは世界座標系Xw w wにおけるXW軸成分及びZW軸成分と一致する。
撮像面Sの座標系Xbubuにおける画素の座標値を(xbu,ybu)と表記する。xbu及びybuは、夫々、撮像面Sの座標系Xbubuにおける、Xbu軸成分及びYbu軸成分である。
カメラ座標系XYZの座標値(x,y,z)と世界座標系Xw w w の座標値(xw ,yw ,zw )との間の変換式は、次式(1)で表される。
Figure 2009077022
ここで、カメラ1の焦点距離をfとする。そうすると、撮像面Sの座標系Xbubuの座標値(xbu,ybu)と、カメラ座標系XYZの座標値(x,y,z)との間の変換式は、次式(2)で表される。
Figure 2009077022
上記式(1)及び(2)から、撮像面Sの座標系Xbubuの座標値(xbu,ybu)と二次元地面座標系Xw w の座標値(xw ,zw )との間の変換式(3)が得られる。
Figure 2009077022
また、図3には示されていないが、鳥瞰図画像についての座標系である鳥瞰図座標系Xauauを定義する。鳥瞰図座標系Xauauは、Xau軸及びYau軸を座標軸とする二次元の座標系である。鳥瞰図座標系Xauauにおける画素の座標値を(xau,yau)と表記する。鳥瞰図画像は、二次元配列された複数の画素の画素信号によって表され、鳥瞰図画像上における各画素の位置は座標値(xau,yau)によって表される。xau及びyauは、それぞれ鳥瞰図座標系XauauにおけるXau軸成分及びYau軸成分である。
鳥瞰図画像は、実際のカメラ1の撮影を介して得られた撮影画像を仮想カメラの視点(以下、仮想視点という)から見た画像に変換したものである。より具体的には、鳥瞰図画像は、撮影画像を、地上面を鉛直方向に見下ろした画像に変換したものである。この種の画像変換は、一般に、視点変換とも呼ばれる。
地面と一致する、二次元地面座標系Xw w が定義される平面は、鳥瞰図座標系Xauauが定義される平面と平行である。従って、二次元地面座標系Xw w から仮想カメラの鳥瞰図座標系Xauauへの投影は、平行投影によって行われる。仮想カメラの高さ(即ち、仮想視点の高さ)をHとすると、二次元地面座標系Xw w の座標値(xw ,zw )と鳥瞰図座標系Xauauの座標値(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さHは予め設定されている。更に、式(4)を変形することにより、下式(5)が得られる。
Figure 2009077022
Figure 2009077022
得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。
Figure 2009077022
上記式(6)から、撮像面Sの座標系Xbubuの座標値(xbu,ybu)を、鳥瞰図座標系Xauauの座標値(xau,yau)に変換するための次式(7)が得られる。
Figure 2009077022
撮像面Sの座標系Xbubuの座標値(xbu,ybu)は、撮影画像における座標値を表すため、上記式(7)を用いることによって撮影画像を鳥瞰図画像に変換することができる。
即ち、式(7)に従って、撮影画像の各画素の座標値(xbu,ybu)を鳥瞰図座標系の座標値(xau,yau)に変換することにより、鳥瞰図画像を生成することができる。鳥瞰図画像は、鳥瞰図座標系に配列された各画素から形成される。
実際には、式(7)に従って、撮影画像上の各画素の座標値(xbu,ybu)と鳥瞰図画像上の各画素の座標値(xau,yau)との対応関係を示すテーブルデータを作成しておき、これを図示されないメモリ(ルックアップテーブル)に予め格納しておく。そして、このテーブルデータを用いて撮影画像を鳥瞰図画像に変換するようにする。勿論、撮影画像が得られる度に式(7)に基づく座標変換演算を行って鳥瞰図画像を生成するようにしても構わない。
以下に、図1の運転支援システムの動作内容又は構成を詳細に説明する実施例として、第1〜第5実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用される。尚、以下の説明では、鳥瞰図座標系を、単に鳥瞰図座標と呼ぶこともあるが、両者は同義である。
<<第1実施例>>
まず、第1実施例について説明する。図1の画像処理装置2は、カメラ1から所定の周期にて撮影画像を取り込み、順次得られる撮影画像から表示用画像を順次生成して、最新の表示用画像を表示装置3に対して出力する。これにより、表示装置3には、最新の表示用画像が更新表示される。
画像処理装置2は、画像内における立体物領域を推定する機能を備える。立体物領域とは、立体物が描画されている領域を意味する。立体物とは、人物などの高さのある物体である。地面を形成する路面などは、高さがないため立体物ではない。立体物は、車両100の走行にとっての障害物となる。
鳥瞰変換では、鳥瞰図画像が地表面において連続性を有するように座標変換が行われる。従って、同一の立体物を互いに異なる2つの視点で撮影して2つの鳥瞰図画像を得た場合、原理上、両鳥瞰図画像間において、路面の画像は一致するが立体物の画像は一致しない(例えば、特開2006−268076号公報参照)。本実施例では、この特性を利用して、立体物領域を推定する。
図4を参照して、立体物領域の推定手法を説明する。図4は、この推定の手順を表すフローチャートである。図4に示すステップS11〜S25の各処理は、図1の画像処理装置2にて実行される。
立体物領域を推定するためには、異なる時刻で撮影された複数の撮影画像が必要である。そこで、画像処理装置2は、異なる時刻に撮影された複数の撮影画像を取り込み、この複数の撮影画像を後段の処理にて参照する(ステップS11)。取り込んだ複数の撮影画像が、時刻t1の撮影によって得られた撮影画像(以下、単に、時刻t1の撮影画像ともいう)と、時刻t2の撮影によって得られた撮影画像(以下、単に、時刻t2の撮影画像ともいう)と、を含むものとする。時刻t1の後に時刻t2が訪れるものとする。また、時刻t1−t2間において、車両100が移動しているものとする。従って、時刻t1におけるカメラ1の視点と時刻t2におけるカメラ1の視点は異なる。
今、図5(a)に示す画像210が時刻t1の撮影画像として取得され、図5(b)に示す画像220が時刻t2の撮影画像として取得されたものとする。時刻t1及びt2において、カメラ1の視野には、路面上に互いに平行に描かれた第1及び第2の白線と、第1及び第2の白線間に位置する直方体状の立体物αと、が含まれていたとする。図5(a)において、斜線で埋められた線分211及び212は画像210内における第1及び第2の白線であり、図5(b)において、斜線で埋められた線分221及び222は画像220内における第1及び第2の白線である。図5(a)において、画像上の立体物213は画像210内における立体物αであり、図5(b)において、画像上の立体物223は画像220内における立体物αである。
時刻t1及びt2の撮影画像を取得した後、ステップS12において、時刻t1の撮影画像から特徴点が抽出される。特徴点とは、周囲の点と区別できる、追跡の容易な点のことである。このような特徴点は、水平及び垂直方向における濃淡変化量が大きくなる画素を検出する、周知の特徴点抽出器(不図示)を用いて自動的に抽出することができる。特徴点抽出器とは、例えば、Harrisのコーナ検出器、SUSANのコーナ検出器である。抽出されるべき特徴点は、例えば、路面上に描かれた白線の交点又は端点や、路面上の汚れ又は亀裂、立体物の端部や汚れなどを想定している。
ステップS12に続くステップS13において、時刻t1の撮影画像と時刻t2の撮影画像を対比し、公知のブロックマッチング法や勾配法を用いて、時刻t1−t2間における撮影画像の座標上のオプティカルフローを求める。オプティカルフローは複数の移動ベクトルの集まりであり、ステップS13で求められるオプティカルフローには、ステップS12にて抽出された特徴点の移動ベクトルも含まれている。2つの画像間における着目した特徴点の移動ベクトルは、その2つの画像間における該特徴点の移動の向き及び大きさを表す。尚、移動ベクトルは、動きベクトルと同義である。
ステップS12において複数の特徴点が抽出され、ステップS13において複数の特徴点の夫々の移動ベクトルが求められるが、今、説明の具体化のため、その複数の特徴点に含まれる2つの特徴点について注目する。この2つの特徴点は、第1及び第2の特徴点から成る。
図6に、時刻t1の撮影画像から抽出された第1及び第2の特徴点を、時刻t1の撮影画像に重畳して示す。図6において、点231及び232は、時刻t1の撮影画像から抽出された第1及び第2の特徴点を表している。第1の特徴点は第1の白線の端点であり、第2の特徴点は立体物αの上面に位置する立体物αの端点である。図6に示す時刻t1の撮影画像には、第1の特徴点の移動ベクトルVA1及び第2の特徴点の移動ベクトルVA2も示されている。移動ベクトルVA1の始点は点231に合致し、移動ベクトルVA2の始点は点232に合致する。
ステップS13に続くステップS14では、ステップS11にて取り込んだ各撮影画像を、上記式(7)に従って鳥瞰図画像に変換する。時刻t1及びt2の撮影画像に基づく鳥瞰図画像を、夫々、時刻t1及びt2の鳥瞰図画像と呼ぶ。図7(a)及び(b)に示される画像310及び320は、夫々、図5(a)及び(b)の画像210及び220に基づく、時刻t1及びt2の鳥瞰図画像を表す。図7(a)において、斜線で埋められた線分311及び312は画像310内における第1及び第2の白線であり、図7(b)において、斜線で埋められた線分321及び322は画像320内における第1及び第2の白線である。図7(a)において、画像上の立体物313は画像310内における立体物αであり、図7(b)において、画像上の立体物323は画像320内における立体物αである。
ステップS14に続くステップS15では、ステップS12において時刻t1の撮影画像から抽出された特徴点と、ステップS13にて算出された移動ベクトルと、を鳥瞰図座標上にマッピングする(換言すれば、投影する)。図8は、時刻t1及びt2の鳥瞰図画像を重ね合わせた画像330に、マッピングされた特徴点及び移動ベクトルを重畳して示した図である。但し、図8では、図示の煩雑化防止のため、時刻t2の鳥瞰図画像における第1及び第2の白線を点線で示し、時刻t2の鳥瞰図画像における立体物αの外形を破線で示している。
図8において、点331及び332は、夫々、鳥瞰図座標上にマッピングされた、時刻t1における第1及び第2の特徴点である。図8において、ベクトルVB1及びVB2は、夫々、鳥瞰図座標上にマッピングされた、第1及び第2の特徴点の移動ベクトルである。移動ベクトルVB1の始点は点331に合致し、移動ベクトルVB2の始点は点332に合致する。点341及び342は、夫々、移動ベクトルVB1及びVB2の終点を表している。
撮影画像上の着目点の座標値を(xbu,ybu)で表し且つ該着目点の鳥瞰図座標上の座標値を(xau,yau)で表した場合、両座標値の関係は、上記の式(7)によって表される。従って、ステップS15では、時刻t1の撮影画像における第1及び第2の特徴点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に変換するとともに、ステップS13にて求められた各移動ベクトルの始点及び終点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に座標変換することにより鳥瞰図座標上の各移動ベクトルを求める。この際、移動ベクトルの始点の座標値を、対応する特徴点の座標値と一致させておく。
そして、続くステップS16では、マッピングの結果に基づいて、時刻t1の鳥瞰図画像上における各特徴点の位置と、時刻t2の鳥瞰図画像上における各特徴点の位置と、を求める。つまり、鳥瞰図座標上に定義された図8の画像330上における、点331、332、341及び342の座標値(xau,yau)を求める。点331及び332の座標値は、夫々、時刻t1の鳥瞰図画像上における第1及び第2の特徴点の位置を表し、点341及び342の座標値は、夫々、時刻t2の鳥瞰図画像上における第1及び第2の特徴点の位置を表す。
尚、点331、332、341及び342の座標値(xau,yau)を求めるために必要な情報は、撮影画像の座標上における移動ベクトルVA1の始点(即ち、図6の点231)及び終点の座標値及び移動ベクトルVA2の始点(即ち、図6の点232)及び終点の座標値である。従って、鳥瞰図座標上の移動ベクトルの導出は必須ではない。つまり、ステップS13にて移動ベクトルVA1及びVA2を求めた後、移動ベクトルVA1及びVA2の終点の座標値を求め、撮影画像の座標上における移動ベクトルVA1及びVA2の始点及び終点の各座標値を式(7)に従って鳥瞰図座標上の座標値に変換すれば、ステップS16にて導出されるべき点331、332、341及び342の座標値(xau,yau)は求まる。
この後、ステップS17において、時刻t1及びt2の鳥瞰図画像から、各特徴点の近傍領域内の画像が抽出される。この抽出の様子を、図9(a)及び(b)を参照して説明する。図9(a)では、時刻t1の鳥瞰図画像310に点331及び332が重畳して示されており、図9(b)では、時刻t2の鳥瞰図画像320に点341及び342が重畳して示されている。画像処理装置2は、画像310内に、第1の特徴点の近傍領域NR[1]t1及び第2の特徴点の近傍領域NR[2]t1を定義し、画像320内に、第1の特徴点の近傍領域NR[1]t2及び第2の特徴点の近傍領域NR[2]t2を定義する。各近傍領域は、所定の画像サイズを有する矩形領域であり、近傍領域NR[1]t1、NR[2]t1、NR[1]t2及びNR[2]t2の中心位置は、夫々、点331、332、341及び342の位置に合致する。
ステップS17に続くステップS18以降において、特徴点ごとに、時刻t1及びt2の鳥瞰図画像間で近傍領域内の画像を対比して、対比した画像間の相違度を求める。そして、比較的高い相違度を与える特徴点は立体物に属する特徴点であると判断する一方、比較的低い相違度を与える特徴点は地面に属する特徴点であると判断し、この判断結果を利用して立体物領域を特定する。
ステップS18以降の各処理について具体的に説明する。まず、ステップS18では、特徴点の番号を表す変数としてkが定義され、変数kに初期値1が代入される。ステップS18の後段の処理において、k=1の時は第1の特徴点に対する処理が実施され、k=2の時は第2の特徴点に対する処理が実施される。第1及び第2の特徴点の他に、第3、第4、・・・の特徴点が存在する場合も同様である。
ステップS18の処理の後、ステップS19に移行する。ステップS19では、時刻t1の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、時刻t2の鳥瞰図画像内における第kの特徴点の近傍領域の画像とを対比し、対比した画像間の相違度DD[k]を算出する。従って、k=1の時は、近傍領域NR[1]t1及びNR[1]t2内の画像が対比されて両画像間の相違度DD[1]が算出され、k=2の時は、近傍領域NR[2]t1及びNR[2]t2内の画像が対比されて両画像間の相違度DD[2]が算出される。
着目した2つの画像間の相違度DD[k]は、その2つの画像が互いに相違すればするほど大きな値をとり、その2つの画像が完全に一致している場合は、ゼロとなる。
ステップS19にて相違度DD[k]が算出された後、ステップS20において、相違度DD[k]を所定の閾値DDTHと比較する。ここで、DDTH>0、である。そして、不等式「DD[k]>DDTH」が成立する場合はステップS21に移行して、第kの特徴点を立体物に属する特徴点に分類した後、ステップS23に移行する。一方、不等式「DD[k]>DDTH」が成立しない場合はステップS22に移行して、第kの特徴点を地面に属する特徴点に分類した後、ステップS23に移行する。立体物に属する特徴点に分類された特徴点を立体物特徴点と呼び、地面に属する特徴点に分類された特徴点を地面特徴点と呼ぶ。
第1の特徴点は路面上の特徴点であるので、第1の特徴点の近傍領域にも路面が存在する確率が高い。このため、相違度DD[1]は低くなり、結果、第1の特徴点は地面特徴点に分類されやすくなる。第2の特徴点は立体物に属する特徴点であるので、第2の特徴点の近傍領域も立体物に属する確率が高い。このため、相違度DD[2]は高くなり、結果、第2の特徴点は立体物特徴点に分類されやすくなる。
ステップS23では、全ての特徴点に対してステップS19〜S22から成る分類処理を実行したか否かを判断する。全ての特徴点に対して分類処理を実行していない場合は、ステップS24にて変数kに1を加算した後、ステップS19に戻る。全ての特徴点に対して分類処理を実行した場合は、ステップS25に移行する。例えば、ステップS12にて抽出された特徴点が第1及び第2の特徴点のみである場合は、k=2の状態でステップS23に至るとステップS25に移行する。
ステップS25では、立体物特徴点の位置に基づいて立体物領域を特定する。具体的には例えば、立体物特徴点の近傍領域を合成した領域を立体物領域として特定する。但し、立体物特徴点が1つしか存在しない場合は、その1つの立体物特徴点の近傍領域そのものが立体物領域として特定される。例えば、第2の特徴点のみが立体物特徴点である場合は、近傍領域NR[2]t1が時刻t1の鳥瞰図画像上における立体物領域として特定され、近傍領域NR[2]t2が時刻t2の鳥瞰図画像上における立体物領域として特定される(図9(a)及び(b)参照)。
また、撮影画像から鳥瞰図画像に変換する座標変換の逆変換を用いて撮影画像上の立体物領域を推定するようにしてもよい。つまり、時刻t1の鳥瞰図画像上における立体物領域内の各画素の座標値に上記逆変換を施すことによって、時刻t1の撮影画像上における立体物領域を特定してもよい。同様に、時刻t2の鳥瞰図画像上における立体物領域内の各画素の座標値に上記逆変換を施すことによって、時刻t2の撮影画像上における立体物領域を特定してもよい。第2の特徴点のみが立体物特徴点である場合、近傍領域NR[2]t1及びNR[2]t2は、夫々、時刻t1及びt2の撮影画像上における立体物領域を、式(7)に従って鳥瞰図座標上に投影した領域と合致する。
説明の簡略化を目的として2つの特徴点に着目したため、立体物領域が極めて低い分解能で推定されるが、通常は、多数の特徴点が時刻t1の撮影画像から抽出され、立体物領域がより高い分解能で推定される。具体的には例えば、図10に示す如く、時刻t2の鳥瞰図画像上における立体物αを囲む領域350が、時刻t2の鳥瞰図画像上における立体物領域として推定される。多数の特徴点に基づく立体物領域の推定手法例については、後述の他の実施例において詳説する。
ステップS25にて立体物領域が特定されると、その特定結果に応じた表示用画像が生成され、その表示用画像は図1の表示装置3にて表示される。この表示用画像は、典型的には例えば、表示装置3上で立体物領域を視認可能とするための画像加工処理を時刻t2の鳥瞰図画像に施した画像である。つまり例えば、図10に示すような、時刻t2の鳥瞰図画像320に立体物領域350を囲むラインを重畳した画像を表示用画像とする。或いは、立体物領域内の色を他の領域と区別可能なように変更するという画像加工処理を時刻t2の鳥瞰図画像320に施すことによって表示用画像を生成しても良い。
尚、時刻t1の鳥瞰図画像上における立体物領域を視認可能とするための画像加工処理を時刻t1の鳥瞰図画像に施し、これによって得られた画像を表示用画像として表示するようにしてもよい。また、時刻t1の撮影画像上における立体物領域を視認可能とするための画像加工処理を時刻t1の撮影画像に施し、又は、時刻t2の撮影画像上における立体物領域を視認可能とするための画像加工処理を時刻t2の撮影画像に施し、これによって得られた画像を表示用画像として表示することも可能である。
上述のようにして得られた表示用画像を表示装置3に表示することにより、映像によって立体物(障害物)を認知可能となり、運転の安全性向上が図られる。本実施例によれば、1台のカメラにて良好に立体物領域を推定することができる。また、車両移動情報をセンサから得る必要もないため、運転支援システムを安価に且つ容易に構築できる。
次に、図4のステップS19にて実行される相違度の算出法の具体例を説明する。以下に、相違度の算出法の具体例として、第1及び第2の相違度算出法を例示する。
[第1の相違度算出法]
第1の相違度算出法では、テンプレートマッチング法においてSAD又はSSDを算出するのと同様に、対比する画像間でSAD(Sum of Absolute Difference)又はSSD(Sum of Square Difference)を算出することによって相違度を算出する。
或る第kの特徴点に着目し、近傍領域NR[k]t1と近傍領域NR[k]t2との間でSAD又はSSDを算出し、これによって相違度DD[k]を算出する方法を説明する(図9(a)及び(b)参照)。算出されたSADの値をRSADで表し、算出されたSSDの値をRSSDで表す。
図11(a)及び(b)に、夫々、近傍領域NR[k]t1及びNR[k]t2の拡大図を示す。近傍領域NR[k]t1を形成する画素の内、時刻t1の鳥瞰図画像の原点に最も近い画素をI(0,0)で表し、近傍領域NR[k]t2を形成する画素の内、時刻t2の鳥瞰図画像の原点に最も近い画素をT(0,0)で表す。時刻t1及びt2の鳥瞰図画像の原点の位置は、鳥瞰図座標上において同じであり、それらは、図9(a)及び(b)に示す画像310及び320の夫々の左上隅に対応する。
各近傍領域の水平方向の画素数をMとし、各近傍領域の垂直方向の画素数をNとする(M及びNは、2以上の整数)。近傍領域NR[k]t1を形成する各画素はI(i,j)にて表され、近傍領域NR[k]t2を形成する各画素はT(i,j)にて表される(但し、i及びjは、0≦i≦M−1且つ0≦j≦N−1、を満たす整数)。そして、画素I(i,j)における画素値をIV(i,j)にて表し、画素T(i,j)における画素値をTV(i,j)にて表す。そうすると、RSADは下記式(8)に従って算出され、RSSDは下記式(9)に従って算出される。尚、画素値とは着目した画素の画素信号の値である。或る画素についての画素値は、その画素の輝度、もしくは、色、または、輝度及び色の双方を表す。
Figure 2009077022
Figure 2009077022
第1の相違度算出法を採用する場合、RSAD又はRSSDを、図4のステップS19にて算出されるべき相違度とする。k=1の場合は、近傍領域NR[1]t1及びNR[1]t2の画素値に基づくRSAD又はRSSDを相違度DD[1]とし、k=2の場合は、近傍領域NR[2]t1及びNR[2]t2の画素値に基づくRSAD又はRSSDを相違度DD[2]とする。
[第2の相違度算出法]
次に、第2の相違度算出法を説明する。第2の相違度算出法では、対比する2つの画像についてのヒストグラムを作成し、2つの画像間でヒストグラムを比較することによって相違度を算出する。
或る第kの特徴点に着目し、近傍領域NR[k]t1と近傍領域NR[k]t2との間における相違度を算出する場合を説明する(図9(a)及び(b)参照)。ヒストグラムに基づいて算出された相違度をεで表す。また、各画素の画素値は、8ビットのデジタル値として表現され、0〜255の範囲内の整数値をとるものとする。ヒストグラムを作成するに当たり、各画素は、画素値に応じて第0、第1、第2、・・・、第(Q−1)及び第Qの区分の何れに属するかが判断される(Qは、1≦Q≦255、を満たす整数)。例えば、Q=255とする場合、画素値qを有する画素は第qの区分に属することとなる(qは、0≦q≦Q、を満たす整数)。図12(a)は、近傍領域NR[k]t1の画素値のヒストグラムht1を表し、図12(b)は、近傍領域NR[k]t2の画素値のヒストグラムht2を表している。
近傍領域NR[k]t1を形成する画素の内、第qの区分に属する画素の数をht1(q)で表し、近傍領域NR[k]t2を形成する画素の内、第qの区分に属する画素の数をht2(q)で表す。そうすると、ヒストグラムに基づく相違度εは、下記式(10)に従って算出される。
Figure 2009077022
第2の相違度算出法を採用する場合、εを、図4のステップS19にて算出されるべき相違度とする。k=1の場合は、近傍領域NR[1]t1及びNR[1]t2の画素値に基づくεを相違度DD[1]とし、k=2の場合は、近傍領域NR[2]t1及びNR[2]t2の画素値に基づくεを相違度DD[2]とする。
尚、画素値のヒストグラムを作成して該ヒストグラムに基づいて相違度を算出すると述べたが、相違度を算出するために作成するヒストグラムは、輝度ヒストグラムであっても、色ヒストグラムであってもよい。
<<第2実施例>>
上述の第1実施例では、2つの特徴点が時刻t1の撮影画像から抽出されると共に図4のステップS21にて立体物特徴点に分類される特徴点の個数が1つである場合を主に取り扱ったが、通常は、多数の特徴点が時刻t1の撮影画像から抽出され、立体物領域がより高い分解能で推定される。この多数の特徴点に基づく立体物領域の推定手法例を、第2実施例として説明する。第2実施例は、第1実施例と組み合わせて実施される。第1実施例に記載された事項は、矛盾なき限り、第2実施例にも適用される。
第1実施例と同様、図4のステップS11〜S24の処理が実行され、ステップS23にて全ての特徴点に対して分類処理を実行したと判断された場合にステップS23からステップS25に移行する。以下、ステップS25にて実行される処理の内容について説明する。
図13は、ステップS25において立体物領域が特定されるべき画像400を表している。画像400は、時刻t2の鳥瞰図画像である。尚、図示及び説明の便宜上、第2実施例において取り扱う時刻t2の鳥瞰図画像と、第1実施例におけるそれとは、異なっている。第2実施例において、時刻t1及びt2におけるカメラ1の視野には直方体状の立体物が存在しており、符号401は、画像400上の立体物である。尚、立体物領域が特定されるべき画像400は、時刻t1の撮影画像、時刻t2の撮影画像、または、時刻t1の鳥瞰図画像であってもよい。
第2実施例では、図4のステップS12にて多数の特徴点が時刻t1の撮影画像から抽出された場合を想定する。特徴点は水平方向及び垂直方向にある程度の間隔をおいて時刻t1の撮影画像から抽出され、複数の特徴点がステップS21において立体物特徴点に分類されたとする。
図14は、図13の画像400に、立体物特徴点に分類された第1〜第9の特徴点411〜419を重畳して示した図である。図4のステップS19において、時刻t1の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、時刻t2の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、が対比されて相違度DD[k]が算出される(ここで、kは自然数)。そして、相違度DD[k]に基づいて、第1〜第9の特徴点411〜419が立体物特徴点に分類され、それ以外の特徴点(第10の特徴点など)が地面特徴点に分類されたとする。
符号NR1〜NR9が付された破線矩形領域は、夫々、画像400における特徴点411〜419の近傍領域を表している。第1実施例で述べたように、各近傍領域は所定の画像サイズを有する矩形領域であり、画像400において、近傍領域NR1〜NR9の中心位置はそれぞれ特徴点411〜419の位置に合致する。
本実施例において、画像処理装置2は、立体物特徴点に分類された特徴点411〜419の近傍領域NR1〜NR9の夫々を、一旦、候補領域として特定する。候補領域は、立体物領域を形成する領域の候補である。そして、特定された候補領域に対して結合処理及び/又は消去処理を行うことによって、最終的に立体物領域を特定する。
結合処理と消去処理は、着目した候補領域の周辺に他の候補領域が存在するか否かに基づいて実行される。
基本的には、着目した候補領域の近くに他の候補領域が存在する場合に両候補領域は結合される。結合される2つの候補領域を第1及び第2候補領域と呼んだ場合、第1及び第2の候補領域と、第1と第2の候補領域を結合する領域と、が立体物領域に含められる。
図15(a)に示す如く第1と第2の候補領域が水平方向に並んでいる場合、第1と第2の候補領域を結合する領域とは、第1と第2の候補領域の双方に隣接し且つ第1と第2の候補領域の間に存在する領域(図15(a)の領域430)である。第1と第2の候補領域が垂直方向に並んでいる場合も同様である。図15(b)に示す如く第2の候補領域が第1の候補領域の斜め方向に位置する場合、第1と第2の候補領域を結合する領域とは、第1の候補領域と垂直方向に隣接し且つ第2の候補領域と水平方向に隣接する領域(図15(b)の領域431)、及び、第1の候補領域と水平方向に隣接し且つ第2の候補領域と垂直方向に隣接する領域(図15(b)の領域432)である。
一方、着目した候補領域の近くに他の候補領域が存在しない場合、その着目した候補領域は消去される(即ち、着目した候補領域は、立体物領域から除外される)。
実際には例えば、図16(a)に示す如く、着目した候補領域と他の候補領域との間の距離が所定の閾値DTH以下である場合に両候補領域が結合され、図16(b)に示す如く、その距離が閾値DTHより大きい場合に着目した候補領域は消去される。着目した候補領域と他の候補領域との間の距離は、画像400上における、両候補領域の中心間の距離にて表される。
図14の画像400に対して上述の結合処理と消去処理を行うことによって、近傍領域NR1〜NR8に対応する8つの候補領域は結合され、近傍領域NR9に対応する候補領域は消去される。図17に、最終的に特定された立体物領域450を画像400に重畳して示す。この例では、立体物領域は、画像400上の立体物を取り囲む1つの矩形領域となっている。
立体物領域が特定されると、その特定結果に応じた表示用画像が生成され、その表示用画像は図1の表示装置3にて表示される。例えば、図17の画像400に立体物領域450を囲むラインを重畳した画像を表示用画像とする。
<<第3実施例>>
高さのある立体物の画像を鳥瞰変換すると、原理的に、鳥瞰図画像上において該立体物は変形し、その変形の度合いは立体物の高さが増加するに従って大きくなる。従って、実空間上における特徴点の高さが異なれば、図4のステップS19において異なる相違度が得られ、相違度のより大きな領域は、高さのより大きな立体物に対応する。第3実施例では、これに着目し、高度に応じて階層化した映像を表示する。第3実施例は、第1実施例と組み合わせて実施され、第1実施例に記載された事項は、矛盾なき限り、第3実施例にも適用される。尚、第2実施例で記載された事項も、第3実施例に適用可能である。
第1実施例と同様、図4のステップS11〜S24の処理が実行され、ステップS23にて全ての特徴点に対して分類処理を実行したと判断された場合にステップS23からステップS25に移行する。以下、ステップS25にて実行される処理の内容について説明する。
図18は、ステップS25において立体物領域が特定されるべき画像500を表している。画像500は、時刻t2の鳥瞰図画像である。尚、図示及び説明の便宜上、第3実施例において取り扱う時刻t2の鳥瞰図画像と、第1実施例におけるそれとは、異なっている。第3実施例において、時刻t1及びt2におけるカメラ1の視野には直方体状の立体物が存在しており、符号501は、画像500上の立体物である。立体物501の高い部分は画像500の上方側に描画され、立体物501の低い部分は画像500の下方側に描画されているものとする。尚、立体物領域が特定されるべき画像500は、時刻t1の撮影画像、時刻t2の撮影画像、または、時刻t1の鳥瞰図画像であってもよい。
第3実施例では、図4のステップS12にて多数の特徴点が時刻t1の撮影画像から抽出された場合を想定する。特徴点は水平方向及び垂直方向にある程度の間隔をおいて時刻t1の撮影画像から抽出され、複数の特徴点がステップS21において立体物特徴点に分類されたとする。
図19は、図18の画像500に、立体物特徴点に分類された第1〜第10の特徴点511〜520を重畳して示した図である。図4のステップS19において、時刻t1の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、時刻t2の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、が対比されて相違度DD[k]が算出される(ここで、kは自然数)。そして、相違度DD[k]に基づいて、第1〜第10の特徴点511〜520が立体物特徴点に分類され、それ以外の特徴点(第11の特徴点など)が地面特徴点に分類されたとする。
図19において、特徴点511〜520の夫々を中心とする破線矩形領域は、画像500における特徴点511〜520の近傍領域を表している。第1実施例で述べたように、各近傍領域は所定の画像サイズを有する矩形領域である。特徴点511〜520の各近傍領域は、第2実施例で述べたように、一旦、候補領域として特定された後、結合処理と消去処理が適用される。その結果、特徴点511〜520の各近傍領域を合成した領域が立体物領域として特定されたとする。
画像処理装置2は、立体物領域が表示装置3上で視認可能となるように、図18の画像500に対して画像加工処理を施す。この際、図4のステップS19にて算出された相違度を参照し、相違度の大きい領域が濃い色で表示され且つ相違度の小さい領域が薄い色で表示されるように、画像加工処理を施す。図19に示す例の場合、特徴点519及び520について算出された各相違度、特徴点517及び518について算出された各相違度、特徴点514〜516について算出された各相違度、特徴点511〜513について算出された各相違度、の順番で相違度は大きくなる。
このため、画像500に対して画像加工処理を施すことによって得られた表示用画像は、図20の画像540のようになる。特徴点519及び520の各近傍領域、特徴点517及び518の各近傍領域、特徴点514〜516の各近傍領域及び特徴点511〜513の各近傍領域を、夫々、第1、第2、第3及び第4の配色で塗る画像加工処理を、画像500に対して施すことによって画像540は得られる。第1、第2、第3及び第4の配色は互いに異なり、第1、第2、第3及び第4の配色の順番で色が濃くなるものとする。
実際には例えば、以下のようにして、各近傍領域の配色を決定する。特徴点511〜520について算出された各相違度と、閾値DDTH1、DDTH2及びDDTH3を比較する(DDTH1>DDTH2>DDTH3>0)。そして、DDTH1以上の相違度に対応する特徴点の近傍領域に対して第4の配色を割り当て、DDTH1未満であって且つDDTH2以上の相違度に対応する特徴点の近傍領域に対して第2の配色を割り当て、DDTH2未満であって且つDDTH3以上の相違度に対応する特徴点の近傍領域に対して第3の配色を割り当て、DDTH3未満の相違度に対応する特徴点の近傍領域に対して第4の配色を割り当てる。
本実施例のように処理することにより、立体物の高さをも表現した映像をユーザに提供することが可能となる。
<<第4実施例>>
車両100が右折等の旋回運動を行った場合、上述の相違度の算出手法では、立体物領域の推定精度が劣化する。例えば、時刻t1−t2間で車両100が旋回運動を行った場合、図7(a)の画像310上における白線に対して図7(b)の画像320上における白線が傾く。そうすると、特徴点が路面上に存在していても、その特徴点の近傍領域の画像が、時刻t1及びt2の鳥瞰図画像間で大きく異なってくるからである。
このような旋回運動にも対応する相違度の算出手法を、第4実施例として説明する。第4実施例は、第1実施例と組み合わせて実施され、第1実施例に記載された事項は、矛盾なき限り、第4実施例にも適用される。尚、第2及び第3実施例で記載された事項も、第4実施例に適用可能である。
図4のステップS11〜S17の各処理が実施され、第1実施例と同様、時刻t1及びt2の鳥瞰図画像として図9(a)及び(b)の画像310及び320が得られたとする。そして、第1実施例と同様、画像310内に第1及び第2の特徴点としての点331及び332が存在すると共に画像320内に第1及び第2の特徴点としての点341及び342が存在し、且つ、近傍領域NR[1]t1、NR[2]t1、NR[1]t2及びNR[2]t2が抽出されたとする。
画像処理装置2は、抽出された複数の特徴点の内、何れか1つの特徴点に注目する。今の例の場合、第1又は第2の特徴点が注目される。或る第kの特徴点が注目された場合を考える(ここで、kは1又は2)。
この場合、画像処理装置2は、近傍領域NR[k]t1の画像と近傍領域NR[k]t2の画像との間でSADを計算するが、この計算を、近傍領域NR[k]t2の画像を複数段階で回転させながら行う。この回転の中心は、近傍領域NR[k]t2の中心と合致する。この計算の様子を図21に示す。近傍領域NR[k]t2の画像の回転角をwで表し、式(11)に従って、様々な回転角wに対して相関値RSAD[w]を算出する。ここで、i'=i・cosw−j・sinw、j'=i・sinw+j・cosw、である。相関値RSAD[w]は、近傍領域NR[k]t1の画像と、回転角wで回転させた近傍領域NR[k]t2の画像と、の相関を表している。
Figure 2009077022
具体的には、回転角wを−10°から+10°の範囲内で1°ずつ変化させ、夫々の回転角wに対して相関値RSAD[w]を算出する。この場合、合計21個の相関値RSAD[w]が算出される。画像処理装置2は、この21個の相関値RSAD[w]の内の、最小の相関値を求め、その最小の相関値を与える回転角wを特定する。そして、特定した回転角wを時刻t1−t2間における車両100の回転角wVとして推定する。回転角wVは、車両100の操舵角に対応する。
ところで、車両100の回転角wVを推定するために注目した特徴点が地面に属する特徴点であれば、回転角wVは精度良く推定される。しかし、注目した特徴点が立体物に属する特徴点である場合は、鳥瞰変換に伴う立体物の画像の変形に起因して、回転角wVを精度良く推定できない。一方で、その変形に起因して、注目した特徴点が立体物に属する特徴点であるならば、算出される各相関値RSAD[w]は何れも大きな値となる。従って、上記の最小の相関値を所定の上限相関値と比較し、前者が後者よりも高い場合は、注目した特徴点が適切ではないと判断し、回転角wVを推定するために注目する特徴点を変更してから、再度、上述の処理を実行して回転角wVを推定すると良い。
回転角wVが推定された後、図4のステップS18〜S25の各処理が行われる。但し、ステップS19において、時刻t1の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、回転角wVにて回転後の、時刻t2の鳥瞰図画像内における第kの特徴点の近傍領域の画像と、を対比し、両画像間の相違度をDD[k]として算出するようにする。相違度の算出法として、第1実施例で述べた任意の手法を採用可能である。例えば、下記式(12)に従って算出された相関値RSAD[wV]を相違度DD[k]とすればよい。尚、当然ではあるが、第1の特徴点についての相違度DD[1]を算出する際には、第1の特徴点についての近傍領域内の各画素の画素値が式(12)におけるIV(i,j)及びTV(i',j')として用いられ、第2の特徴点についての相違度DD[2]を算出する際には、第2の特徴点についての近傍領域内の各画素の画素値が式(12)におけるIV(i,j)及びTV(i',j')として用いられる。
Figure 2009077022
上述の如く車両100の回転角を推定し、車両100の回転角に由来する画像の傾きを補正した上で相違度を算出するようにする。これにより、車両100が旋回運動を行っていた場合でも、高精度で立体物領域を推定することができる。
尚、相関値としてSADを算出する場合を例示したが、SADの代わりにSSDを算出するようにしてもよい。この場合は、上記のRSAD[w]をRSSD[w]に読み替えればよい。RSSD[w]は、下記式(13)に従って算出することができる。
Figure 2009077022
<<第5実施例>>
次に、第5実施例を説明する。第5実施例では、上述の各実施例に対応する運転支援システムの機能ブロック図を例示する。図22は、第5実施例に係る運転支援システムの機能ブロック図である。第5実施例に係る運転支援システムは、符号11〜15にて参照される各部位を含み、符号11〜15にて参照される部位は図1の画像処理装置2内に設けられる。
カメラ1の撮影画像は、動き検出部(移動ベクトル検出部)11と鳥瞰変換部12に与えられる。動き検出部11は、図4のステップS12及びS13の各処理を実行する。即ち、特徴点の抽出及び特徴点の移動ベクトルの算出を行う。鳥瞰変換部12は、図4のステップS14〜S17の各処理を実行して、各撮影画像を鳥瞰図画像に変換すると共に各鳥瞰図画像から特徴点の近傍領域の画像を抽出する。相違度検出部13は、図4のステップS19の処理を実行して上述の相違度を算出し、立体物領域推定部14は、図4のステップS20〜S22及びS25の各処理を実行して上述の立体物領域を推定する。表示用画像生成部15は、立体物領域の推定結果に従って立体物領域が視認可能となるように鳥瞰図画像を加工することにより表示用画像を生成する。
尚、図22は、表示用画像を鳥瞰図画像から生成する場合の機能ブロック図である。他の実施例にて上述したように、表示用画像を撮影画像から生成するようにしても構わない。また、ステップS17の処理を、相違度検出部13が行うようにしても構わない。この場合、鳥瞰変換部12は、鳥瞰図画像と鳥瞰図画像上の特徴点の位置を相違度検出部13に伝達し、相違度検出部13が、この位置に基づいて鳥瞰図画像から特徴点の近傍領域の画像を抽出する。
また、第4実施例に係る画像処理装置2は、更に、車両100の回転角wVを推定する回転角推定部(不図示)を含む。回転角推定部を、相違度検出部13内に含めることもできる。
<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
透視投影変換によって撮影画像から鳥瞰図画像を得る手法を説明したが、平面射影変換によって撮影画像から鳥瞰図画像を得るようにしても構わない。この場合、撮影画像上の各画素の座標値を鳥瞰図画像上の各画素の座標値に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階にて求める。ホモグラフィ行列の求め方は公知である。そして、図4に示す動作を行う場合、ホモグラフィ行列に基づいて撮影画像を鳥瞰図画像に変換すればよい。この場合、図4のステップS15における特徴点及び移動ベクトルの鳥瞰図座標へのマッピングも、ホモグラフィ行列に基づいて行うことができる。
[注釈2]
上述の実施形態では、1つのカメラから得られた撮影画像に基づく表示用画像を表示装置3に表示するようにしているが、車両100に設置された複数のカメラ(不図示)から得られた複数の撮影画像に基づいて表示用画像を生成するようにしてもよい。例えば、カメラ1以外に1台以上の他のカメラを車両100に取り付け、その他のカメラの撮影画像に基づく画像をカメラ1の撮影画像に基づく画像(例えば、図10の画像320)に合成し、この合成によって得られた合成画像を最終的に表示装置3に対する表示用画像とすることも可能である。この合成画像は、例えば、特開2006−287892号公報にも記載されているような全周鳥瞰図画像である。
[注釈3]
上述の実施形態では、車両の例として自動車(トラック)を例示しているが、自動車に分類されない車両に対しても本発明は適用可能であり、更に車両に分類されない移動体に対しても本発明は適用可能である。車両に分類されない移動体は、例えば、車輪を備えておらず、車輪以外の機構を用いて移動する。例えば、遠隔操作によって工場内を移動する、移動体としてのロボット(不図示)に対して、本発明を適用することも可能である。
[注釈4]
図1の画像処理装置2及び図22の各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。図1の画像処理装置2及び図22の各部位にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
本発明の実施形態に係る運転支援システムの構成ブロック図である。 図1の運転支援システムが適用される車両の外観側面図である。 本発明の実施形態に係り、カメラ座標系XYZと撮像面の座標系Xbubuと世界座標系Xw w w との関係を示す図である。 本発明の第1実施例に係る立体物領域の推定手順を表すフローチャートである。 本発明の第1実施例に係り、時刻t1及びt2の撮影画像を表す図である。 本発明の第1実施例に係り、撮影画像上の特徴点と該特徴点の時刻t1−t2間の移動ベクトルを表す図である。 本発明の第1実施例に係り、時刻t1及びt2の鳥瞰図画像を表す図である。 本発明の第1実施例に係り、鳥瞰図画像上の特徴点と該特徴点の時刻t1−t2間の移動ベクトルを表す図である。 本発明の第1実施例に係り、時刻t1及びt2の鳥瞰図画像から、各特徴点の近傍領域内の画像が抽出される様子を示す図である。 本発明の第1実施例に係り、時刻t2の鳥瞰図画像内の立体物領域を表す図である。 本発明の第1実施例に係り、時刻t1の鳥瞰図画像内の特徴点の近傍領域及び時刻t2の鳥瞰図画像内の特徴点の近傍領域の拡大図である。 本発明の第1実施例に係り、時刻t1及びt2の鳥瞰図画像内の特徴点の近傍領域についての、画素値のヒストグラムを表す図である。 本発明の第2実施例に係り、立体物領域が特定されるべき画像を表す図である。 図13の画像内における特徴点とその近傍領域を表す図である。 本発明の第2実施例に係り、2つの領域が結合される様子を示す図である。 本発明の第2実施例に係り、2つの領域が結合される様子(a)と着目した1つの領域が消去される様子(b)を示す図である。 図13の画像内において特定された立体物領域を表す図である。 本発明の第3実施例に係り、立体物領域が特定されるべき画像を表す図である。 図18の画像内における特徴点とその近傍領域を表す図である。 図18の画像から生成された表示用画像の例を示す図である。 本発明の第4実施例に係り、2つの画像間のSADを算出するに当たり、一方の画像を複数段階で回転させる様子を示した図である。 本発明の第5実施例に係る運転支援システムの機能ブロック図である。
符号の説明
1 カメラ
2 画像処理装置
3 表示装置
100 車両

Claims (9)

  1. 移動体に取り付けられて前記移動体の周辺を撮影するカメラを備え、前記カメラから時系列で並ぶ第1及び第2のカメラ画像を取得して、各カメラ画像に基づく表示用画像を表示装置に表示させる運転支援システムにおいて、
    前記第1のカメラ画像から特徴点を抽出するとともに、前記第1と第2のカメラ画像間における前記特徴点の移動ベクトルを検出する移動ベクトル検出手段と、
    各カメラ画像を所定の鳥瞰図座標上に投影することによって前記第1及び第2のカメラ画像を第1及び第2の鳥瞰図画像に変換するとともに、前記第1のカメラ画像における前記特徴点の位置及び前記移動ベクトルに基づいて前記第1及び第2の鳥瞰図画像上の前記特徴点の各位置を検出する鳥瞰変換手段と、
    前記第1の鳥瞰図画像内における前記特徴点の近傍領域の画像と、前記第2の鳥瞰図画像内における前記特徴点の近傍領域の画像と、の相違度を検出する相違度検出手段と、
    前記第1のカメラ画像、前記第2のカメラ画像、前記第1の鳥瞰図画像、又は、前記第2の鳥瞰図画像を推定対象画像として取り扱い、前記推定対象画像中の、立体物が描画されている立体物領域を、前記推定対象画像上の前記特徴点の位置と前記相違度に基づいて推定する立体物領域推定手段と、を備えた
    ことを特徴とする運転支援システム。
  2. 前記特徴点は、複数の特徴点から成り、
    前記相違度検出手段は、特徴点ごとに、前記相違度を検出し、
    前記立体物領域推定手段は、各相違度と所定の基準相違度とを比較して前記基準相違度より高い相違度に対応する特徴点を立体物特徴点として特定し、前記立体物特徴点の位置に基づいて前記立体物領域を推定する
    ことを特徴とする請求項1に記載の運転支援システム。
  3. 前記立体物領域推定手段は、前記推定対象画像中の前記立体物特徴点の近傍領域を候補領域として特定し、前記候補領域の全部または一部を含む領域を前記立体物領域として推定する
    ことを特徴とする請求項2に記載の運転支援システム。
  4. 前記候補領域がn個存在する場合(nは2以上の整数)、
    前記立体物領域推定手段は、前記n個の候補領域の内の複数の候補領域を結合する処理を実行し、前記立体物領域に前記複数の候補領域と前記複数の候補領域を結合する領域とを含める
    ことを特徴とする請求項3に記載の運転支援システム。
  5. 前記候補領域がn個存在する場合(nは2以上の整数)、
    前記立体物領域推定手段は、前記n個の候補領域の中から一部の候補領域を消去する処理を実行し、前記立体物領域から前記一部の候補領域を除外する
    ことを特徴とする請求項3に記載の運転支援システム。
  6. 前記立体物領域を視認可能とするための画像加工処理を前記推定対象画像に施すことによって前記表示用画像を生成する表示用画像生成手段を更に備えた
    ことを特徴とする請求項1〜請求項3の何れかに記載の運転支援システム。
  7. 前記立体物領域を視認可能とするための画像加工処理を前記推定対象画像に施すことによって前記表示用画像を生成する表示用画像生成手段を更に備え、
    前記立体物特徴点は、第1及び第2の立体物特徴点を含むn個の立体物特徴点から成り(nは2以上の整数)、
    前記立体物領域推定手段は、前記推定対象画像中の前記第1及び第2の立体物特徴点についての各近傍領域を前記立体物領域に含め、
    前記表示用画像生成手段は、前記第1の立体物特徴点について検出された前記相違度に応じて前記第1の立体物特徴点の前記近傍領域に対する前記画像加工処理の内容を決定し、前記第2の立体物特徴点について検出された前記相違度に応じて前記第2の立体物特徴点の前記近傍領域に対する前記画像加工処理の内容を決定する
    ことを特徴とする請求項2に記載の運転支援システム。
  8. 前記相違度検出手段は、
    前記第2の鳥瞰図画像内の前記特徴点の位置を中心として前記第2の鳥瞰図画像についての前記近傍領域の画像を複数段階で回転させ、
    回転ごとに、前記第1の鳥瞰図画像についての前記近傍領域の画像と前記第2の鳥瞰図画像についての回転後の前記近傍領域の画像とを対比して、対比した両画像間の相関を表す相関値を算出し、
    回転ごとに算出された前記相関値の内の最小の相関値に基づいて前記相違度を検出する
    ことを特徴とする請求項1に記載の運転支援システム。
  9. 請求項1〜請求項8の何れかに記載の運転支援システムが設置された
    ことを特徴とする、移動体としての車両。
JP2007242111A 2007-09-19 2007-09-19 運転支援システム及び車両 Ceased JP2009077022A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007242111A JP2009077022A (ja) 2007-09-19 2007-09-19 運転支援システム及び車両

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007242111A JP2009077022A (ja) 2007-09-19 2007-09-19 運転支援システム及び車両

Publications (1)

Publication Number Publication Date
JP2009077022A true JP2009077022A (ja) 2009-04-09

Family

ID=40611604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007242111A Ceased JP2009077022A (ja) 2007-09-19 2007-09-19 運転支援システム及び車両

Country Status (1)

Country Link
JP (1) JP2009077022A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011122802A (ja) * 2009-12-14 2011-06-23 Toshiba Corp 空調制御装置、空調制御方法及び輻射温度計測装置
JP2012052884A (ja) * 2010-08-31 2012-03-15 Honda Motor Co Ltd 車載カメラを用いた測距装置
JP2015119225A (ja) * 2013-12-16 2015-06-25 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2019207665A (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 突起物検出装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
JP2003178309A (ja) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
WO2005038710A1 (ja) * 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. 移動体動き算出方法および装置、並びにナビゲーションシステム
JP2006059252A (ja) * 2004-08-23 2006-03-02 Denso Corp 動き検出方法及び装置,プログラム,車両用監視システム
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP2007087236A (ja) * 2005-09-26 2007-04-05 Alpine Electronics Inc 車両周囲監視方法及び装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
JP2003178309A (ja) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
WO2005038710A1 (ja) * 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. 移動体動き算出方法および装置、並びにナビゲーションシステム
JP2006059252A (ja) * 2004-08-23 2006-03-02 Denso Corp 動き検出方法及び装置,プログラム,車両用監視システム
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP2007087236A (ja) * 2005-09-26 2007-04-05 Alpine Electronics Inc 車両周囲監視方法及び装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011122802A (ja) * 2009-12-14 2011-06-23 Toshiba Corp 空調制御装置、空調制御方法及び輻射温度計測装置
JP2012052884A (ja) * 2010-08-31 2012-03-15 Honda Motor Co Ltd 車載カメラを用いた測距装置
JP2015119225A (ja) * 2013-12-16 2015-06-25 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US10140775B2 (en) 2013-12-16 2018-11-27 Sony Corporation Image processing apparatus, image processing method, and program
JP2019207665A (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 突起物検出装置
WO2019230099A1 (ja) * 2018-05-30 2019-12-05 クラリオン株式会社 突起物検出装置
JP7161312B2 (ja) 2018-05-30 2022-10-26 フォルシアクラリオン・エレクトロニクス株式会社 突起物検出装置

Similar Documents

Publication Publication Date Title
US11948462B2 (en) Image generating apparatus, image generating method, and recording medium
JP5108605B2 (ja) 運転支援システム及び車両
JP4692371B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
JP5208203B2 (ja) 死角表示装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP2009060499A (ja) 運転支援システム及び連結車両
JP2009017462A (ja) 運転支援システム及び車両
JP2011182236A (ja) カメラキャリブレーション装置
JP4872769B2 (ja) 路面判別装置および路面判別方法
US10897600B1 (en) Sensor fusion based perceptually enhanced surround view
US20170259830A1 (en) Moving amount derivation apparatus
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
JP2009077022A (ja) 運転支援システム及び車両
JP7074546B2 (ja) 画像処理装置および方法
CN110832851B (zh) 图像处理装置、图像变换方法
CN113850881A (zh) 图像生成方法、装置、设备及可读存储介质
JP6802999B2 (ja) 区画線検出システム
JP2017182564A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2008294616A (ja) 運転支援システム及び車両
WO2018016274A1 (ja) 画像処理装置
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
KR101762117B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
KR101578030B1 (ko) 이벤트 발생 장치 및 방법
KR101750161B1 (ko) 관심영역 이미지 패치 관리 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20120925