[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4995555B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4995555B2
JP4995555B2 JP2006335763A JP2006335763A JP4995555B2 JP 4995555 B2 JP4995555 B2 JP 4995555B2 JP 2006335763 A JP2006335763 A JP 2006335763A JP 2006335763 A JP2006335763 A JP 2006335763A JP 4995555 B2 JP4995555 B2 JP 4995555B2
Authority
JP
Japan
Prior art keywords
edge
vehicle
image
captured image
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006335763A
Other languages
English (en)
Other versions
JP2008143452A (ja
Inventor
幸男 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006335763A priority Critical patent/JP4995555B2/ja
Publication of JP2008143452A publication Critical patent/JP2008143452A/ja
Application granted granted Critical
Publication of JP4995555B2 publication Critical patent/JP4995555B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車載カメラが撮影した車両周囲の撮影画像を2値化し、2値化された撮影画像内のエッジを検出する画像処理装置に関する。
CMOSイメージセンサを備えたカメラと、その撮影画像からエッジ(輪郭)を検出してエッジの形状から被写体を認識する画像処理装置により構成される画像センサが知られている。近年ではこのような画像センサにより車両前方の物体を認識する車両の安全制御システムが普及しつつあり、その一例が特許文献1に記載されている。
かかる画像センサの画像処理装置は、まず撮影画像を車載カメラの解像度に対応した画素ごとに、例えば黒に対応する「1」または白に対応する「0」のいずれかに2値化し、2値化画像データをメモリに格納する。次に、画像処理装置は、2値化画像データを画像の縦方向、横方向それぞれ個別に累計(ヒストグラム化)し、その累計値により黒色が割当てられた画素の分布を求めて画像内のエッジを検出する。そして、画像処理装置は、検出されたエッジの形状を予め記憶された先行車両その他の障害物のエッジの形状と照合して、画像認識を行う。
このような画像処理においては、処理される画像データを格納するために多くのメモリが必要とされる。例えば、画素ごとに2値化された2値化画像データを格納するには少なくとも画素数と同じビット数の容量のメモリが必要となる。そして、エッジ検出では縦方向、横方向それぞれ個別にヒストグラム化が行われるため、1画像のエッジ検出のためには2画像分の2値化画像データを格納できる容量のメモリが必要となる。このように2値化画像データはメモリ資源を圧迫する一因となる。
また、2値化画像データのデータ量が大きくなると、エッジ検出の処理量が増大する。よって、2値化画像データは画像処理装置の処理負荷を増大させる一因ともなる。
よって、メモリ量やエッジ検出処理の負荷の低減を目的として、2値化画像データのデータ量を削減するための方法が種々提案されている。一例としては、撮影画像の画素を例えば縦横2画素からなる画素ブロックに分割し、画素ブロック単位で2値化する方法が提案されている。この方法によれば、画像の解像度を低下させながらも2値化画像データのデータ量を4分の1に抑えることができる。
さらに別の例として、車載カメラにより例えば毎秒30画像の頻度で撮影される画像の連続性に着目して、前回の撮影画像で検出されたエッジ付近の範囲の画像は1画素単位で2値化し、それ以外の範囲の画像は画素ブロック単位で2値化する方法も提案されている。この方法によれば、解像度を低下させずにエッジ検出が行え、且つ2値化画像データのデータ量も有る程度抑えることができる。
特開2005−332120号公報
しかしながら上記のような従来技術では、主要な撮像対象である先行車両が高速で移動すると同時に自車両も高速で移動するので、次のような問題が生じる。すなわち、1つの撮影画像から次の撮影画像までの間に画像内の物体の移動量は大きくなるので、移動したエッジの検出を精度よく行うためには1画素単位で2値化する範囲を前回の撮影画像のエッジ付近で広く設定しなくてはならない。すると、2値化画像データのデータ量はさほど小さくならず、メモリ量やエッジ検出処理の負荷の低減効果が十分得られない。
そこで、本発明の目的は、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量やエッジ検出処理の負荷の低減が可能な画像処理装置を提供することにある。
上記の目的を達成するための本発明の第1の側面は、車載カメラが順次撮影する車両周囲の撮影画像を2値化し、前記2値化された撮影画像内のエッジを検出する画像処理装置であって、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測し、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする。
上記側面によれば、第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき第2の撮影画像における当該エッジの第2の位置を予測することにより、先行車両などの物体と自車両が高速で移動する場合であっても、予測されたエッジ位置周辺の最小限の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することができる。すなわち、第1の画素数単位で2値化を行う範囲は、解像度は高いがメモリ消費量の大きいので、その範囲を最小限とすることにより、エッジ検出の精度を低下させることなく2値化画像データのデータ量を削減できる。よって、2値化画像データを格納するメモリ量やエッジ検出処理の負荷を低減することができる。
以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。
図1は本実施形態における画像処理装置が車両に搭載される例を説明する図である。車両1には、車両前方を撮影し撮影画像の認識を行う画像センサ2が搭載され、画像センサ2は車載カメラ2aと画像処理装置2bが一体化されて構成される。車載カメラ2aは、固定式のカメラであって、例えば640×480画素のCMOSイメージセンサを備え、車両前方の一定範囲2cの画像を毎秒30画像撮影し、画像処理装置2bへその撮影画像データを入力する。そして画像処理装置2bは撮影画像データを処理して撮影画像の2値化、エッジ検出、及びエッジ形状の認識を行い、認識結果データを出力する。
また、車両1には車両前方の一定角度の検知範囲3aにおいて先行車両などの物標の相対的な位置、距離、速度などの物標状態を検知するスキャン式の車載レーダ3や、車両1の速度を検知する車速センサ4、車両1の加速度を検知するGセンサ5、車両1のドライバによる操舵角を検知するステアリングセンサ6などの各種センサが搭載される。そして画像センサ2による画像認識結果データ、車載レーダ3により検知される物標状態データ、及び各種センサ4〜6による検知される車速、加速度、操舵方向等の車両状態データは、制御ECU(Electronic Control Unit)8へ入力される。そして、制御ECU8はこれらの入力データに基づいてブレーキ7などのアクチュエータを制御して車両1の走行を制御したり、不図示の警報器にドライバへの警告を行わせたりする。このように、制御ECU8とこれに接続される各種機器により車両の安全制御システムが構成される。
図2は、本実施形態における画像処理装置2bの構成を説明する図である。まず2値化処理部21は、車載カメラ2aから毎秒30画像の撮影画像データ2dを入力され、各撮影画像を構成する画素の濃度階調値に応じて画像を2値化(「0」または「1」)し、2値化された撮影画像の2値化画像データ21aを第1メモリ22に格納する。次に、ヒストグラム処理部23は、第1メモリから読み出した2値化画像データ21aに基づき画像の縦方向、横方向ごとの値を累計してヒストグラム化し、ヒストグラムデータ23aを第2メモリ24に格納する。
エッジ検出部25は、第2メモリからヒストグラムデータ23aを読出し、画像内の「1」が割当てられた画素の分布を求めてエッジ検出を行い、検出したエッジの座標からなるエッジ位置データ25aを第3メモリ26に格納する。ここで、「エッジ」とは撮影画像の明暗の変化点によって、画像内の物体の輪郭を構成する線、または輪郭と輪郭内部の領域の形状や模様を構成する線をいう。なお、以下では物体の輪郭を構成する線を例として説明する。
CPU27は第3メモリ26に格納されるエッジ位置データ25aを読出して検出されたエッジの形状を第5メモリ30に予め格納された各種物体のエッジの形状と照合させて被写体の画像認識を行い、その画像認識結果データ27aを制御ECU8へ出力する。
ここで図3を用いて、2値化処理部21による撮影画像の2値化処理について説明する。まず、図3(A)において、車載カメラ2aから入力される撮影画像データ2dを処理して撮影画像を車載カメラ2aの解像度、つまり640×480画素の1画素単位で2値化する場合を示す。2値化処理部21は、例えば1画素256階調(8ビット)の撮影画像データについて、中間値(128)以上の階調値の画素に「1」、それ未満の階調値の画素に「0」を割付けて撮影画像を2値化し、2値化画像データを21a生成する。この結果、640×480ビットの2値化画像データ21aが生成される。さらにヒストグラム処理部23で縦横2方向で個別の累計計算を行うので、この2値化画像データ21aを2画像分格納するために第1メモリ22には640×480×2ビットの容量が必要とされる。
次に、図3(B)において、撮影画像を縦横2画素の4画素からなる画素ブロックごとに分割し、画素ブロック単位で2値化する場合を示す。この場合、画素ブロックに含まれる4画素分の階調値の合計値は0から1020までの値となる。よって2値化処理部21は、中間値(510)を基準にそれ以上の合計値の画素ブロックに「1」、それ未満の合計値の画素ブロックに「0」を割付けて画素ブロックごとの2値化画像データ21aを生成する。この結果生成される2値化画像データ21aのデータ量は画素数の4分の1のビット数となる。よって、第1メモリ22にはヒストグラム処理のために2画像分の2値化画像データ21aが格納されるとしても、必要なメモリ量は、640×480×2/4ビットとなる。
上述の図3(A)、(B)の2値化処理を比較すると、図3(A)の方法は2値化された撮影画像の解像度は高いがデータ量が大きくなり、図3(B)の方法は反対に解像度は低くなるがデータ量は小さく抑えられる。本実施形態においては、図3(A)、図3(B)の方法を組み合わせた2値化処理が次のように行われる。
図2に戻り、エッジ位置予測部28は、車載カメラ2aから連続して入力される撮影画像について、撮影画像ごとに検出されたエッジ位置データ25aを第3メモリ26から読み出して格納する第4メモリ29を備える。この第4メモリ29は、数画像分のエッジ位置データを格納する容量を有し、最新のエッジ位置データ25aが入力されると、古いデータは上書きされる。そしてエッジ位置予測部28は、第4メモリ29から読み出した前回の撮影画像のエッジ位置と後述するエッジ移動情報とから今回の撮影画像のエッジ位置を予測して予測結果データ28aをCPU27へ入力する。
すると、CPU27は、予測された今回の撮影画像のエッジ位置付近の一定の範囲を図3(A)で示したように1画素単位で2値化を行うエッジ検出範囲として算出し、2値化処理部21にそのエッジ検出範囲データ27bを入力する。すると、2値化処理部21は入力により設定されたエッジ検出範囲の撮影画像を1画素単位で2値化し、それ以外の範囲を4画素で構成される画素ブロック単位で2値化して、2値化画像データ21aを第1メモリ22に格納する。
このようにして、エッジ位置を予測することによりエッジ付近のエッジ検出範囲を限定して設定することができる。よって、2値化された撮影画像のエッジ付近の解像度を低下させることなく、且つ2値化画像データ21a全体のデータ量を低減することが可能となる。次に、エッジ位置の移動情報の種別ごとに、本実施形態におけるエッジ位置予測の例を説明する。
図4は、本実施形態におけるエッジ位置予測の第1の例を説明する図である。図4(A)〜(D)はいずれも車載カメラ2aの撮影画像を模式的に示している。上述したように、2値化処理部21へは毎秒30画像分の撮影画像データが車載カメラ2aから順次入力される。よって、図4(A)に、前々回の撮影画像において検出されたエッジE1(一点鎖線で表示)と、前回の撮影画像で検出されたエッジE2(実線で表示)とを示すと、矢印Dで示されるエッジE1からE2への移動方向と移動量とを求めることができる。よって、第1の例では、エッジE1からE2への移動方向と移動量とをエッジの「移動情報」として用いて、今回の撮影画像でのエッジ位置を予測する。
具体的には、エッジ位置予測部28は前々回のエッジE1の位置データと前回のエッジE2の位置データとを第4メモリ29に格納しておき、これらのデータからエッジの移動方向、移動量からなるエッジの移動情報を求める。そして、エッジ位置予測部28は、図4(B)に示すように今回の撮影画像のエッジE3(点線で表示)の位置を前回のエッジE2の位置と矢印Dで示されるエッジの移動情報とに基づき予測する。
そして、CPU27は、今回の撮影画像においては図4(C)に示すように予測されたエッジ位置E3付近のエッジ検出範囲A1(斜線で表示された範囲)を2値化処理部21に設定する。そして、2値化処理部21はエッジ検出範囲A1を1画素単位で2値化し、それ以外の範囲A2は4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。
ここで従来技術と本実施形態における2値化処理とを比較する。図4(D)に示すように、従来技術では前回のエッジE2付近のエッジ検出範囲A3を1画素単位で2値化し、それ以外の範囲を画素ブロック単位で2値化する。しかし、従来技術ではエッジ位置の予測を行わないため、エッジE2がいずれの方向へ移動してもエッジが存在する画像範囲を1画素単位で2値化して精度よくエッジ検出できるように、エッジ検出範囲A3を広く設定する必要がある。すると、エッジ検出範囲A3については、2値化画像データは画素数と同じビット数のデータ量となるため、画像全体としてのデータ量はさほど小さくはならない。一方、本実施形態では図4(C)に示したようにエッジE3の位置を予測することによりエッジ検出範囲A1をより限定して設定できるので、2値化画像データ21aのデータ量をより小さく抑えることができる。また、エッジE3が確度高くに存在する範囲をエッジ検出範囲とするので、その範囲の画像を解像度の高い1画素単位で2値化でき、エッジ検出を精度良く行うことができる。
図5は本実施形態におけるエッジ位置予測の第2、第3の例を説明する図である。図5(A)、(B)はいずれも車載カメラ2aによる撮影画像を模式的に示している。まず第2の例について説明する。図5(A)に示すように、エッジ位置予測部28は、前回の撮影画像のエッジE21(実線で表示)の位置と、車速センサ4、Gセンサ5、ステアリングセンサ6から入力される車両状態データを含むエッジの移動情報に基づき、今回の撮影画像のエッジE22(点線で表示)の位置を予測する。
具体的には、図5(C)に示すように、例えば自車両1の車載カメラ2aによる撮影可能範囲2cに先行車両100が存在し、先行車両100が撮影画像内のエッジE21として検出されたとする。今仮に自車両1はドライバの運転操作により矢印Lで示すように左側へ移動し始めたとすると、車速センサ5は移動速度、ステアリングセンサ6はハンドルの操舵方向、Gセンサは横方向の加速度をそれぞれ検知し、それぞれの検知結果からなる車両状態データがエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、車両状態データに基づきエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、車両1の移動速度に応じて矢印D1で表される移動量でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。
そして、CPU27は今回の撮影画像においては図5(B)に示すように予測されたエッジE22付近のエッジ検出範囲A11(斜線で表示された範囲)を設定する。すると2値化処理部21は、エッジ検出範囲A11を1画素単位で2値化し、それ以外の範囲A21を4画素からなる画素ブロック単位で2値化して、撮影画像全体の2値化画像データを第1メモリ22に格納する。このように、前回のエッジ位置と車両1の車両状態とに基づき今回の撮影画像のエッジ位置を予測することによっても、画像処理装置2bは上述した第1の例と同様の作用効果を奏する。
また、第3の例としては、図5(C)に示すように車載レーダ3の検知範囲3a内に存在する先行車両100の位置、距離、速度等の物標状態データに基づいて今回の撮影画像でのエッジ位置E31を予測することができる。すなわち、先行車両100の角度方向が車載レーダ3によって矢印Rに示されるように右側へ移動していることが検知された場合に、かかる物標状態データが画像処理装置2bのエッジ位置予測部28へ入力される。すると、エッジ位置予測部28は、図5(A)に示すようにエッジE21で表される先行車両100が自車両1の車載カメラ2aとは相対的に右側へ移動すると判断し、移動速度に応じた量(矢印D1)でエッジE21が右側へ移動した位置をエッジE22の位置として予測する。そして、CPU27、2値化処理部21は、上述の第2の例と同様の処理を行う。よってこの場合も、第2の例と同様の作用効果を奏する。
また、第2、第3の例を組み合わせたエッジ位置の予測を行うことも可能である。すなわち、車両1の車両状態データと他車両による物標状態データとにもとづきエッジ位置を予測することで、より精度のよい予測が可能となる。よって、1画素単位で2値化するエッジ検出範囲A11をさらに狭く設定することが可能となり、2値化画像データ21aのデータ量をより削減することが可能となる。
さらに、上述した第1の例と、第2、第3の例のいずれか1つまたは両方とを組み合わせてエッジ位置の予測を行うことができる。すなわち、前々回、前回の撮影画像でのエッジ位置からエッジの移動情報を求め、そのエッジ移動情報と車両1の車両状態データまたは他車両による物標状態データとに基づいてエッジ位置を予測することで、より精度のよい予測が可能となる。よってこの場合も、1画素単位で2値化するエッジ検出範囲を第1〜3の例を単独で用いた場合より狭く設定することができ、2値化画像データ21aのデータ量をより削減することが可能となる。
図6は、本実施形態における画像処理装置2bの動作手順について説明するフローチャート図である。まず画像処理装置2bは、電源が投下された直後に車載カメラ2aが撮影する第1撮影画像の処理を行う(手順S100)。すなわち、1画素単位で2値化するエッジ検出範囲を設定せずに撮影画像の全体を4画素の画素ブロック単位で2値化し(S1)、エッジ検出を行う(S2)。車両が走行を開始する前であれば精度のよいエッジ検出は必要ないため、4画素単位で画像を2値化することで2値化画像データのデータ量を削減できる。そして、検出されたエッジに基づき画像認識を行い、第1撮影画像の認識結果データを制御ECU8へ送信する(S3)。
次に画像処理装置2bは、第2撮影画像の画像処理を行う(S200)。すなわち、車両1の車両状態を含むエッジの移動情報を取得し(S4)、手順S2で検出された第1撮影画像でのエッジ位置と取得したエッジの移動情報とに基づき、第2撮影画像でのエッジ位置を予測する(S5)。そして、予測されたエッジ位置周辺の1画素単位で2値化するエッジ検出範囲を設定し(S6)、撮影画像を2値化してエッジを検出する(S7)。そして、検出されたエッジに基づき画像認識を行い、第2撮影画像の認識結果データを制御ECU8へ送信する(S8)。
そして画像処理装置2bは、第3撮影画像以降の画像処理を行う(S300)。すなわち、前回の撮影画像で検出されたエッジの位置と、そのエッジ位置と前々回の撮影画像で検出されたエッジ位置の差とに基づき新たなエッジ位置を予測し(S9)、車両1の車両状態あるいは他車による物標状態を含むエッジの移動情報を取得して(S10)、手順S9で予測した予測結果とエッジ位置移動情報とからエッジ位置を再度予測する(S11)。そして予測されたエッジ位置周辺のエッジ検出範囲を設定し(S12)、撮影画像を2値化してエッジを検出する(S13)。そして、検出されたエッジに基づき画像認識を行い、認識結果データを制御ECU8へ送信する(S14)。そして、車両1の走行中は手順S9〜S14からなる手順S300が繰り返し実行される。
なお、上記において示した手順200は上述した第2の例に対応しており、また手順300は上述した第1の例と第2または第3の例の組合せに対応する。しかし、手順300のうち手順S10、S11を省略することにより第1の例に対応した手順としてもよく、手順S9を省略して第2または第3の例に対応した手順とすることももちろん可能である。
図7は、従来技術と本実施形態における画像処理について説明するシーケンス図である。図7(1)には従来の車載カメラ2a、画像処理装置2bによる動作、図7(2)には本実施形態の車載カメラ2a、画像処理装置2b、各種センサ4〜6、車載レーダ3等の動作による画像処理シーケンスが示される。なお、画像処理装置2bの動作には図7のフローチャート図で示した手順と同じ符号が付してあり、反復される手順S300には反復回数に応じた添え字「−n」(nは自然数)が付してある。
図7(1)に示すように、従来は順次車載カメラ2aが毎秒30画像、つまり100ミリ秒ごとに3画像の速度で撮影を行う(P1、P2、…、Pn)。しかし2値化画像データ21aのデータ量が大きいため画像処理装置2bによるエッジ検出の処理負荷が大きく、2値化処理とエッジ検出、及びエッジ検出結果に基づく画像認識結果データの出力は第1撮影画像の処理(S100)の後、3画像に1回の割合でしか行われていなかった(S200、S300−1、…、S300−n)。これに対し、図7(2)に示すように本実施形態では、2値化画像データ21aのデータ量が削減できるためエッジ検出処理の処理負荷が軽減され、毎撮影画像ごとに2値化処理とエッジ検出が可能となり、さらには検出されたエッジに基づく画像認識と認識結果を制御ECU8へ通信することが可能となる(S200、S300−1、…、S300−n)。よって、画像認識における時間精度を向上させることが可能となる。
また図7(3)に示すように、1撮影画像分の画像処理S300−nでは、エッジ位置の予測(S9、S11)、エッジ検出範囲の設定(S12)、2値化処理及びエッジ検出(S13)、そして画像認識と制御ECU8への認識結果データの送信(S14)が順次行われ、エッジ位置の予測に際して各種センサ4〜6からの車両1の車両状態データや車載レーダ3からの他車両による物標状態データが入力される(S10)。ここで、これらのデータが入力されるタイミングはエッジ位置予測が終了する以前の任意のタイミングとすることが可能である。また、制御ECU8への認識結果データの送信(S14)と次の撮影画像の画像処理シーケンスにおけるエッジ位置の予測とは並行して処理させることも可能である。そうすることにより、さらに時間精度を向上させることが可能となる。
図8は、本実施形態における2値化処理の第4の例を説明する図である。第4の例では、車載レーダ3から入力される、車載カメラ2aの撮影範囲外で検知される物標の相対的な位置、距離、速度を表す物標状態データに基づいて、エッジ位置予測部28が2値化処理する撮影画像でのエッジ位置を予測する。例えば、図8(A)に示すように車載レーダ3の検知範囲3a内に存在する隣接車線の先行車両100が矢印L1に示されるように車載カメラ2の撮影可能範囲2cの方向へ移動していることが検知され、車載レーダ3からかかる物標状態データがエッジ位置予測部28に入力される。すると、エッジ位置予測部28は先行車両100が車載カメラ2の撮影可能範囲2cへ入ることを予測して、図8(B)に示すように先行車両100が撮影されることによりエッジE32が表れると予測する。そしてCPU27は、エッジE32が位置する画像の右端の領域に対し1画素単位で2値化するエッジ検出範囲A31を設定する。そして、2値化処理部21が2値化処理を行う。
このようにして、前回の撮影画像でエッジが検出されていない場合であっても、今回の撮影画像でのエッジ位置を予測でき、エッジ検出精度を低下させることなく2値化画像データ21aのデータ量を削減できる。そして、一旦エッジE32が検出された後は、上述した第2、第3の例、さらに2画像以上処理した後は第1の例によって画像処理を行うことができる。
なお本実施形態では、予測されたエッジ位置付近を1画素単位で2値化し、それ以外の範囲は4画素の画素ブロック単位で2値化する。しかし、2値化する単位の画素数はこれに限られず、予測されたエッジ付近のエッジ検出範囲を2値化する画素数の単位が、その他の範囲を2値化する画素数の単位より小さければ、エッジ付近の解像度をそれ以外の範囲の解像度より落とすことなく、撮影画像全体としての2値化画像データのデータ量を削減することができる。
以上説明したとおり、本発明によれば、撮影対象物の移動量が大きい場合であっても、精度よいエッジ検出を行いつつメモリ量、エッジ検出処理の負荷の低減が可能となる。
本実施形態における画像処理装置が車両に搭載される例を説明する図である。 本実施形態における画像処理装置2bの構成を説明する図である。 2値化処理部21による撮影画像の2値化処理について説明する図である。 本実施形態におけるエッジ位置予測の第1の例を説明する図である。 本実施形態におけるエッジ位置予測の第2、第3の例を説明する図である。 本実施形態における画像処理装置2bの動作手順について説明するフローチャート図である。 従来技術と本実施形態における画像処理について説明するシーケンス図である。 本実施形態における2値化処理の第4の例を説明する図である。
符号の説明
2b:画像処理装置、3:車載レーダ、4:車速センサ、5:Gセンサ、
6:ステアリングセンサ、21:2値化処理部、22:第1メモリ、
23:ヒストグラム処理部、25:エッジ検出部、27:CPU、28:エッジ位置予測部

Claims (5)

  1. 車載カメラが順次撮影する車両周囲の撮影画像を2値化する二値化処理部と
    前記2値化された撮影画像内のエッジを検出するエッジ検出部と
    第1の撮影画像で検出されるエッジの第1の位置と当該エッジの移動情報とに基づき前記第1の撮影画像の後の第2の撮影画像における当該エッジの第2の位置を予測するエッジ位置予測部とを有し、
    前記二値化処理部は、前記第2の撮影画像では前記第2の位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする画像処理装置。
  2. 請求項1において、
    前記エッジの移動情報は、前記エッジ位置予測部により求められる、前記第1の撮影画像の前の第3の撮影画像における前記エッジの第3の位置と前記第1の位置との差を有することを特徴とする画像処理装置。
  3. 請求項1または2において、
    記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車速、加速度、操舵方向等の車両状態を含むことを特徴とする画像処理装置。
  4. 請求項1乃至3のいずれかにおいて、
    記エッジの移動情報は、前記エッジ位置予測部に入力される、前記車両の車載レーダ装置から前記車載カメラの撮影範囲で検知される物標の相対的な位置、距離、速度等の物標状態を含むことを特徴とする画像処理装置。
  5. 車載カメラが順次撮影する車両周囲の撮影画像を2値化する二値化処理部と
    前記2値化された撮影画像内のエッジを検出するエッジ検出部と
    前記車両の車載レーダ装置から前記車載カメラの撮影範囲外の範囲を含む検知範囲で検知される物標の相対的な位置、距離、速度等の物標状態を表す物標状態データが入力され、前記撮影画像における前記エッジの位置を前記物標状態に基づき予測するエッジ位置予測部とを有し
    前記二値化処理部は、当該撮影画像では前記予測される位置周辺の範囲を第1の画素数単位で2値化し、それ以外の範囲を前記第1の画素数より大きい第2の画素数単位で2値化することを特徴とする画像処理装置。
JP2006335763A 2006-12-13 2006-12-13 画像処理装置 Expired - Fee Related JP4995555B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006335763A JP4995555B2 (ja) 2006-12-13 2006-12-13 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006335763A JP4995555B2 (ja) 2006-12-13 2006-12-13 画像処理装置

Publications (2)

Publication Number Publication Date
JP2008143452A JP2008143452A (ja) 2008-06-26
JP4995555B2 true JP4995555B2 (ja) 2012-08-08

Family

ID=39604085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006335763A Expired - Fee Related JP4995555B2 (ja) 2006-12-13 2006-12-13 画像処理装置

Country Status (1)

Country Link
JP (1) JP4995555B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096512A (zh) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 利用深度摄像头对车辆或行人进行识别的检测装置及方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5849942B2 (ja) * 2012-12-25 2016-02-03 株式会社日本自動車部品総合研究所 車載画像処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4151137B2 (ja) * 1998-12-16 2008-09-17 株式会社豊田自動織機 車両における障害物検出装置及び車両
JP2005090974A (ja) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP2005318546A (ja) * 2004-03-29 2005-11-10 Fuji Photo Film Co Ltd 画像認識システム、画像認識方法、及び画像認識プログラム
JP2007058282A (ja) * 2005-08-22 2007-03-08 Fujitsu Ten Ltd 画像認識処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096512A (zh) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 利用深度摄像头对车辆或行人进行识别的检测装置及方法
CN106096512B (zh) * 2016-05-31 2020-08-25 上海美迪索科电子科技有限公司 利用深度摄像头对车辆或行人进行识别的检测装置及方法

Also Published As

Publication number Publication date
JP2008143452A (ja) 2008-06-26

Similar Documents

Publication Publication Date Title
JP4437714B2 (ja) 車線認識画像処理装置
JP4622001B2 (ja) 道路区画線検出装置および道路区画線検出方法
US6531959B1 (en) Position detecting device
US20030137593A1 (en) Infrared image-processing apparatus
JP6457278B2 (ja) 物体検出装置及び物体検出方法
US20050102070A1 (en) Vehicle image processing device
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
CN112084810B (zh) 一种障碍物检测方法、装置、电子设备及存储介质
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP5402828B2 (ja) 車線境界検出装置、車線境界検出プログラム
JP5855756B2 (ja) レーンマーク認識装置
JP3849505B2 (ja) 障害物監視装置及びプログラム
US8160300B2 (en) Pedestrian detecting apparatus
JP5027710B2 (ja) 車両用環境認識装置および先行車追従制御システム
JP2010061375A (ja) 物体認識装置及びプログラム
JP4584120B2 (ja) 道路区画線検出装置、道路区画線の検出方法、道路区画線の検出プログラム
JP2007179386A (ja) 白線認識方法及び白線認識装置
JP4995555B2 (ja) 画像処理装置
US11458892B2 (en) Image generation device and image generation method for generating a composite image
CN112784671A (zh) 障碍物检测装置及障碍物检测方法
JP3272694B2 (ja) フェールセーフ機能を有する車外監視装置
JP4211681B2 (ja) 走行路認識装置
JP6798331B2 (ja) 運転支援装置
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP4316710B2 (ja) 車外監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees