[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3570198B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP3570198B2
JP3570198B2 JP01329598A JP1329598A JP3570198B2 JP 3570198 B2 JP3570198 B2 JP 3570198B2 JP 01329598 A JP01329598 A JP 01329598A JP 1329598 A JP1329598 A JP 1329598A JP 3570198 B2 JP3570198 B2 JP 3570198B2
Authority
JP
Japan
Prior art keywords
image
vehicle
images
image processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01329598A
Other languages
Japanese (ja)
Other versions
JPH11201741A (en
Inventor
越 呉
佳誠 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP01329598A priority Critical patent/JP3570198B2/en
Publication of JPH11201741A publication Critical patent/JPH11201741A/en
Application granted granted Critical
Publication of JP3570198B2 publication Critical patent/JP3570198B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、単独または複数個の撮像手段により所定の観測領域を撮像して得られた画像を処理して、前記観測領域内における車輌を認識する画像処理方法および装置に関連する。また、この発明は、複数個の撮像手段により得られた画像を用いた3次元計測処理により、所定の観測領域内の対象物について、その対象物の有無,大きさ,位置,形状など、各種の認識処理を実施するための画像処理方法および装置に関連する。
【0002】
【従来の技術】
近年、駐車場における車輌の駐車状況や、道路上の車輌の走行状態など、所定の観測領域における対象物を観測するために、画像処理の手法を用いた観測装置が開発されている。この種の観測装置は、観測対象の領域の上方位置にCCDカメラ(以下単に「カメラ」という)を配備するとともに、このカメラからの画像を制御装置に連続的に取り込んで、各入力画像上の対象物の特徴を抽出するもので、対象物が車輌などの移動体である場合には、さらに特徴抽出結果の時系列データにより、対象物の移動方向や速度の計測が行われる。
【0003】
また観測領域に対し、複数台のカメラを所定の位置関係をもって配置し、各カメラからの画像を制御装置に取り込んで、対象物の3次元計測処理を行うようにした装置も、提案されている。
【0004】
【発明が解決しようとする課題】
しかしながらこの種の観測処理では、照明条件などの影響で観測領域内の明るさに大きなばらつきが生じたり、観測領域内に反射率が大きく異なる対象物が存在したりして、各対象物間の明るさが大きく異なる場合がある。このような状況下では、観測領域内のすべての対象物の明るさをカメラのダイナミックレンジの範囲内に収められなくなり、一部対象物を認識できなくなるという問題が発生する。
【0005】
この発明は上記問題に着目してなされたもので、観測領域内に車体色の違いにより明るさが異なる複数の車輌が存在する場合にも、各車輌を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
また、この発明は、3次元計測による認識処理において、観測領域内に明るさの異なる複数の対象物が存在する場合にも、各対象物を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
【0006】
【課題を解決するための手段】
請求項1,2にかかる発明は、車輌を認識するための画像処理方法に関する。請求項1の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、前記画像毎のエッジ抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする。
【0008】
請求項2の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする。
【0009】
請求項3の発明の画像処理方法は、所定の観測領域に向けて配備された複数個の撮像手段により、それぞれ異なる露光量による複数枚の画像を生成し、各撮像手段により同じ露光量で生成された画像の組毎に、各画像上の特徴点を画像間で対応づけした後、各組毎の対応づけ結果を統合し、前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする。
【0011】
請求項4の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎のエッジ抽出結果を統合する統合手段と、前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備する。
【0012】
請求項5の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備する。
【0013】
請求項6の発明の画像処理装置は、前記請求項4または5の構成に、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0014】
請求項7の発明の画像処理装置は、前記請求項4または5の構成に、画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0015】
請求項8の発明の画像処理装置は、前記請求項4または5の構成に、時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成する。
【0016】
請求項9の発明の画像処理装置は、所定の観測領域に向けて配備された複数個の撮像手段より、それぞれ異なる露光量による複数枚の画像を入力する画像入力手段と、各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、前記各組毎の対応づけ結果を統合する統合手段と、統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備する。
【0017】
請求項10の発明の画像処理装置は、前記請求項9の構成に、さらに時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成される。
【0018】
【作用】
同一の観測領域をそれぞれ異なる露光量により撮像することにより、観測領域に明るさの異なる対象物が存在する場合も、各対象物を、それぞれいずれかの露光量による画像上に出現させることが可能となる。
【0020】
請求項1および4の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像に対し、それぞれ車輌の輪郭を表すエッジを抽出し、各エッジ抽出結果を統合する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でそのエッジを得ることが可能となり、エッジ抽出処理の統合結果を用いて、各車輌を精度良く認識することができる。
【0021】
請求項2および5の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像について、それぞれ車輌の輪郭を表すエッジを抽出した後、そのエッジ抽出結果を用いて、観測領域内の車輌をその位置に対応づけて認識する処理を実行する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でその車輌を精度良く認識することができる。さらに、画像毎の認識結果を統合する際には、車輌の認識位置が画像間で異なる認識結果をそれぞれ個別の車輌に対する認識結果とみなすので、観測領域内のすべての車輌を精度良く認識することができる。
【0022】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、車輌の特徴を鮮明にとらえた画像を生成できる。
【0023】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行って、各組毎の対応づけ結果を統合するので、観測領域内のすべての対象物の物点にかかる特徴点を対応づけすることができる。よってこの統合された対応づけ結果を用いて3次元計測処理を実施することにより、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0024】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避できる。
【0025】
【実施例】
図1は、この発明が適用された駐車場用の観測装置の設置例を示す。この観測装置は、複数の駐車枠に区分けされた駐車エリア4に対し、各駐車枠内に車輌が駐車しているか否かを認識するためのもので、駐車エリア4の近傍位置に設置された支柱3上に、カメラ1と制御装置2とが固定支持される。
【0026】
前記カメラ1は、支柱3の上部位置に支持棒3Aを介して取り付けられ、駐車エリア4を斜め上方位置から撮像して、エリア全体を含む画像を生成する。この画像は制御装置2に取り込まれて、後記するいずれかの認識処理が実施され、各駐車枠内に車輌が存在するか否かが認識される。この認識結果は、装置内部の伝送部(図示せず)により管理センターなどの外部装置に伝送される。
【0027】
図中、C,Cは駐車中の車輌であって、車輌Cの車体は黒など反射率の低い色彩のものである。これに対し、車輌Cの車体は、白など反射率の高い色彩のもので、晴天時など撮像領域全体が明るく照明された条件下では、各車輌C,C上の明るさに、顕著な差異が現れる。
【0028】
この観測装置では、上記の車輌C,Cのように、車体上の明るさが大きく異なる車輌がともに駐車している場合にも、各車輌を精度良く認識できるように、前記カメラ1を、2とおりのシャッタ速度により連続的に撮像動作を行うように設定するとともに、制御装置2側で、各シャッタ速度毎の画像を統合的に処理して、認識処理を行うようにしている。
以下、上記図1の観測装置の具体的な構成例と、各構成例における認識処理方法について、順を追って説明する。
【0029】
(1)第1実施例
図2は、この第1の観測処理装置の構成を示すもので、前記したカメラ1,制御装置2のほか、シャッタ速度制御装置5を構成として含んでいる。
シャッタ速度制御装置5は、カメラ1のハウジング内もしくは制御装置2内に組み込まれるもので、カメラ1の撮像タイミングに応じて、CCD撮像素子の電荷蓄積時間を調整することにより、カメラ1に2とおりのシャッタ速度S,S(S>S)を交互に設定する。
【0030】
制御装置2は、カメラ1からの画像を取り込む画像入力部6と、取り込んだ画像を処理するための認識処理部7とにより構成される(以下の実施例も同様である)。
【0031】
画像入力部6は、カメラ1からのアナログ量の画像データをディジタル変換するためのA/D変換回路8,各シャッタ速度毎の画像データを記憶するための2個の画像メモリ10S,10F,切換部9などを具備する。切換部9は、カメラ1の撮像動作に応じて、A/D変換回路8の接続先を切り換えるためのもので、遅い方のシャッタ速度Sにより得られた画像Iは、第1の画像メモリ10Sへ、速い方のシャッタ速度Sにより得られた画像Iは、第2の画像メモリ10Fへ、それぞれ格納される。
【0032】
図3(1)(2)は、前記図1に示した状態を各シャッタ速度S,Sにより撮像して得られた入力画像I,Iを示す。
シャッタ速度Sは、前記車輌Cの車体色のような暗い色を捉えるのに適したシャッタ速度(例えば1/30秒)であって、このシャッタ速度により生成された画像Iでは、図3(1)に示すように、車輌Cの画像が鮮明に出現する。しかしながら車体色の白いCについては、画像上における対応位置の輝度が飽和状態となっており、画像上で車輌Cの特徴を認識するのは困難となる。
【0033】
他方のシャッタ速度Sは、強い反射光を捉えるのに適した短いシャッタ速度(例えば1/120秒)であって、このシャッタ速度Sによる画像I上では、図3(2)に示すように、車体色の明るい車輌Cの鮮明な画像が現れる。しかしながらこの画像I上の車輌Cに対する部分は黒くにじんだものとなり、車輌Cの特徴を認識するのは困難となる。
【0034】
図2に戻って、この実施例の認識処理部7は、画像統合部11,特徴抽出部12,物体検出部13などから構成される。なおこの認識処理部7の各構成は、具体的には、以下に述べる各処理を実施するためのアルゴリズムをコンピュータのCPUに与えることにより実現するものである(以下の実施例も同様)。
【0035】
この実施例は、前記した2種類のシャッタ速度S,Sによる各入力画像I,Iを、1枚の画像に合成した後、この合成画像の特徴を用いて各車輌枠毎に車輌の有無を認識するものである。
画像統合部11は、各入力画像の合成処理を実施するためのもので、各入力画像I,Iについて、それぞれi行目j列目に位置する画素の輝度値g(i,j),g(i,j)を、つぎの(1)−1〜(1)−3に示す原則にあてはめることにより、合成画像の対応する画素の輝度値G(i,j)を決定する。
【0036】
【数1】

Figure 0003570198
【0037】
なお(1)式において、th,thはあらかじめ定められたしきい値であって、thには十分に大きな輝度値が、thには十分に小さな輝度値が、それぞれ設定される。
例えば、入力画像の各画素の輝度値が8ビット構成のデータをとる場合、thは240付近に、thは10付近に設定される。
【0038】
前記図3(1)(2)に示した各入力画像I,Iの場合、黒い車輌Cに対応する画素位置については(1)−1式が適用され、合成画像の輝度値G(i,j)として、遅いシャッタ速度Sによる入力画像I側の輝度値g(i,j)が採用される。また白い車輌Cに対応する画素位置については(1)−2式が適用され、合成画像の輝度値G(i,j)として、速いシャッタ速度Sによる入力画像I側の輝度値g(i,j)が採用される。その他の車輌の存在しない画素位置においては(1)−3式が適用され、各輝度値g(i,j),g(i,j)の平均値をもって合成画像の輝度値G(i,j)が求められることになる。
なお画像の合成方法は、上記に限らず、合成画像のすべての画素の輝度値G(i,j)とも、画素g(i,j)とg(i,j)との平均値により表してもよい。
【0039】
図4は、各入力画像I,Iを上記(1)−1〜(1)−3を適用して合成処理した結果を示すもので、各車輌C,Cの部分に、その車輌を精度よく捉えた画像側のデータを採用することにより、各車輌C,Cを鮮明に捉えた画像が出現している。
【0040】
特徴抽出部12は、この合成画像上にエッジ抽出用フィルタを走査するなどして、車輌の輪郭を表すエッジを抽出する。物体検出部13は、内部メモリに記憶された画像上の各駐車枠の位置に基づき、各駐車枠内のエッジ部分の面積を算出するなどして、車輌が存在するか否かを判別する。この判別結果は、各駐車枠の識別データ(ラベルや位置データなど)に対応づけられ、外部に出力される。
【0041】
(2)第2実施例
図5は、観測装置の第2の構成を示す。
この実施例の制御装置2も、第1の実施例と同様の構成の画像入力部6により、各シャッタ速度S,Sにより得られた画像I,Iを個別に入力する。また認識処理部7として、2組の特徴抽出部12S, 12F,特徴統合部14,物体検出部13の各構成を具備しており、各特徴抽出部12S,12Fにより、各入力画像I,Iの画像上のエッジが個別に抽出される。
【0042】
図6(1)(2)は、前記図3(1)(2)の入力画像I ,I に対するエッジ抽出処理により生成されたエッジ画像E,Eを示す。なおここでは、各エッジの抽出位置を明確にするために、入力画像上の駐車枠のエッジがすべて抽出されたように図示している。
【0043】
エッジ画像E上では、2個の車輌C,Cの駐車位置A,Bのうち、画像上に鮮明に現れた車輌Cの駐車位置Aのみでエッジが抽出される(図中の駐車位置Bに細線の点線で示されたエッジは、仮想のものである)。反対にエッジ画像E上では、車輌Cの駐車位置Bでのみエッジが抽出される。
【0044】
図5に戻って、特徴統合部14は、各入力画像I,Iについてのエッジ抽出結果を統合して、1枚のエッジ画像を生成する。この統合処理は、つぎの(2)式に示すように、各エッジ画像E,Eの対応する画素毎に各画素値b(i,j),b(i,j)の論理和((2)式中「|」で示す)を求めて、統合後のエッジ画像の画素B(i,j)の画素値とするものである。すなわち各画素値B(i,j)により形成されるエッジ画像は、両方のエッジ画像E,Eを重ね合わせたもので、統合処理により、すべてのエッジ抽出結果が採用されることになる。
【0045】
【数2】
Figure 0003570198
【0046】
図7は、前記図6(1)(2)の各エッジ抽出結果を上記(2)式を用いて統合した結果を示すもので、上記した論理和演算により、いずれの車輌C,Cの駐車位置A,Bにも、エッジが精度よく出現している。
【0047】
物体検出部13は、この統合されたエッジ画像上で、前記第1の実施例と同様、各駐車枠毎に車輌の有無を判定し、その判定結果を出力するもので、両方の車輌C,Cをともに精度よく検出することができる。
【0048】
(3)第3実施例
図8は、観測装置の第3の構成を示す。この実施例の制御装置2は、前記第1,2の実施例と同様の画像入力部6により、2種類のシャッタ速度S,Sにより撮像された画像I,Iを個別に入力した後、各入力画像I,Iを個別に処理して各画像上の車輌を検出し、さらに各検出結果を統合して最終的な判定を行うものである。
【0049】
認識処理部7は、各入力画像毎に特徴抽出部12S,12Fおよび物体検出部13S,13Fを具備するほか、検出結果統合部15を具備する。各特徴抽出部12S,12Fは、第2の実施例と同様に、それぞれ入力画像I,Iに対するエッジ抽出処理を実施して、その結果を示すエッジ画像E,Eを生成する。各物体検出部13S,13Fは、対応するエッジ画像E,E上で、各駐車枠内に車輌が存在するか否かを判定するもので、各判定結果は、車輌枠を示すラベルに対応づけられた形で検出結果統合部15へと出力される。検出結果統合部15は、駐車枠毎の判定結果の論理和をとることにより、各エッジ画像上の車輌検出結果を統合し、この統合結果を最終的な車輌検出結果として出力する。
【0050】
図9は、前記図6(1)(2)のエッジ画像E,Eを用いて、各駐車枠毎に車輌の有無を判定した結果であって、図中の左端欄に、各駐車枠に付与されたラベル番号を表すとともに、各ラベル番号に対応づけて、各エッジ画像E,E毎の車輌の有無の判定結果と最終的な統合結果とが示してある。なお図中のデータ「1」は「車輌あり」の判定結果を、データ「0」は「車輌なし」の判定結果を、それぞれ表すものとする。
【0051】
図示例は、前記画像上の各駐車枠に対し、左から右方向に順にラベル番号を付してあり、ラベル番号「1」の駐車枠(前記駐車位置Aに相当する)にある車輌Cはエッジ画像E上で検出され、またラベル番号「8」の駐車枠(前記駐車位置Bに相当する)にある車輌Cはエッジ画像E上で検出されている。
よって両検出結果を統合した結果、「1」「8」いずれの駐車枠にも、車輌が存在するものと判定される。
【0052】
(4)実施例1〜3の変形例 <1>
上記した3つの実施例は、いずれも2とおりのシャッタ速度S,Sによる画像を用いて車輌の検出処理を行うようにしているが、これに限らず、3とおり以上のシャッタ速度による画像を生成して車輌検出処理を行うようにしてもよい。
【0053】
図10〜12は、それぞれ第1〜第3の各実施例を発展させた構成を示すもので、画像入力部6には、Nとおり(N≧3)のシャッタ速度により得られた各画像を記憶するためのN個の画像メモリ10M〜10Mが配備される。
【0054】
図10の実施例では、認識処理部7の画像統合部11により、各入力画像間の対応する画素毎に輝度平均値が算出されて各画像が統合された後、特徴抽出部12により、この統合画像上のエッジ抽出処理が実施される。さらに物体検出部13により、前記エッジ抽出結果を用いた各車輌の検出処理が行われ、その結果が出力される。
【0055】
図11の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A〜12Aを具備しており、入力画像毎にエッジ抽出処理が行われる。特徴統合部14は、前記エッジ抽出処理により得られたエッジ画像について、前記第2の実施例と同様、対応する画素間の論理和演算を行って、各エッジ画像を統合する。この後、前記図10の実施例と同様、物体検出部13による車輌の検出処理が行われる。
【0056】
図12の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A〜12Aおよび物体検出部13A〜13Aを具備しており、これら構成により各入力画像毎に個別に車輌検出処理が行われる。この後、前記第3の実施例と同様、検出結果統合部15により各検出結果が統合されて、最終的な検出結果を示すデータが生成され、外部に出力される。
【0057】
このように複数とおりのシャッタ速度による画像を用いて認識処理を行うようにすれば、カメラ1のダイナミックレンジをより広く設定でき、さまざまな色彩の車輌が駐車している場合にも、各車輌を精度良く検出することが可能となる。
【0058】
(5)実施例4
前記第1〜3の各実施例では、1台のカメラ1をシャッタ速度を変更して連続的に撮像を行うようにしている。これに対し、第4の実施例では、図13に示すように、異なるシャッタ速度が設定された2台のカメラ1S,1Fを配備し、各カメラ1S,1Fを同時に動作させる。
【0059】
図14は、上記図13の観測装置の構成を示すもので、制御装置2の画像入力部6には、各カメラ1S,1F毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fが配備される。
なおこの実施例の認識処理部7には、前記第1〜3のいずれの実施例の構成を導入してもよいので、認識処理部7に関する詳細な構成の図示および説明は省略する。
【0060】
ただし認識処理部7に第1または第2の実施例の構成を導入する場合、各カメラ1S,1Fは、画像の統合処理に支障が生じないように、光軸を平行にした状態で出来るだけ接近させて配備する必要がある。さらに画像の統合処理時には、カメラ1S,1F間の視差によるずれを補正するために、いずれかの画像を、各カメラの光軸間の距離に対応する画素数分だけ、視差の生じる方向(図示例の場合は縦方向)にシフトさせる必要がある。
【0061】
(6)第5実施例
この実施例は、図1の設置例と同様、1台のカメラによる画像を取り込んで車輌検出処理を実施するものであるが、この実施例のカメラには、図15に示すように、2枚のCCD撮像素子17S,17Fを具備するカメラ1Xが用いられる。各CCD撮像素子17S,17Fには、それぞれ前記シャッタ速度S,Sに相当する電荷蓄積時間が設定されており、カメラレンズ16を通過した光が各CCD素子17S,17Fに同時に与えられて、この光像を異なるシャッタ速度でとらえた2枚の画像I,Iが生成される。
【0062】
制御装置2側の画像入力部6は、各CCD撮像素子17S,17Fからの画像データを同時に受けることができるように、入力画像毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fとを具備する。
なお認識処理部7には、前記第4の実施例と同様、第1〜3のいずれの構成を導入しても良いので、ここでは図示および詳細な説明は省略する。
【0063】
この実施例の構成によれば、同一の観測領域について、各シャッタ速度S,Sによる画像を同時に取り込んで処理することができるので、各入力画像間の時間のずれをなくせる上、前記第4の実施例のように画像の統合処理時にいずれか一方の画像をシフト処理する必要もない。よって車輌の検出精度を向上させると同時に、処理時間を短縮させることができる。
【0064】
(7)第6実施例
この実施例も、上記第5の実施例と同様の2個のCCD撮像素子17S,17Fを具備するカメラ1Xにより、各シャッタ速度S,Sによる画像を同時に生成するものである。
図16は、この第6の実施例の構成を示すもので、制御装置2は、先の実施例と同様の構成の画像入力部6を具備するほか、画像統合部11,モニタ18を含んでいる。
【0065】
カメラ1Xにより生成された各画像は、画像入力部6を介して画像統合部11に与えられ、前記第1の実施例と同様の方法で統合される。モニタ18は、この統合処理により生成される画像を表示するためのもので、これにより駐車エリア4内に明るさの異なる車輌が存在する場合にも、各車輌を1つのモニタ画面上で観測することが可能となる。
【0066】
なお前記モニタ18を、駐車エリア4から離れた場所に設置し、制御装置2の本体からモニタ18に、統合処理された画像データを通信回線を介して送信することも可能である。このようにすれば、直接駐車エリア4を監視できない地域でも、駐車エリア4の状況を正確に把握することができる。
【0067】
またこの実施例の構成に、前記した第1〜3のいずれかの認識処理部7の構成を加え、前記モニタ18に、統合処理された画像とともに、各駐車枠毎の車輌の有無判定の結果を表示することも可能である。
【0068】
(8)第7実施例
図17は、観測装置の第7の構成を示す。この実施例は、前記第1〜3のいずれかの構成に光強度計19を付加してカメラ1の観測領域内の明るさを検出し、その明るさの度合いにより、カメラ1の各シャッタ速度S,Sを可変設定するようにしている。
【0069】
図18は、シャッタ速度の設定例を示す。
前記光強度計19は、観測領域からの光を受光してその光強度を検出するもので、ここではあらかじめ各シャッタ速度S,Sに3段階の設定値(s1〜s3,f1〜f3)を設けて、シャッタ速度制御装置5のメモリに記憶させておき、前記光強度の検出値λを所定のしきい値th1,th2(th1>th2)と比較することにより、各シャッタ速度S,Sにいずれかの設定値を採用するようにしている。
【0070】
このように観測領域内の明るさの度合いによりカメラ1のシャッタ速度を制御するので、カメラ1により大きなダイナミックレンジを設定することができ、観測領域内の明るさが変動しても、安定した車輌検出を行うことができる。
【0071】
(9)第8実施例
図19は、観測装置の第8の構成を示す。この実施例も、前記第7の実施例と同様、前記第1〜3のいずれかの構成に、カメラの各シャッタ速度S,Sを可変設定する構成を付加したものであるが、ここでは観測領域内の明るさに代えて、各入力画像の明るさにより、シャッタ速度S,Sの設定値を変動するようにしている。
【0072】
制御装置2には、第1〜3の各構成と同様の画像入力部6,これら3つの構成のいずれかと同構成の認識処理部7のほか、2個の輝度平均算出部20S,20Fが配備される。これら輝度平均算出部20S,20Fは、画像メモリ10S,10Fに記憶された入力画像I,Iについて、各構成画素の輝度値の平均を算出し、シャッタ速度制御装置5に出力する。シャッタ速度制御装置5は、各算出値を個々に取り込んで、各シャッタ速度S,Sの設定値を決定し、つぎの撮像時には、この決定値に基づき、カメラ1のシャッタ速度を制御する。
【0073】
なお処理開始時点では、各シャッタ速度S,Sには所定の初期値が設定され、以後の数サイクルの撮像動作により最適値に調整される。
【0074】
図20は、シャッタ速度を決定するための手順を示す。なおここでは、遅い方のシャッタ速度Sを決定する手順を示すが、速い方のシャッタ速度Sも同様の手順で決定される。
【0075】
最初のステップ1(図中「ST1」で示す)で、輝度平均算出部20Sは、画像メモリ10Sより入力画像Iの画像データを読み込んで、平均輝度値AVを算出する。つぎのステップ2,3で、シャッタ速度制御装置5は、この算出値AVを平均輝度値の最適値Mと比較し、その比較結果を用いて、シャッタ速度Sの現在値を維持するか、変更するかを決定する。
【0076】
前記平均輝度値の最適値Mは、あらかじめ内部のメモリに登録されているもので、前記平均輝度値の算出値AVと最適値Mとの差が、所定のしきい値Δs2からΔs1の間にある場合(Δs2<ΔS1)は、ステップ2,3がいずれも「NO」となり、シャッタ速度Sの現在値が維持される(ステップ6)。
【0077】
入力画像Iが明るすぎる場合には、前記平均輝度値の算出値AVと最適値Mとの間にしきい値ΔS1を上回る差が生じる。この場合はステップ2が「YES」となってステップ4へと移行し、シャッタ速度Sの設定値が1/2に更新される。
【0078】
逆に、入力画像Iの明るさが落ちた場合には、前記平均輝度値の算出値AVと最適値Mとの差がしきい値Δs2を下回る。この場合には、ステップ3が「YES」となってステップ5へと移行し、、シャッタ速度Sの設定値は2倍に更新される。
【0079】
なお上記ステップ4,5におけるシャッタ速度Sの更新は、図示例に限らず、例えば現在の設定値に所定の度数分の値を加算(または減算)するようにしてもよい。
【0080】
このように、画像入力毎に、つぎの段階でのシャッタ速度S,Sを、それぞれ対応する入力画像I,Iを用いて決定することにより、実際に得られた画像上の明るさに基づき、各シャッタ速度S,Sを適切に調整することができる。
なお図15,16に示した第5,6の実施例にも、上記第7,8の実施例のシャッタ速度の調整にかかる構成を導入することが可能である。
【0081】
(10)第9実施例
上記した各実施例の構成は、いずれも所定の明るさの下での観測が可能な昼間に処理を実施することを前提とするもので、夜間など、観測領域全体が暗くなる条件下では、速いシャッタ速度により得られた画像上には、いずれの車輌の画像も表れない虞がある。
【0082】
図21に示す第9の構成は、複数とおりのシャッタ速度による画像を合成して認識処理を行うものであるが、夜間時にはこの処理を休止して、1枚の画像を用いた通常の認識処理を実施するように、構成される。
【0083】
この夜間時における処理の切換えは、制御装置2内部のタイマ21の計時時刻に基づき行われるもので、タイマ21の計時時刻が所定の期間内にあるときは、カメラ1には、最も遅いシャッタ速度のみがセットされる。また図中、22は、第2以下の画像メモリ10M〜10Mと認識処理部7との接続をオンオフするための切換部であって、前記カメラ1に単一のシャッタ速度がセットされると同時に、この切換部22はオフにセットされる。また同時に、認識処理部7の画像統合部11の機能が休止し、特徴抽出部12および物体検出部13により、画像メモリ10Mからの画像データのみを用いた認識処理が行われる。
【0084】
なお図示例の制御装置2は、認識処理部7に前記図10の構成を採用しているが、他の構成をとる場合も、同様に、昼間と夜間とで処理の切換えを行うように設定することができる。
【0085】
このように夜間時に処理を切り換えることにより、夜間時の無用な演算処理を削減することができる。またこの無用な演算処理により検出結果に誤差が生じる虞もなくなり、車輌検出の精度を安定させることができる。
【0086】
(11)第10実施例
図22は、第10番目の構成を用いる場合の観測装置の設置例を示す。この観測装置は、2台のカメラ1A,1Bからの画像を用いた3次元計測処理により、各駐車枠毎の車輌の有無を判定するもので、各カメラ1A,1Bは、駐車エリア4に向けて、光軸を平行かつ撮像面を同一面上に位置させた状態で、縦並びに配備される。
【0087】
この実施例も、前記した第1〜8の各実施例と同様、明るさの異なる車輌C,Cをともに精度良く検出できるように、各カメラ1A,1Bに複数とおりのシャッタ速度を設定して連続的に撮像させている。また制御装置2においては、各カメラ1A,1Bより同じシャッタ速度で得られた画像の組毎に、車輌を示す特徴点の抽出から特徴点の対応づけまでの処理を行った後、各対応づけ結果を統合して3次元計測処理を実施するようにしている。
【0088】
図23は、前記観測装置の構成を示す。
シャッタ速度制御装置5は、前記第1〜3の各実施例と同様、固定された2とおりのシャッタ速度S,Sを交互に設定するもので、各カメラ1A,1Bは、このシャッタ速度制御装置5による制御を受けて、各シャッタ速度S,Sによる画像を、それぞれ同時に生成する。
【0089】
制御装置2は、前記した各実施例と同様、画像入力部6と認識処理部7とを備えて成る。画像入力部6は、各カメラ毎に、A/D変換回路8A,8Bおよび2組の画像メモリ(10A,10A)(10B,10B)を具備する。各組の一方の画像メモリ10A,10Bには、それぞれ各カメラ1A,1Bからの遅い方のシャッタ速度Sによる画像U,Lが格納される。また他方の画像メモリ10A,10Bには、それぞれ各カメラからの速い方のシャッタ速度Sによる画像U,Lが格納される。
【0090】
認識処理部7は、2組の特徴抽出部12B,12B,2組の対応づけ処理部23S,23Fを含むとともに、特徴統合部24,3次元計測部25,物体検出部26などの各構成を具備する。特徴抽出部12B,12Bは、それぞれ下側のカメラ1Bにより得られた各画像L,Lについて、画像上のエッジを抽出するためのもので、特徴抽出部12Bによる画像Lに対するエッジ抽出結果は第1の対応づけ処理部23Sに、特徴抽出部12Bによる画像Lに対するエッジ抽出結果は第2の対応づけ処理部23Fに、それぞれ個別に与えられる。
【0091】
第1の対応づけ処理部23Sは、各カメラ1A,1Bより遅い方のシャッタ速度Sで得られた入力画像U,Lについて、それぞれ空間内の同じ物点を表す特徴点を特定して両者を対応づけるためのものである。
【0092】
この対応づけ処理は、具体的には、前記特徴抽出部12Bにより画像L上で抽出された各エッジ構成点Pについて、それぞれ画像U上での対応点Qを抽出することにより行われる。
【0093】
図24は、前記点Pへの対応点Qを抽出する具体的な方法を示す。
まず対応づけ処理部23Sは、前記エッジ抽出処理により生成されたエッジ画像EL上の所定の特徴点P(x,y)について、原画像L上の点Pの位置に、この点Pを中心点とする所定大きさのウィンドウWを設定する。ついで対応づけ処理部は、画像U上の前記点PのエピポーララインEP上に前記ウィンドウWと同じ大きさのウィンドウWを設定して走査し、各走査位置毎に、つぎの(3)式を実行して、各ウィンドウW,W内の画像データの相違度DFを算出する。
【0094】
なお(3)式において、g(x,y)はウィンドウW内の所定の画素の輝度値を、またg(x,y)はウィンドウW内の所定の画素の輝度値を、それぞれ示す。またSZは各ウィンドウW,Wのサイズを示す。さらにm,nは各ウィンドウ内の画素を特定するための変数であって、0から前記サイズ SZの範囲内で変動する。
【0095】
【数3】
Figure 0003570198
【0096】
対応づけ処理部23Sは、各走査位置において求められた相違度DFを比較し、この相違度DFが最も小さくなる時点でのウィンドウWの中心点(x,y)を、前記点Pの対応点Qとして特定する。
【0097】
なお前記したように、各カメラ1A,1Bは縦並び、かつ光軸を平行にして配備されているので、エピポーララインEPはx軸に垂直になり、ウィンドウWU を容易に設定でき、また相違度DFの演算も簡単になる。またエピポーララインEP上の各走査位置で相違度DFを算出する方法に代えて、画像US 上でもエッジを抽出し、このうち前記エピポーララインEP上に位置するエッジ構成点を、特徴点Pの対応候補点として設定し、これら対応候補点についてのみ相違度DFを演算するようにしてもよい。
【0098】
図23に戻って、第2の対応づけ処理部23Fは、各カメラ1A,1Bより速い方のシャッタ速度Sにより得られた各入力画像U,Lについて、それぞれ上記と同様の対応づけ処理を行うもので、各対応づけ処理部23S,23Fによる対応づけ結果は、特徴統合部24において統合処理される。
【0099】
この統合処理は、各対応づけ処理部23S,23Fにより対応づけられた特徴点の組をすべて採用するもので、対応する各特徴点の組毎の座標データは、3次元計測部25に与えられる。3次元計測部25は、与えられた特徴点の組毎に、各特徴点の座標(x,y)(x,y)を三角測量の原理にあてはめることにより、各特徴点に対応する3次元座標を算出する。
【0100】
こうして各特徴点の組毎に対応する3次元座標が算出され、物体検出部26へと与えられる。物体検出部26は、各駐車枠位置における特徴点の数およびその高さデータから、各駐車枠内に車輌が存在するか否かを判別する。
【0101】
なおこの第10の実施例では、説明を簡単にするために、各カメラのシャッタ速度S,Sを固定値にしたが、前記第7,8の実施例のように、観測領域の明るさや入力画像の明るさに応じて各シャッタ速度S,Sを可変設定してもよい。またシャッタ速度S,Sは1種類に限らず、図10〜12に示したように、複数とおりのシャッタ速度を設定し、各シャッタ速度毎に画像間での特徴点の対応づけを行った後、各対応づけ結果を統合するようにしてもよい。さらに前記第9の実施例に示したように、夜間時には各カメラを遅いシャッタ速度のみで撮像させ、1組の画像のみで3次元計測処理を行うように構成してもよい。
【0102】
(12)その他の実施例
上記した各実施例は、いずれも、カメラにより、シャッタ速度の異なる複数枚の画像を生成するようにしたが、シャッタ速度のみならず、カメラの絞りや、カメラからの出力電圧のゲインを調整することによっても、明るさの異なる対象物の画像を個別に生成することが可能である。
【0103】
またここでは、駐車場用の観測装置における各構成例を説明したが、観測対象は車輌に限らず、他の物体であってもよく、また観測領域は室内であってもよい。さらにこの実施例の観測装置は、各駐車枠毎の車輌の有無を認識するだけのものであるが、これに限らず、車輌の大きさ、形状などを認識するようにしてもよく、カラー画像生成用のカメラを用いて、各車輌の車体色を認識するようにしてもよい。
【0104】
さらに個々に示した駐車場用の観測装置は、静止した車輌を認識対象とするが、道路上を走行する車輌などの移動体を認識対象とする場合にも、この発明を適用することができる。ただしこの場合、各シャッタ速度毎の画像を連続的に生成すると、画像間に対象物の移動分のずれが生じるので、前記第4または第5の実施例の構成を導入するのが望ましい。
【0105】
【発明の効果】
請求項1,2および請求項4,5の発明によれば、観測領域内に車体色の異なる複数の車輌が存在しても、各車輌をそれぞれその車体色に対応する露光量による画像上に出現させることができ、各種色彩の車輌を精度良く認識することができる。
【0108】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、各画像により車輌を鮮明にとらえることができ、安定した認識処理を行うことができる。
【0109】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行った後に、各組毎の対応づけ結果を統合して3次元計測処理を実施するので、観測領域内に明るさの異なる対象物がある場合にも、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0110】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避して、装置コストを削減できる。また必要外の処理による誤計測を防止することも可能となる。
【図面の簡単な説明】
【図1】この発明が適用された観測装置の設置例を示す斜視図である。
【図2】観測装置の第1の構成を示すブロック図である。
【図3】入力画像の一例を示す説明図である。
【図4】図3の入力画像の合成画像を示す説明図である。
【図5】観測装置の第2の構成を示すブロック図である。
【図6】入力画像のエッジ抽出処理により得られたエッジ画像を示す説明図である。
【図7】図6のエッジ画像を統合した結果を示す説明図である。
【図8】観測装置の第3の構成を示すブロック図である。
【図9】駐車枠ごとの車輌の有無の判別結果を示す説明図である。
【図10】観測装置の第1の構成を変形した例を示すブロック図である。
【図11】観測装置の第2の構成を変形した例を示すブロック図である。
【図12】観測装置の第3の構成を変形した例を示すブロック図である。
【図13】第4の構成の観測装置の設置例を示す斜視図である。
【図14】観測装置の第4の構成を示すブロック図である。
【図15】観測装置の第5の構成を示すブロック図である。
【図16】観測装置の第6の構成を示すブロック図である。
【図17】観測装置の第7の構成を示すブロック図である。
【図18】図17の観測装置におけるシャッタ速度の設定例を示す説明図である。
【図19】観測装置の第8の構成を示すブロック図である。
【図20】図19の観測装置におけるシャッタ速度の設定手順を示すフローチャートである。
【図21】観測装置の第9の構成を示すブロック図である。
【図22】第10の構成の観測装置の設置例を示す斜視図である。
【図23】観測装置の第10の構成を示すブロック図である。
【図24】特徴点の対応づけ処理の具体例を示す説明図である。
【符号の説明】
1,1S,1F,1X,1A,1B カメラ
2 制御装置
5 シャッタ速度制御装置
6 画像入力部
7 認識処理部
11 画像統合部
12,12S,12F,12B,12B 特徴抽出部
13,13S,13F,26 物体検出部
15 検出結果統合部
19 光強度計
23S,23F 対応づけ処理部
24 特徴統合部
25 3次元計測部[0001]
[Industrial applications]
The present invention processes an image obtained by imaging a predetermined observation area by a single or a plurality of imaging means, and processes the image in the observation area.The present invention relates to an image processing method and apparatus for recognizing a vehicle. Further, according to the present invention, a three-dimensional measurement process using images obtained by a plurality of imaging means is performed for an object within a predetermined observation area.The present invention relates to an image processing method and apparatus for performing various recognition processes such as presence / absence, size, position, and shape.
[0002]
[Prior art]
2. Description of the Related Art In recent years, an observation device using an image processing method has been developed in order to observe an object in a predetermined observation area such as a parking state of a vehicle in a parking lot or a traveling state of a vehicle on a road. In this type of observation device, a CCD camera (hereinafter simply referred to as a “camera”) is provided at a position above an observation target area, and images from the camera are continuously taken into a control device, and each input image is displayed. The feature of the object is extracted. When the object is a moving object such as a vehicle, the moving direction and speed of the object are measured based on the time-series data of the feature extraction result.
[0003]
Further, there has been proposed an apparatus in which a plurality of cameras are arranged in a predetermined positional relationship with respect to an observation area, and an image from each camera is taken into a control device to perform a three-dimensional measurement process of an object. .
[0004]
[Problems to be solved by the invention]
However, in this type of observation processing, large variations occur in the brightness in the observation area due to the effects of lighting conditions, etc. Brightness may vary greatly. Under such a situation, there arises a problem that the brightness of all the objects in the observation area cannot be within the dynamic range of the camera, and some objects cannot be recognized.
[0005]
The present invention has been made in view of the above problems,It is an object of the present invention to recognize a vehicle with high accuracy even when a plurality of vehicles having different brightness due to a difference in body color exist in an observation area, and to greatly improve recognition accuracy.
In addition, the present invention is also applicable to a case where a plurality of objects having different brightnesses exist in an observation area in recognition processing by three-dimensional measurement.It is an object of the present invention to accurately recognize each object and to greatly improve the recognition accuracy.
[0006]
[Means for Solving the Problems]
Claims 1 and 2The present invention relates to an image processing method for recognizing a vehicle. In the image processing method according to the first aspect of the present invention, the same observation region is respectively imaged by a plurality of exposure amounts corresponding to the type of vehicle body color of a vehicle, and a plurality of images generated by the imaging are captured.For each image, an edge representing the outline of the vehicle is extracted, and the edge extraction result for each image is integrated, and the integration result is obtained.Is used to recognize the vehicle in the observation area.
[0008]
Claim 2In the image processing method of the invention, the same observation region is respectively imaged by a plurality of exposure amounts according to the type of the vehicle body color of the vehicle, and the outline of the vehicle is respectively formed for each of the plurality of images generated by the imaging. Executing a process of extracting an edge to be represented, and a process of recognizing a vehicle in the observation region in association with the position using the extraction result, wherein the recognition position of the vehicle is included in the recognition result of each image. Differences between the respective vehicles are regarded as recognition results for individual vehicles, and the recognition results are integrated to finally recognize vehicles in the observation area.
[0009]
Claim 3The image processing method according to the invention is characterized in that a plurality of images with different exposure amounts are generated by a plurality of imaging units arranged toward a predetermined observation area, and the images generated by each imaging unit with the same exposure amount. For each set, after associating the feature points on each image between the images, integrating the association results for each set, and performing a three-dimensional measurement process using the integrated association results, The method is characterized in that an object in the observation area is recognized based on the measurement result.
[0011]
Claim 4The image processing apparatus according to the invention, image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color of the vehicle, Edge extracting means for extracting an edge representing the outline of the vehicle from each of the input images; integrating means for integrating the edge extraction results for each of the input images; and the observation using the edge extraction results integrated by the integrating means. Recognizing means for recognizing vehicles in the area.
[0012]
Claim 5The image processing apparatus according to the invention, image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color of the vehicle, Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images; and recognition means for recognizing the vehicle in the observation area in association with its position using the edge extraction result for each of the input images. Of the recognition results for each of the input images, those in which the recognition positions of the vehicles differ between the images are regarded as the recognition results for the individual vehicles, and the respective recognition results are integrated, and the final recognition of the vehicles in the observation region is performed. A recognition result integrating means for generating data indicating the recognition result.
[0013]
Claim 6The image processing apparatus according toClaim 4 or 5In the configuration, the exposure amount corresponding to each image is adjusted using the brightness detection result for the brightness detection unit that detects the brightness in the observation area and the imaging unit that supplies each input image. Exposure amount adjusting means is added.
[0014]
Claim 7The image processing apparatus according toClaim 4 or 5The image brightness detection means for detecting the brightness of each image input by the image input means; and the imaging means for supplying each input image, the exposure amount corresponding to each image is detected by the brightness detection. Exposure amount adjusting means for adjusting using the result is added.
[0015]
Claim 8The image processing apparatus according toClaim 4 or 5A timer for measuring the time is added to the configuration of the above. Based on the time measured by the timer, only one image with a specific exposure amount is input for a predetermined period of a day, and a vehicle in the observation area is input. Is configured to be recognized.
[0016]
Claim 9The image processing apparatus according to the invention is configured such that, from a plurality of imaging units arranged toward a predetermined observation area, an image input unit for inputting a plurality of images with different exposure amounts, and the same exposure amount by each imaging unit. For each set of generated input images, associating means for associating feature points on each image between the images, integrating means for integrating the associating result for each of the sets, A three-dimensional measuring means for performing the used three-dimensional measuring process, and a recognizing means for recognizing an object in the observation area using the three-dimensional measurement result are provided.
[0017]
Claim 10The image processing apparatus according toClaim 9In addition to the configuration of the above, a timer for measuring the time is further added, and based on the time measured by the timer, only one image with a specific exposure amount is input from each imaging unit for a predetermined period of one day. An object in the observation area is recognized by a three-dimensional measurement process using features corresponding to the input images.
[0018]
[Action]
By imaging the same observation area with different exposures, even if there are objects with different brightness in the observation area, each object can appear on the image with one of the exposures It becomes.
[0020]
Claims 1 and 4According to the present invention, edges representing the outline of the vehicle are extracted from a plurality of images with a plurality of exposure amounts corresponding to the types of vehicle body colors of the vehicle, and the edge extraction results are integrated. Therefore, even if a plurality of vehicles having different vehicle colors exist in the observation area, it is possible to obtain the edges on the images corresponding to the vehicle colors, and each vehicle can be obtained by using the integrated result of the edge extraction processing. Can be accurately recognized.
[0021]
Claims 2 and 5According to the invention, for a plurality of images with a plurality of exposure amounts according to the type of vehicle body color of a vehicle, an edge representing a contour of the vehicle is extracted, and a vehicle in an observation area is extracted using the edge extraction result. A recognition process is executed in association with the position. Therefore, even if a plurality of vehicles having different vehicle colors exist in the observation area, the vehicles can be accurately recognized on the images corresponding to the respective vehicle colors. Furthermore, when integrating the recognition results for each image, the recognition results in which the recognition positions of the vehicles differ between the images are regarded as the recognition results for the individual vehicles, so that all the vehicles in the observation area must be accurately recognized. Can be.
[0022]
Claims 6 and 7According to the invention, the exposure amount is adjusted using the brightness of the observation area or the input image with respect to the imaging unit that supplies each image, so even if the brightness in the observation area fluctuates due to a change in the surrounding environment, An image that clearly captures the characteristics of the vehicle can be generated.
[0023]
Claims 3 and 9According to the invention, when an observation area is imaged by a plurality of image pickup means and a three-dimensional measurement process is performed, a feature point on an image is associated with each set of images generated with the same exposure amount by each image pickup means. Is performed and the association results for each set are integrated, so that feature points relating to object points of all objects in the observation area can be associated. Therefore, by performing the three-dimensional measurement process using the integrated association result, the three-dimensional shape and the spatial position of each object can be accurately recognized.
[0024]
Claims 8 and 10According to the invention, the recognition process using only the image with the specific exposure amount is performed within a predetermined period of the day based on the time measured by the timer, so that a high-brightness object such as at night may be detected. It is possible to avoid unnecessary processing in a time zone that is not used.
[0025]
【Example】
FIG. 1 shows an installation example of a parking lot observation device to which the present invention is applied. This observation device is for recognizing whether or not a vehicle is parked in each of the parking areas 4 divided into a plurality of parking frames, and is installed near the parking area 4. The camera 1 and the control device 2 are fixedly supported on the support 3.
[0026]
The camera 1 is attached to the upper position of the column 3 via the support rod 3A, and images the parking area 4 from an obliquely upper position to generate an image including the entire area. This image is taken into the control device 2, and any of the recognition processes described later is performed, and it is recognized whether or not a vehicle exists in each parking frame. This recognition result is transmitted to an external device such as a management center by a transmission unit (not shown) inside the device.
[0027]
In the figure, CB, CWIs a parked vehicle, and vehicle CBIs of a color with low reflectance such as black. In contrast, vehicle CWIs a highly reflective color such as white, and under conditions where the entire imaging area is brightly illuminated, such as in fine weather, each vehicle CB, CWA noticeable difference appears in the upper brightness.
[0028]
In this observation device, the vehicle CB, CWAs described above, even when vehicles having significantly different brightness on the vehicle body are parked together, the camera 1 continuously captures images at two different shutter speeds so that each vehicle can be accurately recognized. In addition to performing the setting, the control device 2 performs the recognition process by integrally processing the images for each shutter speed.
Hereinafter, a specific configuration example of the observation device of FIG. 1 and a recognition processing method in each configuration example will be sequentially described.
[0029]
(1) First embodiment
FIG. 2 shows a configuration of the first observation processing device, which includes a shutter speed control device 5 in addition to the camera 1 and the control device 2 described above.
The shutter speed control device 5 is incorporated in the housing of the camera 1 or in the control device 2. The shutter speed control device 5 adjusts the charge accumulation time of the CCD image pickup device in accordance with the imaging timing of the camera 1, so that the shutter speed control device 5 has two types. Shutter speed SS, SF(SS> SF) Are set alternately.
[0030]
The control device 2 includes an image input unit 6 for capturing an image from the camera 1 and a recognition processing unit 7 for processing the captured image (the same applies to the following embodiments).
[0031]
An image input unit 6 includes an A / D conversion circuit 8 for digitally converting analog image data from the camera 1, two image memories 10S and 10F for storing image data for each shutter speed, and switching. And the like. The switching unit 9 is for switching the connection destination of the A / D conversion circuit 8 in accordance with the imaging operation of the camera 1, and has a lower shutter speed SSI obtained bySIndicates that the faster shutter speed S is stored in the first image memory 10S.FI obtained byFAre respectively stored in the second image memory 10F.
[0032]
FIGS. 3A and 3B show the state shown in FIG.S, SFImage I obtained by imagingS, IFIs shown.
Shutter speed SSIs the vehicle CBShutter speed (for example, 1/30 second) suitable for capturing a dark color such as the body color of the vehicle, and an image I generated by this shutter speed.SThen, as shown in FIG.BImages appear clearly. However, white C of body colorWWith respect to the vehicle, the brightness of the corresponding position on the image is saturated, and the vehicle CWIs difficult to recognize.
[0033]
The other shutter speed SFIs a short shutter speed (for example, 1/120 second) suitable for capturing strong reflected light, and this shutter speed SFImage I byFIn the above, as shown in FIG.WA clear image of appears. However, this image IFVehicle C onBThe part against is blurred black, and vehicle CBIs difficult to recognize.
[0034]
Returning to FIG. 2, the recognition processing unit 7 of this embodiment includes an image integration unit 11, a feature extraction unit 12, an object detection unit 13, and the like. Each configuration of the recognition processing unit 7 is specifically realized by providing an algorithm for performing each process described below to a CPU of a computer (the same applies to the following embodiments).
[0035]
In this embodiment, the two types of shutter speeds SS, SFEach input image I byS, IFAre combined into one image, and the presence or absence of a vehicle is recognized for each vehicle frame using the characteristics of the combined image.
The image integration unit 11 is for performing a synthesizing process of each input image.S, IF, The luminance value g of the pixel located at the i-th row and the j-th column, respectively.S(I, j), gFBy applying (i, j) to the following principles (1) -1 to (1) -3, the luminance value G (i, j) of the corresponding pixel of the composite image is determined.
[0036]
(Equation 1)
Figure 0003570198
[0037]
Note that in equation (1), thS, ThFIs a predetermined threshold value, thSHas a sufficiently large luminance value,F, A sufficiently small luminance value is set.
For example, when the luminance value of each pixel of the input image takes 8-bit data, thSIs near 240, thFIs set to around 10.
[0038]
Each of the input images I shown in FIGS.S, IFIn the case of, black vehicle CB(1) -1 is applied to the pixel position corresponding to, and the slow shutter speed S as the luminance value G (i, j) of the composite imageSInput image I bySSide luminance value gS(I, j) is adopted. Also white vehicle CW(1) -2 is applied to the pixel position corresponding to, and the fast shutter speed S as the luminance value G (i, j) of the composite imageFInput image I byFSide luminance value gF(I, j) is adopted. Equation (1) -3 is applied to pixel positions where other vehicles do not exist, and each luminance value gS(I, j), gFThe luminance value G (i, j) of the composite image is obtained using the average value of (i, j).
Note that the method of synthesizing the image is not limited to the method described above.S(I, j) and gFIt may be represented by an average value with (i, j).
[0039]
FIG. 4 shows each input image IS, IFShows the result of the synthesis processing by applying the above (1) -1 to (1) -3.B, CWBy using the data on the image side that accurately captures the vehicle in the portion ofB, CWAn image that clearly captures the image has appeared.
[0040]
The feature extraction unit 12 extracts an edge representing the outline of the vehicle by scanning an edge extraction filter on the composite image. The object detection unit 13 determines whether or not a vehicle exists, for example, by calculating the area of an edge portion in each parking frame based on the position of each parking frame on the image stored in the internal memory. This determination result is associated with the identification data (label, position data, and the like) of each parking frame and output to the outside.
[0041]
(2) Second embodiment
FIG. 5 shows a second configuration of the observation device.
The control device 2 of this embodiment also uses the image input unit 6 having the same configuration as that of the first embodiment to control each shutter speed SS, SFI obtained byS, IFAre entered individually. Further, the recognition processing unit 7 includes the respective configurations of two sets of feature extraction units 12S and 12F, a feature integration unit 14, and an object detection unit 13. Each of the input images I andS, IFAre extracted individually.
[0042]
FIGS. 6 (1) and (2) correspond to FIGS. 3 (1) and (2).Input image I S , I F Image E generated by edge extraction processing forS, EFIs shown. Here, in order to clarify the extraction position of each edge, it is illustrated that all edges of the parking frame on the input image are extracted.
[0043]
Edge image ESAbove, two vehicles CB, CWOf the parking positions A and B of the vehicle C clearly appearing on the imageBThe edge is extracted only at the parking position A (the edge indicated by the thin dotted line at the parking position B in the figure is virtual). Conversely, the edge image EFAbove, vehicle CWThe edge is extracted only at the parking position B of.
[0044]
Returning to FIG. 5, the feature integration unit 14S, IFAre integrated to generate one edge image. This integration process is performed as shown in the following equation (2).S, EFPixel value b for each corresponding pixel ofS(I, j), bFThe logical sum of (i, j) (indicated by “|” in the equation (2)) is obtained, and is set as the pixel value of the pixel B (i, j) of the edge image after integration. That is, the edge image formed by each pixel value B (i, j) is theS, EFAre superimposed, and all the edge extraction results are adopted by the integration processing.
[0045]
(Equation 2)
Figure 0003570198
[0046]
FIG. 7 shows a result obtained by integrating the respective edge extraction results of FIGS. 6 (1) and (2) by using the above equation (2).B, CWThe edges also appear with high precision at the parking positions A and B.
[0047]
The object detection unit 13 determines the presence or absence of a vehicle for each parking frame on the integrated edge image as in the first embodiment, and outputs the determination result.B, CWCan be accurately detected.
[0048]
(3) Third embodiment
FIG. 8 shows a third configuration of the observation device. The control device 2 of this embodiment uses the same image input unit 6 as in the first and second embodiments to control two types of shutter speeds S.S, SFI taken byS, IFAre individually input, and then each input image IS, IFAre individually processed to detect a vehicle on each image, and the respective detection results are integrated to make a final determination.
[0049]
The recognition processing unit 7 includes a feature extraction unit 12S, 12F and an object detection unit 13S, 13F for each input image, and also includes a detection result integration unit 15. Each of the feature extraction units 12S and 12F respectively controls the input image IS, IFIs performed, and an edge image E indicating the result is obtained.S, EFGenerate Each of the object detection units 13S and 13F outputs the corresponding edge image ES, EFIn the above, it is determined whether or not a vehicle is present in each parking frame. Each determination result is output to the detection result integration unit 15 in a form associated with a label indicating the vehicle frame. The detection result integration unit 15 integrates the vehicle detection results on each edge image by taking the logical sum of the determination results for each parking frame, and outputs this integration result as the final vehicle detection result.
[0050]
FIG. 9 shows the edge images E of FIGS. 6 (1) and (2).S, EFIs the result of determining the presence or absence of a vehicle for each parking frame, using the label number given to each parking frame in the leftmost column in the figure, associating each label number with each edge. Image ES, EFThe determination result of the presence or absence of each vehicle and the final integration result are shown. It should be noted that data “1” in the drawing represents the determination result of “vehicles”, and data “0” represents the determination result of “no vehicles”.
[0051]
In the illustrated example, each parking frame on the image is provided with a label number in order from left to right, and a vehicle C in a parking frame with a label number “1” (corresponding to the parking position A).BIs the edge image ESVehicle C detected in the above and in the parking frame (corresponding to the parking position B) with the label number “8”WIs the edge image EFHas been detected above.
Therefore, as a result of integrating the two detection results, it is determined that the vehicle exists in any of the “1” and “8” parking frames.
[0052]
(4) Modifications of Embodiments 1 to 3 <1>
In each of the three embodiments described above, two shutter speeds S are used.S, SFIs used to perform the vehicle detection process, but the invention is not limited to this. The vehicle detection process may be performed by generating images with three or more shutter speeds.
[0053]
10 to 12 show configurations obtained by developing the first to third embodiments, respectively. The image input unit 6 stores images obtained at N different (N ≧ 3) shutter speeds. N image memories 10M for storing1-10MNIs deployed.
[0054]
In the embodiment of FIG. 10, after the image integration unit 11 of the recognition processing unit 7 calculates the average luminance value for each corresponding pixel between the input images and integrates the images, the feature extraction unit 12 Edge extraction processing on the integrated image is performed. Further, the object detection unit 13 performs detection processing of each vehicle using the edge extraction result, and outputs the result.
[0055]
The recognition processing unit 7 in the embodiment of FIG. 11 includes a feature extraction unit 12A for each input image.1~ 12AN, And an edge extraction process is performed for each input image. The feature integration unit 14 integrates each edge image by performing a logical sum operation between corresponding pixels on the edge image obtained by the edge extraction processing, as in the second embodiment. Thereafter, similarly to the embodiment of FIG. 10, the vehicle detection process is performed by the object detection unit 13.
[0056]
The recognition processing unit 7 in the embodiment of FIG. 12 includes a feature extraction unit 12A for each input image.1~ 12ANAnd object detection unit 13A1~ 13ANWith these configurations, the vehicle detection process is individually performed for each input image. Thereafter, similarly to the third embodiment, the detection result integrating unit 15 integrates the respective detection results, generates data indicating the final detection result, and outputs the data to the outside.
[0057]
If the recognition process is performed using images at a plurality of shutter speeds as described above, the dynamic range of the camera 1 can be set wider, and even if vehicles of various colors are parked, each vehicle can be controlled. It is possible to detect with high accuracy.
[0058]
(5) Example 4
In each of the first to third embodiments, the shutter speed of one camera 1 is changed to continuously capture images. On the other hand, in the fourth embodiment, as shown in FIG. 13, two cameras 1S and 1F with different shutter speeds are provided, and the cameras 1S and 1F are operated simultaneously.
[0059]
FIG. 14 shows the configuration of the observation device shown in FIG. 13. The image input unit 6 of the control device 2 includes A / D conversion circuits 8S and 8F and image memories 10S and 10F for each of the cameras 1S and 1F. Be deployed.
Since the configuration of any of the first to third embodiments may be introduced into the recognition processing unit 7 of this embodiment, illustration and description of the detailed configuration of the recognition processing unit 7 will be omitted.
[0060]
However, when the configuration of the first or second embodiment is introduced into the recognition processing unit 7, the cameras 1S and 1F are set as much as possible with their optical axes parallel so as not to hinder image integration processing. They need to be deployed close together. Further, at the time of image integration processing, in order to correct the displacement due to the parallax between the cameras 1S and 1F, any one of the images is displaced by the number of pixels corresponding to the distance between the optical axes of the cameras (FIG. It is necessary to shift in the vertical direction in the example shown.
[0061]
(6) Fifth embodiment
In this embodiment, similar to the installation example in FIG. 1, the vehicle detection process is performed by capturing an image by one camera. As shown in FIG. A camera 1X having the CCD image pickup devices 17S and 17F is used. The shutter speed S is applied to each of the CCD image sensors 17S and 17F.S, SFIs set, and the light that has passed through the camera lens 16 is simultaneously given to each of the CCD elements 17S and 17F, and two images I that capture this light image at different shutter speeds are set.S, IFIs generated.
[0062]
The image input unit 6 of the control device 2 is provided with an A / D conversion circuit 8S, 8F and an image memory 10S, 10F for each input image so as to simultaneously receive image data from each of the CCD image pickup devices 17S, 17F. Is provided.
Note that any of the first to third configurations may be introduced into the recognition processing unit 7 as in the fourth embodiment, so that illustration and detailed description are omitted here.
[0063]
According to the configuration of this embodiment, for the same observation area, each shutter speed SS, SFImages can be simultaneously captured and processed, so that there is no need to shift the time between input images, and it is necessary to shift one of the images during image integration processing as in the fourth embodiment. Nor. Therefore, it is possible to improve the detection accuracy of the vehicle and shorten the processing time.
[0064]
(7) Sixth embodiment
Also in this embodiment, each shutter speed S is controlled by a camera 1X having the same two CCD image pickup devices 17S and 17F as in the fifth embodiment.S, SFAre simultaneously generated.
FIG. 16 shows a configuration of the sixth embodiment. The control device 2 includes an image input unit 6 having the same configuration as that of the previous embodiment, and further includes an image integration unit 11 and a monitor 18. I have.
[0065]
Each image generated by the camera 1X is provided to the image integration unit 11 via the image input unit 6, and integrated by the same method as in the first embodiment. The monitor 18 is for displaying an image generated by the integration process, so that even when vehicles having different brightnesses exist in the parking area 4, each vehicle is observed on one monitor screen. It becomes possible.
[0066]
The monitor 18 can be installed at a location away from the parking area 4 and the integrated image data can be transmitted from the main body of the control device 2 to the monitor 18 via a communication line. In this way, even in an area where the parking area 4 cannot be directly monitored, the situation of the parking area 4 can be accurately grasped.
[0067]
In addition to the configuration of this embodiment, the configuration of any one of the above-described first to third recognition processing units 7 is added, and the result of the presence / absence determination of the vehicle for each parking frame is displayed on the monitor 18 together with the integrated image. Can also be displayed.
[0068]
(8) Seventh embodiment
FIG. 17 shows a seventh configuration of the observation device. In this embodiment, a light intensity meter 19 is added to any one of the first to third configurations to detect the brightness in the observation area of the camera 1, and each shutter speed of the camera 1 is determined according to the degree of the brightness. SS, SFIs variably set.
[0069]
FIG. 18 shows an example of setting the shutter speed.
The light intensity meter 19 receives light from the observation area and detects the light intensity.S, SFAre provided in the memory of the shutter speed control device 5, and the detected value λ of the light intensity is set to a predetermined threshold value th1, th2 (th1). > Th2), each shutter speed SS, SF, One of the set values is adopted.
[0070]
As described above, since the shutter speed of the camera 1 is controlled based on the degree of brightness in the observation area, a larger dynamic range can be set for the camera 1, and even if the brightness in the observation area fluctuates, a stable vehicle can be obtained. Detection can be performed.
[0071]
(9) Eighth embodiment
FIG. 19 shows an eighth configuration of the observation device. In this embodiment, as in the seventh embodiment, each of the shutter speeds SS, SFIs added, but here, the shutter speed S is determined by the brightness of each input image instead of the brightness in the observation area.S, SFIs set to fluctuate.
[0072]
The control device 2 includes an image input unit 6 similar to each of the first to third configurations, a recognition processing unit 7 having the same configuration as one of these three configurations, and two luminance average calculation units 20S and 20F. Is done. These luminance average calculation units 20S and 20F are adapted to input image I stored in image memories 10S and 10F.S, IF, An average of the luminance values of the respective constituent pixels is calculated and output to the shutter speed control device 5. The shutter speed control device 5 individually fetches each calculated value and sets each shutter speed Ss, SFIs determined, and the shutter speed of the camera 1 is controlled based on the determined value at the time of the next imaging.
[0073]
At the start of processing, each shutter speed SS, SFIs set to a predetermined initial value, and is adjusted to an optimum value by the imaging operation in the next several cycles.
[0074]
FIG. 20 shows a procedure for determining the shutter speed. Here, the slower shutter speed SSIs determined, the faster shutter speed SFIs determined in a similar procedure.
[0075]
In the first step 1 (indicated by “ST1” in the figure), the luminance average calculation unit 20S sends the input image ISIs read, and the average luminance value AVSIs calculated. In the next steps 2 and 3, the shutter speed control device 5 sets the calculated value AVSIs the optimum value M of the average luminance value.S, And using the comparison result, the shutter speed SSDetermine whether to keep or change the current value of
[0076]
The optimum value M of the average luminance valueSIs a previously registered value in the internal memory, and the calculated average brightness value AVSAnd the optimal value MSIs a predetermined threshold Δs2From Δs1s2S1) Is “NO” in steps 2 and 3 and the shutter speed SSIs maintained (step 6).
[0077]
Input image ISIs too bright, the calculated average brightness value AVSAnd the optimal value MSAnd the threshold ΔS1Is generated. In this case, step 2 becomes "YES" and the process shifts to step 4, where the shutter speed SSIs updated to 1 /.
[0078]
Conversely, the input image ISWhen the brightness of the average brightness value decreases, the calculated value AV of the average brightness valueSAnd the optimal value MSIs the threshold Δs2Below. In this case, step 3 becomes “YES” and the process proceeds to step 5, where the shutter speed SSIs updated twice.
[0079]
Note that the shutter speed S in steps 4 and 5 above is used.SIs not limited to the illustrated example, and for example, a value of a predetermined frequency may be added (or subtracted) to the current set value.
[0080]
Thus, the shutter speed S at the next stage isS, SFTo the corresponding input image IS, IF, The respective shutter speeds S based on the actually obtained brightness on the image.S, SFCan be adjusted appropriately.
It should be noted that in the fifth and sixth embodiments shown in FIGS. 15 and 16, the configuration for adjusting the shutter speed of the seventh and eighth embodiments can be introduced.
[0081]
(10) Ninth embodiment
The configuration of each of the above-described embodiments is based on the premise that processing is performed during the day when observation is possible under a predetermined brightness, and under conditions where the entire observation area is dark, such as at night, There is a possibility that no image of any vehicle appears on an image obtained at a high shutter speed.
[0082]
The ninth configuration shown in FIG. 21 performs recognition processing by synthesizing images at a plurality of shutter speeds. At nighttime, this processing is suspended and normal recognition processing using one image is performed. Is implemented.
[0083]
The switching of the processing during the night time is performed based on the time counted by the timer 21 inside the control device 2. When the time counted by the timer 21 is within a predetermined period, the camera 1 has the slowest shutter speed. Only is set. In the figure, reference numeral 22 denotes a second or lower image memory 10M.2-10MNAnd a switching unit for turning on and off the connection between the camera and the recognition processing unit 7. When a single shutter speed is set in the camera 1, the switching unit 22 is set to off. At the same time, the function of the image integration unit 11 of the recognition processing unit 7 is suspended, and the feature extraction unit 12 and the object detection unit 13 cause the image memory 10M1A recognition process using only the image data from is performed.
[0084]
In the illustrated example, the control device 2 employs the configuration shown in FIG. 10 for the recognition processing unit 7. However, in the case of adopting another configuration, similarly, it is set so that the process is switched between daytime and nighttime. can do.
[0085]
By switching the processing at night, unnecessary calculation processing at night can be reduced. In addition, there is no possibility that an error occurs in the detection result due to the unnecessary calculation processing, and the accuracy of vehicle detection can be stabilized.
[0086]
(11) Tenth embodiment
FIG. 22 shows an example of installation of an observation device when the tenth configuration is used. This observation device determines the presence or absence of a vehicle in each parking frame by a three-dimensional measurement process using images from two cameras 1A and 1B. Thus, they are arranged vertically with the optical axes parallel and the imaging planes positioned on the same plane.
[0087]
In this embodiment, similarly to the first to eighth embodiments, the vehicle C having different brightness is used.B, CWAre set to a plurality of shutter speeds in each of the cameras 1A and 1B so as to continuously detect images. In the control device 2, for each set of images obtained from each of the cameras 1A and 1B at the same shutter speed, processing from extraction of a feature point indicating a vehicle to correspondence of the feature points is performed. The results are integrated to perform a three-dimensional measurement process.
[0088]
FIG. 23 shows a configuration of the observation device.
The shutter speed control device 5 has two fixed shutter speeds S, as in the first to third embodiments.S, SFAre alternately set. Each of the cameras 1A and 1B is controlled by the shutter speed control device 5 so that each of the shutter speeds SS, SFAre simultaneously generated.
[0089]
The control device 2 includes an image input unit 6 and a recognition processing unit 7 as in the above embodiments. The image input unit 6 includes A / D conversion circuits 8A and 8B and two sets of image memories (10A) for each camera.S, 10AF) (10BS, 10BF). One image memory 10A of each setS, 10BSShows the slower shutter speed S from each of the cameras 1A and 1B.SImage U byS, LSIs stored. The other image memory 10AF, 10BFIs the faster shutter speed S from each camera.FImage U byF, LFIs stored.
[0090]
The recognition processing unit 7 includes two sets of feature extraction units 12B.S, 12BF, Two sets of association processing units 23S and 23F, and also includes respective components such as a feature integration unit 24, a three-dimensional measurement unit 25, and an object detection unit 26. Feature extraction unit 12BS, 12BFAre images L obtained by the lower camera 1B, respectively.S, LFIs for extracting an edge on an image, and the feature extraction unit 12BSImage L bySIs extracted by the first association processing unit 23S and the feature extraction unit 12BFImage L byFAre individually given to the second association processing unit 23F.
[0091]
The first association processing unit 23S is a shutter speed S that is slower than each of the cameras 1A and 1B.SInput image U obtained ins, LsAre for identifying feature points representing the same object point in space and associating them with each other.
[0092]
This association processing is specifically performed by the feature extraction unit 12B.SImage LSFor each of the edge constituent points P extracted above, an image USThis is performed by extracting the corresponding point Q above.
[0093]
FIG. 24 shows a specific method of extracting a corresponding point Q to the point P.
First, the associating processing unit 23S outputs the edge image EL generated by the edge extraction processing.SThe predetermined feature point P (x, yL), The original image LSAt a position of the upper point P, a window W of a predetermined size centered on the point PLSet. Next, the associating processing section sets the image USThe window W is placed on the epipolar line EP at the point P above.LWindow W of the same size asUIs set and scanning is performed, and the following equation (3) is executed for each scanning position, and each window WL, WUDF of the image data in the image data is calculated.
[0094]
In the equation (3), gL(X, y) is the window WLThe luminance value of a given pixel withinU(X, y) is the window WUThe luminance value of a predetermined pixel in each is shown. SZ is each window WL, WUIndicates the size of Further, m and n are variables for specifying a pixel in each window, and0 to the above size SZFluctuates within the range.
[0095]
(Equation 3)
Figure 0003570198
[0096]
The associating processing unit 23S compares the dissimilarity DF obtained at each scanning position, and determines the window W at the time when the dissimilarity DF becomes the smallest.UCenter point (x, yU) Is specified as the corresponding point Q of the point P.
[0097]
As mentioned above, each camera 1A, 1BVertically aligned and the optical axisSince they are arranged in parallel, the epipolar line EP is perpendicular to the x-axis and the window WU Can be easily set, and the calculation of the difference DF can be simplified. Further, instead of calculating the difference DF at each scanning position on the epipolar line EP, the image US Edges may also be extracted above, and among these, edge constituent points located on the epipolar line EP may be set as corresponding candidate points of the feature point P, and the difference DF may be calculated only for these corresponding candidate points. .
[0098]
Returning to FIG. 23, the second association processing unit 23F outputs a shutter speed S faster than each of the cameras 1A and 1B.FInput image U obtained byF, LFAre performed in the same manner as described above, and the results of the association performed by the association processing units 23S and 23F are integrated by the feature integration unit 24.
[0099]
This integration process employs all the sets of feature points associated by the respective association processing units 23S and 23F, and the coordinate data for each corresponding feature point pair is provided to the three-dimensional measurement unit 25. . The three-dimensional measuring unit 25 calculates the coordinates (x, y) of each feature point for each given set of feature points.u) (X, yL) Is applied to the principle of triangulation to calculate three-dimensional coordinates corresponding to each feature point.
[0100]
In this way, three-dimensional coordinates corresponding to each set of feature points are calculated and provided to the object detection unit 26. The object detection unit 26 determines whether or not a vehicle exists in each parking frame from the number of feature points at each parking frame position and its height data.
[0101]
In the tenth embodiment, for the sake of simplicity, the shutter speed SS, SFIs a fixed value, but as in the seventh and eighth embodiments, each shutter speed S depends on the brightness of the observation area and the brightness of the input image.S, SFMay be variably set. Also, the shutter speed SS, SFIs not limited to one type, and as shown in FIGS. 10 to 12, a plurality of shutter speeds are set, feature points are associated between images for each shutter speed, and each association result is displayed. You may make it unify. Further, as shown in the ninth embodiment, at night, each camera may be imaged only at a slow shutter speed, and the three-dimensional measurement processing may be performed using only one set of images.
[0102]
(12) Other embodiments
In each of the above-described embodiments, the camera generates a plurality of images having different shutter speeds. However, not only the shutter speed but also the aperture of the camera and the gain of the output voltage from the camera are adjusted. In this way, it is also possible to individually generate images of objects having different brightness.
[0103]
Further, here, the respective configuration examples in the parking lot observation device have been described, but the observation target is not limited to the vehicle, but may be another object, and the observation region may be indoors. Further, the observation device of this embodiment is only for recognizing the presence or absence of a vehicle for each parking frame, but is not limited thereto, and may be configured to recognize the size, shape, etc. of the vehicle. The vehicle color of each vehicle may be recognized using the generation camera.
[0104]
Further, the parking lot observation device individually shown targets a stationary vehicle as a recognition target, but the present invention can be applied to a mobile object such as a vehicle running on a road as a recognition target. . However, in this case, if the images for each shutter speed are continuously generated, a shift of the movement of the object occurs between the images. Therefore, it is desirable to introduce the configuration of the fourth or fifth embodiment.
[0105]
【The invention's effect】
Claims 1 and 2 and Claims 4 and 5According to the invention, even if a plurality of vehicles having different vehicle colors exist in the observation area, each vehicle can be caused to appear on an image with an exposure amount corresponding to the vehicle color, and vehicles of various colors can be displayed. It can be recognized with high accuracy.
[0108]
Claims 6 and 7According to the invention, the exposure amount is adjusted using the brightness of the observation area or the input image with respect to the imaging unit that supplies each image, so even if the brightness in the observation area fluctuates due to a change in the surrounding environment, The vehicle can be clearly recognized by each image, and stable recognition processing can be performed.
[0109]
Claims 3 and 9According to the invention, when an observation area is imaged by a plurality of image pickup means and a three-dimensional measurement process is performed, a feature point on an image is associated with each set of images generated with the same exposure amount by each image pickup means. After performing the above, the three-dimensional measurement processing is performed by integrating the association results of each group. Therefore, even when there are objects having different brightnesses in the observation area, the three-dimensional shape and space of each object are obtained. The position can be accurately recognized.
[0110]
Claims 8 and 10According to the invention, the recognition process using only the image with the specific exposure amount is performed within a predetermined period of the day based on the time measured by the timer, so that a high-brightness object such as at night may be detected. It is possible to reduce unnecessary equipment costs by avoiding unnecessary processing during non-period time zones. In addition, erroneous measurement due to unnecessary processing can be prevented.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an installation example of an observation device to which the present invention is applied.
FIG. 2 is a block diagram showing a first configuration of the observation device.
FIG. 3 is an explanatory diagram illustrating an example of an input image.
FIG. 4 is an explanatory diagram showing a composite image of the input image of FIG. 3;
FIG. 5 is a block diagram showing a second configuration of the observation device.
FIG. 6 is an explanatory diagram illustrating an edge image obtained by performing edge extraction processing on an input image.
FIG. 7 is an explanatory diagram showing a result of integrating the edge images of FIG. 6;
FIG. 8 is a block diagram showing a third configuration of the observation device.
FIG. 9 is an explanatory diagram showing a determination result of the presence or absence of a vehicle for each parking frame.
FIG. 10 is a block diagram illustrating a modified example of the first configuration of the observation device.
FIG. 11 is a block diagram showing a modified example of the second configuration of the observation device.
FIG. 12 is a block diagram illustrating a modified example of the third configuration of the observation device.
FIG. 13 is a perspective view showing an installation example of an observation device having a fourth configuration.
FIG. 14 is a block diagram showing a fourth configuration of the observation device.
FIG. 15 is a block diagram showing a fifth configuration of the observation device.
FIG. 16 is a block diagram showing a sixth configuration of the observation device.
FIG. 17 is a block diagram showing a seventh configuration of the observation device.
FIG. 18 is an explanatory diagram showing an example of setting a shutter speed in the observation device of FIG. 17;
FIG. 19 is a block diagram showing an eighth configuration of the observation device.
20 is a flowchart showing a procedure for setting a shutter speed in the observation device of FIG. 19;
FIG. 21 is a block diagram showing a ninth configuration of the observation device.
FIG. 22 is a perspective view showing an installation example of an observation device having a tenth configuration.
FIG. 23 is a block diagram showing a tenth configuration of the observation device.
FIG. 24 is an explanatory diagram showing a specific example of a feature point association process;
[Explanation of symbols]
1,1S, 1F, 1X, 1A, 1B camera
2 Control device
5 Shutter speed control device
6 Image input section
7 Recognition processing unit
11 Image Integration Unit
12, 12S, 12F, 12BS, 12BF  Feature extraction unit
13, 13S, 13F, 26 Object detector
15 Detection result integration unit
19 Light intensity meter
23S, 23F Correlation processing unit
24 Feature Integration Unit
25 3D measurement unit

Claims (10)

車輌を認識するための画像処理方法であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、
前記画像毎の特徴点の抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする画像処理方法。
An image processing method for recognizing a vehicle,
Each of the same observation areas is imaged with a plurality of exposure amounts corresponding to the type of vehicle body color,
For each of the plurality of images generated by the imaging, each edge representing the contour of the vehicle is extracted,
An image processing method comprising: integrating a feature point extraction result for each image; and recognizing a vehicle in the observation area using the integration result.
車輌を認識するための画像処理方法であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、
前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする画像処理方法。
An image processing method for recognizing a vehicle,
Each of the same observation areas is imaged with a plurality of exposure amounts corresponding to the type of vehicle body color,
For each of the plurality of images generated by the imaging, a process of extracting an edge representing a contour of the vehicle, and a process of recognizing a vehicle in the observation area in association with the position using the extraction result. Run,
Among the recognition results for each image, those in which the recognition position of the vehicle is different between the images are regarded as the recognition results for the individual vehicles, and the respective recognition results are integrated to finally recognize the vehicle in the observation area. An image processing method characterized by the following.
所定の観測領域に向けて配備された複数個の撮像手段により、それぞれ異なる露光量による複数枚の画像を生成し、各撮像手段により同じ露光量で生成された画像の組毎に、各画像上の特徴点を画像間で対応づけした後、各組毎の対応づけ結果を統合し、
前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする画像処理方法。
A plurality of images with different exposure amounts are generated by a plurality of imaging units arranged toward a predetermined observation area. Each image set generated by each imaging unit with the same exposure amount has a plurality of images. After associating the feature points between the images, the association results for each set are integrated,
An image processing method, comprising: performing a three-dimensional measurement process using the integrated association result, and recognizing an object in the observation region based on the measurement result.
車輌を認識するための画像処理装置であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎のエッジ抽出結果を統合する統合手段と、
前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備して成る画像処理装置。
An image processing device for recognizing a vehicle,
Image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color,
Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images,
Integrating means for integrating the edge extraction result for each input image,
An image processing apparatus comprising: recognition means for recognizing a vehicle in the observation area using the edge extraction result integrated by the integration means.
車輌を認識するための画像処理装置であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、
前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備して成る画像処理装置。
An image processing device for recognizing a vehicle,
Image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color,
Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images,
For each of the input images, a recognition unit that recognizes a vehicle in the observation area in association with the position using the edge extraction result,
Among the recognition results for each of the input images, the recognition position of the vehicle that differs between the images is regarded as the recognition result for each individual vehicle, and the respective recognition results are integrated, and the final recognition of the vehicle in the observation area is performed. An image processing apparatus comprising: a recognition result integrating unit that generates data indicating a result.
請求項4または5に記載された画像処理装置において、
さらに、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。
The image processing apparatus according to claim 4 , wherein
Further, an exposure amount for adjusting the exposure amount corresponding to each image using the brightness detection result with respect to a brightness detection unit that detects the brightness in the observation region and an imaging unit that supplies each input image. An image processing apparatus comprising an adjusting unit.
請求項4または5に記載された画像処理装置において、
さらに前記画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。
The image processing apparatus according to claim 4 , wherein
Further, image brightness detection means for detecting the brightness of each image input by the image input means, and imaging means for supplying each input image, the exposure amount corresponding to each image, the brightness detection result An image processing apparatus comprising: an exposure amount adjusting unit that adjusts using the same.
請求項4または5に記載された画像処理装置において、
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成されて成る画像処理装置。
The image processing apparatus according to claim 4 , wherein
Further, a timer for measuring the time is provided. Based on the time measured by the timer, during a predetermined period of the day, only one image with a specific exposure is input to recognize a vehicle in the observation area. Image processing device configured as described above.
所定の観測領域に向けて配備された複数個の撮像手段より、それぞれ異なる露光量による複数枚の画像を入力する画像入力手段と、
各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、
前記各組毎の対応づけ結果を統合する統合手段と、
統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、
前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備して成る画像処理装置。
From a plurality of imaging means arranged toward a predetermined observation area, an image input means for inputting a plurality of images with different exposure amounts,
For each set of input images generated with the same exposure amount by each imaging unit, associating means for associating feature points on each image between the images,
Integrating means for integrating the association result of each set,
Three-dimensional measurement means for performing three-dimensional measurement processing using the integrated correspondence result;
An image processing apparatus comprising: recognition means for recognizing an object in the observation area using the three-dimensional measurement result.
請求項9に記載された画像処理装置において、
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴点を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成されて成る画像処理装置。
The image processing device according to claim 9 ,
Further, a timer for measuring the time is provided, and based on the time measured by the timer, only one image with a specific exposure amount is input from each of the imaging means for a predetermined period of the day. An image processing apparatus configured to recognize an object in the observation area by three-dimensional measurement processing using corresponding feature points.
JP01329598A 1998-01-07 1998-01-07 Image processing method and apparatus Expired - Fee Related JP3570198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01329598A JP3570198B2 (en) 1998-01-07 1998-01-07 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01329598A JP3570198B2 (en) 1998-01-07 1998-01-07 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH11201741A JPH11201741A (en) 1999-07-30
JP3570198B2 true JP3570198B2 (en) 2004-09-29

Family

ID=11829211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01329598A Expired - Fee Related JP3570198B2 (en) 1998-01-07 1998-01-07 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3570198B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3965943B2 (en) * 2001-07-12 2007-08-29 株式会社ノーリツ Human body detection device
JP4084578B2 (en) 2002-02-20 2008-04-30 富士通株式会社 Character recognition method and apparatus
JP2004048345A (en) * 2002-07-11 2004-02-12 Niles Co Ltd Imaging systems
JP3793487B2 (en) * 2002-07-12 2006-07-05 ナイルス株式会社 Imaging system
JP4009163B2 (en) * 2002-08-30 2007-11-14 富士通株式会社 Object detection apparatus, object detection method, and object detection program
JP5074067B2 (en) * 2007-03-27 2012-11-14 セコム株式会社 Suspicious object monitoring device
JP5076100B2 (en) * 2009-02-19 2012-11-21 独立行政法人 宇宙航空研究開発機構 Color target image processing device
JP4983905B2 (en) 2009-12-25 2012-07-25 カシオ計算機株式会社 Imaging apparatus, 3D modeling data generation method, and program
JP5290233B2 (en) * 2010-04-13 2013-09-18 Ckd株式会社 Three-dimensional measuring device and substrate inspection device
JP2012226513A (en) * 2011-04-19 2012-11-15 Honda Elesys Co Ltd Detection device and detection method
JP5889247B2 (en) * 2013-07-02 2016-03-22 キヤノン株式会社 Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP7190088B2 (en) * 2017-09-29 2022-12-15 智幸 伊豆 Parking lot monitoring device, parking lot management system and parking lot management program
WO2022254795A1 (en) * 2021-05-31 2022-12-08 日立Astemo株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JPH11201741A (en) 1999-07-30

Similar Documents

Publication Publication Date Title
EP2919197B1 (en) Object detection device and object detection method
CN107615334B (en) Object recognition device and object recognition system
JP3570198B2 (en) Image processing method and apparatus
JP2768042B2 (en) Distance measuring device
JP2001091247A (en) Inspection method for distance data and inspecting device for them
WO2019146510A1 (en) Image processing device
JP3988574B2 (en) Image processing device
JPH1144533A (en) Preceding vehicle detector
JP2004312402A (en) System and apparatus for road monitoring
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP5004923B2 (en) Vehicle driving support device
JP2006059183A (en) Image processor
JP3465531B2 (en) Object recognition method and apparatus
JPH09329671A (en) Fog monitoring system
JP2001357396A (en) Image processor and image recognizing device
JP3994954B2 (en) Object detection apparatus and object detection method
JP4547213B2 (en) Object detection apparatus and method
JP2004208209A (en) Device and method for monitoring moving body
US20190318495A1 (en) Image processing system
JP2006155400A (en) Image extraction device
CN111536895B (en) Appearance recognition device, appearance recognition system, and appearance recognition method
JPH1073419A (en) Device for inspecting erroneous and missing parts mounted externally on engine
JPH11223516A (en) Three dimensional image pickup device
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JP3755319B2 (en) Main subject detection device and apparatus using the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees