JP3570198B2 - Image processing method and apparatus - Google Patents
Image processing method and apparatus Download PDFInfo
- Publication number
- JP3570198B2 JP3570198B2 JP01329598A JP1329598A JP3570198B2 JP 3570198 B2 JP3570198 B2 JP 3570198B2 JP 01329598 A JP01329598 A JP 01329598A JP 1329598 A JP1329598 A JP 1329598A JP 3570198 B2 JP3570198 B2 JP 3570198B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- images
- image processing
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
【0001】
【産業上の利用分野】
この発明は、単独または複数個の撮像手段により所定の観測領域を撮像して得られた画像を処理して、前記観測領域内における車輌を認識する画像処理方法および装置に関連する。また、この発明は、複数個の撮像手段により得られた画像を用いた3次元計測処理により、所定の観測領域内の対象物について、その対象物の有無,大きさ,位置,形状など、各種の認識処理を実施するための画像処理方法および装置に関連する。
【0002】
【従来の技術】
近年、駐車場における車輌の駐車状況や、道路上の車輌の走行状態など、所定の観測領域における対象物を観測するために、画像処理の手法を用いた観測装置が開発されている。この種の観測装置は、観測対象の領域の上方位置にCCDカメラ(以下単に「カメラ」という)を配備するとともに、このカメラからの画像を制御装置に連続的に取り込んで、各入力画像上の対象物の特徴を抽出するもので、対象物が車輌などの移動体である場合には、さらに特徴抽出結果の時系列データにより、対象物の移動方向や速度の計測が行われる。
【0003】
また観測領域に対し、複数台のカメラを所定の位置関係をもって配置し、各カメラからの画像を制御装置に取り込んで、対象物の3次元計測処理を行うようにした装置も、提案されている。
【0004】
【発明が解決しようとする課題】
しかしながらこの種の観測処理では、照明条件などの影響で観測領域内の明るさに大きなばらつきが生じたり、観測領域内に反射率が大きく異なる対象物が存在したりして、各対象物間の明るさが大きく異なる場合がある。このような状況下では、観測領域内のすべての対象物の明るさをカメラのダイナミックレンジの範囲内に収められなくなり、一部対象物を認識できなくなるという問題が発生する。
【0005】
この発明は上記問題に着目してなされたもので、観測領域内に車体色の違いにより明るさが異なる複数の車輌が存在する場合にも、各車輌を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
また、この発明は、3次元計測による認識処理において、観測領域内に明るさの異なる複数の対象物が存在する場合にも、各対象物を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
【0006】
【課題を解決するための手段】
請求項1,2にかかる発明は、車輌を認識するための画像処理方法に関する。請求項1の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、前記画像毎のエッジ抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする。
【0008】
請求項2の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする。
【0009】
請求項3の発明の画像処理方法は、所定の観測領域に向けて配備された複数個の撮像手段により、それぞれ異なる露光量による複数枚の画像を生成し、各撮像手段により同じ露光量で生成された画像の組毎に、各画像上の特徴点を画像間で対応づけした後、各組毎の対応づけ結果を統合し、前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする。
【0011】
請求項4の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎のエッジ抽出結果を統合する統合手段と、前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備する。
【0012】
請求項5の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備する。
【0013】
請求項6の発明の画像処理装置は、前記請求項4または5の構成に、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0014】
請求項7の発明の画像処理装置は、前記請求項4または5の構成に、画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0015】
請求項8の発明の画像処理装置は、前記請求項4または5の構成に、時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成する。
【0016】
請求項9の発明の画像処理装置は、所定の観測領域に向けて配備された複数個の撮像手段より、それぞれ異なる露光量による複数枚の画像を入力する画像入力手段と、各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、前記各組毎の対応づけ結果を統合する統合手段と、統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備する。
【0017】
請求項10の発明の画像処理装置は、前記請求項9の構成に、さらに時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成される。
【0018】
【作用】
同一の観測領域をそれぞれ異なる露光量により撮像することにより、観測領域に明るさの異なる対象物が存在する場合も、各対象物を、それぞれいずれかの露光量による画像上に出現させることが可能となる。
【0020】
請求項1および4の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像に対し、それぞれ車輌の輪郭を表すエッジを抽出し、各エッジ抽出結果を統合する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でそのエッジを得ることが可能となり、エッジ抽出処理の統合結果を用いて、各車輌を精度良く認識することができる。
【0021】
請求項2および5の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像について、それぞれ車輌の輪郭を表すエッジを抽出した後、そのエッジ抽出結果を用いて、観測領域内の車輌をその位置に対応づけて認識する処理を実行する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でその車輌を精度良く認識することができる。さらに、画像毎の認識結果を統合する際には、車輌の認識位置が画像間で異なる認識結果をそれぞれ個別の車輌に対する認識結果とみなすので、観測領域内のすべての車輌を精度良く認識することができる。
【0022】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、車輌の特徴を鮮明にとらえた画像を生成できる。
【0023】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行って、各組毎の対応づけ結果を統合するので、観測領域内のすべての対象物の物点にかかる特徴点を対応づけすることができる。よってこの統合された対応づけ結果を用いて3次元計測処理を実施することにより、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0024】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避できる。
【0025】
【実施例】
図1は、この発明が適用された駐車場用の観測装置の設置例を示す。この観測装置は、複数の駐車枠に区分けされた駐車エリア4に対し、各駐車枠内に車輌が駐車しているか否かを認識するためのもので、駐車エリア4の近傍位置に設置された支柱3上に、カメラ1と制御装置2とが固定支持される。
【0026】
前記カメラ1は、支柱3の上部位置に支持棒3Aを介して取り付けられ、駐車エリア4を斜め上方位置から撮像して、エリア全体を含む画像を生成する。この画像は制御装置2に取り込まれて、後記するいずれかの認識処理が実施され、各駐車枠内に車輌が存在するか否かが認識される。この認識結果は、装置内部の伝送部(図示せず)により管理センターなどの外部装置に伝送される。
【0027】
図中、CB ,CW は駐車中の車輌であって、車輌CB の車体は黒など反射率の低い色彩のものである。これに対し、車輌CW の車体は、白など反射率の高い色彩のもので、晴天時など撮像領域全体が明るく照明された条件下では、各車輌CB ,CW 上の明るさに、顕著な差異が現れる。
【0028】
この観測装置では、上記の車輌CB ,CW のように、車体上の明るさが大きく異なる車輌がともに駐車している場合にも、各車輌を精度良く認識できるように、前記カメラ1を、2とおりのシャッタ速度により連続的に撮像動作を行うように設定するとともに、制御装置2側で、各シャッタ速度毎の画像を統合的に処理して、認識処理を行うようにしている。
以下、上記図1の観測装置の具体的な構成例と、各構成例における認識処理方法について、順を追って説明する。
【0029】
(1)第1実施例
図2は、この第1の観測処理装置の構成を示すもので、前記したカメラ1,制御装置2のほか、シャッタ速度制御装置5を構成として含んでいる。
シャッタ速度制御装置5は、カメラ1のハウジング内もしくは制御装置2内に組み込まれるもので、カメラ1の撮像タイミングに応じて、CCD撮像素子の電荷蓄積時間を調整することにより、カメラ1に2とおりのシャッタ速度SS ,SF (SS >SF )を交互に設定する。
【0030】
制御装置2は、カメラ1からの画像を取り込む画像入力部6と、取り込んだ画像を処理するための認識処理部7とにより構成される(以下の実施例も同様である)。
【0031】
画像入力部6は、カメラ1からのアナログ量の画像データをディジタル変換するためのA/D変換回路8,各シャッタ速度毎の画像データを記憶するための2個の画像メモリ10S,10F,切換部9などを具備する。切換部9は、カメラ1の撮像動作に応じて、A/D変換回路8の接続先を切り換えるためのもので、遅い方のシャッタ速度SS により得られた画像IS は、第1の画像メモリ10Sへ、速い方のシャッタ速度SF により得られた画像IF は、第2の画像メモリ10Fへ、それぞれ格納される。
【0032】
図3(1)(2)は、前記図1に示した状態を各シャッタ速度SS ,SF により撮像して得られた入力画像IS ,IF を示す。
シャッタ速度SS は、前記車輌CB の車体色のような暗い色を捉えるのに適したシャッタ速度(例えば1/30秒)であって、このシャッタ速度により生成された画像IS では、図3(1)に示すように、車輌CB の画像が鮮明に出現する。しかしながら車体色の白いCW については、画像上における対応位置の輝度が飽和状態となっており、画像上で車輌CW の特徴を認識するのは困難となる。
【0033】
他方のシャッタ速度SF は、強い反射光を捉えるのに適した短いシャッタ速度(例えば1/120秒)であって、このシャッタ速度SF による画像IF 上では、図3(2)に示すように、車体色の明るい車輌CW の鮮明な画像が現れる。しかしながらこの画像IF 上の車輌CB に対する部分は黒くにじんだものとなり、車輌CB の特徴を認識するのは困難となる。
【0034】
図2に戻って、この実施例の認識処理部7は、画像統合部11,特徴抽出部12,物体検出部13などから構成される。なおこの認識処理部7の各構成は、具体的には、以下に述べる各処理を実施するためのアルゴリズムをコンピュータのCPUに与えることにより実現するものである(以下の実施例も同様)。
【0035】
この実施例は、前記した2種類のシャッタ速度SS ,SF による各入力画像IS ,IF を、1枚の画像に合成した後、この合成画像の特徴を用いて各車輌枠毎に車輌の有無を認識するものである。
画像統合部11は、各入力画像の合成処理を実施するためのもので、各入力画像IS ,IF について、それぞれi行目j列目に位置する画素の輝度値gS (i,j),gF (i,j)を、つぎの(1)−1〜(1)−3に示す原則にあてはめることにより、合成画像の対応する画素の輝度値G(i,j)を決定する。
【0036】
【数1】
【0037】
なお(1)式において、thS ,thF はあらかじめ定められたしきい値であって、thS には十分に大きな輝度値が、thF には十分に小さな輝度値が、それぞれ設定される。
例えば、入力画像の各画素の輝度値が8ビット構成のデータをとる場合、thS は240付近に、thF は10付近に設定される。
【0038】
前記図3(1)(2)に示した各入力画像IS ,IF の場合、黒い車輌CB に対応する画素位置については(1)−1式が適用され、合成画像の輝度値G(i,j)として、遅いシャッタ速度SS による入力画像IS 側の輝度値gS (i,j)が採用される。また白い車輌CW に対応する画素位置については(1)−2式が適用され、合成画像の輝度値G(i,j)として、速いシャッタ速度SF による入力画像IF 側の輝度値gF (i,j)が採用される。その他の車輌の存在しない画素位置においては(1)−3式が適用され、各輝度値gS (i,j),gF (i,j)の平均値をもって合成画像の輝度値G(i,j)が求められることになる。
なお画像の合成方法は、上記に限らず、合成画像のすべての画素の輝度値G(i,j)とも、画素gS (i,j)とgF (i,j)との平均値により表してもよい。
【0039】
図4は、各入力画像IS ,IF を上記(1)−1〜(1)−3を適用して合成処理した結果を示すもので、各車輌CB ,CW の部分に、その車輌を精度よく捉えた画像側のデータを採用することにより、各車輌CB ,CW を鮮明に捉えた画像が出現している。
【0040】
特徴抽出部12は、この合成画像上にエッジ抽出用フィルタを走査するなどして、車輌の輪郭を表すエッジを抽出する。物体検出部13は、内部メモリに記憶された画像上の各駐車枠の位置に基づき、各駐車枠内のエッジ部分の面積を算出するなどして、車輌が存在するか否かを判別する。この判別結果は、各駐車枠の識別データ(ラベルや位置データなど)に対応づけられ、外部に出力される。
【0041】
(2)第2実施例
図5は、観測装置の第2の構成を示す。
この実施例の制御装置2も、第1の実施例と同様の構成の画像入力部6により、各シャッタ速度SS ,SF により得られた画像IS ,IF を個別に入力する。また認識処理部7として、2組の特徴抽出部12S, 12F,特徴統合部14,物体検出部13の各構成を具備しており、各特徴抽出部12S,12Fにより、各入力画像IS ,IF の画像上のエッジが個別に抽出される。
【0042】
図6(1)(2)は、前記図3(1)(2)の入力画像I S ,I F に対するエッジ抽出処理により生成されたエッジ画像ES,EFを示す。なおここでは、各エッジの抽出位置を明確にするために、入力画像上の駐車枠のエッジがすべて抽出されたように図示している。
【0043】
エッジ画像ES 上では、2個の車輌CB ,CW の駐車位置A,Bのうち、画像上に鮮明に現れた車輌CB の駐車位置Aのみでエッジが抽出される(図中の駐車位置Bに細線の点線で示されたエッジは、仮想のものである)。反対にエッジ画像EF 上では、車輌CW の駐車位置Bでのみエッジが抽出される。
【0044】
図5に戻って、特徴統合部14は、各入力画像IS ,IF についてのエッジ抽出結果を統合して、1枚のエッジ画像を生成する。この統合処理は、つぎの(2)式に示すように、各エッジ画像ES ,EF の対応する画素毎に各画素値bS (i,j),bF (i,j)の論理和((2)式中「|」で示す)を求めて、統合後のエッジ画像の画素B(i,j)の画素値とするものである。すなわち各画素値B(i,j)により形成されるエッジ画像は、両方のエッジ画像ES ,EF を重ね合わせたもので、統合処理により、すべてのエッジ抽出結果が採用されることになる。
【0045】
【数2】
【0046】
図7は、前記図6(1)(2)の各エッジ抽出結果を上記(2)式を用いて統合した結果を示すもので、上記した論理和演算により、いずれの車輌CB ,CW の駐車位置A,Bにも、エッジが精度よく出現している。
【0047】
物体検出部13は、この統合されたエッジ画像上で、前記第1の実施例と同様、各駐車枠毎に車輌の有無を判定し、その判定結果を出力するもので、両方の車輌CB ,CW をともに精度よく検出することができる。
【0048】
(3)第3実施例
図8は、観測装置の第3の構成を示す。この実施例の制御装置2は、前記第1,2の実施例と同様の画像入力部6により、2種類のシャッタ速度SS ,SF により撮像された画像IS ,IF を個別に入力した後、各入力画像IS ,IF を個別に処理して各画像上の車輌を検出し、さらに各検出結果を統合して最終的な判定を行うものである。
【0049】
認識処理部7は、各入力画像毎に特徴抽出部12S,12Fおよび物体検出部13S,13Fを具備するほか、検出結果統合部15を具備する。各特徴抽出部12S,12Fは、第2の実施例と同様に、それぞれ入力画像IS ,IF に対するエッジ抽出処理を実施して、その結果を示すエッジ画像ES ,EF を生成する。各物体検出部13S,13Fは、対応するエッジ画像ES ,EF 上で、各駐車枠内に車輌が存在するか否かを判定するもので、各判定結果は、車輌枠を示すラベルに対応づけられた形で検出結果統合部15へと出力される。検出結果統合部15は、駐車枠毎の判定結果の論理和をとることにより、各エッジ画像上の車輌検出結果を統合し、この統合結果を最終的な車輌検出結果として出力する。
【0050】
図9は、前記図6(1)(2)のエッジ画像ES ,EF を用いて、各駐車枠毎に車輌の有無を判定した結果であって、図中の左端欄に、各駐車枠に付与されたラベル番号を表すとともに、各ラベル番号に対応づけて、各エッジ画像ES ,EF 毎の車輌の有無の判定結果と最終的な統合結果とが示してある。なお図中のデータ「1」は「車輌あり」の判定結果を、データ「0」は「車輌なし」の判定結果を、それぞれ表すものとする。
【0051】
図示例は、前記画像上の各駐車枠に対し、左から右方向に順にラベル番号を付してあり、ラベル番号「1」の駐車枠(前記駐車位置Aに相当する)にある車輌CB はエッジ画像ES 上で検出され、またラベル番号「8」の駐車枠(前記駐車位置Bに相当する)にある車輌CW はエッジ画像EF 上で検出されている。
よって両検出結果を統合した結果、「1」「8」いずれの駐車枠にも、車輌が存在するものと判定される。
【0052】
(4)実施例1〜3の変形例 <1>
上記した3つの実施例は、いずれも2とおりのシャッタ速度SS ,SF による画像を用いて車輌の検出処理を行うようにしているが、これに限らず、3とおり以上のシャッタ速度による画像を生成して車輌検出処理を行うようにしてもよい。
【0053】
図10〜12は、それぞれ第1〜第3の各実施例を発展させた構成を示すもので、画像入力部6には、Nとおり(N≧3)のシャッタ速度により得られた各画像を記憶するためのN個の画像メモリ10M1 〜10MN が配備される。
【0054】
図10の実施例では、認識処理部7の画像統合部11により、各入力画像間の対応する画素毎に輝度平均値が算出されて各画像が統合された後、特徴抽出部12により、この統合画像上のエッジ抽出処理が実施される。さらに物体検出部13により、前記エッジ抽出結果を用いた各車輌の検出処理が行われ、その結果が出力される。
【0055】
図11の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A1 〜12AN を具備しており、入力画像毎にエッジ抽出処理が行われる。特徴統合部14は、前記エッジ抽出処理により得られたエッジ画像について、前記第2の実施例と同様、対応する画素間の論理和演算を行って、各エッジ画像を統合する。この後、前記図10の実施例と同様、物体検出部13による車輌の検出処理が行われる。
【0056】
図12の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A1 〜12AN および物体検出部13A1 〜13AN を具備しており、これら構成により各入力画像毎に個別に車輌検出処理が行われる。この後、前記第3の実施例と同様、検出結果統合部15により各検出結果が統合されて、最終的な検出結果を示すデータが生成され、外部に出力される。
【0057】
このように複数とおりのシャッタ速度による画像を用いて認識処理を行うようにすれば、カメラ1のダイナミックレンジをより広く設定でき、さまざまな色彩の車輌が駐車している場合にも、各車輌を精度良く検出することが可能となる。
【0058】
(5)実施例4
前記第1〜3の各実施例では、1台のカメラ1をシャッタ速度を変更して連続的に撮像を行うようにしている。これに対し、第4の実施例では、図13に示すように、異なるシャッタ速度が設定された2台のカメラ1S,1Fを配備し、各カメラ1S,1Fを同時に動作させる。
【0059】
図14は、上記図13の観測装置の構成を示すもので、制御装置2の画像入力部6には、各カメラ1S,1F毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fが配備される。
なおこの実施例の認識処理部7には、前記第1〜3のいずれの実施例の構成を導入してもよいので、認識処理部7に関する詳細な構成の図示および説明は省略する。
【0060】
ただし認識処理部7に第1または第2の実施例の構成を導入する場合、各カメラ1S,1Fは、画像の統合処理に支障が生じないように、光軸を平行にした状態で出来るだけ接近させて配備する必要がある。さらに画像の統合処理時には、カメラ1S,1F間の視差によるずれを補正するために、いずれかの画像を、各カメラの光軸間の距離に対応する画素数分だけ、視差の生じる方向(図示例の場合は縦方向)にシフトさせる必要がある。
【0061】
(6)第5実施例
この実施例は、図1の設置例と同様、1台のカメラによる画像を取り込んで車輌検出処理を実施するものであるが、この実施例のカメラには、図15に示すように、2枚のCCD撮像素子17S,17Fを具備するカメラ1Xが用いられる。各CCD撮像素子17S,17Fには、それぞれ前記シャッタ速度SS ,SF に相当する電荷蓄積時間が設定されており、カメラレンズ16を通過した光が各CCD素子17S,17Fに同時に与えられて、この光像を異なるシャッタ速度でとらえた2枚の画像IS ,IF が生成される。
【0062】
制御装置2側の画像入力部6は、各CCD撮像素子17S,17Fからの画像データを同時に受けることができるように、入力画像毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fとを具備する。
なお認識処理部7には、前記第4の実施例と同様、第1〜3のいずれの構成を導入しても良いので、ここでは図示および詳細な説明は省略する。
【0063】
この実施例の構成によれば、同一の観測領域について、各シャッタ速度SS ,SF による画像を同時に取り込んで処理することができるので、各入力画像間の時間のずれをなくせる上、前記第4の実施例のように画像の統合処理時にいずれか一方の画像をシフト処理する必要もない。よって車輌の検出精度を向上させると同時に、処理時間を短縮させることができる。
【0064】
(7)第6実施例
この実施例も、上記第5の実施例と同様の2個のCCD撮像素子17S,17Fを具備するカメラ1Xにより、各シャッタ速度SS ,SF による画像を同時に生成するものである。
図16は、この第6の実施例の構成を示すもので、制御装置2は、先の実施例と同様の構成の画像入力部6を具備するほか、画像統合部11,モニタ18を含んでいる。
【0065】
カメラ1Xにより生成された各画像は、画像入力部6を介して画像統合部11に与えられ、前記第1の実施例と同様の方法で統合される。モニタ18は、この統合処理により生成される画像を表示するためのもので、これにより駐車エリア4内に明るさの異なる車輌が存在する場合にも、各車輌を1つのモニタ画面上で観測することが可能となる。
【0066】
なお前記モニタ18を、駐車エリア4から離れた場所に設置し、制御装置2の本体からモニタ18に、統合処理された画像データを通信回線を介して送信することも可能である。このようにすれば、直接駐車エリア4を監視できない地域でも、駐車エリア4の状況を正確に把握することができる。
【0067】
またこの実施例の構成に、前記した第1〜3のいずれかの認識処理部7の構成を加え、前記モニタ18に、統合処理された画像とともに、各駐車枠毎の車輌の有無判定の結果を表示することも可能である。
【0068】
(8)第7実施例
図17は、観測装置の第7の構成を示す。この実施例は、前記第1〜3のいずれかの構成に光強度計19を付加してカメラ1の観測領域内の明るさを検出し、その明るさの度合いにより、カメラ1の各シャッタ速度SS ,SF を可変設定するようにしている。
【0069】
図18は、シャッタ速度の設定例を示す。
前記光強度計19は、観測領域からの光を受光してその光強度を検出するもので、ここではあらかじめ各シャッタ速度SS ,SF に3段階の設定値(s1〜s3,f1〜f3)を設けて、シャッタ速度制御装置5のメモリに記憶させておき、前記光強度の検出値λを所定のしきい値th1,th2(th1>th2)と比較することにより、各シャッタ速度SS ,SF にいずれかの設定値を採用するようにしている。
【0070】
このように観測領域内の明るさの度合いによりカメラ1のシャッタ速度を制御するので、カメラ1により大きなダイナミックレンジを設定することができ、観測領域内の明るさが変動しても、安定した車輌検出を行うことができる。
【0071】
(9)第8実施例
図19は、観測装置の第8の構成を示す。この実施例も、前記第7の実施例と同様、前記第1〜3のいずれかの構成に、カメラの各シャッタ速度SS ,SF を可変設定する構成を付加したものであるが、ここでは観測領域内の明るさに代えて、各入力画像の明るさにより、シャッタ速度SS ,SF の設定値を変動するようにしている。
【0072】
制御装置2には、第1〜3の各構成と同様の画像入力部6,これら3つの構成のいずれかと同構成の認識処理部7のほか、2個の輝度平均算出部20S,20Fが配備される。これら輝度平均算出部20S,20Fは、画像メモリ10S,10Fに記憶された入力画像IS ,IF について、各構成画素の輝度値の平均を算出し、シャッタ速度制御装置5に出力する。シャッタ速度制御装置5は、各算出値を個々に取り込んで、各シャッタ速度Ss ,SF の設定値を決定し、つぎの撮像時には、この決定値に基づき、カメラ1のシャッタ速度を制御する。
【0073】
なお処理開始時点では、各シャッタ速度SS ,SF には所定の初期値が設定され、以後の数サイクルの撮像動作により最適値に調整される。
【0074】
図20は、シャッタ速度を決定するための手順を示す。なおここでは、遅い方のシャッタ速度SS を決定する手順を示すが、速い方のシャッタ速度SF も同様の手順で決定される。
【0075】
最初のステップ1(図中「ST1」で示す)で、輝度平均算出部20Sは、画像メモリ10Sより入力画像IS の画像データを読み込んで、平均輝度値AVS を算出する。つぎのステップ2,3で、シャッタ速度制御装置5は、この算出値AVS を平均輝度値の最適値MS と比較し、その比較結果を用いて、シャッタ速度SS の現在値を維持するか、変更するかを決定する。
【0076】
前記平均輝度値の最適値MS は、あらかじめ内部のメモリに登録されているもので、前記平均輝度値の算出値AVS と最適値MS との差が、所定のしきい値Δs2からΔs1の間にある場合(Δs2<ΔS1)は、ステップ2,3がいずれも「NO」となり、シャッタ速度SS の現在値が維持される(ステップ6)。
【0077】
入力画像IS が明るすぎる場合には、前記平均輝度値の算出値AVS と最適値MS との間にしきい値ΔS1を上回る差が生じる。この場合はステップ2が「YES」となってステップ4へと移行し、シャッタ速度SS の設定値が1/2に更新される。
【0078】
逆に、入力画像IS の明るさが落ちた場合には、前記平均輝度値の算出値AVS と最適値MS との差がしきい値Δs2を下回る。この場合には、ステップ3が「YES」となってステップ5へと移行し、、シャッタ速度SS の設定値は2倍に更新される。
【0079】
なお上記ステップ4,5におけるシャッタ速度SS の更新は、図示例に限らず、例えば現在の設定値に所定の度数分の値を加算(または減算)するようにしてもよい。
【0080】
このように、画像入力毎に、つぎの段階でのシャッタ速度SS ,SF を、それぞれ対応する入力画像IS ,IF を用いて決定することにより、実際に得られた画像上の明るさに基づき、各シャッタ速度SS ,SF を適切に調整することができる。
なお図15,16に示した第5,6の実施例にも、上記第7,8の実施例のシャッタ速度の調整にかかる構成を導入することが可能である。
【0081】
(10)第9実施例
上記した各実施例の構成は、いずれも所定の明るさの下での観測が可能な昼間に処理を実施することを前提とするもので、夜間など、観測領域全体が暗くなる条件下では、速いシャッタ速度により得られた画像上には、いずれの車輌の画像も表れない虞がある。
【0082】
図21に示す第9の構成は、複数とおりのシャッタ速度による画像を合成して認識処理を行うものであるが、夜間時にはこの処理を休止して、1枚の画像を用いた通常の認識処理を実施するように、構成される。
【0083】
この夜間時における処理の切換えは、制御装置2内部のタイマ21の計時時刻に基づき行われるもので、タイマ21の計時時刻が所定の期間内にあるときは、カメラ1には、最も遅いシャッタ速度のみがセットされる。また図中、22は、第2以下の画像メモリ10M2 〜10MN と認識処理部7との接続をオンオフするための切換部であって、前記カメラ1に単一のシャッタ速度がセットされると同時に、この切換部22はオフにセットされる。また同時に、認識処理部7の画像統合部11の機能が休止し、特徴抽出部12および物体検出部13により、画像メモリ10M1 からの画像データのみを用いた認識処理が行われる。
【0084】
なお図示例の制御装置2は、認識処理部7に前記図10の構成を採用しているが、他の構成をとる場合も、同様に、昼間と夜間とで処理の切換えを行うように設定することができる。
【0085】
このように夜間時に処理を切り換えることにより、夜間時の無用な演算処理を削減することができる。またこの無用な演算処理により検出結果に誤差が生じる虞もなくなり、車輌検出の精度を安定させることができる。
【0086】
(11)第10実施例
図22は、第10番目の構成を用いる場合の観測装置の設置例を示す。この観測装置は、2台のカメラ1A,1Bからの画像を用いた3次元計測処理により、各駐車枠毎の車輌の有無を判定するもので、各カメラ1A,1Bは、駐車エリア4に向けて、光軸を平行かつ撮像面を同一面上に位置させた状態で、縦並びに配備される。
【0087】
この実施例も、前記した第1〜8の各実施例と同様、明るさの異なる車輌CB ,CW をともに精度良く検出できるように、各カメラ1A,1Bに複数とおりのシャッタ速度を設定して連続的に撮像させている。また制御装置2においては、各カメラ1A,1Bより同じシャッタ速度で得られた画像の組毎に、車輌を示す特徴点の抽出から特徴点の対応づけまでの処理を行った後、各対応づけ結果を統合して3次元計測処理を実施するようにしている。
【0088】
図23は、前記観測装置の構成を示す。
シャッタ速度制御装置5は、前記第1〜3の各実施例と同様、固定された2とおりのシャッタ速度SS ,SF を交互に設定するもので、各カメラ1A,1Bは、このシャッタ速度制御装置5による制御を受けて、各シャッタ速度SS ,SF による画像を、それぞれ同時に生成する。
【0089】
制御装置2は、前記した各実施例と同様、画像入力部6と認識処理部7とを備えて成る。画像入力部6は、各カメラ毎に、A/D変換回路8A,8Bおよび2組の画像メモリ(10AS ,10AF )(10BS ,10BF )を具備する。各組の一方の画像メモリ10AS ,10BS には、それぞれ各カメラ1A,1Bからの遅い方のシャッタ速度SS による画像US ,LS が格納される。また他方の画像メモリ10AF ,10BF には、それぞれ各カメラからの速い方のシャッタ速度SF による画像UF ,LF が格納される。
【0090】
認識処理部7は、2組の特徴抽出部12BS ,12BF ,2組の対応づけ処理部23S,23Fを含むとともに、特徴統合部24,3次元計測部25,物体検出部26などの各構成を具備する。特徴抽出部12BS ,12BF は、それぞれ下側のカメラ1Bにより得られた各画像LS ,LF について、画像上のエッジを抽出するためのもので、特徴抽出部12BS による画像LS に対するエッジ抽出結果は第1の対応づけ処理部23Sに、特徴抽出部12BF による画像LF に対するエッジ抽出結果は第2の対応づけ処理部23Fに、それぞれ個別に与えられる。
【0091】
第1の対応づけ処理部23Sは、各カメラ1A,1Bより遅い方のシャッタ速度SS で得られた入力画像Us ,Ls について、それぞれ空間内の同じ物点を表す特徴点を特定して両者を対応づけるためのものである。
【0092】
この対応づけ処理は、具体的には、前記特徴抽出部12BS により画像LS 上で抽出された各エッジ構成点Pについて、それぞれ画像US 上での対応点Qを抽出することにより行われる。
【0093】
図24は、前記点Pへの対応点Qを抽出する具体的な方法を示す。
まず対応づけ処理部23Sは、前記エッジ抽出処理により生成されたエッジ画像ELS 上の所定の特徴点P(x,yL )について、原画像LS 上の点Pの位置に、この点Pを中心点とする所定大きさのウィンドウWL を設定する。ついで対応づけ処理部は、画像US 上の前記点PのエピポーララインEP上に前記ウィンドウWL と同じ大きさのウィンドウWU を設定して走査し、各走査位置毎に、つぎの(3)式を実行して、各ウィンドウWL ,WU 内の画像データの相違度DFを算出する。
【0094】
なお(3)式において、gL(x,y)はウィンドウWL内の所定の画素の輝度値を、またgU(x,y)はウィンドウWU内の所定の画素の輝度値を、それぞれ示す。またSZは各ウィンドウWL,WUのサイズを示す。さらにm,nは各ウィンドウ内の画素を特定するための変数であって、0から前記サイズ SZの範囲内で変動する。
【0095】
【数3】
【0096】
対応づけ処理部23Sは、各走査位置において求められた相違度DFを比較し、この相違度DFが最も小さくなる時点でのウィンドウWU の中心点(x,yU )を、前記点Pの対応点Qとして特定する。
【0097】
なお前記したように、各カメラ1A,1Bは縦並び、かつ光軸を平行にして配備されているので、エピポーララインEPはx軸に垂直になり、ウィンドウWU を容易に設定でき、また相違度DFの演算も簡単になる。またエピポーララインEP上の各走査位置で相違度DFを算出する方法に代えて、画像US 上でもエッジを抽出し、このうち前記エピポーララインEP上に位置するエッジ構成点を、特徴点Pの対応候補点として設定し、これら対応候補点についてのみ相違度DFを演算するようにしてもよい。
【0098】
図23に戻って、第2の対応づけ処理部23Fは、各カメラ1A,1Bより速い方のシャッタ速度SF により得られた各入力画像UF ,LF について、それぞれ上記と同様の対応づけ処理を行うもので、各対応づけ処理部23S,23Fによる対応づけ結果は、特徴統合部24において統合処理される。
【0099】
この統合処理は、各対応づけ処理部23S,23Fにより対応づけられた特徴点の組をすべて採用するもので、対応する各特徴点の組毎の座標データは、3次元計測部25に与えられる。3次元計測部25は、与えられた特徴点の組毎に、各特徴点の座標(x,yu )(x,yL )を三角測量の原理にあてはめることにより、各特徴点に対応する3次元座標を算出する。
【0100】
こうして各特徴点の組毎に対応する3次元座標が算出され、物体検出部26へと与えられる。物体検出部26は、各駐車枠位置における特徴点の数およびその高さデータから、各駐車枠内に車輌が存在するか否かを判別する。
【0101】
なおこの第10の実施例では、説明を簡単にするために、各カメラのシャッタ速度SS ,SF を固定値にしたが、前記第7,8の実施例のように、観測領域の明るさや入力画像の明るさに応じて各シャッタ速度SS ,SF を可変設定してもよい。またシャッタ速度SS ,SF は1種類に限らず、図10〜12に示したように、複数とおりのシャッタ速度を設定し、各シャッタ速度毎に画像間での特徴点の対応づけを行った後、各対応づけ結果を統合するようにしてもよい。さらに前記第9の実施例に示したように、夜間時には各カメラを遅いシャッタ速度のみで撮像させ、1組の画像のみで3次元計測処理を行うように構成してもよい。
【0102】
(12)その他の実施例
上記した各実施例は、いずれも、カメラにより、シャッタ速度の異なる複数枚の画像を生成するようにしたが、シャッタ速度のみならず、カメラの絞りや、カメラからの出力電圧のゲインを調整することによっても、明るさの異なる対象物の画像を個別に生成することが可能である。
【0103】
またここでは、駐車場用の観測装置における各構成例を説明したが、観測対象は車輌に限らず、他の物体であってもよく、また観測領域は室内であってもよい。さらにこの実施例の観測装置は、各駐車枠毎の車輌の有無を認識するだけのものであるが、これに限らず、車輌の大きさ、形状などを認識するようにしてもよく、カラー画像生成用のカメラを用いて、各車輌の車体色を認識するようにしてもよい。
【0104】
さらに個々に示した駐車場用の観測装置は、静止した車輌を認識対象とするが、道路上を走行する車輌などの移動体を認識対象とする場合にも、この発明を適用することができる。ただしこの場合、各シャッタ速度毎の画像を連続的に生成すると、画像間に対象物の移動分のずれが生じるので、前記第4または第5の実施例の構成を導入するのが望ましい。
【0105】
【発明の効果】
請求項1,2および請求項4,5の発明によれば、観測領域内に車体色の異なる複数の車輌が存在しても、各車輌をそれぞれその車体色に対応する露光量による画像上に出現させることができ、各種色彩の車輌を精度良く認識することができる。
【0108】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、各画像により車輌を鮮明にとらえることができ、安定した認識処理を行うことができる。
【0109】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行った後に、各組毎の対応づけ結果を統合して3次元計測処理を実施するので、観測領域内に明るさの異なる対象物がある場合にも、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0110】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避して、装置コストを削減できる。また必要外の処理による誤計測を防止することも可能となる。
【図面の簡単な説明】
【図1】この発明が適用された観測装置の設置例を示す斜視図である。
【図2】観測装置の第1の構成を示すブロック図である。
【図3】入力画像の一例を示す説明図である。
【図4】図3の入力画像の合成画像を示す説明図である。
【図5】観測装置の第2の構成を示すブロック図である。
【図6】入力画像のエッジ抽出処理により得られたエッジ画像を示す説明図である。
【図7】図6のエッジ画像を統合した結果を示す説明図である。
【図8】観測装置の第3の構成を示すブロック図である。
【図9】駐車枠ごとの車輌の有無の判別結果を示す説明図である。
【図10】観測装置の第1の構成を変形した例を示すブロック図である。
【図11】観測装置の第2の構成を変形した例を示すブロック図である。
【図12】観測装置の第3の構成を変形した例を示すブロック図である。
【図13】第4の構成の観測装置の設置例を示す斜視図である。
【図14】観測装置の第4の構成を示すブロック図である。
【図15】観測装置の第5の構成を示すブロック図である。
【図16】観測装置の第6の構成を示すブロック図である。
【図17】観測装置の第7の構成を示すブロック図である。
【図18】図17の観測装置におけるシャッタ速度の設定例を示す説明図である。
【図19】観測装置の第8の構成を示すブロック図である。
【図20】図19の観測装置におけるシャッタ速度の設定手順を示すフローチャートである。
【図21】観測装置の第9の構成を示すブロック図である。
【図22】第10の構成の観測装置の設置例を示す斜視図である。
【図23】観測装置の第10の構成を示すブロック図である。
【図24】特徴点の対応づけ処理の具体例を示す説明図である。
【符号の説明】
1,1S,1F,1X,1A,1B カメラ
2 制御装置
5 シャッタ速度制御装置
6 画像入力部
7 認識処理部
11 画像統合部
12,12S,12F,12BS ,12BF 特徴抽出部
13,13S,13F,26 物体検出部
15 検出結果統合部
19 光強度計
23S,23F 対応づけ処理部
24 特徴統合部
25 3次元計測部[0001]
[Industrial applications]
The present invention processes an image obtained by imaging a predetermined observation area by a single or a plurality of imaging means, and processes the image in the observation area.The present invention relates to an image processing method and apparatus for recognizing a vehicle. Further, according to the present invention, a three-dimensional measurement process using images obtained by a plurality of imaging means is performed for an object within a predetermined observation area.The present invention relates to an image processing method and apparatus for performing various recognition processes such as presence / absence, size, position, and shape.
[0002]
[Prior art]
2. Description of the Related Art In recent years, an observation device using an image processing method has been developed in order to observe an object in a predetermined observation area such as a parking state of a vehicle in a parking lot or a traveling state of a vehicle on a road. In this type of observation device, a CCD camera (hereinafter simply referred to as a “camera”) is provided at a position above an observation target area, and images from the camera are continuously taken into a control device, and each input image is displayed. The feature of the object is extracted. When the object is a moving object such as a vehicle, the moving direction and speed of the object are measured based on the time-series data of the feature extraction result.
[0003]
Further, there has been proposed an apparatus in which a plurality of cameras are arranged in a predetermined positional relationship with respect to an observation area, and an image from each camera is taken into a control device to perform a three-dimensional measurement process of an object. .
[0004]
[Problems to be solved by the invention]
However, in this type of observation processing, large variations occur in the brightness in the observation area due to the effects of lighting conditions, etc. Brightness may vary greatly. Under such a situation, there arises a problem that the brightness of all the objects in the observation area cannot be within the dynamic range of the camera, and some objects cannot be recognized.
[0005]
The present invention has been made in view of the above problems,It is an object of the present invention to recognize a vehicle with high accuracy even when a plurality of vehicles having different brightness due to a difference in body color exist in an observation area, and to greatly improve recognition accuracy.
In addition, the present invention is also applicable to a case where a plurality of objects having different brightnesses exist in an observation area in recognition processing by three-dimensional measurement.It is an object of the present invention to accurately recognize each object and to greatly improve the recognition accuracy.
[0006]
[Means for Solving the Problems]
[0008]
Claim 2In the image processing method of the invention, the same observation region is respectively imaged by a plurality of exposure amounts according to the type of the vehicle body color of the vehicle, and the outline of the vehicle is respectively formed for each of the plurality of images generated by the imaging. Executing a process of extracting an edge to be represented, and a process of recognizing a vehicle in the observation region in association with the position using the extraction result, wherein the recognition position of the vehicle is included in the recognition result of each image. Differences between the respective vehicles are regarded as recognition results for individual vehicles, and the recognition results are integrated to finally recognize vehicles in the observation area.
[0009]
Claim 3The image processing method according to the invention is characterized in that a plurality of images with different exposure amounts are generated by a plurality of imaging units arranged toward a predetermined observation area, and the images generated by each imaging unit with the same exposure amount. For each set, after associating the feature points on each image between the images, integrating the association results for each set, and performing a three-dimensional measurement process using the integrated association results, The method is characterized in that an object in the observation area is recognized based on the measurement result.
[0011]
Claim 4The image processing apparatus according to the invention, image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color of the vehicle, Edge extracting means for extracting an edge representing the outline of the vehicle from each of the input images; integrating means for integrating the edge extraction results for each of the input images; and the observation using the edge extraction results integrated by the integrating means. Recognizing means for recognizing vehicles in the area.
[0012]
Claim 5The image processing apparatus according to the invention, image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color of the vehicle, Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images; and recognition means for recognizing the vehicle in the observation area in association with its position using the edge extraction result for each of the input images. Of the recognition results for each of the input images, those in which the recognition positions of the vehicles differ between the images are regarded as the recognition results for the individual vehicles, and the respective recognition results are integrated, and the final recognition of the vehicles in the observation region is performed. A recognition result integrating means for generating data indicating the recognition result.
[0013]
Claim 6The image processing apparatus according toClaim 4 or 5In the configuration, the exposure amount corresponding to each image is adjusted using the brightness detection result for the brightness detection unit that detects the brightness in the observation area and the imaging unit that supplies each input image. Exposure amount adjusting means is added.
[0014]
Claim 7The image processing apparatus according toClaim 4 or 5The image brightness detection means for detecting the brightness of each image input by the image input means; and the imaging means for supplying each input image, the exposure amount corresponding to each image is detected by the brightness detection. Exposure amount adjusting means for adjusting using the result is added.
[0015]
Claim 8The image processing apparatus according toClaim 4 or 5A timer for measuring the time is added to the configuration of the above. Based on the time measured by the timer, only one image with a specific exposure amount is input for a predetermined period of a day, and a vehicle in the observation area is input. Is configured to be recognized.
[0016]
Claim 9The image processing apparatus according to the invention is configured such that, from a plurality of imaging units arranged toward a predetermined observation area, an image input unit for inputting a plurality of images with different exposure amounts, and the same exposure amount by each imaging unit. For each set of generated input images, associating means for associating feature points on each image between the images, integrating means for integrating the associating result for each of the sets, A three-dimensional measuring means for performing the used three-dimensional measuring process, and a recognizing means for recognizing an object in the observation area using the three-dimensional measurement result are provided.
[0017]
Claim 10The image processing apparatus according toClaim 9In addition to the configuration of the above, a timer for measuring the time is further added, and based on the time measured by the timer, only one image with a specific exposure amount is input from each imaging unit for a predetermined period of one day. An object in the observation area is recognized by a three-dimensional measurement process using features corresponding to the input images.
[0018]
[Action]
By imaging the same observation area with different exposures, even if there are objects with different brightness in the observation area, each object can appear on the image with one of the exposures It becomes.
[0020]
[0021]
[0022]
[0023]
[0024]
[0025]
【Example】
FIG. 1 shows an installation example of a parking lot observation device to which the present invention is applied. This observation device is for recognizing whether or not a vehicle is parked in each of the
[0026]
The
[0027]
In the figure, CB, CWIs a parked vehicle, and vehicle CBIs of a color with low reflectance such as black. In contrast, vehicle CWIs a highly reflective color such as white, and under conditions where the entire imaging area is brightly illuminated, such as in fine weather, each vehicle CB, CWA noticeable difference appears in the upper brightness.
[0028]
In this observation device, the vehicle CB, CWAs described above, even when vehicles having significantly different brightness on the vehicle body are parked together, the
Hereinafter, a specific configuration example of the observation device of FIG. 1 and a recognition processing method in each configuration example will be sequentially described.
[0029]
(1) First embodiment
FIG. 2 shows a configuration of the first observation processing device, which includes a shutter
The shutter
[0030]
The
[0031]
An
[0032]
FIGS. 3A and 3B show the state shown in FIG.S, SFImage I obtained by imagingS, IFIs shown.
Shutter speed SSIs the vehicle CBShutter speed (for example, 1/30 second) suitable for capturing a dark color such as the body color of the vehicle, and an image I generated by this shutter speed.SThen, as shown in FIG.BImages appear clearly. However, white C of body colorWWith respect to the vehicle, the brightness of the corresponding position on the image is saturated, and the vehicle CWIs difficult to recognize.
[0033]
The other shutter speed SFIs a short shutter speed (for example, 1/120 second) suitable for capturing strong reflected light, and this shutter speed SFImage I byFIn the above, as shown in FIG.WA clear image of appears. However, this image IFVehicle C onBThe part against is blurred black, and vehicle CBIs difficult to recognize.
[0034]
Returning to FIG. 2, the
[0035]
In this embodiment, the two types of shutter speeds SS, SFEach input image I byS, IFAre combined into one image, and the presence or absence of a vehicle is recognized for each vehicle frame using the characteristics of the combined image.
The image integration unit 11 is for performing a synthesizing process of each input image.S, IF, The luminance value g of the pixel located at the i-th row and the j-th column, respectively.S(I, j), gFBy applying (i, j) to the following principles (1) -1 to (1) -3, the luminance value G (i, j) of the corresponding pixel of the composite image is determined.
[0036]
(Equation 1)
[0037]
Note that in equation (1), thS, ThFIs a predetermined threshold value, thSHas a sufficiently large luminance value,F, A sufficiently small luminance value is set.
For example, when the luminance value of each pixel of the input image takes 8-bit data, thSIs near 240, thFIs set to around 10.
[0038]
Each of the input images I shown in FIGS.S, IFIn the case of, black vehicle CB(1) -1 is applied to the pixel position corresponding to, and the slow shutter speed S as the luminance value G (i, j) of the composite imageSInput image I bySSide luminance value gS(I, j) is adopted. Also white vehicle CW(1) -2 is applied to the pixel position corresponding to, and the fast shutter speed S as the luminance value G (i, j) of the composite imageFInput image I byFSide luminance value gF(I, j) is adopted. Equation (1) -3 is applied to pixel positions where other vehicles do not exist, and each luminance value gS(I, j), gFThe luminance value G (i, j) of the composite image is obtained using the average value of (i, j).
Note that the method of synthesizing the image is not limited to the method described above.S(I, j) and gFIt may be represented by an average value with (i, j).
[0039]
FIG. 4 shows each input image IS, IFShows the result of the synthesis processing by applying the above (1) -1 to (1) -3.B, CWBy using the data on the image side that accurately captures the vehicle in the portion ofB, CWAn image that clearly captures the image has appeared.
[0040]
The
[0041]
(2) Second embodiment
FIG. 5 shows a second configuration of the observation device.
The
[0042]
FIGS. 6 (1) and (2) correspond to FIGS. 3 (1) and (2).Input image I S , I F Image E generated by edge extraction processing forS, EFIs shown. Here, in order to clarify the extraction position of each edge, it is illustrated that all edges of the parking frame on the input image are extracted.
[0043]
Edge image ESAbove, two vehicles CB, CWOf the parking positions A and B of the vehicle C clearly appearing on the imageBThe edge is extracted only at the parking position A (the edge indicated by the thin dotted line at the parking position B in the figure is virtual). Conversely, the edge image EFAbove, vehicle CWThe edge is extracted only at the parking position B of.
[0044]
Returning to FIG. 5, the
[0045]
(Equation 2)
[0046]
FIG. 7 shows a result obtained by integrating the respective edge extraction results of FIGS. 6 (1) and (2) by using the above equation (2).B, CWThe edges also appear with high precision at the parking positions A and B.
[0047]
The
[0048]
(3) Third embodiment
FIG. 8 shows a third configuration of the observation device. The
[0049]
The
[0050]
FIG. 9 shows the edge images E of FIGS. 6 (1) and (2).S, EFIs the result of determining the presence or absence of a vehicle for each parking frame, using the label number given to each parking frame in the leftmost column in the figure, associating each label number with each edge. Image ES, EFThe determination result of the presence or absence of each vehicle and the final integration result are shown. It should be noted that data “1” in the drawing represents the determination result of “vehicles”, and data “0” represents the determination result of “no vehicles”.
[0051]
In the illustrated example, each parking frame on the image is provided with a label number in order from left to right, and a vehicle C in a parking frame with a label number “1” (corresponding to the parking position A).BIs the edge image ESVehicle C detected in the above and in the parking frame (corresponding to the parking position B) with the label number “8”WIs the edge image EFHas been detected above.
Therefore, as a result of integrating the two detection results, it is determined that the vehicle exists in any of the “1” and “8” parking frames.
[0052]
(4) Modifications of
In each of the three embodiments described above, two shutter speeds S are used.S, SFIs used to perform the vehicle detection process, but the invention is not limited to this. The vehicle detection process may be performed by generating images with three or more shutter speeds.
[0053]
10 to 12 show configurations obtained by developing the first to third embodiments, respectively. The
[0054]
In the embodiment of FIG. 10, after the image integration unit 11 of the
[0055]
The
[0056]
The
[0057]
If the recognition process is performed using images at a plurality of shutter speeds as described above, the dynamic range of the
[0058]
(5) Example 4
In each of the first to third embodiments, the shutter speed of one
[0059]
FIG. 14 shows the configuration of the observation device shown in FIG. 13. The
Since the configuration of any of the first to third embodiments may be introduced into the
[0060]
However, when the configuration of the first or second embodiment is introduced into the
[0061]
(6) Fifth embodiment
In this embodiment, similar to the installation example in FIG. 1, the vehicle detection process is performed by capturing an image by one camera. As shown in FIG. A camera 1X having the CCD
[0062]
The
Note that any of the first to third configurations may be introduced into the
[0063]
According to the configuration of this embodiment, for the same observation area, each shutter speed SS, SFImages can be simultaneously captured and processed, so that there is no need to shift the time between input images, and it is necessary to shift one of the images during image integration processing as in the fourth embodiment. Nor. Therefore, it is possible to improve the detection accuracy of the vehicle and shorten the processing time.
[0064]
(7) Sixth embodiment
Also in this embodiment, each shutter speed S is controlled by a camera 1X having the same two CCD
FIG. 16 shows a configuration of the sixth embodiment. The
[0065]
Each image generated by the camera 1X is provided to the image integration unit 11 via the
[0066]
The
[0067]
In addition to the configuration of this embodiment, the configuration of any one of the above-described first to third
[0068]
(8) Seventh embodiment
FIG. 17 shows a seventh configuration of the observation device. In this embodiment, a
[0069]
FIG. 18 shows an example of setting the shutter speed.
The
[0070]
As described above, since the shutter speed of the
[0071]
(9) Eighth embodiment
FIG. 19 shows an eighth configuration of the observation device. In this embodiment, as in the seventh embodiment, each of the shutter speeds SS, SFIs added, but here, the shutter speed S is determined by the brightness of each input image instead of the brightness in the observation area.S, SFIs set to fluctuate.
[0072]
The
[0073]
At the start of processing, each shutter speed SS, SFIs set to a predetermined initial value, and is adjusted to an optimum value by the imaging operation in the next several cycles.
[0074]
FIG. 20 shows a procedure for determining the shutter speed. Here, the slower shutter speed SSIs determined, the faster shutter speed SFIs determined in a similar procedure.
[0075]
In the first step 1 (indicated by “ST1” in the figure), the luminance average calculation unit 20S sends the input image ISIs read, and the average luminance value AVSIs calculated. In the
[0076]
The optimum value M of the average luminance valueSIs a previously registered value in the internal memory, and the calculated average brightness value AVSAnd the optimal value MSIs a predetermined threshold Δs2From Δs1(Δs2<ΔS1) Is “NO” in
[0077]
Input image ISIs too bright, the calculated average brightness value AVSAnd the optimal value MSAnd the threshold ΔS1Is generated. In this case,
[0078]
Conversely, the input image ISWhen the brightness of the average brightness value decreases, the calculated value AV of the average brightness valueSAnd the optimal value MSIs the threshold Δs2Below. In this case,
[0079]
Note that the shutter speed S in
[0080]
Thus, the shutter speed S at the next stage isS, SFTo the corresponding input image IS, IF, The respective shutter speeds S based on the actually obtained brightness on the image.S, SFCan be adjusted appropriately.
It should be noted that in the fifth and sixth embodiments shown in FIGS. 15 and 16, the configuration for adjusting the shutter speed of the seventh and eighth embodiments can be introduced.
[0081]
(10) Ninth embodiment
The configuration of each of the above-described embodiments is based on the premise that processing is performed during the day when observation is possible under a predetermined brightness, and under conditions where the entire observation area is dark, such as at night, There is a possibility that no image of any vehicle appears on an image obtained at a high shutter speed.
[0082]
The ninth configuration shown in FIG. 21 performs recognition processing by synthesizing images at a plurality of shutter speeds. At nighttime, this processing is suspended and normal recognition processing using one image is performed. Is implemented.
[0083]
The switching of the processing during the night time is performed based on the time counted by the
[0084]
In the illustrated example, the
[0085]
By switching the processing at night, unnecessary calculation processing at night can be reduced. In addition, there is no possibility that an error occurs in the detection result due to the unnecessary calculation processing, and the accuracy of vehicle detection can be stabilized.
[0086]
(11) Tenth embodiment
FIG. 22 shows an example of installation of an observation device when the tenth configuration is used. This observation device determines the presence or absence of a vehicle in each parking frame by a three-dimensional measurement process using images from two cameras 1A and 1B. Thus, they are arranged vertically with the optical axes parallel and the imaging planes positioned on the same plane.
[0087]
In this embodiment, similarly to the first to eighth embodiments, the vehicle C having different brightness is used.B, CWAre set to a plurality of shutter speeds in each of the cameras 1A and 1B so as to continuously detect images. In the
[0088]
FIG. 23 shows a configuration of the observation device.
The shutter
[0089]
The
[0090]
The
[0091]
The first
[0092]
This association processing is specifically performed by the feature extraction unit 12B.SImage LSFor each of the edge constituent points P extracted above, an image USThis is performed by extracting the corresponding point Q above.
[0093]
FIG. 24 shows a specific method of extracting a corresponding point Q to the point P.
First, the associating
[0094]
In the equation (3), gL(X, y) is the window WLThe luminance value of a given pixel withinU(X, y) is the window WUThe luminance value of a predetermined pixel in each is shown. SZ is each window WL, WUIndicates the size of Further, m and n are variables for specifying a pixel in each window, and0 to the above size SZFluctuates within the range.
[0095]
(Equation 3)
[0096]
The associating
[0097]
As mentioned above, each camera 1A, 1BVertically aligned and the optical axisSince they are arranged in parallel, the epipolar line EP is perpendicular to the x-axis and the window WU Can be easily set, and the calculation of the difference DF can be simplified. Further, instead of calculating the difference DF at each scanning position on the epipolar line EP, the image US Edges may also be extracted above, and among these, edge constituent points located on the epipolar line EP may be set as corresponding candidate points of the feature point P, and the difference DF may be calculated only for these corresponding candidate points. .
[0098]
Returning to FIG. 23, the second
[0099]
This integration process employs all the sets of feature points associated by the respective
[0100]
In this way, three-dimensional coordinates corresponding to each set of feature points are calculated and provided to the object detection unit 26. The object detection unit 26 determines whether or not a vehicle exists in each parking frame from the number of feature points at each parking frame position and its height data.
[0101]
In the tenth embodiment, for the sake of simplicity, the shutter speed SS, SFIs a fixed value, but as in the seventh and eighth embodiments, each shutter speed S depends on the brightness of the observation area and the brightness of the input image.S, SFMay be variably set. Also, the shutter speed SS, SFIs not limited to one type, and as shown in FIGS. 10 to 12, a plurality of shutter speeds are set, feature points are associated between images for each shutter speed, and each association result is displayed. You may make it unify. Further, as shown in the ninth embodiment, at night, each camera may be imaged only at a slow shutter speed, and the three-dimensional measurement processing may be performed using only one set of images.
[0102]
(12) Other embodiments
In each of the above-described embodiments, the camera generates a plurality of images having different shutter speeds. However, not only the shutter speed but also the aperture of the camera and the gain of the output voltage from the camera are adjusted. In this way, it is also possible to individually generate images of objects having different brightness.
[0103]
Further, here, the respective configuration examples in the parking lot observation device have been described, but the observation target is not limited to the vehicle, but may be another object, and the observation region may be indoors. Further, the observation device of this embodiment is only for recognizing the presence or absence of a vehicle for each parking frame, but is not limited thereto, and may be configured to recognize the size, shape, etc. of the vehicle. The vehicle color of each vehicle may be recognized using the generation camera.
[0104]
Further, the parking lot observation device individually shown targets a stationary vehicle as a recognition target, but the present invention can be applied to a mobile object such as a vehicle running on a road as a recognition target. . However, in this case, if the images for each shutter speed are continuously generated, a shift of the movement of the object occurs between the images. Therefore, it is desirable to introduce the configuration of the fourth or fifth embodiment.
[0105]
【The invention's effect】
[0108]
[0109]
[0110]
[Brief description of the drawings]
FIG. 1 is a perspective view showing an installation example of an observation device to which the present invention is applied.
FIG. 2 is a block diagram showing a first configuration of the observation device.
FIG. 3 is an explanatory diagram illustrating an example of an input image.
FIG. 4 is an explanatory diagram showing a composite image of the input image of FIG. 3;
FIG. 5 is a block diagram showing a second configuration of the observation device.
FIG. 6 is an explanatory diagram illustrating an edge image obtained by performing edge extraction processing on an input image.
FIG. 7 is an explanatory diagram showing a result of integrating the edge images of FIG. 6;
FIG. 8 is a block diagram showing a third configuration of the observation device.
FIG. 9 is an explanatory diagram showing a determination result of the presence or absence of a vehicle for each parking frame.
FIG. 10 is a block diagram illustrating a modified example of the first configuration of the observation device.
FIG. 11 is a block diagram showing a modified example of the second configuration of the observation device.
FIG. 12 is a block diagram illustrating a modified example of the third configuration of the observation device.
FIG. 13 is a perspective view showing an installation example of an observation device having a fourth configuration.
FIG. 14 is a block diagram showing a fourth configuration of the observation device.
FIG. 15 is a block diagram showing a fifth configuration of the observation device.
FIG. 16 is a block diagram showing a sixth configuration of the observation device.
FIG. 17 is a block diagram showing a seventh configuration of the observation device.
FIG. 18 is an explanatory diagram showing an example of setting a shutter speed in the observation device of FIG. 17;
FIG. 19 is a block diagram showing an eighth configuration of the observation device.
20 is a flowchart showing a procedure for setting a shutter speed in the observation device of FIG. 19;
FIG. 21 is a block diagram showing a ninth configuration of the observation device.
FIG. 22 is a perspective view showing an installation example of an observation device having a tenth configuration.
FIG. 23 is a block diagram showing a tenth configuration of the observation device.
FIG. 24 is an explanatory diagram showing a specific example of a feature point association process;
[Explanation of symbols]
1,1S, 1F, 1X, 1A, 1B camera
2 Control device
5 Shutter speed control device
6 Image input section
7 Recognition processing unit
11 Image Integration Unit
12, 12S, 12F, 12BS, 12BF Feature extraction unit
13, 13S, 13F, 26 Object detector
15 Detection result integration unit
19 Light intensity meter
23S, 23F Correlation processing unit
24 Feature Integration Unit
25 3D measurement unit
Claims (10)
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、
前記画像毎の特徴点の抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする画像処理方法。An image processing method for recognizing a vehicle,
Each of the same observation areas is imaged with a plurality of exposure amounts corresponding to the type of vehicle body color,
For each of the plurality of images generated by the imaging, each edge representing the contour of the vehicle is extracted,
An image processing method comprising: integrating a feature point extraction result for each image; and recognizing a vehicle in the observation area using the integration result.
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、
前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする画像処理方法。An image processing method for recognizing a vehicle,
Each of the same observation areas is imaged with a plurality of exposure amounts corresponding to the type of vehicle body color,
For each of the plurality of images generated by the imaging, a process of extracting an edge representing a contour of the vehicle, and a process of recognizing a vehicle in the observation area in association with the position using the extraction result. Run,
Among the recognition results for each image, those in which the recognition position of the vehicle is different between the images are regarded as the recognition results for the individual vehicles, and the respective recognition results are integrated to finally recognize the vehicle in the observation area. An image processing method characterized by the following.
前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする画像処理方法。A plurality of images with different exposure amounts are generated by a plurality of imaging units arranged toward a predetermined observation area. Each image set generated by each imaging unit with the same exposure amount has a plurality of images. After associating the feature points between the images, the association results for each set are integrated,
An image processing method, comprising: performing a three-dimensional measurement process using the integrated association result, and recognizing an object in the observation region based on the measurement result.
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎のエッジ抽出結果を統合する統合手段と、
前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備して成る画像処理装置。An image processing device for recognizing a vehicle,
Image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color,
Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images,
Integrating means for integrating the edge extraction result for each input image,
An image processing apparatus comprising: recognition means for recognizing a vehicle in the observation area using the edge extraction result integrated by the integration means.
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、
前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備して成る画像処理装置。An image processing device for recognizing a vehicle,
Image input means for individually inputting a plurality of images obtained by imaging the same observation region with a plurality of exposure amounts according to the type of vehicle body color,
Edge extraction means for extracting an edge representing the outline of the vehicle from each of the input images,
For each of the input images, a recognition unit that recognizes a vehicle in the observation area in association with the position using the edge extraction result,
Among the recognition results for each of the input images, the recognition position of the vehicle that differs between the images is regarded as the recognition result for each individual vehicle, and the respective recognition results are integrated, and the final recognition of the vehicle in the observation area is performed. An image processing apparatus comprising: a recognition result integrating unit that generates data indicating a result.
さらに、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。 The image processing apparatus according to claim 4 , wherein
Further, an exposure amount for adjusting the exposure amount corresponding to each image using the brightness detection result with respect to a brightness detection unit that detects the brightness in the observation region and an imaging unit that supplies each input image. An image processing apparatus comprising an adjusting unit.
さらに前記画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。 The image processing apparatus according to claim 4 , wherein
Further, image brightness detection means for detecting the brightness of each image input by the image input means, and imaging means for supplying each input image, the exposure amount corresponding to each image, the brightness detection result An image processing apparatus comprising: an exposure amount adjusting unit that adjusts using the same.
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成されて成る画像処理装置。 The image processing apparatus according to claim 4 , wherein
Further, a timer for measuring the time is provided. Based on the time measured by the timer, during a predetermined period of the day, only one image with a specific exposure is input to recognize a vehicle in the observation area. Image processing device configured as described above.
各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、
前記各組毎の対応づけ結果を統合する統合手段と、
統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、
前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備して成る画像処理装置。From a plurality of imaging means arranged toward a predetermined observation area, an image input means for inputting a plurality of images with different exposure amounts,
For each set of input images generated with the same exposure amount by each imaging unit, associating means for associating feature points on each image between the images,
Integrating means for integrating the association result of each set,
Three-dimensional measurement means for performing three-dimensional measurement processing using the integrated correspondence result;
An image processing apparatus comprising: recognition means for recognizing an object in the observation area using the three-dimensional measurement result.
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴点を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成されて成る画像処理装置。 The image processing device according to claim 9 ,
Further, a timer for measuring the time is provided, and based on the time measured by the timer, only one image with a specific exposure amount is input from each of the imaging means for a predetermined period of the day. An image processing apparatus configured to recognize an object in the observation area by three-dimensional measurement processing using corresponding feature points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01329598A JP3570198B2 (en) | 1998-01-07 | 1998-01-07 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01329598A JP3570198B2 (en) | 1998-01-07 | 1998-01-07 | Image processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11201741A JPH11201741A (en) | 1999-07-30 |
JP3570198B2 true JP3570198B2 (en) | 2004-09-29 |
Family
ID=11829211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01329598A Expired - Fee Related JP3570198B2 (en) | 1998-01-07 | 1998-01-07 | Image processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3570198B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3965943B2 (en) * | 2001-07-12 | 2007-08-29 | 株式会社ノーリツ | Human body detection device |
JP4084578B2 (en) | 2002-02-20 | 2008-04-30 | 富士通株式会社 | Character recognition method and apparatus |
JP2004048345A (en) * | 2002-07-11 | 2004-02-12 | Niles Co Ltd | Imaging systems |
JP3793487B2 (en) * | 2002-07-12 | 2006-07-05 | ナイルス株式会社 | Imaging system |
JP4009163B2 (en) * | 2002-08-30 | 2007-11-14 | 富士通株式会社 | Object detection apparatus, object detection method, and object detection program |
JP5074067B2 (en) * | 2007-03-27 | 2012-11-14 | セコム株式会社 | Suspicious object monitoring device |
JP5076100B2 (en) * | 2009-02-19 | 2012-11-21 | 独立行政法人 宇宙航空研究開発機構 | Color target image processing device |
JP4983905B2 (en) | 2009-12-25 | 2012-07-25 | カシオ計算機株式会社 | Imaging apparatus, 3D modeling data generation method, and program |
JP5290233B2 (en) * | 2010-04-13 | 2013-09-18 | Ckd株式会社 | Three-dimensional measuring device and substrate inspection device |
JP2012226513A (en) * | 2011-04-19 | 2012-11-15 | Honda Elesys Co Ltd | Detection device and detection method |
JP5889247B2 (en) * | 2013-07-02 | 2016-03-22 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing program, and imaging apparatus |
JP7190088B2 (en) * | 2017-09-29 | 2022-12-15 | 智幸 伊豆 | Parking lot monitoring device, parking lot management system and parking lot management program |
WO2022254795A1 (en) * | 2021-05-31 | 2022-12-08 | 日立Astemo株式会社 | Image processing device and image processing method |
-
1998
- 1998-01-07 JP JP01329598A patent/JP3570198B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11201741A (en) | 1999-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2919197B1 (en) | Object detection device and object detection method | |
CN107615334B (en) | Object recognition device and object recognition system | |
JP3570198B2 (en) | Image processing method and apparatus | |
JP2768042B2 (en) | Distance measuring device | |
JP2001091247A (en) | Inspection method for distance data and inspecting device for them | |
WO2019146510A1 (en) | Image processing device | |
JP3988574B2 (en) | Image processing device | |
JPH1144533A (en) | Preceding vehicle detector | |
JP2004312402A (en) | System and apparatus for road monitoring | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JP5004923B2 (en) | Vehicle driving support device | |
JP2006059183A (en) | Image processor | |
JP3465531B2 (en) | Object recognition method and apparatus | |
JPH09329671A (en) | Fog monitoring system | |
JP2001357396A (en) | Image processor and image recognizing device | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP4547213B2 (en) | Object detection apparatus and method | |
JP2004208209A (en) | Device and method for monitoring moving body | |
US20190318495A1 (en) | Image processing system | |
JP2006155400A (en) | Image extraction device | |
CN111536895B (en) | Appearance recognition device, appearance recognition system, and appearance recognition method | |
JPH1073419A (en) | Device for inspecting erroneous and missing parts mounted externally on engine | |
JPH11223516A (en) | Three dimensional image pickup device | |
JP3525712B2 (en) | Three-dimensional image capturing method and three-dimensional image capturing device | |
JP3755319B2 (en) | Main subject detection device and apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20031224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040614 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080702 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080702 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090702 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |