JP3570198B2 - 画像処理方法およびその装置 - Google Patents
画像処理方法およびその装置 Download PDFInfo
- Publication number
- JP3570198B2 JP3570198B2 JP01329598A JP1329598A JP3570198B2 JP 3570198 B2 JP3570198 B2 JP 3570198B2 JP 01329598 A JP01329598 A JP 01329598A JP 1329598 A JP1329598 A JP 1329598A JP 3570198 B2 JP3570198 B2 JP 3570198B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- images
- image processing
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
【産業上の利用分野】
この発明は、単独または複数個の撮像手段により所定の観測領域を撮像して得られた画像を処理して、前記観測領域内における車輌を認識する画像処理方法および装置に関連する。また、この発明は、複数個の撮像手段により得られた画像を用いた3次元計測処理により、所定の観測領域内の対象物について、その対象物の有無,大きさ,位置,形状など、各種の認識処理を実施するための画像処理方法および装置に関連する。
【0002】
【従来の技術】
近年、駐車場における車輌の駐車状況や、道路上の車輌の走行状態など、所定の観測領域における対象物を観測するために、画像処理の手法を用いた観測装置が開発されている。この種の観測装置は、観測対象の領域の上方位置にCCDカメラ(以下単に「カメラ」という)を配備するとともに、このカメラからの画像を制御装置に連続的に取り込んで、各入力画像上の対象物の特徴を抽出するもので、対象物が車輌などの移動体である場合には、さらに特徴抽出結果の時系列データにより、対象物の移動方向や速度の計測が行われる。
【0003】
また観測領域に対し、複数台のカメラを所定の位置関係をもって配置し、各カメラからの画像を制御装置に取り込んで、対象物の3次元計測処理を行うようにした装置も、提案されている。
【0004】
【発明が解決しようとする課題】
しかしながらこの種の観測処理では、照明条件などの影響で観測領域内の明るさに大きなばらつきが生じたり、観測領域内に反射率が大きく異なる対象物が存在したりして、各対象物間の明るさが大きく異なる場合がある。このような状況下では、観測領域内のすべての対象物の明るさをカメラのダイナミックレンジの範囲内に収められなくなり、一部対象物を認識できなくなるという問題が発生する。
【0005】
この発明は上記問題に着目してなされたもので、観測領域内に車体色の違いにより明るさが異なる複数の車輌が存在する場合にも、各車輌を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
また、この発明は、3次元計測による認識処理において、観測領域内に明るさの異なる複数の対象物が存在する場合にも、各対象物を精度良く認識し、認識精度を大幅に向上することを技術課題とする。
【0006】
【課題を解決するための手段】
請求項1,2にかかる発明は、車輌を認識するための画像処理方法に関する。請求項1の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、前記画像毎のエッジ抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする。
【0008】
請求項2の発明の画像処理方法は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする。
【0009】
請求項3の発明の画像処理方法は、所定の観測領域に向けて配備された複数個の撮像手段により、それぞれ異なる露光量による複数枚の画像を生成し、各撮像手段により同じ露光量で生成された画像の組毎に、各画像上の特徴点を画像間で対応づけした後、各組毎の対応づけ結果を統合し、前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする。
【0011】
請求項4の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎のエッジ抽出結果を統合する統合手段と、前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備する。
【0012】
請求項5の発明の画像処理装置は、車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備する。
【0013】
請求項6の発明の画像処理装置は、前記請求項4または5の構成に、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0014】
請求項7の発明の画像処理装置は、前記請求項4または5の構成に、画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とが付加される。
【0015】
請求項8の発明の画像処理装置は、前記請求項4または5の構成に、時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成する。
【0016】
請求項9の発明の画像処理装置は、所定の観測領域に向けて配備された複数個の撮像手段より、それぞれ異なる露光量による複数枚の画像を入力する画像入力手段と、各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、前記各組毎の対応づけ結果を統合する統合手段と、統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備する。
【0017】
請求項10の発明の画像処理装置は、前記請求項9の構成に、さらに時刻を計時するタイマを加え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成される。
【0018】
【作用】
同一の観測領域をそれぞれ異なる露光量により撮像することにより、観測領域に明るさの異なる対象物が存在する場合も、各対象物を、それぞれいずれかの露光量による画像上に出現させることが可能となる。
【0020】
請求項1および4の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像に対し、それぞれ車輌の輪郭を表すエッジを抽出し、各エッジ抽出結果を統合する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でそのエッジを得ることが可能となり、エッジ抽出処理の統合結果を用いて、各車輌を精度良く認識することができる。
【0021】
請求項2および5の発明では、車輌の車体色の種類に応じた複数とおりの露光量による複数の画像について、それぞれ車輌の輪郭を表すエッジを抽出した後、そのエッジ抽出結果を用いて、観測領域内の車輌をその位置に対応づけて認識する処理を実行する。したがって、観測領域内に車体色の異なる複数の車輌が存在しても、それぞれその車体色に対応する画像上でその車輌を精度良く認識することができる。さらに、画像毎の認識結果を統合する際には、車輌の認識位置が画像間で異なる認識結果をそれぞれ個別の車輌に対する認識結果とみなすので、観測領域内のすべての車輌を精度良く認識することができる。
【0022】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、車輌の特徴を鮮明にとらえた画像を生成できる。
【0023】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行って、各組毎の対応づけ結果を統合するので、観測領域内のすべての対象物の物点にかかる特徴点を対応づけすることができる。よってこの統合された対応づけ結果を用いて3次元計測処理を実施することにより、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0024】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避できる。
【0025】
【実施例】
図1は、この発明が適用された駐車場用の観測装置の設置例を示す。この観測装置は、複数の駐車枠に区分けされた駐車エリア4に対し、各駐車枠内に車輌が駐車しているか否かを認識するためのもので、駐車エリア4の近傍位置に設置された支柱3上に、カメラ1と制御装置2とが固定支持される。
【0026】
前記カメラ1は、支柱3の上部位置に支持棒3Aを介して取り付けられ、駐車エリア4を斜め上方位置から撮像して、エリア全体を含む画像を生成する。この画像は制御装置2に取り込まれて、後記するいずれかの認識処理が実施され、各駐車枠内に車輌が存在するか否かが認識される。この認識結果は、装置内部の伝送部(図示せず)により管理センターなどの外部装置に伝送される。
【0027】
図中、CB ,CW は駐車中の車輌であって、車輌CB の車体は黒など反射率の低い色彩のものである。これに対し、車輌CW の車体は、白など反射率の高い色彩のもので、晴天時など撮像領域全体が明るく照明された条件下では、各車輌CB ,CW 上の明るさに、顕著な差異が現れる。
【0028】
この観測装置では、上記の車輌CB ,CW のように、車体上の明るさが大きく異なる車輌がともに駐車している場合にも、各車輌を精度良く認識できるように、前記カメラ1を、2とおりのシャッタ速度により連続的に撮像動作を行うように設定するとともに、制御装置2側で、各シャッタ速度毎の画像を統合的に処理して、認識処理を行うようにしている。
以下、上記図1の観測装置の具体的な構成例と、各構成例における認識処理方法について、順を追って説明する。
【0029】
(1)第1実施例
図2は、この第1の観測処理装置の構成を示すもので、前記したカメラ1,制御装置2のほか、シャッタ速度制御装置5を構成として含んでいる。
シャッタ速度制御装置5は、カメラ1のハウジング内もしくは制御装置2内に組み込まれるもので、カメラ1の撮像タイミングに応じて、CCD撮像素子の電荷蓄積時間を調整することにより、カメラ1に2とおりのシャッタ速度SS ,SF (SS >SF )を交互に設定する。
【0030】
制御装置2は、カメラ1からの画像を取り込む画像入力部6と、取り込んだ画像を処理するための認識処理部7とにより構成される(以下の実施例も同様である)。
【0031】
画像入力部6は、カメラ1からのアナログ量の画像データをディジタル変換するためのA/D変換回路8,各シャッタ速度毎の画像データを記憶するための2個の画像メモリ10S,10F,切換部9などを具備する。切換部9は、カメラ1の撮像動作に応じて、A/D変換回路8の接続先を切り換えるためのもので、遅い方のシャッタ速度SS により得られた画像IS は、第1の画像メモリ10Sへ、速い方のシャッタ速度SF により得られた画像IF は、第2の画像メモリ10Fへ、それぞれ格納される。
【0032】
図3(1)(2)は、前記図1に示した状態を各シャッタ速度SS ,SF により撮像して得られた入力画像IS ,IF を示す。
シャッタ速度SS は、前記車輌CB の車体色のような暗い色を捉えるのに適したシャッタ速度(例えば1/30秒)であって、このシャッタ速度により生成された画像IS では、図3(1)に示すように、車輌CB の画像が鮮明に出現する。しかしながら車体色の白いCW については、画像上における対応位置の輝度が飽和状態となっており、画像上で車輌CW の特徴を認識するのは困難となる。
【0033】
他方のシャッタ速度SF は、強い反射光を捉えるのに適した短いシャッタ速度(例えば1/120秒)であって、このシャッタ速度SF による画像IF 上では、図3(2)に示すように、車体色の明るい車輌CW の鮮明な画像が現れる。しかしながらこの画像IF 上の車輌CB に対する部分は黒くにじんだものとなり、車輌CB の特徴を認識するのは困難となる。
【0034】
図2に戻って、この実施例の認識処理部7は、画像統合部11,特徴抽出部12,物体検出部13などから構成される。なおこの認識処理部7の各構成は、具体的には、以下に述べる各処理を実施するためのアルゴリズムをコンピュータのCPUに与えることにより実現するものである(以下の実施例も同様)。
【0035】
この実施例は、前記した2種類のシャッタ速度SS ,SF による各入力画像IS ,IF を、1枚の画像に合成した後、この合成画像の特徴を用いて各車輌枠毎に車輌の有無を認識するものである。
画像統合部11は、各入力画像の合成処理を実施するためのもので、各入力画像IS ,IF について、それぞれi行目j列目に位置する画素の輝度値gS (i,j),gF (i,j)を、つぎの(1)−1〜(1)−3に示す原則にあてはめることにより、合成画像の対応する画素の輝度値G(i,j)を決定する。
【0036】
【数1】
【0037】
なお(1)式において、thS ,thF はあらかじめ定められたしきい値であって、thS には十分に大きな輝度値が、thF には十分に小さな輝度値が、それぞれ設定される。
例えば、入力画像の各画素の輝度値が8ビット構成のデータをとる場合、thS は240付近に、thF は10付近に設定される。
【0038】
前記図3(1)(2)に示した各入力画像IS ,IF の場合、黒い車輌CB に対応する画素位置については(1)−1式が適用され、合成画像の輝度値G(i,j)として、遅いシャッタ速度SS による入力画像IS 側の輝度値gS (i,j)が採用される。また白い車輌CW に対応する画素位置については(1)−2式が適用され、合成画像の輝度値G(i,j)として、速いシャッタ速度SF による入力画像IF 側の輝度値gF (i,j)が採用される。その他の車輌の存在しない画素位置においては(1)−3式が適用され、各輝度値gS (i,j),gF (i,j)の平均値をもって合成画像の輝度値G(i,j)が求められることになる。
なお画像の合成方法は、上記に限らず、合成画像のすべての画素の輝度値G(i,j)とも、画素gS (i,j)とgF (i,j)との平均値により表してもよい。
【0039】
図4は、各入力画像IS ,IF を上記(1)−1〜(1)−3を適用して合成処理した結果を示すもので、各車輌CB ,CW の部分に、その車輌を精度よく捉えた画像側のデータを採用することにより、各車輌CB ,CW を鮮明に捉えた画像が出現している。
【0040】
特徴抽出部12は、この合成画像上にエッジ抽出用フィルタを走査するなどして、車輌の輪郭を表すエッジを抽出する。物体検出部13は、内部メモリに記憶された画像上の各駐車枠の位置に基づき、各駐車枠内のエッジ部分の面積を算出するなどして、車輌が存在するか否かを判別する。この判別結果は、各駐車枠の識別データ(ラベルや位置データなど)に対応づけられ、外部に出力される。
【0041】
(2)第2実施例
図5は、観測装置の第2の構成を示す。
この実施例の制御装置2も、第1の実施例と同様の構成の画像入力部6により、各シャッタ速度SS ,SF により得られた画像IS ,IF を個別に入力する。また認識処理部7として、2組の特徴抽出部12S, 12F,特徴統合部14,物体検出部13の各構成を具備しており、各特徴抽出部12S,12Fにより、各入力画像IS ,IF の画像上のエッジが個別に抽出される。
【0042】
図6(1)(2)は、前記図3(1)(2)の入力画像I S ,I F に対するエッジ抽出処理により生成されたエッジ画像ES,EFを示す。なおここでは、各エッジの抽出位置を明確にするために、入力画像上の駐車枠のエッジがすべて抽出されたように図示している。
【0043】
エッジ画像ES 上では、2個の車輌CB ,CW の駐車位置A,Bのうち、画像上に鮮明に現れた車輌CB の駐車位置Aのみでエッジが抽出される(図中の駐車位置Bに細線の点線で示されたエッジは、仮想のものである)。反対にエッジ画像EF 上では、車輌CW の駐車位置Bでのみエッジが抽出される。
【0044】
図5に戻って、特徴統合部14は、各入力画像IS ,IF についてのエッジ抽出結果を統合して、1枚のエッジ画像を生成する。この統合処理は、つぎの(2)式に示すように、各エッジ画像ES ,EF の対応する画素毎に各画素値bS (i,j),bF (i,j)の論理和((2)式中「|」で示す)を求めて、統合後のエッジ画像の画素B(i,j)の画素値とするものである。すなわち各画素値B(i,j)により形成されるエッジ画像は、両方のエッジ画像ES ,EF を重ね合わせたもので、統合処理により、すべてのエッジ抽出結果が採用されることになる。
【0045】
【数2】
【0046】
図7は、前記図6(1)(2)の各エッジ抽出結果を上記(2)式を用いて統合した結果を示すもので、上記した論理和演算により、いずれの車輌CB ,CW の駐車位置A,Bにも、エッジが精度よく出現している。
【0047】
物体検出部13は、この統合されたエッジ画像上で、前記第1の実施例と同様、各駐車枠毎に車輌の有無を判定し、その判定結果を出力するもので、両方の車輌CB ,CW をともに精度よく検出することができる。
【0048】
(3)第3実施例
図8は、観測装置の第3の構成を示す。この実施例の制御装置2は、前記第1,2の実施例と同様の画像入力部6により、2種類のシャッタ速度SS ,SF により撮像された画像IS ,IF を個別に入力した後、各入力画像IS ,IF を個別に処理して各画像上の車輌を検出し、さらに各検出結果を統合して最終的な判定を行うものである。
【0049】
認識処理部7は、各入力画像毎に特徴抽出部12S,12Fおよび物体検出部13S,13Fを具備するほか、検出結果統合部15を具備する。各特徴抽出部12S,12Fは、第2の実施例と同様に、それぞれ入力画像IS ,IF に対するエッジ抽出処理を実施して、その結果を示すエッジ画像ES ,EF を生成する。各物体検出部13S,13Fは、対応するエッジ画像ES ,EF 上で、各駐車枠内に車輌が存在するか否かを判定するもので、各判定結果は、車輌枠を示すラベルに対応づけられた形で検出結果統合部15へと出力される。検出結果統合部15は、駐車枠毎の判定結果の論理和をとることにより、各エッジ画像上の車輌検出結果を統合し、この統合結果を最終的な車輌検出結果として出力する。
【0050】
図9は、前記図6(1)(2)のエッジ画像ES ,EF を用いて、各駐車枠毎に車輌の有無を判定した結果であって、図中の左端欄に、各駐車枠に付与されたラベル番号を表すとともに、各ラベル番号に対応づけて、各エッジ画像ES ,EF 毎の車輌の有無の判定結果と最終的な統合結果とが示してある。なお図中のデータ「1」は「車輌あり」の判定結果を、データ「0」は「車輌なし」の判定結果を、それぞれ表すものとする。
【0051】
図示例は、前記画像上の各駐車枠に対し、左から右方向に順にラベル番号を付してあり、ラベル番号「1」の駐車枠(前記駐車位置Aに相当する)にある車輌CB はエッジ画像ES 上で検出され、またラベル番号「8」の駐車枠(前記駐車位置Bに相当する)にある車輌CW はエッジ画像EF 上で検出されている。
よって両検出結果を統合した結果、「1」「8」いずれの駐車枠にも、車輌が存在するものと判定される。
【0052】
(4)実施例1〜3の変形例 <1>
上記した3つの実施例は、いずれも2とおりのシャッタ速度SS ,SF による画像を用いて車輌の検出処理を行うようにしているが、これに限らず、3とおり以上のシャッタ速度による画像を生成して車輌検出処理を行うようにしてもよい。
【0053】
図10〜12は、それぞれ第1〜第3の各実施例を発展させた構成を示すもので、画像入力部6には、Nとおり(N≧3)のシャッタ速度により得られた各画像を記憶するためのN個の画像メモリ10M1 〜10MN が配備される。
【0054】
図10の実施例では、認識処理部7の画像統合部11により、各入力画像間の対応する画素毎に輝度平均値が算出されて各画像が統合された後、特徴抽出部12により、この統合画像上のエッジ抽出処理が実施される。さらに物体検出部13により、前記エッジ抽出結果を用いた各車輌の検出処理が行われ、その結果が出力される。
【0055】
図11の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A1 〜12AN を具備しており、入力画像毎にエッジ抽出処理が行われる。特徴統合部14は、前記エッジ抽出処理により得られたエッジ画像について、前記第2の実施例と同様、対応する画素間の論理和演算を行って、各エッジ画像を統合する。この後、前記図10の実施例と同様、物体検出部13による車輌の検出処理が行われる。
【0056】
図12の実施例の認識処理部7は、各入力画像毎に特徴抽出部12A1 〜12AN および物体検出部13A1 〜13AN を具備しており、これら構成により各入力画像毎に個別に車輌検出処理が行われる。この後、前記第3の実施例と同様、検出結果統合部15により各検出結果が統合されて、最終的な検出結果を示すデータが生成され、外部に出力される。
【0057】
このように複数とおりのシャッタ速度による画像を用いて認識処理を行うようにすれば、カメラ1のダイナミックレンジをより広く設定でき、さまざまな色彩の車輌が駐車している場合にも、各車輌を精度良く検出することが可能となる。
【0058】
(5)実施例4
前記第1〜3の各実施例では、1台のカメラ1をシャッタ速度を変更して連続的に撮像を行うようにしている。これに対し、第4の実施例では、図13に示すように、異なるシャッタ速度が設定された2台のカメラ1S,1Fを配備し、各カメラ1S,1Fを同時に動作させる。
【0059】
図14は、上記図13の観測装置の構成を示すもので、制御装置2の画像入力部6には、各カメラ1S,1F毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fが配備される。
なおこの実施例の認識処理部7には、前記第1〜3のいずれの実施例の構成を導入してもよいので、認識処理部7に関する詳細な構成の図示および説明は省略する。
【0060】
ただし認識処理部7に第1または第2の実施例の構成を導入する場合、各カメラ1S,1Fは、画像の統合処理に支障が生じないように、光軸を平行にした状態で出来るだけ接近させて配備する必要がある。さらに画像の統合処理時には、カメラ1S,1F間の視差によるずれを補正するために、いずれかの画像を、各カメラの光軸間の距離に対応する画素数分だけ、視差の生じる方向(図示例の場合は縦方向)にシフトさせる必要がある。
【0061】
(6)第5実施例
この実施例は、図1の設置例と同様、1台のカメラによる画像を取り込んで車輌検出処理を実施するものであるが、この実施例のカメラには、図15に示すように、2枚のCCD撮像素子17S,17Fを具備するカメラ1Xが用いられる。各CCD撮像素子17S,17Fには、それぞれ前記シャッタ速度SS ,SF に相当する電荷蓄積時間が設定されており、カメラレンズ16を通過した光が各CCD素子17S,17Fに同時に与えられて、この光像を異なるシャッタ速度でとらえた2枚の画像IS ,IF が生成される。
【0062】
制御装置2側の画像入力部6は、各CCD撮像素子17S,17Fからの画像データを同時に受けることができるように、入力画像毎のA/D変換回路8S,8Fおよび画像メモリ10S,10Fとを具備する。
なお認識処理部7には、前記第4の実施例と同様、第1〜3のいずれの構成を導入しても良いので、ここでは図示および詳細な説明は省略する。
【0063】
この実施例の構成によれば、同一の観測領域について、各シャッタ速度SS ,SF による画像を同時に取り込んで処理することができるので、各入力画像間の時間のずれをなくせる上、前記第4の実施例のように画像の統合処理時にいずれか一方の画像をシフト処理する必要もない。よって車輌の検出精度を向上させると同時に、処理時間を短縮させることができる。
【0064】
(7)第6実施例
この実施例も、上記第5の実施例と同様の2個のCCD撮像素子17S,17Fを具備するカメラ1Xにより、各シャッタ速度SS ,SF による画像を同時に生成するものである。
図16は、この第6の実施例の構成を示すもので、制御装置2は、先の実施例と同様の構成の画像入力部6を具備するほか、画像統合部11,モニタ18を含んでいる。
【0065】
カメラ1Xにより生成された各画像は、画像入力部6を介して画像統合部11に与えられ、前記第1の実施例と同様の方法で統合される。モニタ18は、この統合処理により生成される画像を表示するためのもので、これにより駐車エリア4内に明るさの異なる車輌が存在する場合にも、各車輌を1つのモニタ画面上で観測することが可能となる。
【0066】
なお前記モニタ18を、駐車エリア4から離れた場所に設置し、制御装置2の本体からモニタ18に、統合処理された画像データを通信回線を介して送信することも可能である。このようにすれば、直接駐車エリア4を監視できない地域でも、駐車エリア4の状況を正確に把握することができる。
【0067】
またこの実施例の構成に、前記した第1〜3のいずれかの認識処理部7の構成を加え、前記モニタ18に、統合処理された画像とともに、各駐車枠毎の車輌の有無判定の結果を表示することも可能である。
【0068】
(8)第7実施例
図17は、観測装置の第7の構成を示す。この実施例は、前記第1〜3のいずれかの構成に光強度計19を付加してカメラ1の観測領域内の明るさを検出し、その明るさの度合いにより、カメラ1の各シャッタ速度SS ,SF を可変設定するようにしている。
【0069】
図18は、シャッタ速度の設定例を示す。
前記光強度計19は、観測領域からの光を受光してその光強度を検出するもので、ここではあらかじめ各シャッタ速度SS ,SF に3段階の設定値(s1〜s3,f1〜f3)を設けて、シャッタ速度制御装置5のメモリに記憶させておき、前記光強度の検出値λを所定のしきい値th1,th2(th1>th2)と比較することにより、各シャッタ速度SS ,SF にいずれかの設定値を採用するようにしている。
【0070】
このように観測領域内の明るさの度合いによりカメラ1のシャッタ速度を制御するので、カメラ1により大きなダイナミックレンジを設定することができ、観測領域内の明るさが変動しても、安定した車輌検出を行うことができる。
【0071】
(9)第8実施例
図19は、観測装置の第8の構成を示す。この実施例も、前記第7の実施例と同様、前記第1〜3のいずれかの構成に、カメラの各シャッタ速度SS ,SF を可変設定する構成を付加したものであるが、ここでは観測領域内の明るさに代えて、各入力画像の明るさにより、シャッタ速度SS ,SF の設定値を変動するようにしている。
【0072】
制御装置2には、第1〜3の各構成と同様の画像入力部6,これら3つの構成のいずれかと同構成の認識処理部7のほか、2個の輝度平均算出部20S,20Fが配備される。これら輝度平均算出部20S,20Fは、画像メモリ10S,10Fに記憶された入力画像IS ,IF について、各構成画素の輝度値の平均を算出し、シャッタ速度制御装置5に出力する。シャッタ速度制御装置5は、各算出値を個々に取り込んで、各シャッタ速度Ss ,SF の設定値を決定し、つぎの撮像時には、この決定値に基づき、カメラ1のシャッタ速度を制御する。
【0073】
なお処理開始時点では、各シャッタ速度SS ,SF には所定の初期値が設定され、以後の数サイクルの撮像動作により最適値に調整される。
【0074】
図20は、シャッタ速度を決定するための手順を示す。なおここでは、遅い方のシャッタ速度SS を決定する手順を示すが、速い方のシャッタ速度SF も同様の手順で決定される。
【0075】
最初のステップ1(図中「ST1」で示す)で、輝度平均算出部20Sは、画像メモリ10Sより入力画像IS の画像データを読み込んで、平均輝度値AVS を算出する。つぎのステップ2,3で、シャッタ速度制御装置5は、この算出値AVS を平均輝度値の最適値MS と比較し、その比較結果を用いて、シャッタ速度SS の現在値を維持するか、変更するかを決定する。
【0076】
前記平均輝度値の最適値MS は、あらかじめ内部のメモリに登録されているもので、前記平均輝度値の算出値AVS と最適値MS との差が、所定のしきい値Δs2からΔs1の間にある場合(Δs2<ΔS1)は、ステップ2,3がいずれも「NO」となり、シャッタ速度SS の現在値が維持される(ステップ6)。
【0077】
入力画像IS が明るすぎる場合には、前記平均輝度値の算出値AVS と最適値MS との間にしきい値ΔS1を上回る差が生じる。この場合はステップ2が「YES」となってステップ4へと移行し、シャッタ速度SS の設定値が1/2に更新される。
【0078】
逆に、入力画像IS の明るさが落ちた場合には、前記平均輝度値の算出値AVS と最適値MS との差がしきい値Δs2を下回る。この場合には、ステップ3が「YES」となってステップ5へと移行し、、シャッタ速度SS の設定値は2倍に更新される。
【0079】
なお上記ステップ4,5におけるシャッタ速度SS の更新は、図示例に限らず、例えば現在の設定値に所定の度数分の値を加算(または減算)するようにしてもよい。
【0080】
このように、画像入力毎に、つぎの段階でのシャッタ速度SS ,SF を、それぞれ対応する入力画像IS ,IF を用いて決定することにより、実際に得られた画像上の明るさに基づき、各シャッタ速度SS ,SF を適切に調整することができる。
なお図15,16に示した第5,6の実施例にも、上記第7,8の実施例のシャッタ速度の調整にかかる構成を導入することが可能である。
【0081】
(10)第9実施例
上記した各実施例の構成は、いずれも所定の明るさの下での観測が可能な昼間に処理を実施することを前提とするもので、夜間など、観測領域全体が暗くなる条件下では、速いシャッタ速度により得られた画像上には、いずれの車輌の画像も表れない虞がある。
【0082】
図21に示す第9の構成は、複数とおりのシャッタ速度による画像を合成して認識処理を行うものであるが、夜間時にはこの処理を休止して、1枚の画像を用いた通常の認識処理を実施するように、構成される。
【0083】
この夜間時における処理の切換えは、制御装置2内部のタイマ21の計時時刻に基づき行われるもので、タイマ21の計時時刻が所定の期間内にあるときは、カメラ1には、最も遅いシャッタ速度のみがセットされる。また図中、22は、第2以下の画像メモリ10M2 〜10MN と認識処理部7との接続をオンオフするための切換部であって、前記カメラ1に単一のシャッタ速度がセットされると同時に、この切換部22はオフにセットされる。また同時に、認識処理部7の画像統合部11の機能が休止し、特徴抽出部12および物体検出部13により、画像メモリ10M1 からの画像データのみを用いた認識処理が行われる。
【0084】
なお図示例の制御装置2は、認識処理部7に前記図10の構成を採用しているが、他の構成をとる場合も、同様に、昼間と夜間とで処理の切換えを行うように設定することができる。
【0085】
このように夜間時に処理を切り換えることにより、夜間時の無用な演算処理を削減することができる。またこの無用な演算処理により検出結果に誤差が生じる虞もなくなり、車輌検出の精度を安定させることができる。
【0086】
(11)第10実施例
図22は、第10番目の構成を用いる場合の観測装置の設置例を示す。この観測装置は、2台のカメラ1A,1Bからの画像を用いた3次元計測処理により、各駐車枠毎の車輌の有無を判定するもので、各カメラ1A,1Bは、駐車エリア4に向けて、光軸を平行かつ撮像面を同一面上に位置させた状態で、縦並びに配備される。
【0087】
この実施例も、前記した第1〜8の各実施例と同様、明るさの異なる車輌CB ,CW をともに精度良く検出できるように、各カメラ1A,1Bに複数とおりのシャッタ速度を設定して連続的に撮像させている。また制御装置2においては、各カメラ1A,1Bより同じシャッタ速度で得られた画像の組毎に、車輌を示す特徴点の抽出から特徴点の対応づけまでの処理を行った後、各対応づけ結果を統合して3次元計測処理を実施するようにしている。
【0088】
図23は、前記観測装置の構成を示す。
シャッタ速度制御装置5は、前記第1〜3の各実施例と同様、固定された2とおりのシャッタ速度SS ,SF を交互に設定するもので、各カメラ1A,1Bは、このシャッタ速度制御装置5による制御を受けて、各シャッタ速度SS ,SF による画像を、それぞれ同時に生成する。
【0089】
制御装置2は、前記した各実施例と同様、画像入力部6と認識処理部7とを備えて成る。画像入力部6は、各カメラ毎に、A/D変換回路8A,8Bおよび2組の画像メモリ(10AS ,10AF )(10BS ,10BF )を具備する。各組の一方の画像メモリ10AS ,10BS には、それぞれ各カメラ1A,1Bからの遅い方のシャッタ速度SS による画像US ,LS が格納される。また他方の画像メモリ10AF ,10BF には、それぞれ各カメラからの速い方のシャッタ速度SF による画像UF ,LF が格納される。
【0090】
認識処理部7は、2組の特徴抽出部12BS ,12BF ,2組の対応づけ処理部23S,23Fを含むとともに、特徴統合部24,3次元計測部25,物体検出部26などの各構成を具備する。特徴抽出部12BS ,12BF は、それぞれ下側のカメラ1Bにより得られた各画像LS ,LF について、画像上のエッジを抽出するためのもので、特徴抽出部12BS による画像LS に対するエッジ抽出結果は第1の対応づけ処理部23Sに、特徴抽出部12BF による画像LF に対するエッジ抽出結果は第2の対応づけ処理部23Fに、それぞれ個別に与えられる。
【0091】
第1の対応づけ処理部23Sは、各カメラ1A,1Bより遅い方のシャッタ速度SS で得られた入力画像Us ,Ls について、それぞれ空間内の同じ物点を表す特徴点を特定して両者を対応づけるためのものである。
【0092】
この対応づけ処理は、具体的には、前記特徴抽出部12BS により画像LS 上で抽出された各エッジ構成点Pについて、それぞれ画像US 上での対応点Qを抽出することにより行われる。
【0093】
図24は、前記点Pへの対応点Qを抽出する具体的な方法を示す。
まず対応づけ処理部23Sは、前記エッジ抽出処理により生成されたエッジ画像ELS 上の所定の特徴点P(x,yL )について、原画像LS 上の点Pの位置に、この点Pを中心点とする所定大きさのウィンドウWL を設定する。ついで対応づけ処理部は、画像US 上の前記点PのエピポーララインEP上に前記ウィンドウWL と同じ大きさのウィンドウWU を設定して走査し、各走査位置毎に、つぎの(3)式を実行して、各ウィンドウWL ,WU 内の画像データの相違度DFを算出する。
【0094】
なお(3)式において、gL(x,y)はウィンドウWL内の所定の画素の輝度値を、またgU(x,y)はウィンドウWU内の所定の画素の輝度値を、それぞれ示す。またSZは各ウィンドウWL,WUのサイズを示す。さらにm,nは各ウィンドウ内の画素を特定するための変数であって、0から前記サイズ SZの範囲内で変動する。
【0095】
【数3】
【0096】
対応づけ処理部23Sは、各走査位置において求められた相違度DFを比較し、この相違度DFが最も小さくなる時点でのウィンドウWU の中心点(x,yU )を、前記点Pの対応点Qとして特定する。
【0097】
なお前記したように、各カメラ1A,1Bは縦並び、かつ光軸を平行にして配備されているので、エピポーララインEPはx軸に垂直になり、ウィンドウWU を容易に設定でき、また相違度DFの演算も簡単になる。またエピポーララインEP上の各走査位置で相違度DFを算出する方法に代えて、画像US 上でもエッジを抽出し、このうち前記エピポーララインEP上に位置するエッジ構成点を、特徴点Pの対応候補点として設定し、これら対応候補点についてのみ相違度DFを演算するようにしてもよい。
【0098】
図23に戻って、第2の対応づけ処理部23Fは、各カメラ1A,1Bより速い方のシャッタ速度SF により得られた各入力画像UF ,LF について、それぞれ上記と同様の対応づけ処理を行うもので、各対応づけ処理部23S,23Fによる対応づけ結果は、特徴統合部24において統合処理される。
【0099】
この統合処理は、各対応づけ処理部23S,23Fにより対応づけられた特徴点の組をすべて採用するもので、対応する各特徴点の組毎の座標データは、3次元計測部25に与えられる。3次元計測部25は、与えられた特徴点の組毎に、各特徴点の座標(x,yu )(x,yL )を三角測量の原理にあてはめることにより、各特徴点に対応する3次元座標を算出する。
【0100】
こうして各特徴点の組毎に対応する3次元座標が算出され、物体検出部26へと与えられる。物体検出部26は、各駐車枠位置における特徴点の数およびその高さデータから、各駐車枠内に車輌が存在するか否かを判別する。
【0101】
なおこの第10の実施例では、説明を簡単にするために、各カメラのシャッタ速度SS ,SF を固定値にしたが、前記第7,8の実施例のように、観測領域の明るさや入力画像の明るさに応じて各シャッタ速度SS ,SF を可変設定してもよい。またシャッタ速度SS ,SF は1種類に限らず、図10〜12に示したように、複数とおりのシャッタ速度を設定し、各シャッタ速度毎に画像間での特徴点の対応づけを行った後、各対応づけ結果を統合するようにしてもよい。さらに前記第9の実施例に示したように、夜間時には各カメラを遅いシャッタ速度のみで撮像させ、1組の画像のみで3次元計測処理を行うように構成してもよい。
【0102】
(12)その他の実施例
上記した各実施例は、いずれも、カメラにより、シャッタ速度の異なる複数枚の画像を生成するようにしたが、シャッタ速度のみならず、カメラの絞りや、カメラからの出力電圧のゲインを調整することによっても、明るさの異なる対象物の画像を個別に生成することが可能である。
【0103】
またここでは、駐車場用の観測装置における各構成例を説明したが、観測対象は車輌に限らず、他の物体であってもよく、また観測領域は室内であってもよい。さらにこの実施例の観測装置は、各駐車枠毎の車輌の有無を認識するだけのものであるが、これに限らず、車輌の大きさ、形状などを認識するようにしてもよく、カラー画像生成用のカメラを用いて、各車輌の車体色を認識するようにしてもよい。
【0104】
さらに個々に示した駐車場用の観測装置は、静止した車輌を認識対象とするが、道路上を走行する車輌などの移動体を認識対象とする場合にも、この発明を適用することができる。ただしこの場合、各シャッタ速度毎の画像を連続的に生成すると、画像間に対象物の移動分のずれが生じるので、前記第4または第5の実施例の構成を導入するのが望ましい。
【0105】
【発明の効果】
請求項1,2および請求項4,5の発明によれば、観測領域内に車体色の異なる複数の車輌が存在しても、各車輌をそれぞれその車体色に対応する露光量による画像上に出現させることができ、各種色彩の車輌を精度良く認識することができる。
【0108】
請求項6,7の発明では、各画像を供給する撮像手段に対し、観測領域内もしくは入力画像の明るさを用いて露光量を調整するので、周囲環境の変化により観測領域内の明るさが変動しても、各画像により車輌を鮮明にとらえることができ、安定した認識処理を行うことができる。
【0109】
請求項3および9の発明では、観測領域を複数個の撮像手段により撮像して、3次元計測処理を行う際に、各撮像手段により同じ露光量で生成された画像の組毎に画像上の特徴点の対応づけを行った後に、各組毎の対応づけ結果を統合して3次元計測処理を実施するので、観測領域内に明るさの異なる対象物がある場合にも、各対象物の3次元形状や空間位置を、精度良く認識することができる。
【0110】
請求項8および10の発明では、タイマの計時時刻により、1日のうちの所定の期間内は、特定の露光量による画像のみを用いた認識処理を行うので、夜間など明度の高い対象物が検出されることのない時間帯の無用な処理を回避して、装置コストを削減できる。また必要外の処理による誤計測を防止することも可能となる。
【図面の簡単な説明】
【図1】この発明が適用された観測装置の設置例を示す斜視図である。
【図2】観測装置の第1の構成を示すブロック図である。
【図3】入力画像の一例を示す説明図である。
【図4】図3の入力画像の合成画像を示す説明図である。
【図5】観測装置の第2の構成を示すブロック図である。
【図6】入力画像のエッジ抽出処理により得られたエッジ画像を示す説明図である。
【図7】図6のエッジ画像を統合した結果を示す説明図である。
【図8】観測装置の第3の構成を示すブロック図である。
【図9】駐車枠ごとの車輌の有無の判別結果を示す説明図である。
【図10】観測装置の第1の構成を変形した例を示すブロック図である。
【図11】観測装置の第2の構成を変形した例を示すブロック図である。
【図12】観測装置の第3の構成を変形した例を示すブロック図である。
【図13】第4の構成の観測装置の設置例を示す斜視図である。
【図14】観測装置の第4の構成を示すブロック図である。
【図15】観測装置の第5の構成を示すブロック図である。
【図16】観測装置の第6の構成を示すブロック図である。
【図17】観測装置の第7の構成を示すブロック図である。
【図18】図17の観測装置におけるシャッタ速度の設定例を示す説明図である。
【図19】観測装置の第8の構成を示すブロック図である。
【図20】図19の観測装置におけるシャッタ速度の設定手順を示すフローチャートである。
【図21】観測装置の第9の構成を示すブロック図である。
【図22】第10の構成の観測装置の設置例を示す斜視図である。
【図23】観測装置の第10の構成を示すブロック図である。
【図24】特徴点の対応づけ処理の具体例を示す説明図である。
【符号の説明】
1,1S,1F,1X,1A,1B カメラ
2 制御装置
5 シャッタ速度制御装置
6 画像入力部
7 認識処理部
11 画像統合部
12,12S,12F,12BS ,12BF 特徴抽出部
13,13S,13F,26 物体検出部
15 検出結果統合部
19 光強度計
23S,23F 対応づけ処理部
24 特徴統合部
25 3次元計測部
Claims (10)
- 車輌を認識するための画像処理方法であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出し、
前記画像毎の特徴点の抽出結果を統合し、その統合結果を用いて前記観測領域内の車輌を認識することを特徴とする画像処理方法。 - 車輌を認識するための画像処理方法であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像し、
前記撮像により生成された複数枚の画像毎に、それぞれ車輌の輪郭を表すエッジを抽出する処理と、前記抽出結果を用いて前記観測領域内の車輌をその位置に対応づけて認識する処理とを実行し、
前記画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、観測領域内の車輌を最終的に認識することを特徴とする画像処理方法。 - 所定の観測領域に向けて配備された複数個の撮像手段により、それぞれ異なる露光量による複数枚の画像を生成し、各撮像手段により同じ露光量で生成された画像の組毎に、各画像上の特徴点を画像間で対応づけした後、各組毎の対応づけ結果を統合し、
前記統合された対応づけ結果を用いた3次元計測処理を実施して、その計測結果に基づき前記観測領域内の対象物を認識することを特徴とする画像処理方法。 - 車輌を認識するための画像処理装置であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎のエッジ抽出結果を統合する統合手段と、
前記統合手段により統合されたエッジ抽出結果を用いて前記観測領域内の車輌を認識する認識手段とを具備して成る画像処理装置。 - 車輌を認識するための画像処理装置であって、
車輌の車体色の種類に応じた複数とおりの露光量によりそれぞれ同一の観測領域を撮像して得られた複数枚の画像を、個別に入力する画像入力手段と、
入力した各画像からそれぞれ車輌の輪郭を表すエッジを抽出するエッジ抽出手段と、
前記入力画像毎に、前記エッジ抽出結果を用いて観測領域内の車輌をその位置に対応づけて認識する認識手段と、
前記入力画像毎の認識結果のうち前記車輌の認識位置が画像間で異なるものを、それぞれ個別の車輌に対する認識結果とみなして各認識結果を統合し、前記観測領域内の車輌の最終的な認識結果を示すデータを生成する認識結果統合手段とを具備して成る画像処理装置。 - 請求項4または5に記載された画像処理装置において、
さらに、前記観測領域内の明るさを検出する明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。 - 請求項4または5に記載された画像処理装置において、
さらに前記画像入力手段により入力された各画像の明るさを検出する画像明るさ検出手段と、各入力画像を供給する撮像手段に対し、各画像に対応する露光量を前記明るさの検出結果を用いて調整する露光量調整手段とを具備して成る画像処理装置。 - 請求項4または5に記載された画像処理装置において、
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、特定の露光量による1枚の画像のみを入力して、前記観測領域内の車輌を認識するように構成されて成る画像処理装置。 - 所定の観測領域に向けて配備された複数個の撮像手段より、それぞれ異なる露光量による複数枚の画像を入力する画像入力手段と、
各撮像手段により同じ露光量で生成された入力画像の組毎に、各画像上の特徴点を画像間で対応づけする対応づけ手段と、
前記各組毎の対応づけ結果を統合する統合手段と、
統合された対応づけ結果を用いた3次元計測処理を実施する3次元計測手段と、
前記3次元計測結果を用いて前記観測領域内の対象物を認識する認識手段とを具備して成る画像処理装置。 - 請求項9に記載された画像処理装置において、
さらに時刻を計時するタイマを備え、このタイマの計時時刻に基づき、1日のうちの所定期間は、各撮像手段よりそれぞれ特定の露光量による1枚の画像のみを入力し、各入力画像間で対応する特徴点を用いた3次元計測処理により、前記観測領域内の対象物を認識するように構成されて成る画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01329598A JP3570198B2 (ja) | 1998-01-07 | 1998-01-07 | 画像処理方法およびその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01329598A JP3570198B2 (ja) | 1998-01-07 | 1998-01-07 | 画像処理方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11201741A JPH11201741A (ja) | 1999-07-30 |
JP3570198B2 true JP3570198B2 (ja) | 2004-09-29 |
Family
ID=11829211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01329598A Expired - Fee Related JP3570198B2 (ja) | 1998-01-07 | 1998-01-07 | 画像処理方法およびその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3570198B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3965943B2 (ja) * | 2001-07-12 | 2007-08-29 | 株式会社ノーリツ | 人体検出装置 |
JP4084578B2 (ja) | 2002-02-20 | 2008-04-30 | 富士通株式会社 | 文字認識方法及びその装置 |
JP2004048345A (ja) * | 2002-07-11 | 2004-02-12 | Niles Co Ltd | 撮像システム |
JP3793487B2 (ja) * | 2002-07-12 | 2006-07-05 | ナイルス株式会社 | 撮像システム |
JP4009163B2 (ja) * | 2002-08-30 | 2007-11-14 | 富士通株式会社 | 物体検知装置、物体検知方法および物体検知プログラム |
JP5074067B2 (ja) * | 2007-03-27 | 2012-11-14 | セコム株式会社 | 不審物監視装置 |
JP5076100B2 (ja) * | 2009-02-19 | 2012-11-21 | 独立行政法人 宇宙航空研究開発機構 | カラー標的用画像処理装置 |
JP4983905B2 (ja) | 2009-12-25 | 2012-07-25 | カシオ計算機株式会社 | 撮像装置、3dモデリングデータ生成方法、および、プログラム |
JP5290233B2 (ja) * | 2010-04-13 | 2013-09-18 | Ckd株式会社 | 三次元計測装置及び基板検査装置 |
JP2012226513A (ja) * | 2011-04-19 | 2012-11-15 | Honda Elesys Co Ltd | 検知装置、及び検知方法 |
JP5889247B2 (ja) * | 2013-07-02 | 2016-03-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮像装置 |
JP7190088B2 (ja) * | 2017-09-29 | 2022-12-15 | 智幸 伊豆 | 駐車場監視装置、駐車場管理システム及び駐車場管理プログラム |
WO2022254795A1 (ja) * | 2021-05-31 | 2022-12-08 | 日立Astemo株式会社 | 画像処理装置、および、画像処理方法 |
-
1998
- 1998-01-07 JP JP01329598A patent/JP3570198B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11201741A (ja) | 1999-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2919197B1 (en) | Object detection device and object detection method | |
CN107615334B (zh) | 物体识别装置以及物体识别系统 | |
JP3570198B2 (ja) | 画像処理方法およびその装置 | |
JP2768042B2 (ja) | 距離測定装置 | |
JP2001091247A (ja) | 距離データの検査方法およびその検査装置 | |
WO2019146510A1 (ja) | 画像処理装置 | |
JP3988574B2 (ja) | 画像処理装置 | |
JPH1144533A (ja) | 先行車両検出装置 | |
JP2004312402A (ja) | 道路監視システム,道路監視装置 | |
JP2004086417A (ja) | 横断歩道等における歩行者検出方法及び同装置 | |
JP5004923B2 (ja) | 車両の運転支援装置 | |
JP2006059183A (ja) | 画像処理装置 | |
JP3465531B2 (ja) | 物体認識方法およびその装置 | |
JPH09329671A (ja) | 霧監視システム | |
JP2001357396A (ja) | 画像処理装置および画像認識装置 | |
JP3994954B2 (ja) | 物体検出装置及び物体検出方法 | |
JP4547213B2 (ja) | 物体検出装置および方法 | |
JP2004208209A (ja) | 移動体監視装置および移動体監視方法 | |
US20190318495A1 (en) | Image processing system | |
JP2006155400A (ja) | 画像抽出装置 | |
CN111536895B (zh) | 外形识别装置、外形识别系统以及外形识别方法 | |
JPH1073419A (ja) | エンジン外付け部品の誤欠品検査装置 | |
JPH11223516A (ja) | 3次元画像撮像装置 | |
JP3525712B2 (ja) | 三次元画像撮像方法及び三次元画像撮像装置 | |
JP3755319B2 (ja) | 主被写体検出装置およびそれを用いた機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20031224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040614 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080702 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080702 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090702 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |