JP3505362B2 - Vehicle detection method - Google Patents
Vehicle detection methodInfo
- Publication number
- JP3505362B2 JP3505362B2 JP21848897A JP21848897A JP3505362B2 JP 3505362 B2 JP3505362 B2 JP 3505362B2 JP 21848897 A JP21848897 A JP 21848897A JP 21848897 A JP21848897 A JP 21848897A JP 3505362 B2 JP3505362 B2 JP 3505362B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- vehicle
- image
- vehicle detection
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、細線化されたエッ
ジ画像におけるエッジ成分の長さの大小から車両と影を
識別するようにした車両検出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detection method for distinguishing a vehicle from a shadow based on the size of the length of edge components in a thinned edge image.
【0002】[0002]
【従来の技術】従来の車両検出方法としては、車両検出
対象領域、例えば駐車場や走行車線などの路面輝度と車
両輝度とを比較することによって、その輝度差から車両
を検出する方法や撮影画像を処理して得られるエッジ画
像のエッジ輝度の大小から車両を検出する方法などが知
られている。2. Description of the Related Art As a conventional vehicle detection method, a vehicle detection target area, for example, a method of detecting a vehicle from a brightness difference by comparing the road surface brightness of a parking lot or a driving lane with the vehicle brightness, or a captured image There is known a method of detecting a vehicle from the magnitude of the edge brightness of an edge image obtained by processing the.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上述し
た従来方法の場合、いずれも、黒色などの暗色系の車両
と、他の車両などの影とを正確に識別して抽出すること
が難しかった。このため、隣の駐車エリアや走行車線ま
で達するような長い影の出やすい晴れた日の夕方や明け
方に誤検出が多く発生していた。However, in any of the above-mentioned conventional methods, it is difficult to accurately identify and extract a dark vehicle such as black and a shadow of another vehicle. For this reason, many false detections occurred in the evening or at dawn on a sunny day where a long shadow that easily reaches the adjacent parking area or driving lane is likely to appear.
【0004】本発明は、上記のような問題を解決するた
めになされたもので、車両が持つエッジ形状の複雑さに
着目し、エッジ量の大小に基づいて車両と影を正確に識
別し、車両のみを確実に抽出するようにした車両検出方
法を提供することを目的とする。The present invention has been made in order to solve the above problems, paying attention to the complexity of the edge shape of a vehicle, and accurately distinguishing the vehicle and the shadow based on the size of the edge, An object of the present invention is to provide a vehicle detection method that surely extracts only a vehicle.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明の請求項1記載の車両検出方法は、車両検出
対象領域の撮影画像からエッジを抽出するエッジ抽出処
理手段と、得られたエッジ画像中の各エッジの線幅を細
線化されたエッジ画像に変換する細線化処理手段と、該
細線化処理手段で細線化されたエッジ画像に含まれてい
るエッジ成分の長さの大小に基づいて車両と影とを識別
し車両のみを抽出する判定処理手段とからなる。In order to achieve the above object, a vehicle detection method according to claim 1 of the present invention is provided with edge extraction processing means for extracting edges from a photographed image of a vehicle detection target area. Thinning means for converting the line width of each edge in the edge image into a thinned edge image, and the length of the edge component included in the thinned edge image by the thinning processing means. Determination processing means for identifying the vehicle and the shadow based on the above and extracting only the vehicle.
【0006】 また、請求項2記載の車両検出方法は、
車両検出対象領域の撮影画像からエッジを抽出して多値
エッジ画像を得るエッジ抽出処理手段と、得られた多値
エッジ画像を二値化処理して二値エッジ画像に変換する
二値化処理手段と、該二値化画像に細線化処理を施して
1画素幅または規定画素幅に細線化された画像を得る細
線化処理手段と、該細線化処理手段で細線化されたエッ
ジ画像に含まれているエッジ成分の長さの大小に基づい
て車両と影とを識別し車両のみを抽出する判定処理手段
とからなる。Further, the vehicle detection method according to claim 2,
Edge extraction processing means for extracting edges from a captured image of a vehicle detection target area to obtain a multivalued edge image, and binarization processing for binarizing the obtained multivalued edge image to convert it into a binary edge image. Means, thinning processing means for subjecting the binarized image to thinning processing to obtain an image thinned to a one-pixel width or a prescribed pixel width, and an edge image thinned by the thinning processing means Determination processing means for discriminating between the vehicle and the shadow based on the magnitude of the length of the edge component being present and extracting only the vehicle.
【0007】 また、請求項3記載の車両検出方法は、
前記請求項1または請求項2記載の車両検出方法におい
て、前記判別処理手段が、前記細線化されたエッジ画像
中の各車両検出エリア毎にエッジ成分の長さを計測し、
該得られたエッジ成分の長さを当該検出エリア面積で正
規化したエッジ長を所定のしきい値と比較することで車
両を抽出するようにしたことを特徴とする。Further, the vehicle detection method according to claim 3,
The vehicle detection method according to claim 1 or 2, wherein the determination processing unit measures an edge component length for each vehicle detection area in the thinned edge image,
The vehicle is extracted by comparing the edge length obtained by normalizing the length of the obtained edge component with the area of the detection area with a predetermined threshold value.
【0008】 また、請求項4記載の車両検出方法
は、前記請求項2記載の車両検出方法において、前記細
線化される前の多値エッジ画像から各車両検出エリア毎
にその検出エリア内のエッジを構成する画素の平均輝度
値を求め、該エッジの平均輝度値と前記正規化したエッ
ジ長の両方を用いて車両を抽出するようにしたことを特
徴とする。A vehicle detection method according to a fourth aspect is the vehicle detection method according to the second aspect, wherein an edge within the detection area is detected for each vehicle detection area from the multivalued edge image before thinning. It is characterized in that the average luminance value of the pixels forming the above is obtained, and the vehicle is extracted using both the average luminance value of the edge and the normalized edge length.
【0009】さらに、請求項5記載の車両検出方法は、
前記請求項1〜4のいずれかに記載の車両検出方法にお
いて、前記車両検出対象領域が駐車場であり、かつ、前
記車両検出エリアが当該駐車場内の個々の駐車エリアで
あることを特徴とするものである。Further, the vehicle detection method according to claim 5 is
The vehicle detection method according to any one of claims 1 to 4, wherein the vehicle detection target region is a parking lot, and the vehicle detection area is an individual parking area in the parking lot. It is a thing.
【0010】[0010]
【発明の実施の形態】本発明の具体的な実施形態につい
て述べる前に、先ず、本発明の検出原理について説明す
る。BEST MODE FOR CARRYING OUT THE INVENTION Before describing specific embodiments of the present invention, the detection principle of the present invention will be described first.
【0011】通常、車両は、ボデー、窓、ヘッドライ
ト、バックライト、サイドミラー、タイヤ、バンパーな
ど、数多くの複雑な形状をした部品から構成されている
ため、極めて複雑なエッジ群を構成する。このため、撮
影画像をエッジ画像に変換した場合、車両のエッジ成
分、すなわちエッジの画素数はきわめて大きな値とな
る。一方、太陽光などによる影は、物体の輪郭線がエッ
ジとなって現れるだけであるため、きわめて単純な形状
の線になることがほとんどである。このため、影のエッ
ジ成分は車両のエッジ成分に比べてそのエッジ成分の長
さが極めて短い。そこで、本発明は、この車両と影のエ
ッジ成分の長さの違いに着目し、エッジ成分の長さをし
きい値と比較することによって車両のみを正確に抽出す
るようにしたものである。Usually, a vehicle is made up of a large number of parts having complicated shapes such as a body, a window, a headlight, a backlight, a side mirror, a tire, a bumper, etc., so that an extremely complicated edge group is formed. Therefore, when the captured image is converted into the edge image, the edge component of the vehicle, that is, the number of pixels of the edge becomes a very large value. On the other hand, the shadow due to sunlight or the like almost always has an extremely simple shape because the contour line of the object only appears as an edge. Therefore, the edge component of the shadow has an extremely shorter length than that of the vehicle. In view of this, the present invention focuses on the difference in the length of the edge component of the vehicle and the shadow and compares the length of the edge component with a threshold value to accurately extract only the vehicle.
【0012】すなわち、駐車場など車両検出対象領域を
俯瞰撮影した画像に対して、エッジ抽出処理と二値化処
理を施して二値エッジ画像に変換した後、この二値エッ
ジ画像に細線化処理を施し、1画素幅または規定画素幅
に細線化されたエッジ画像に変換する。That is, an image obtained by taking a bird's-eye view of a vehicle detection target area such as a parking lot is subjected to edge extraction processing and binarization processing to convert it into a binary edge image, and then to this binary edge image thinning processing. Is performed to convert the edge image into a thin line having a one-pixel width or a specified pixel width.
【0013】なお、撮影画像を単なるエッジ画像ではな
く、1画素幅または規定画素幅に細線化されたエッジ画
像に変換する理由は、1画素幅または規定画素幅に細線
化した場合には、エッジ線の幅が一定であるので、エッ
ジを構成する画素を数えれば、その値がそのままエッジ
成分の長さを与えるからである。一方、撮影画像をただ
単にエッジ画像に変換しただけでは、撮影された影や車
両の状態に応じて各部のエッジ幅が広くなったり、狭く
なったりしてしまい、エッジを構成する画素の数を数え
てもエッジ成分の長さを計測することができないからで
ある。It should be noted that the reason for converting a photographed image into an edge image thinned to a one-pixel width or a specified pixel width instead of a simple edge image is that when the thinned one-pixel width or the specified pixel width is used, Since the width of the line is constant, if the number of pixels forming an edge is counted, that value gives the length of the edge component as it is. On the other hand, if the captured image is simply converted to an edge image, the edge width of each part may become wider or narrower depending on the captured shadow and the state of the vehicle, and the number of pixels that make up the edge may be reduced. This is because the length of the edge component cannot be measured even if it is counted.
【0014】次に、上記細線化処理されたエッジ画像を
用い、画像中の所定の車両検出エリア毎にその検出エリ
ア内に含まれるエッジ成分の長さを計測し、該エッジ成
分の長さを当該検出エリアの面積で正規化したエッジ
長、すなわち、(エッジの長さ)/(検出エリア面積)
を算出する。Next, using the edge image subjected to the thinning process, the length of the edge component included in the detection area is measured for each predetermined vehicle detection area in the image, and the length of the edge component is calculated. Edge length normalized by the area of the detection area, that is, (edge length) / (detection area area)
To calculate.
【0015】そして、前記検出エリア面積で正規化され
たエッジ長を予め設定しておいたしきい値と比較するこ
とにより、その大小から車両を抽出する。Then, by comparing the edge length normalized by the area of the detection area with a preset threshold value, the vehicle is extracted based on its size.
【0016】上記のように、本発明方法においては、車
両検出対象領域の撮影画像を細線化されたエッジ画像に
変換し、この細線化されたエッジ画像中含まれるエッジ
成分の長さの大小に基づいて車両と影を識別し、車両の
みを抽出するので、車両と影とを正確に識別することが
でき、隣の駐車エリアや走行車線まで達するような長い
影の出やすい晴れた日の朝方や夕方においても、誤って
影の部分を車両として誤検出するようなことがなくな
る。As described above, in the method of the present invention, the photographed image of the vehicle detection target area is converted into a thinned edge image, and the length of the edge component included in the thinned edge image is reduced. Since the vehicle and shadow are identified based on the vehicle and only the vehicle is extracted, it is possible to accurately identify the vehicle and shadow, and in the morning on a sunny day where a long shadow that easily reaches the adjacent parking area or driving lane Even in the evening, the shadow portion will not be erroneously detected as a vehicle.
【0017】なお、必要ならば、前記細線化処理する前
の多値エッジ画像から各検出エリア毎にその検出エリア
内のエッジを構成する画素の平均輝度値を求め、該平均
輝度値と前記正規化したエッジ長との両方を用いて車両
を抽出するようにしてもよい。これによって、さらに精
度の高い車両検出を実現することができる。If necessary, the average brightness value of the pixels forming the edge in the detection area is calculated for each detection area from the multi-valued edge image before the thinning process, and the average brightness value and the regular brightness value are obtained. The vehicle may be extracted using both the converted edge length. As a result, vehicle detection with higher accuracy can be realized.
【0018】次に、上記のような検出原理に基づいて構
成された本発明方法の実施形態を、図面を参照して具体
的に説明する。Next, an embodiment of the method of the present invention constructed on the basis of the above-described detection principle will be specifically described with reference to the drawings.
【0019】図1は、上記した本発明に係る車両検出方
法を駐車場の駐車車両検出装置に適用した場合の一実施
形態を示すもので、1は撮影手段を構成するITVカメ
ラであって、このITVカメラ1によって車両検出対象
領域たる駐車場を所定の高さ位置から俯瞰撮影するもの
である。2はITVカメラ1で撮影された駐車場の撮影
画像をアナログ画像信号からデジタル画像信号に変換す
るAD変換部、3はAD変換された撮影画像を格納する
ためのRAMなどからなる撮影画像メモリである。FIG. 1 shows an embodiment in which the above-described vehicle detection method according to the present invention is applied to a parked vehicle detection device in a parking lot. Reference numeral 1 denotes an ITV camera constituting a photographing means, The ITV camera 1 takes a bird's-eye view of a parking lot, which is a vehicle detection target area, from a predetermined height position. Reference numeral 2 denotes an AD conversion unit for converting a captured image of a parking lot captured by the ITV camera 1 from an analog image signal to a digital image signal, and 3 is a captured image memory including a RAM for storing the AD converted captured image. is there.
【0020】4はエッジ抽出処理部であって、前記撮影
画像メモリ3に格納された駐車場の撮影画像に対してエ
ッジ抽出処理を施し、撮影画像中のエッジ成分のみを抽
出し、多値エッジ画像として取り出す回路である。5
は、エッジ抽出処理部4によって抽出された多値エッジ
画像を格納するためのRAMなどからなるエッジ画像メ
モリである。An edge extraction processing unit 4 performs edge extraction processing on the photographed image of the parking lot stored in the photographed image memory 3 to extract only the edge component in the photographed image to obtain a multi-valued edge. It is a circuit that takes out as an image. 5
Is an edge image memory including a RAM for storing the multi-valued edge image extracted by the edge extraction processing unit 4.
【0021】6は二値化処理部であって、前記エッジ画
像メモリ5に格納されている多値エッジ画像に対して二
値化処理を施し、例えば白黒からなる二値のエッジ画像
に変換する回路である。7は、変換された二値エッジ画
像を格納するためのRAMなどからなる二値画像メモリ
である。Reference numeral 6 denotes a binarization processing unit which performs binarization processing on the multi-valued edge image stored in the edge image memory 5 and converts it into a binary edge image composed of black and white, for example. Circuit. Reference numeral 7 is a binary image memory including a RAM for storing the converted binary edge image.
【0022】8は細線化処理部であって、二値画像メモ
リ7に格納されている二値エッジ画像中の各エッジの線
幅を例えば1画素幅に細線化する回路である。9は、細
線化されたエッジ画像を格納するためのRAMなどから
なる細線化画像メモリである。A thinning processing unit 8 is a circuit for thinning the line width of each edge in the binary edge image stored in the binary image memory 7 to, for example, one pixel width. Reference numeral 9 denotes a thinned image memory including a RAM for storing the thinned edge image.
【0023】10は判定処理部であって、前記細線化画
像メモリ9に格納されている細線化されたエッジ画像か
ら各駐車エリア毎にその駐車エリア内に含まれるエッジ
成分の長さを求め、得られたエッジ成分の長さを用いて
当該駐車エリア面積で正規化したエッジ長、(エッジの
長さ)/(駐車エリア面積)を算出するとともに、エッ
ジ画像メモリ5に格納されている多値エッジ画像から各
検出エリア毎にその検出エリア内のエッジを構成する画
素の平均輝度値を求め、該平均輝度値と前記正規化した
エッジ長の両方を用いて、各駐車エリアに車両が存在す
るか否かを判定する回路である。A determination processing unit 10 obtains the length of the edge component included in the parking area for each parking area from the thinned edge image stored in the thinned image memory 9. Using the obtained length of the edge component, the edge length normalized by the parking area area, (edge length) / (parking area area) is calculated, and the multi-value stored in the edge image memory 5 is calculated. From each edge area, the average brightness value of the pixels forming the edge in the detection area is calculated for each detection area, and the vehicle exists in each parking area using both the average brightness value and the normalized edge length. It is a circuit for determining whether or not.
【0024】なお、上記構成になる駐車車両検出装置
は、専用処理回路によってハードウェア的に構成しても
よいし、あるいは、処理プログラムとパーソナルコンピ
ュータなどを用いてソフトウェア的に構成してもよいも
のである。The parked vehicle detection device having the above-described configuration may be configured as hardware by a dedicated processing circuit, or may be configured as software by using a processing program and a personal computer. Is.
【0025】次に、上記構成になる実施形態の動作につ
いて、図2のフローチャートおよび図3〜図8の処理画
像例を参照して説明する。Next, the operation of the embodiment having the above configuration will be described with reference to the flowchart of FIG. 2 and the processed image examples of FIGS.
【0026】まず、ITVカメラ1によって処理対象と
する駐車場の全域を所定高さ位置から俯瞰撮影する(図
2のステップS1)。この撮影画像は、AD変換部2に
おいてアナログ画像信号からデジタル画像信号に変換さ
れた後、撮影画像メモリ3に格納される。この撮影画像
の例を図3に示す。図3において、長方形の白い枠線で
囲まれた部分が個々の駐車エリアである。First, the ITV camera 1 takes a bird's-eye view of the entire parking lot to be processed from a predetermined height position (step S1 in FIG. 2). This captured image is stored in the captured image memory 3 after being converted from an analog image signal to a digital image signal in the AD conversion unit 2. An example of this photographed image is shown in FIG. In FIG. 3, each of the parking areas is enclosed by a rectangular white frame.
【0027】この図3は、駐車場を朝方に撮影したもの
で、太陽の高度が低いために駐車している車両の影が2
つ隣の駐車エリアまで長く伸びていることがわかる。従
来方法においては、この長く伸びる影のために車両が存
在しない駐車エリアにも車両が駐車しているとして誤検
出していたものである。In FIG. 3, the parking lot is photographed in the morning, and the shadow of the parked vehicle is 2 because the altitude of the sun is low.
You can see that it extends to the next parking area. In the conventional method, it is erroneously detected that the vehicle is parked in the parking area where the vehicle does not exist due to the long shadow.
【0028】次に、エッジ抽出処理部4は、撮影画像メ
モリ3から駐車場の撮影画像を読み出し、エッジ抽出処
理(例えば、ラプラシアン・フィルタ、1次微分フィル
タ、ソーベル・フィルタ、ロバーツ・フィルタ、プレヴ
ィット・フィルタ、色差処理など)を施すことによって
画像中のエッジ成分のみを抽出し、多値のエッジ抽出画
像を得る(ステップS2)。この多値エッジ画像は、エ
ッジ画像メモリ5に格納される。この多値エッジ画像の
例を図4に示す。図4に示すように、エッジ抽出処理を
施すことによって、車両のボデー、窓、ヘッドライト、
バックライト、サイドミラー、タイヤ、バンパーなど、
数多くの複雑な形状からなる部品外形線がエッジとして
抽出されるとともに、朝日や夕日によって長く伸びた車
両の影もエッジ成分として抽出されている。Next, the edge extraction processing section 4 reads out the photographed image of the parking lot from the photographed image memory 3 and performs edge extraction processing (for example, Laplacian filter, first derivative filter, Sobel filter, Roberts filter, pre-filter). Vit filter, color difference processing, etc.) are applied to extract only the edge components in the image to obtain a multivalued edge extracted image (step S2). This multivalued edge image is stored in the edge image memory 5. An example of this multi-valued edge image is shown in FIG. As shown in FIG. 4, by performing edge extraction processing, the body, window, headlights,
Backlights, side mirrors, tires, bumpers, etc.
The outlines of many parts having complex shapes are extracted as edges, and the shadow of the vehicle elongated by the sunrise or sunset is also extracted as edge components.
【0029】次に、二値化処理部4は、エッジ画像メモ
リ5から多値エッジ画像を読み出し、二値化処理を施す
ことによって、多値画像からなるエッジ画像を例えば白
黒の二値エッジ画像に変換する(ステップS3)。この
二値エッジ画像は、二値画像メモリ7に格納される。こ
の二値化処理は、この後に続くエッジの細線化処理のた
めの前処理となるものである。この二値エッジ画像の例
を図5に示す。図5に示すように、多値エッジ画像(図
4)はエッジ部分が黒色からなる二値画像となる。Next, the binarization processing unit 4 reads the multivalued edge image from the edge image memory 5 and performs the binarization process to convert the multivalued edge image into, for example, a black and white binary edge image. (Step S3). This binary edge image is stored in the binary image memory 7. This binarization process is a pre-process for the subsequent edge thinning process. An example of this binary edge image is shown in FIG. As shown in FIG. 5, the multi-value edge image (FIG. 4) is a binary image in which the edge portion is black.
【0030】次に、細線化処理部8は、二値画像メモリ
7から二値エッジ画像を読み出し、細線化処理を施すこ
とによって、二値画像中の各エッジの線幅を所定幅から
なる細線、例えば1画素幅の細線に変換する(ステップ
S4)。この細線化されたエッジ画像は、細線化画像メ
モリ9に格納される。この細線化処理は、次の判定処理
部10においてエッジを構成する黒色の画素だけを数え
ることにより、エッジの線幅に影響されることなしにエ
ッジの線長を正確に計測するために必要な処理である。Next, the thinning processing unit 8 reads the binary edge image from the binary image memory 7 and performs thinning processing so that the line width of each edge in the binary image has a predetermined width. , For example, a thin line having a width of 1 pixel is converted (step S4). The thinned edge image is stored in the thinned image memory 9. This thinning processing is necessary in order to accurately measure the line length of the edge without being influenced by the line width of the edge by counting only the black pixels forming the edge in the next determination processing unit 10. Processing.
【0031】なお、上記細線化処理は、連結成分を構成
する画素に対し、輪郭部の消去可能な画素から逐次処理
によって順次消去していき、輪郭部から等距離となる画
素を抽出する公知の「波形伝播法」と呼ばれる処理手法
や、消去可能な画素を示すマスクパターンを順次画像に
当てはめていくことによって不必要な画素を消去する公
知の「マスクパターン法」と呼ばれる処理手法などを採
用することによって実現できる。In the thinning process, the pixels forming the connected component are sequentially erased from the erasable pixels of the contour portion by sequential processing, and the pixels that are equidistant from the contour portion are extracted. A processing method called a “waveform propagation method” or a known processing method called a “mask pattern method” that erases unnecessary pixels by sequentially applying a mask pattern indicating erasable pixels to an image is adopted. It can be realized by
【0032】この細線化画像の例を図6に示す。図6に
示すように、車両部分には複雑な何本ものエッジが現れ
ているが、一方、影の部分には滑らかな一本のエッジが
現れてるだけであり、さらに、空車部分にはほとんどエ
ッジが現れていないことが分かる。したがって、このエ
ッジの表われ方の特徴を利用することによって、後述す
るようにして車両と影を識別し、車両のみを正確に抽出
することが可能となる。An example of this thinned image is shown in FIG. As shown in FIG. 6, many complicated edges appear in the vehicle part, while only one smooth edge appears in the shadow part, and most of the empty parts appear in the empty part. It can be seen that no edge appears. Therefore, by utilizing the feature of the appearance of the edge, the vehicle and the shadow can be discriminated as described later, and only the vehicle can be accurately extracted.
【0033】次に、判定処理部10は、以下のような評
価量の算出処理を行ない(ステップS5)、この評価量
を用いて各駐車領域に車両が存在するか否かの駐車・空
車判定処理を行なう(ステップS6)。Next, the determination processing unit 10 performs the following evaluation amount calculation processing (step S5), and uses this evaluation amount to determine whether or not a vehicle exists in each parking area. Processing is performed (step S6).
【0034】(1)評価量算出処理(ステップS5)
(a)各駐車エリアに含まれるエッジ成分の長さの計測
判定処理部10は、細線化画像メモリ9に格納されてい
る細線化されたエッジ画像(図6参照)を読み出し、こ
の細線化されたエッジ画像中の各駐車エリア毎に、その
駐車エリア内に含まれるエッジ成分の合計長さを計測す
る。このエッジ成分の長さを計測するには、エッジ成分
を示す黒色の画素(図6参照)の数をカウントすればよ
い。これは、エッジの線幅が1画素に変換されている場
合、各駐車エリア中の黒色の画素の総数が当該駐車エリ
ア内に存在するエッジ成分の合計長さそのものを与える
からである。(1) Evaluation amount calculation processing (step S5) (a) The measurement determination processing unit 10 for measuring the length of the edge component included in each parking area is made into a thin line stored in the thinned image memory 9. The edge image (see FIG. 6) is read out, and for each parking area in the thinned edge image, the total length of the edge components included in the parking area is measured. To measure the length of this edge component, the number of black pixels (see FIG. 6) indicating the edge component may be counted. This is because when the line width of the edge is converted to 1 pixel, the total number of black pixels in each parking area gives the total length of the edge components existing in the parking area itself.
【0035】(b)エッジ成分の長さの駐車エリア面積
による正規化
次に、判定処理部10は、上記(a)で得られたエッジ
成分の長さを各駐車エリアの面積で正規化したエッジ長
に変換する。この正規化したエッジ長の算出は、次の式
によればよい。
画素の中心間の距離を加算してエッジ成分の長さを計測
する場合
(エッジの長さ)/(駐車エリア面積)(B) Normalization of Length of Edge Component by Parking Area Area Next, the determination processing unit 10 normalizes the length of the edge component obtained in (a) above by the area of each parking area. Convert to edge length. The normalized edge length may be calculated by the following formula. When measuring the length of the edge component by adding the distance between the centers of the pixels (edge length) / (parking area area)
【0036】(c)各駐車エリアのエッジの平均輝度値
の算出
さらに、上記実施の形態の場合、より確実な車両判定を
行なうために、判定処理部10は、エッジ画像メモリ5
から多値エッジ画像(図4参照)を読み出し、この多値
エッジ画像から各駐車エリア毎に、その駐車エリア内の
エッジを構成する画素の平均輝度値を算出する。(C) Calculation of Average Luminance Value of Edge of Each Parking Area Further, in the case of the above-mentioned embodiment, the determination processing unit 10 causes the edge image memory 5 to perform more reliable vehicle determination.
The multi-valued edge image (see FIG. 4) is read out from the multi-valued edge image and the average brightness value of the pixels forming the edge in the parking area is calculated for each parking area from the multi-valued edge image.
【0037】(2)駐車・空車判定処理(ステップS
6)
判定処理部10は、上記のようにして得られた正規化さ
れたエッジ長と、エッジの平均輝度値とを用い、予め設
定したそれぞれのしきい値と比較することによって車両
の有無の判定を行なう。すなわち、前記正規化されたエ
ッジ長と、エッジの平均輝度値には、下記(I)〜(II
I)のような性質があるため、前記正規化されたエッジ長
とエッジの平均輝度値のそれぞれについて、予め最適な
しきい値を設定しておけば、当該エッジ長と平均輝度値
の大小から、その駐車エリアに車両が存在するか否かを
正確に判定することができる。(2) Parking / empty vehicle determination processing (step S
6) The determination processing unit 10 uses the normalized edge length obtained as described above and the average brightness value of the edge to compare the presence or absence of a vehicle by comparing each with a preset threshold value. Make a decision. That is, the normalized edge length and the average luminance value of the edges include the following (I) to (II
Since there is a property such as I), for each of the normalized edge length and the average brightness value of the edge, if an optimal threshold value is set in advance, from the size of the edge length and the average brightness value, It is possible to accurately determine whether or not there is a vehicle in the parking area.
【0038】(I) 駐車エリア内に車両が存在する場
合、車両は複雑な形状の部品からなるため、エッジ成分
の長さが長く、正規化されたエッジ長の値も大きくなる
とともに、エッジ成分自体も影の部分よりも明るいの
で、エッジの平均輝度も大きくなる。
(II) 駐車エリア内に影が存在する場合、影は外形線
だけがエッジとして現れるため、正規化されたエッジ長
の値がそれほど大きくならないとともに、エッジの平均
輝度もそれほど大きくない。
(III) 駐車エリア内に車両も影も存在しない場合に
は、影も含めて何ら物体が存在しないので、正規化され
たエッジ長の値はほとんど0に近くなるとともに、エッ
ジの平均輝度もほとんど0に近くなる。(I) When the vehicle exists in the parking area, the vehicle is composed of parts having a complicated shape, so that the length of the edge component is long, the value of the normalized edge length is large, and the edge component is large. Since it itself is brighter than the shaded area, the average brightness of the edges also becomes large. (II) When there is a shadow in the parking area, only the outline of the shadow appears as an edge, so the value of the normalized edge length does not become so large, and the average brightness of the edge is not so large. (III) When there are no vehicles or shadows in the parking area, there are no objects including shadows, so the normalized edge length value is almost 0 and the average edge brightness is also almost zero. It approaches 0.
【0039】図7に、上記のようにして得られた、細線
化されたエッジ画像(図6)についての駐車・空車の判
定結果を示す。横軸がエッジの平均輝度値、また、縦軸
が正規化されたエッジ長=(エッジの長さ)/(駐車エ
リア面積)である。この図7の例の場合、縦軸の正規化
されたエッジ長の判定しきい値として8%を、また、横
軸のエッジの平均輝度値の判定しきい値として68/2
56ステップ(8ビット=256ステップ表示の場合)
を採用したものである。FIG. 7 shows the parking / vacant judgment result of the thinned edge image (FIG. 6) obtained as described above. The horizontal axis is the average luminance value of the edges, and the vertical axis is the normalized edge length = (edge length) / (parking area area). In the case of the example in FIG. 7, 8% is set as the threshold value for determining the normalized edge length on the vertical axis, and 68/2 is set as the threshold value for determining the average luminance value of the edges on the horizontal axis.
56 steps (when 8 bits = 256 steps are displayed)
Is adopted.
【0040】図7から明らかなように、横軸方向(エッ
ジの平均輝度値)よりも縦軸方向(正規化したエッジ
長)で車両判定を行なった方がより高い判定精度が得ら
れる。また、縦軸の正規化されたエッジ長と、横軸のエ
ッジの平均輝度値の両方を用いて車両判定した場合に
は、両方のしきい値を満足する領域(A)内が車両の存
在する駐車エリアとして判定されるので、より高い判定
精度を得ることができる。As is apparent from FIG. 7, a higher determination accuracy can be obtained by performing the vehicle determination in the vertical axis direction (normalized edge length) than in the horizontal axis direction (average luminance value of edges). Further, when the vehicle is determined using both the normalized edge length on the vertical axis and the average brightness value of the edges on the horizontal axis, the vehicle exists in the area (A) that satisfies both thresholds. Since it is determined as a parking area for parking, higher determination accuracy can be obtained.
【0041】図8に、上記図7の判定結果を元の撮影画
像(図3)上に重ねて表示した判定処理画像の例を示
す。図8において、白い枠線で囲った部分が車両有りと
判定された駐車エリア、黒い枠線で囲った部分が車両無
しと判定された駐車エリアである。この図8から明らか
なように、ほとんどの駐車エリアにおいて正しい判定結
果を示しており、駐車エリアに車両の影が長く伸びてい
ても誤判定を起こしていないことが分かる。FIG. 8 shows an example of the judgment processing image in which the judgment result of FIG. 7 is displayed in an overlapping manner on the original photographed image (FIG. 3). In FIG. 8, a portion surrounded by a white frame is a parking area determined to have a vehicle, and a portion surrounded by a black frame is a parking area determined not having a vehicle. As is clear from FIG. 8, the correct determination result is shown in most of the parking areas, and it can be seen that no erroneous determination is made even if the shadow of the vehicle extends long in the parking area.
【0042】なお、上記実施の形態は、本発明を駐車場
の駐車車両検出装置に適用した場合について例示した
が、本発明は駐車車両の検出のみに限定されるものでは
なく、例えば、走行車線上に車両検出エリアを設定し、
この検出エリア内を走行する車両と影の識別など、さま
ざまな分野に適用可能である。Although the above-described embodiment has been described with respect to the case where the present invention is applied to the parked vehicle detection device in the parking lot, the present invention is not limited to the detection of the parked vehicle. Set the vehicle detection area on the line,
The present invention can be applied to various fields such as distinguishing a vehicle traveling in the detection area from a shadow.
【0043】[0043]
【発明の効果】以上説明したように、本発明の請求項1
記載の車両検出方法によるときは、車両検出対象領域の
撮影画像を細線化されたエッジ画像に変換し、この細線
化されたエッジ画像に含まれるエッジ成分の長さの大小
に基づいて車両と影を識別し、車両のみを抽出するよう
にしたので、隣の駐車エリアや走行車線まで達するよう
な長い影の出やすい晴れた日の夕方や明け方において
も、正確に車両を検出することができる。As described above, according to the first aspect of the present invention.
According to the vehicle detection method described, the captured image of the vehicle detection target area is converted into a thinned edge image, and the vehicle and the shadow are shaded based on the magnitude of the length of the edge component included in the thinned edge image. Since the vehicle is identified and only the vehicle is extracted, the vehicle can be accurately detected even in the evening or at dawn on a sunny day where a long shadow that tends to reach the adjacent parking area or the driving lane is likely to appear.
【0044】 また、本発明の請求項2記載の車両検出
方法によるときは、車両検出対象領域の撮影画像を多値
エッジ画像に変換した後、二値化処理して二値エッジ画
像に変換し、該二値エッジ画像に細線化処理を施すこと
によって、1画素幅または規定画素幅に細線化されたエ
ッジ画像を得るようにしたので、本発明方法の実現に必
要な細線化されたエッジ画像を簡単かつ確実に得ること
ができる。According to the vehicle detection method of the second aspect of the present invention, the captured image of the vehicle detection target area is converted into a multi-valued edge image and then binarized to be converted into a binary edge image. Since the binary edge image is subjected to a thinning process to obtain an edge image thinned to a one-pixel width or a specified pixel width, the thinned edge image necessary for realizing the method of the present invention is obtained. Can be obtained easily and surely.
【0045】 また、本発明の請求項3記載の車両検出
方法によるときは、前記細線化されたエッジ画像中の各
車両検出エリア毎にエッジ成分の長さを計測し、該得ら
れたエッジ成分の長さを当該検出エリア面積で正規化
し、該正規化したエッジ長を所定のしきい値と比較する
ことにより車両を抽出するようにしたので、安定した車
両検出を実現することができる。According to the vehicle detection method of claim 3 of the present invention, the length of the edge component is measured for each vehicle detection area in the thinned edge image, and the obtained edge component is measured. Is normalized by the detection area area, and the vehicle is extracted by comparing the normalized edge length with a predetermined threshold value. Therefore, stable vehicle detection can be realized.
【0046】また、本発明の請求項4記載の車両検出方
法によるときは、前記細線化される前の多値エッジ画像
から各車両検出エリア毎にその検出エリア内のエッジを
構成する画素の平均輝度値を求め、該エッジの平均輝度
値と前記正規化したエッジ長の両方を用いて車両を抽出
するようにしたので、より精度の高い車両検出を実現す
ることができる。According to the vehicle detection method of the fourth aspect of the present invention, the average of the pixels forming the edge in the detection area is averaged for each vehicle detection area from the multivalued edge image before thinning. Since the brightness value is obtained and the vehicle is extracted using both the average brightness value of the edge and the normalized edge length, more accurate vehicle detection can be realized.
【0047】また、本発明の請求項5記載の車両検出方
法によるときは、前記車両検出対象領域が駐車場とし、
かつ、前記車両検出エリアが当該駐車場内の個々の駐車
エリアとしたので、駐車エリアに駐車している車両を影
と間違えることなく正確に検出することができ、駐車場
の車両管理をより正確に効率よく行なうことができる。According to the vehicle detection method of the fifth aspect of the present invention, the vehicle detection target area is a parking lot,
Moreover, since the vehicle detection area is an individual parking area in the parking lot, the vehicle parked in the parking area can be accurately detected without being mistaken for a shadow, and the vehicle management of the parking lot can be performed more accurately. It can be done efficiently.
【図1】本発明方法を駐車場の駐車車両検出装置に適用
した場合の一実施形態を示すブロック回路図である。FIG. 1 is a block circuit diagram showing an embodiment in which the method of the present invention is applied to a parked vehicle detection device in a parking lot.
【図2】上記実施形態の処理動作のフローチャートであ
る。FIG. 2 is a flowchart of a processing operation of the above embodiment.
【図3】図1中のITVカメラで俯瞰撮影された駐車場
の撮影画像の例を示す図である。FIG. 3 is a diagram showing an example of a captured image of a parking lot taken from above with the ITV camera shown in FIG. 1;
【図4】図1中のエッジ抽出処理部で得られる多値エッ
ジ画像の例を示す図である。FIG. 4 is a diagram showing an example of a multivalued edge image obtained by an edge extraction processing unit in FIG.
【図5】図1中の二値化処理部で得られる二値エッジ画
像の例を示す図である。5 is a diagram showing an example of a binary edge image obtained by a binarization processing unit in FIG.
【図6】図1中の細線化処理部で得られる細線化された
エッジ画像の例を示す図である。6 is a diagram showing an example of a thinned edge image obtained by a thinning processing unit in FIG.
【図7】図1中の判定処理部における駐車・空車の判定
処理の例を示すグラフである。FIG. 7 is a graph showing an example of parking / empty vehicle determination processing in a determination processing unit in FIG. 1.
【図8】図7の判定結果を図3の撮影画像上に重ねて表
示した判定処理画像の例を示す図である。FIG. 8 is a diagram showing an example of a determination processing image in which the determination result of FIG. 7 is superimposed and displayed on the captured image of FIG.
1 ITVカメラ(撮影手段) 2 AD変換部 3 撮影画像メモリ 4 エッジ抽出処理部 5 エッジ画像メモリ 6 二値化処理部 7 二値画像メモリ 8 細線化処理部 9 細線化画像メモリ 10 判定処理部 1 ITV camera (shooting means) 2 AD converter 3 Captured image memory 4 Edge extraction processing unit 5 Edge image memory 6 Binarization processing unit 7 Binary image memory 8 Thinning processing section 9 Thin line image memory 10 Judgment processing unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 堀場 勇夫 愛知県刈谷市東境町新林50−2 (56)参考文献 特開 平9−83996(JP,A) 特開 平6−331335(JP,A) 特開 平9−62842(JP,A) (58)調査した分野(Int.Cl.7,DB名) G08G 1/00 - 9/02 G01C 21/00 - 21/24 G06T 1/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yuuo Horiba 50-2 Shinbayashi, Higashisakai-cho, Kariya city, Aichi prefecture (56) References JP-A-9-83996 (JP, A) JP-A-6-331335 (JP, A) JP 9-62842 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G08G 1/00-9/02 G01C 21/00-21/24 G06T 1/00
Claims (5)
を抽出するエッジ抽出処理手段と、得られたエッジ画像
中の各エッジの線幅を細線化されたエッジ画像に変換す
る細線化処理手段と、該細線化処理手段で細線化された
エッジ画像に含まれているエッジ成分の長さの大小に基
づいて車両と影とを識別し車両のみを抽出する判定処理
手段とからなる車両検出方法。1. An edge extraction processing means for extracting edges from a captured image of a vehicle detection target area, and a thinning processing means for converting a line width of each edge in the obtained edge image into a thinned edge image. A vehicle detection method comprising: a determination processing unit that distinguishes between a vehicle and a shadow based on the magnitude of the length of an edge component included in the edge image thinned by the thinning processing unit and extracts only the vehicle.
を抽出して多値エッジ画像を得るエッジ抽出処理手段
と、得られた多値エッジ画像を二値化処理して二値エッ
ジ画像に変換する二値化処理手段と、該二値化画像に細
線化処理を施して1画素幅または規定画素幅に細線化さ
れた画像を得る細線化処理手段と、該細線化処理手段で
細線化されたエッジ画像に含まれているエッジ成分の長
さの大小に基づいて車両と影とを識別し車両のみを抽出
する判定処理手段とからなる車両検出方法。2. An edge extraction processing means for extracting edges from a captured image of a vehicle detection target area to obtain a multivalued edge image, and binarizing the obtained multivalued edge image to convert it into a binary edge image. Binarizing processing means, thinning processing means for performing thinning processing on the binarized image to obtain an image thinned to one pixel width or a prescribed pixel width, and thinning processing performed by the thinning processing means. And a determination processing unit that identifies a vehicle and a shadow based on the size of the length of the edge component included in the edge image and extracts only the vehicle.
エッジ画像中の各車両検出エリア毎にエッジ成分の長さ
を計測し、該得られたエッジ成分の長さを当該検出エリ
ア面積で正規化したエッジ長を所定のしきい値と比較す
ることで車両を抽出するようにしたことを特徴とする請
求項1または請求項2に記載の車両検出方法。3. The determination processing means measures the length of an edge component for each vehicle detection area in the thinned edge image, and the obtained length of the edge component is the area of the detection area. The vehicle detection method according to claim 1 or 2, wherein the vehicle is extracted by comparing the normalized edge length with a predetermined threshold value.
ら各車両検出エリア毎にその検出エリア内のエッジを構
成する画素の平均輝度値を求め、該エッジの平均輝度値
と前記正規化したエッジ長の両方を用いて車両を抽出す
るようにしたことを特徴とする請求項2に記載の車両検
出方法。4. An average brightness value of pixels forming an edge in each vehicle detection area is calculated for each vehicle detection area from the multi-valued edge image before thinning, and the average brightness value of the edge and the normalization are performed. The vehicle detection method according to claim 2, wherein the vehicle is extracted using both of the edge lengths.
かつ、前記車両検出エリアが当該駐車場内の個々の駐車
エリアであることを特徴とする請求項1〜4のいずれか
に記載の車両検出方法。5. The vehicle detection target area is a parking lot,
The vehicle detection method according to any one of claims 1 to 4, wherein the vehicle detection area is an individual parking area in the parking lot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21848897A JP3505362B2 (en) | 1997-08-13 | 1997-08-13 | Vehicle detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21848897A JP3505362B2 (en) | 1997-08-13 | 1997-08-13 | Vehicle detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1166490A JPH1166490A (en) | 1999-03-09 |
JP3505362B2 true JP3505362B2 (en) | 2004-03-08 |
Family
ID=16720723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21848897A Expired - Lifetime JP3505362B2 (en) | 1997-08-13 | 1997-08-13 | Vehicle detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3505362B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1050866B1 (en) * | 1999-04-28 | 2003-07-09 | Matsushita Electric Industrial Co., Ltd. | Parking assistance device and method |
JP4580117B2 (en) * | 2001-03-23 | 2010-11-10 | 名古屋電機工業株式会社 | Parking vehicle detection device |
JP2010082245A (en) * | 2008-09-30 | 2010-04-15 | Panasonic Electric Works Co Ltd | Hair information measuring method |
JP4869323B2 (en) * | 2008-12-12 | 2012-02-08 | 株式会社東芝 | Image processing apparatus and image processing method |
JP6401922B2 (en) * | 2014-03-13 | 2018-10-10 | 株式会社メガチップス | Object detection device |
JP6582891B2 (en) * | 2015-11-04 | 2019-10-02 | アイシン・エィ・ダブリュ株式会社 | Empty vehicle frame identification system, method and program |
JP6508134B2 (en) * | 2016-06-14 | 2019-05-08 | トヨタ自動車株式会社 | Object discrimination device |
-
1997
- 1997-08-13 JP JP21848897A patent/JP3505362B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH1166490A (en) | 1999-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107891808B (en) | Driving reminding method and device and vehicle | |
JP3987013B2 (en) | Vehicle periphery monitoring device | |
JP3307335B2 (en) | Vehicle region detection device and vehicle region verification method | |
JP3503230B2 (en) | Nighttime vehicle recognition device | |
CN107886034B (en) | Driving reminding method and device and vehicle | |
CN110889974B (en) | Intelligent parking space identification method and device and automobile | |
KR101224027B1 (en) | Method for dectecting front vehicle using scene information of image | |
JP2019020956A (en) | Vehicle surroundings recognition device | |
JP4864043B2 (en) | Image processing apparatus, method, and program | |
JP5983729B2 (en) | White line detection device, white line detection filter device, and white line detection method | |
JP3505362B2 (en) | Vehicle detection method | |
CN108284793A (en) | A kind of vehicle sub-controlling unit | |
JP3812384B2 (en) | Leading vehicle recognition device | |
JP2893814B2 (en) | Plate cutout device for automatic car number reader | |
KR100459479B1 (en) | Grouping apparatus for automobile and method thereof | |
JP2924063B2 (en) | Image processing type traffic flow measurement device | |
JPH11219493A (en) | Method for processing traffic information | |
JPH10302074A (en) | Device for detecting position of number plate | |
JP3216356B2 (en) | License plate position detector | |
JPH09128548A (en) | Vehicle detecting method | |
JP3265753B2 (en) | Display plate detector | |
JP4744401B2 (en) | Image processing device | |
JP3380436B2 (en) | Recognition method of vehicles, etc. | |
Talib et al. | Comparison of edge detection technique for lane analysis by improved hough transform | |
JP3271743B2 (en) | Serial number cutout device for license plate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20031215 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081219 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101219 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101219 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131219 Year of fee payment: 10 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |