[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5172422B2 - Driving support system - Google Patents

Driving support system Download PDF

Info

Publication number
JP5172422B2
JP5172422B2 JP2008087472A JP2008087472A JP5172422B2 JP 5172422 B2 JP5172422 B2 JP 5172422B2 JP 2008087472 A JP2008087472 A JP 2008087472A JP 2008087472 A JP2008087472 A JP 2008087472A JP 5172422 B2 JP5172422 B2 JP 5172422B2
Authority
JP
Japan
Prior art keywords
image
imaging environment
preceding vehicle
driving support
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008087472A
Other languages
Japanese (ja)
Other versions
JP2009241636A (en
Inventor
靖 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2008087472A priority Critical patent/JP5172422B2/en
Publication of JP2009241636A publication Critical patent/JP2009241636A/en
Application granted granted Critical
Publication of JP5172422B2 publication Critical patent/JP5172422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転支援システムに係り、特に、撮像環境が悪化している場合に運転支援制御の一時停止を行う運転支援システムに関する。   The present invention relates to a driving support system, and more particularly to a driving support system that temporarily stops driving support control when an imaging environment is deteriorated.

近年、自車両に搭載したカメラ等の撮像手段により撮像された画像に対して画像処理を行い、自車両の前方を走行する先行車両を検出し、それに基づいて先行車両に対する追従走行制御を行う先行車追従機能付きクルーズコントロール(Adaptive Cruise Control。以下ACCと略称する)制御を行うACC装置が開発されている。また、撮像された画像の画像処理により、自車両の左右の車線を検出して、自車両を車線に追従して走行するように制御する車線追従制御機能を備えた車線追従制御装置が開発されている。なお、本発明では、追い越し禁止線等の道路中央線や車両通行帯境界線、路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線を車線という。   In recent years, image processing is performed on an image captured by an imaging unit such as a camera mounted on the host vehicle, a preceding vehicle traveling in front of the host vehicle is detected, and the preceding traveling control for the preceding vehicle is performed based on the detected preceding vehicle. ACC devices that perform cruise control with vehicle following function (Adaptive Cruise Control, hereinafter abbreviated as ACC) have been developed. In addition, a lane tracking control device having a lane tracking control function that detects the left and right lanes of the host vehicle by image processing of the captured image and controls the host vehicle to follow the lane is developed. ing. In the present invention, a continuous line or a broken line marked on a road surface such as a road center line such as an overtaking prohibition line, a vehicle traffic zone boundary line, a lane line dividing a roadside zone and a roadway is referred to as a lane.

ACC装置では、先行車両が存在しない場合には自車両を設定された速度で定速走行させ、先行車両が存在する場合には自車両を先行車両に追従させるように自車両のアクセルスロットルやブレーキ機構等を自動的に適切に操作する制御が行われる。そのため、ACC装置で用いられる先行車両の情報は、先行車両を的確に検出できる状況において検出されたものであることが求められる。   In the ACC device, when the preceding vehicle does not exist, the host vehicle travels at a set speed at a set speed, and when the preceding vehicle exists, the accelerator throttle or brake of the own vehicle follows the preceding vehicle. Control for automatically operating the mechanism and the like is performed automatically. Therefore, the information on the preceding vehicle used in the ACC device is required to be detected in a situation where the preceding vehicle can be accurately detected.

また、車線追従制御装置では、自車両が左右の車線から逸脱せずに、車線に追従して走行するように、自車両のステアリング操作を自動的に行う制御が行われる。そのため、車線追従制御装置で用いられる車線の情報は、車線を的確に検出できる状況において検出されたものであることが求められる。   In the lane tracking control device, control for automatically performing the steering operation of the host vehicle is performed so that the host vehicle travels following the lane without departing from the left and right lanes. Therefore, the lane information used in the lane tracking control device is required to be detected in a situation where the lane can be accurately detected.

ところで、例えば図24に示すような逆光の撮像環境下では、撮像手段により撮像された画像TO中に太陽Suの強い光によるフレア(flare。レンズフレア、ハレーション等とも言う。)Flや筋状のスミア(smear。白飛び等とも言う。)Smが発生する場合がある。このような撮像環境で撮像された画像TO等に対するステレオマッチング処理等の画像処理を行うと、周囲の画像領域よりも極端に明るいフレアFlやスミアSmの影響で、先行車両Vahや図示を省略する車線を検出できなくなる場合がある。 By the way, for example, under the backlight imaging environment as shown in FIG. 24, flare caused by strong light from the sun Su (flare) is also included in the image T O captured by the imaging means. Smear (smear, also referred to as overexposure) Sm may occur. When image processing such as stereo matching processing is performed on the image T O or the like captured in such an imaging environment, the preceding vehicle Vah and illustration are omitted due to the influence of the flare Fl and smear Sm extremely brighter than the surrounding image area. The lane to be detected may not be detected.

また、例えば図25(A)、(B)に例示されるステレオカメラで撮像された基準画像TOや比較画像TCのように、片方のカメラにだけ逆光が入射するなどして、一対の画像TO、TCの明るさのバランスが崩れた状態で撮像される場合がある。そして、このような撮像環境でも、同様に、先行車両Vahや図示を省略する車線を検出できなくなる場合がある。 In addition, for example, a backlight is incident on only one camera, such as a reference image T O or a comparative image T C captured by a stereo camera illustrated in FIGS. In some cases, the images T O and T C are picked up in a state where the brightness balance is lost. Even in such an imaging environment, there may be cases where it is impossible to detect the preceding vehicle Vah or a lane that is not shown.

そして、先行車両Vahが検出できなくなった(すなわちロストした)状態で例えばACC装置を作動させ続けると、自車両が先行車両Vahに向かって接近して行って追突するなど、非常に危険な状況となる。また、車線が検出できなくなった状態で例えば車線追従制御を継続すると、自車両が勝手に車線を逸脱するなど、やはり危険な状況となる。   Then, if the ACC device continues to be operated, for example, when the preceding vehicle Vah cannot be detected (ie lost), the host vehicle approaches the preceding vehicle Vah and makes a rear-end collision. Become. Further, if the lane tracking control is continued in a state where the lane cannot be detected, for example, the host vehicle deviates from the lane without permission.

このような事態の発生を回避するため、特許文献1に記載の発明では、基準画像TOと比較画像TCとの位置的に対応する各画像領域の全体的な輝度(例えば輝度値の平均値等)を比較して、それらが大きく異なる場合にフェール判定を行うことが提案されている。これは、まさに図25(A)、(B)に示したように、基準画像TOと比較画像TCの明るさのバランスが崩れたような場合に対応するものである。 In order to avoid the occurrence of such a situation, in the invention described in Patent Document 1, the overall luminance (for example, the average of luminance values) of each image region corresponding to the position of the reference image T O and the comparative image T C is determined. It has been proposed to make a fail determination when they are significantly different from each other. This corresponds to the case where the balance of the brightness of the reference image T O and the comparison image T C is lost as shown in FIGS. 25 (A) and 25 (B).

また、特許文献2に記載の発明では、カメラの露光量が大きい場合に、対象が数フレームの間安定して撮像されないような場合に、フレアFlやスミアSm等の誤認識の可能性があるとして排除することが提案されている。また、撮像された画像の全画素の輝度値、或いは画像中に設定した監視領域内の各画素の輝度値を監視して、輝度値が飽和した状態或いはそれに近い状態になっている画素がある場合にスミアの発生を判定する装置が開発されている(例えば特許文献3〜6等参照)。
特開2002−374524号公報 特開2007−96684号公報 特開2000−207563号公報 特開2001−28745号公報 特開2001−43377号公報 特開2002−22439号公報
Further, in the invention described in Patent Document 2, there is a possibility that a flare Fl, a smear Sm, or the like may be erroneously recognized when an object is not stably imaged for several frames when the exposure amount of the camera is large. It has been proposed to eliminate as. In addition, the luminance value of all the pixels of the captured image or the luminance value of each pixel in the monitoring area set in the image is monitored, and there is a pixel in which the luminance value is saturated or close to it. In some cases, an apparatus for determining the occurrence of smear has been developed (see, for example, Patent Documents 3 to 6).
JP 2002-374524 A JP 2007-96684 A JP 2000-207563 A JP 2001-28745 A JP 2001-43377 A JP 2002-22439 A

ところで、これらの特許文献に記載の発明では、フレアFlやスミアSmの影響や一対の画像の明るさのバランスが崩れるなどして撮像環境が悪化した場合には、画像認識性能が低下せずに先行車両Vahや車線を十分的確に検出できる状態であっても、先行車追従制御や車線追従制御等の運転支援制御が自動的に一時停止されてしまう。   By the way, in the inventions described in these patent documents, when the imaging environment deteriorates due to the influence of flare Fl or smear Sm or the balance of the brightness of a pair of images, the image recognition performance does not deteriorate. Even in a state where the preceding vehicle Vah and the lane can be detected sufficiently accurately, the driving support control such as the preceding vehicle following control and the lane following control is automatically paused.

しかし、撮像環境が悪化してもその悪化の程度が深刻な状況ではなく、しかも画像認識性能が低下せずに先行車両Vahや車線を十分的確に検出できているのであれば、その情報を有効に活用することが好ましく、画像認識性能が限界に達して先行車両Vahや車線を的確に検出できない状態になるまで運転支援制御を継続する方が好ましい。   However, even if the imaging environment deteriorates, the degree of deterioration is not serious, and if the preceding vehicle Vah or lane can be detected sufficiently accurately without degrading the image recognition performance, the information is valid. It is preferable to continue driving support control until the image recognition performance reaches a limit and the preceding vehicle Vah or lane cannot be accurately detected.

本発明は、このような事情に鑑みてなされたものであり、撮像環境の悪化の程度に応じて画像認識性能が限界に達した時点で運転支援制御を的確に一時停止することが可能な運転支援システムを提供することを目的とする。   The present invention has been made in view of such circumstances, and is capable of accurately pausing the driving support control when the image recognition performance reaches the limit depending on the degree of deterioration of the imaging environment. The purpose is to provide a support system.

前記の問題を解決するために、第1の発明は、
自車両の周囲を撮像する撮像手段と、前記撮像手段により撮像された画像中から特定の対象を検出する検出手段とを備える検出装置と、
前記検出手段により検出された前記特定の対象の情報に基づいて自車両に対する運転支援制御を行う運転支援装置と、
を備える運転支援システムにおいて、
前記検出手段による前記特定の対象の検出に用いられた有効なデータの数を計数する計数手段と、
前記撮像手段により撮像された画像に基づいて撮像環境が悪化しているか否かを判定し、前記撮像環境の悪化の程度を3段階に分けて評価する撮像環境判定手段と、
前記撮像環境判定手段により前記撮像環境の悪化の程度が最も悪い段階であると評価された場合、または、前記撮像環境の悪化の程度が中間の段階であると評価された場合であって且つ前記計数手段により計数される前記有効なデータの数が予め設定された閾値未満である場合に、前記運転支援装置による自車両に対する前記運転支援制御を一時停止する制御手段と、
を備え
前記撮像環境判定手段は、前記撮像環境が悪化していると判定したフレームではカウント数を増加させ、前記撮像環境が悪化していると判定しなかったフレームではカウント数を減少させるカウンタを備え、前記カウンタのカウント数に第1閾値と前記第1閾値よりも大きな値に設定される第2閾値とを設け、前記カウンタのカウント数が前記第1閾値未満の場合に前記撮像環境の悪化の程度が最も改善されている段階であると評価し、前記カウンタのカウント数が前記第1閾値以上で前記第2閾値未満の場合に前記撮像環境の悪化の程度が中間の段階であると評価し、前記カウンタのカウント数が前記第2閾値以上の場合に前記撮像環境の悪化の程度が最も悪い段階であると評価し、
前記運転支援装置は、自車両に対する前記運転支援制御が一時停止された場合に、自車両のドライバに対して前記運転支援制御が停止されたことを報知し、
前記制御手段は、前記撮像環境判定手段により前記撮像環境の悪化の程度が最も改善されている段階であると評価された場合、または、前記撮像環境の悪化の程度が中間の段階であると評価された場合であって且つ前記計数手段により計数される前記有効なデータの数が予め設定された閾値以上である場合に、前記自車両に対する前記運転支援制御の一時停止を解除することを特徴とする。
In order to solve the above problem, the first invention provides:
A detection apparatus comprising: an imaging unit that captures an image of the surroundings of the host vehicle; and a detection unit that detects a specific target from an image captured by the imaging unit;
A driving support device that performs driving support control on the host vehicle based on the information on the specific target detected by the detection unit;
In a driving support system comprising:
Counting means for counting the number of valid data used for detection of the specific object by the detection means;
An imaging environment determination unit that determines whether the imaging environment is deteriorated based on an image captured by the imaging unit, and evaluates the degree of deterioration of the imaging environment in three stages;
When the imaging environment determination means evaluates that the degree of deterioration of the imaging environment is the worst stage, or when the degree of deterioration of the imaging environment is evaluated as an intermediate stage, and Control means for temporarily stopping the driving support control for the host vehicle by the driving support device when the number of the valid data counted by the counting means is less than a preset threshold;
Equipped with a,
The imaging environment determination unit includes a counter that increases a count number in a frame that is determined that the imaging environment is deteriorated, and that decreases a count number in a frame that is not determined that the imaging environment is deteriorated, A first threshold value and a second threshold value set to a value larger than the first threshold value are provided for the count number of the counter, and the degree of deterioration of the imaging environment when the count number of the counter is less than the first threshold value Is evaluated as the most improved stage, and when the count number of the counter is greater than or equal to the first threshold and less than the second threshold, the degree of deterioration of the imaging environment is evaluated as an intermediate stage, When the count number of the counter is greater than or equal to the second threshold value, the degree of deterioration of the imaging environment is evaluated to be the worst stage,
When the driving support control for the host vehicle is temporarily stopped, the driving support device notifies the driver of the host vehicle that the driving support control has been stopped,
The control unit evaluates that the imaging environment determination unit evaluates that the degree of deterioration of the imaging environment is most improved, or that the degree of deterioration of the imaging environment is an intermediate stage. If the number of the valid data that is counted by and said counting means in a case where is is preset threshold or more, characterized that you unpause the driving support control for the vehicle And

の発明は、第1の発明の運転支援システムにおいて、
前記特定の対象は、先行車両であり、
前記運転支援装置は、前記検出手段により検出された前記先行車両の情報に基づいて自車両に対して前記先行車両に追従するように制御する先行車追従制御を行うことを特徴とする。
The second invention is the driving support system of the first invention,
The specific object is a preceding vehicle,
The driving support device performs preceding vehicle follow-up control for controlling the host vehicle to follow the preceding vehicle based on the information on the preceding vehicle detected by the detecting unit.

の発明は、第の発明の運転支援システムにおいて、前記有効なデータの数に関する前記閾値は、自車両から前記先行車両までの距離が長くなるほど小さな値になるように設定されることを特徴とする。 According to a third aspect of the present invention, in the driving support system of the second aspect , the threshold value relating to the number of valid data is set so as to become smaller as the distance from the host vehicle to the preceding vehicle becomes longer. Features.

の発明は、第1から第のいずれかの発明の運転支援システムにおいて、
前記特定の対象は、自車両の左右の車線であり、
前記運転支援装置は、前記検出手段により検出された前記車線の情報に基づいて自車両に対して前記車線に追従するように制御する車線追従制御を行うことを特徴とする。
A fourth invention is the driving support system according to any one of the first to third inventions,
The specific target is the left and right lanes of the host vehicle,
The driving support device performs lane tracking control for controlling the host vehicle to follow the lane based on the lane information detected by the detection unit.

の発明は、第1から第のいずれかの発明の運転支援システムにおいて、
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、前記基準画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像とのステレオマッチング処理を行い、前記基準画像の前記各画素ブロックに算出した視差または距離をそれぞれ対応づけて形成された距離画像に基づいて、前記撮像手段により撮像された画像中から特定の対象を検出し、
前記撮像環境判定手段は、前記距離として無限遠を含む遠方距離閾値以上の距離または前記視差として前記遠方距離閾値に対応する遠方視差閾値以下の視差が算出された前記画素ブロックが属する前記基準画像の縦方向に延在する画素列の各画素の輝度値の探索を行い、所定の輝度値以上の輝度値を有する前記画素の数が前記画素列に属する画素の数の所定の割合以上存在するフレームに対し、前記撮像環境が悪化していると判定することを特徴とする。
A fifth invention is the driving support system according to any one of the first to fourth inventions,
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection unit divides the reference image into pixel blocks having a predetermined number of pixels, performs a stereo matching process with the comparison image for each pixel block, and calculates a parallax calculated for each pixel block of the reference image or Based on distance images formed by associating distances with each other, a specific target is detected from the images captured by the imaging unit,
The imaging environment determining unit is configured to detect a distance of the reference image to which the pixel block to which a disparity equal to or greater than a distant disparity threshold corresponding to the distant disparity threshold corresponding to the distant disparity threshold is calculated as the disparity including the distant distance threshold including infinity as the distance. A frame in which the luminance value of each pixel in the pixel column extending in the vertical direction is searched, and the number of pixels having a luminance value equal to or higher than a predetermined luminance value is greater than or equal to a predetermined ratio of the number of pixels belonging to the pixel column On the other hand , it is determined that the imaging environment is deteriorated.

の発明は、第1から第のいずれかの発明の運転支援システムにおいて、
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、
前記基準画像または前記基準画像に所定の前処理が施されて形成された画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像または前記比較画像に前記所定の前処理が施されて形成された画像とのステレオマッチング処理を行い、前記各画素ブロックに算出した第1視差をそれぞれ対応づけて第1距離画像を形成する第1ステレオマッチング手段と、
前記基準画像に前記前処理とは異なる別の前処理が施されて形成された画像を前記所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像に前記別の前処理が施されて形成された画像とのステレオマッチング処理を行い、前記各画素ブロックに算出した第2視差をそれぞれ対応づけて第2距離画像を形成する第2ステレオマッチング手段と、を備え、
前記撮像環境判定手段は、前記第1距離画像および前記第2距離画像の対応する画素ブロックの前記第1視差および前記第2視差を比較して、それらの差の絶対値が所定の閾値以上である画素ブロックが所定個数以上存在するフレームに対し、前記撮像環境が悪化していると判定することを特徴とする。
A sixth invention is the driving support system according to any one of the first to fifth inventions,
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection means includes
The reference image or an image formed by performing predetermined preprocessing on the reference image is divided into pixel blocks having a predetermined number of pixels, and the predetermined image is divided into the comparison image or the comparison image for each pixel block. A first stereo matching unit that performs a stereo matching process with the image formed by the processing and associates the calculated first parallax with each pixel block to form a first distance image;
An image formed by subjecting the reference image to another preprocessing different from the preprocessing is divided into pixel blocks having the predetermined number of pixels, and the separate preprocessing is performed on the comparison image for each pixel block. A second stereo matching unit that performs a stereo matching process with the image formed by applying the second parallax calculated to each of the pixel blocks, and forms a second distance image.
The imaging environment determination unit compares the first parallax and the second parallax of corresponding pixel blocks of the first distance image and the second distance image, and an absolute value of the difference is equal to or greater than a predetermined threshold value. It is determined that the imaging environment is deteriorated for a frame in which a predetermined number or more of pixel blocks exist.

の発明は、第1から第のいずれかの発明の運転支援システムにおいて、
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、前記基準画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像とのステレオマッチング処理を行い、前記基準画像の前記各画素ブロックに算出した視差または距離をそれぞれ対応づけて形成された距離画像に基づいて、前記撮像手段により撮像された画像中から特定の対象を検出し、
前記撮像環境判定手段は、前記画像における中央上部に画像の水平方向に延在する長方形状の監視領域を設定して当該監視領域の輝度平均値を算出し、前記監視領域において画像の垂直方向の各画素対の輝度差を算出して所定値以上の輝度差を有する画素対の数をエッジ数として算出し、前記輝度平均値が所定の第1判定値よりも大きく、且つ、前記エッジ数が所定の第2判定値よりも小さいフレームに対し、前記撮像環境が悪化していると判定することを特徴とする。
A seventh invention is the driving support system according to any one of the first to sixth inventions,
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection unit divides the reference image into pixel blocks having a predetermined number of pixels, performs a stereo matching process with the comparison image for each pixel block, and calculates a parallax calculated for each pixel block of the reference image or Based on distance images formed by associating distances with each other, a specific target is detected from the images captured by the imaging unit,
The imaging environment determination unit sets a rectangular monitoring area extending in the horizontal direction of the image at the upper center of the image, calculates a luminance average value of the monitoring area, and in the monitoring area in the vertical direction of the image The luminance difference between each pixel pair is calculated, the number of pixel pairs having a luminance difference equal to or greater than a predetermined value is calculated as the number of edges, the average luminance value is greater than a predetermined first determination value, and the number of edges is It is determined that the imaging environment is deteriorated for a frame smaller than a predetermined second determination value.

第1の発明によれば、検出装置の検出手段による特定の対象の検出に用いられた有効なデータの数と、撮像手段により撮像された画像に基づいて撮像環境が悪化しているか否かを判定して撮像環境の悪化の程度を3段階に分けて評価した段階の情報に基づいて、運転支援装置による自車両に対する運転支援制御を一時停止するように構成した。   According to the first invention, whether or not the imaging environment is deteriorated based on the number of effective data used for detection of the specific target by the detection unit of the detection device and the image captured by the imaging unit. The driving support control for the host vehicle by the driving support device is temporarily stopped based on the information of the stage where the degree of deterioration of the imaging environment is determined and evaluated in three stages.

そのため、撮像環境が明らかに悪化した場合に運転支援制御を即座に一時停止することが可能となるとともに、撮像環境が悪化してもその悪化の程度が深刻な状況ではなく、撮像環境の悪化の程度が上記の最も悪い段階と最も改善されている段階の中間の段階である状態では、特定の対象の検出に用いられた有効なデータの数を監視して、有効なデータの数が十分に得られている間は運転支援制御を一時停止せずに的確に継続し、画像認識性能が限界に達して有効なデータの数が十分に得られなくなった時点で運転支援制御を的確に一時停止させることが可能となる。   Therefore, when the imaging environment is clearly deteriorated, it becomes possible to temporarily stop the driving support control, and even if the imaging environment is deteriorated, the degree of the deterioration is not a serious situation. In situations where the degree is intermediate between the worst and most improved stages above, the number of valid data used to detect a particular target is monitored to ensure that the number of valid data is sufficient. As long as it is obtained, the driving support control is accurately continued without being paused, and the driving support control is appropriately paused when the image recognition performance reaches the limit and the number of valid data cannot be obtained sufficiently. It becomes possible to make it.

またの発明によれば、前記の効果に加え、自車両のドライバが例えば先行車追従制御が一時停止されたことに気づかないと、先行車追従制御が作動していると誤信して例えば自車両に対する制動操作を怠り、先行車両に追突する等の事態が生じる可能性がある。そこで、運転支援装置の制御手段が自車両に対する運転支援制御を一時停止した場合に、ドライバに対して例えば音声を発声させたり画面上に表示させたりランプを点灯させるなどして運転支援制御が一時停止されたことをドライバに報知することで、ドライバの注意を喚起することが可能となり、上記のような事態の発生を回避することが可能となる。 According to the first invention, in addition to the prior SL effect of, when the driver of the subject vehicle, for example, adaptive cruise control is unaware that has been suspended, and fallacy the adaptive cruise control is activated For example, there is a possibility that a situation such as neglecting a braking operation on the host vehicle and a rear-end collision with a preceding vehicle may occur. Therefore, when the control means of the driving support device temporarily stops driving support control for the host vehicle, the driving support control is temporarily performed by, for example, making the driver speak a voice, display it on the screen, or turn on the lamp. By notifying the driver that the vehicle has been stopped, the driver's attention can be alerted, and the occurrence of the above situation can be avoided.

またの発明によれば、前記の効果に加え、撮像環境が明らかに改善されている状況において運転支援制御の一時停止を即座に解除することが可能となるとともに、撮像環境が悪化していてもその悪化の程度が深刻な状況ではなく、撮像環境の悪化の程度が上記の最も悪い段階と最も改善されている段階の中間の段階である状態では、特定の対象の検出に用いられた有効なデータの数を監視して、有効なデータの数が十分に得られていない間は運転支援制御の一時停止を解除せずに的確に継続し、画像認識性能が回復して有効なデータの数が十分に得られるようになった時点で運転支援制御の一時停止を的確に解除することが可能となる。 According to the first invention, in addition to the prior SL effects of, it becomes possible to immediately released to suspend the driving support control in situations where the imaging environment is clearly improved, the imaging environment is deteriorated However, when the degree of deterioration is not a serious situation and the degree of deterioration of the imaging environment is intermediate between the worst stage and the most improved stage, it is used to detect a specific target. The number of valid data is monitored, and while the number of valid data is not sufficient, it continues accurately without releasing the suspension of driving support control, and the image recognition performance is restored and effective. When the number of data is sufficiently obtained, the suspension of the driving support control can be accurately canceled.

またの発明によれば、撮像環境が悪化していると判定したフレームでカウント数を増加させ、撮像環境が悪化していると判定しなかったフレームではカウント数を減少させて、カウント数に応じて撮像環境の悪化の程度を段階的に評価することで、撮像環境の悪化の程度が最も改善されている段階、中間の段階、最も悪い段階の3段階に容易に評価分けすることが可能となる。 According to the first invention, to increase the count in a frame it is determined that the imaging environment has deteriorated, by decreasing the number of counts in the frame imaging environment is not determined to be deteriorated, count By evaluating the degree of deterioration of the imaging environment step by step, it is possible to easily evaluate and classify into three stages: the stage where the degree of deterioration of the imaging environment is most improved, the intermediate stage, and the worst stage It becomes possible.

また、それとともに、撮像環境が悪化していると判定したフレームの頻度が高くなるとカウント数が増加していき、頻度が低くなるとカウント数が減少していくため、カウント数を用いることで、撮像環境の悪化の程度が悪化しているか改善されているかを的確に表現することが可能となり、撮像環境の悪化の程度を段階的に明確に評価分けすることが可能となる。そのため、前記の効果がより的確に発揮される。 At the same time, the count number increases as the frequency of frames determined to have deteriorated the imaging environment increases, and the count number decreases as the frequency decreases. It is possible to accurately represent whether the degree of environmental deterioration is worsening or improved, and the degree of deterioration of the imaging environment can be clearly and graded step by step. Therefore, the effect of the previous SL is more accurately demonstrated.

の発明によれば、特定の対象が先行車両であり、運転支援装置により先行車両の情報に基づいて自車両に対して先行車両に追従するように制御する先行車追従制御が行われる運転支援システムにおいても、前記発明の効果が的確に発揮される。 According to the second invention, the specific target is the preceding vehicle, and the driving support device performs the preceding vehicle follow-up control for controlling the own vehicle to follow the preceding vehicle based on the information on the preceding vehicle. also in the support system, before Symbol onset Ming effect is properly exhibited.

の発明によれば、特定の対象が先行車両である場合には、自車両から先行車両までの距離が長くなるほど画像中に撮像される先行車両の大きさは小さくなっていき、先行車両に対応する画像領域の全データ数が少なくなる。そのため、それにあわせて自車両から先行車両までの距離が長くなるほど先行車両の検出に用いられた有効なデータの数の閾値が小さな値になるように設定することで、先行車両の検出において有効なデータ数が得られているか否かの判定を的確に行うことが可能となり、前記各発明の効果が的確に発揮される。 According to the third invention, when the specific target is a preceding vehicle, the size of the preceding vehicle captured in the image decreases as the distance from the host vehicle to the preceding vehicle increases. The total number of data in the image area corresponding to is reduced. Therefore, it is effective in detecting the preceding vehicle by setting the threshold value of the number of effective data used for detecting the preceding vehicle to be smaller as the distance from the host vehicle to the preceding vehicle becomes longer accordingly. It is possible to accurately determine whether or not the number of data has been obtained, and the effects of the above-described inventions can be accurately exhibited.

の発明によれば、特定の対象が自車両の左右の車線であり、運転支援装置により車線の情報に基づいて自車両に対して車線に追従するように制御する車線追従制御が行われる運転支援システムにおいても、前記各発明の効果が的確に発揮される。 According to the fourth aspect of the invention, the specific target is the left and right lanes of the host vehicle, and lane tracking control is performed to control the host vehicle to follow the lane based on the lane information by the driving support device. Also in the driving support system, the effects of the above-described inventions are accurately exhibited.

の発明によれば、距離画像上で無限遠を含む遠方距離に相当する視差を与えるスミアが画像中に発生しているか否かを的確に把握することが可能となる。そのため、それに基づいて撮像環境が悪化しているか否かを的確に判定することが可能となり、前記各発明の効果が的確に発揮される。 According to the fifth aspect , it is possible to accurately grasp whether or not a smear that gives a parallax corresponding to a far distance including infinity is generated in the image. Therefore, it is possible to accurately determine whether or not the imaging environment has deteriorated based on this, and the effects of the above-described inventions can be accurately exhibited.

の発明によれば、第1距離画像と第2距離画像の対応する画素ブロックの第1視差と第2視差を比較することで、それらの差の絶対値が所定の閾値以上である画素ブロックでミスマッチングが発生していることを的確に検出することが可能となる。そのため、ミスマッチングが多発しているか否かを的確に把握して、それに基づいて撮像環境が悪化しているか否かを的確に判定することが可能となり、前記各発明の効果が的確に発揮される。 According to the sixth aspect , by comparing the first parallax and the second parallax of the corresponding pixel blocks of the first distance image and the second distance image, the absolute value of the difference between them is a predetermined threshold value or more. It is possible to accurately detect that mismatching has occurred in the block. Therefore, it is possible to accurately grasp whether or not mismatching occurs frequently, and to accurately determine whether or not the imaging environment has deteriorated based on that, and the effects of the above-described inventions are accurately exhibited. The

の発明によれば、画像の中央上部に設けた監視領域における輝度平均値と画素対の数をエッジ数とを監視することで、霧や吹雪等による視界不良や、カメラのレンズや自車両のフロントガラスの曇りや汚れ等に起因する撮像環境の悪化を的確に検出することが可能となる。そのため、それらに起因して撮像環境が悪化しているか否かを的確に判定することが可能となり、前記各発明の効果が的確に発揮される。 According to the seventh aspect of the invention, by monitoring the average luminance value and the number of pixel pairs in the monitoring area provided at the upper center of the image and the number of edges, it is possible to detect poor visibility due to fog, snowstorm, etc. It becomes possible to accurately detect the deterioration of the imaging environment caused by fogging or dirt on the windshield of the vehicle. Therefore, it is possible to accurately determine whether or not the imaging environment has deteriorated due to them, and the effects of the above-described inventions are accurately exhibited.

以下、本発明に係る運転支援システムの実施の形態について、図面を参照して説明する。   Embodiments of a driving support system according to the present invention will be described below with reference to the drawings.

なお、以下では、特定の対象として撮像手段で撮像された画像中から先行車両を検出し、運転支援制御として自車両を検出された先行車両に追従するように制御する先行車追従制御を行う場合について説明する。   In the following description, the preceding vehicle follow-up control is performed in which the preceding vehicle is detected from the image captured by the imaging unit as the specific target, and the own vehicle is controlled to follow the detected preceding vehicle as the driving support control. Will be described.

[全体構成]
本実施形態に係る運転支援システム1は、図1に示すように、検出装置2と、運転支援装置である先行車追従制御装置3と、報知装置4とで構成されている。
[overall structure]
As shown in FIG. 1, the driving support system 1 according to the present embodiment includes a detection device 2, a preceding vehicle follow-up control device 3 that is a driving support device, and a notification device 4.

[検出装置]
本実施形態に係る検出装置2は、図2に示すように、撮像手段21、変換手段22、検出手段29等で構成されている。また、検出装置2は、2系統の画像処理手段25a、25bを備えている。
[Detection device]
As shown in FIG. 2, the detection apparatus 2 according to the present embodiment includes an imaging unit 21, a conversion unit 22, a detection unit 29, and the like. The detection apparatus 2 includes two systems of image processing means 25a and 25b.

なお、撮像手段21や変換手段22、画像補正部23、画像データメモリ24、第1、第2画像処理手段25a、25bの構成は本願出願人により先に提出された特開平5−114099号公報、特開平5−265547号公報、特開平6−266828号公報、特開平10−283461号公報、特開平10−283477号公報、特開2006−72495号公報等に詳述されており、詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。   The configurations of the image pickup means 21, the conversion means 22, the image correction unit 23, the image data memory 24, and the first and second image processing means 25a and 25b are disclosed in Japanese Patent Application Laid-Open No. 5-1114099 previously filed by the applicant of the present application. JP-A-5-265547, JP-A-6-266828, JP-A-10-283461, JP-A-10-283477, JP-A-2006-72495, and the like. The explanation is left to those publications. A brief description is given below.

撮像手段21は、本実施形態では、互いに同期が取られたCCD(Charge Coupled Device)イメージセンサがそれぞれ内蔵され例えばフロントガラスの車内側に車幅方向すなわち左右方向に所定の間隔をあけて取り付けられた一対のメインカメラ21aおよびサブカメラ21bからなるステレオカメラが用いられている。   In this embodiment, the imaging means 21 includes CCD (Charge Coupled Device) image sensors that are synchronized with each other, and are attached to the inside of the windshield, for example, at a predetermined interval in the vehicle width direction, that is, in the left-right direction. A stereo camera including a pair of main camera 21a and sub camera 21b is used.

メインカメラ21aおよびサブカメラ21bは、道路面から同じ高さに取り付けられており、所定のサンプリング周期で同時に自車両の周囲の環境を撮像して撮像画像の情報を出力するように構成されている。そして、運転者に近い側に配置されたメインカメラ21aは図3に例示される基準画像TOの画像データを出力し、運転者から遠い側に配置されたサブカメラ21bは図示を省略する比較画像TCの画像データを出力するようになっている。 The main camera 21a and the sub camera 21b are mounted at the same height from the road surface, and are configured to simultaneously capture the environment around the host vehicle and output information of the captured image at a predetermined sampling period. . The main camera 21a which is disposed closer to the driver outputs image data of the reference image T O illustrated in FIG. 3, the sub-camera 21b disposed farther from the driver compares not shown and it outputs the image data of the image T C.

メインカメラ21aとサブカメラ21bから出力された基準画像TOと比較画像TCの画像データは、それぞれ変換手段22であるA/Dコンバータ22a、22bでアナログ画像からそれぞれ画素ごとに例えば256階調のグレースケール等の所定の輝度階調の輝度を有するデジタル画像にそれぞれ変換され、画像補正部23で、ずれやノイズの除去等の画像補正が行われるようになっている。そして、画像補正等が行われた各画像データは、画像データメモリ24に送信されて格納されるとともに、第1画像処理手段25aおよび第2画像処理手段25bに送信されるようになっている。 The image data of the reference image T O and the comparison image T C output from the main camera 21a and the sub camera 21b is converted into, for example, 256 gradations for each pixel from the analog image by the A / D converters 22a and 22b, which are the conversion means 22, respectively. Each of the images is converted into a digital image having a predetermined luminance gradation such as a gray scale, and the image correction unit 23 performs image correction such as displacement and noise removal. Each image data subjected to image correction or the like is transmitted to and stored in the image data memory 24, and is transmitted to the first image processing means 25a and the second image processing means 25b.

第1画像処理手段25aは、イメージプロセッサ等からなる第1ステレオマッチング手段26aと第1距離データメモリ27aとを備えている。   The first image processing means 25a includes a first stereo matching means 26a composed of an image processor or the like and a first distance data memory 27a.

なお、本実施形態では、第1画像処理手段25aでは、基準画像TOや比較画像TCに前処理を施さず、基準画像TOや比較画像TCに対して直接ステレオマッチング処理を行う場合について説明する。しかし、後述する第2画像処理手段25bの場合と同様に、第1画像処理手段25aにおいても基準画像TOや比較画像TCに対して前処理が施されて形成された2つの画像に対してステレオマッチング処理を行うように構成することも可能である。その場合、第1画像処理手段25aと第2画像処理手段25bには互いに異なる前処理の手法で前処理された2つの画像がそれぞれ入力される。 In the present embodiment, the first image processing unit 25a, without being subjected to pre-processing the reference image T O and the comparative image T C, when performing a direct stereo matching with respect to the reference image T O and the comparative image T C Will be described. However, as in the case of the second image processing means 25b described later, the first image processing means 25a also applies to the two images formed by pre-processing the reference image T O and the comparison image T C. It is also possible to perform a stereo matching process. In that case, two images preprocessed by different preprocessing methods are input to the first image processing means 25a and the second image processing means 25b, respectively.

第1ステレオマッチング手段26aでは、図4に示すように、基準画像TO上に例えば3×3画素や4×4画素等の所定の画素数の画素ブロックPBOを設定し、画素ブロックPBOに対応する比較画像TC中のエピポーララインEPL上の画素ブロックPBOと同形の各画素ブロックPBCについて下記(1)式に従って当該画素ブロックPBOとの輝度パターンの差異であるSAD値を算出し、SAD値が最小の画素ブロックPBCを特定するようになっている。 In the first stereo matching means 26a, as shown in FIG. 4, to set the pixel block PB O of a predetermined number of pixels of 4 pixels such as 3 × 3 pixels or 4 ×, for example, on the reference image T O, the pixel block PB O For each pixel block PB C having the same shape as the pixel block PB O on the epipolar line EPL in the comparison image T C corresponding to, a SAD value that is a difference in luminance pattern with the pixel block PB O is calculated according to the following equation (1). and, so that the SAD value to identify the minimum pixel block PB C.

なお、p1s,tは画素ブロックPBO中の各画素の輝度値を表し、p2s,tは画素ブロックPBC中の各画素の輝度値を表す。また、上記の総和は、画素ブロックPBOや画素ブロックPBCが例えば3×3画素の領域として設定される場合には1≦s≦3、1≦t≦3の範囲、4×4画素の領域として設定される場合には1≦s≦4、1≦t≦4の範囲の全画素について計算される。 Incidentally, p1s, t represents the intensity value of each pixel in the pixel block PB O, p2s, t represents the luminance value of each pixel in the pixel block PB C. Also, the sum is in the range of 1 ≦ s ≦ 3,1 ≦ t ≦ 3 in the case of pixel block PB O or pixel block PB C is set as an area of 3 × 3 pixels, for example, 4 × 4 pixels When set as a region, calculation is performed for all pixels in the range of 1 ≦ s ≦ 4 and 1 ≦ t ≦ 4.

また、本実施形態では、上記のようにSAD値を用いるように構成されているが、この他にも、例えば画素ブロックPBO中の各画素の輝度値p1s,tと画素ブロックPBC中の各画素の輝度値p2s,tとの差の二乗和に基づいてステレオマッチング処理を行うように構成することも可能である。また、画素ブロックPBOと画素ブロックPBCとの輝度パターンの差異を適切に算出できるものであれば他の計算式に従って算出される差異に基づいてステレオマッチング処理を行うように構成することも可能である。 Further, in the present embodiment, it is configured to use a SAD value as described above, the addition to, for example, the luminance value of each pixel in the pixel block PB O p1s, t and in the pixel block PB C It is also possible to perform a stereo matching process based on the sum of squares of the difference from the luminance value p2s, t of each pixel. Further, also be configured to perform stereo matching based as long as it can properly calculate the difference in luminance pattern of the pixel block PB O and pixel block PB C on a difference is calculated according to another calculation formula It is.

第1ステレオマッチング手段26aは、このようにして基準画像TOの各画素ブロックPBOについて、特定した画素ブロックPBCの比較画像TC上の位置と当該画素ブロックPBOの基準画像TO上の位置から第1視差dp1を算出するようになっている。本実施形態では、第1ステレオマッチング手段26aは、例えば図3に例示する基準画像TOの各画素ブロックPBOに上記のようにして算出した第1視差dp1をそれぞれ対応づけるようになっている。 The first stereo matching means 26a, for each pixel block PB O of the reference image T O in this way, the position of the identified pixel block PB C on the comparison image T C and the reference image T O of the pixel block PB O The first parallax dp1 is calculated from this position. In the present embodiment, the first stereo matching means 26a associates the first parallax dp1 calculated as described above with each pixel block PB O of the reference image T O exemplified in FIG. 3, for example. .

以下、第1視差dp1が各画素ブロックPBOにそれぞれ対応づけられた基準画像TOを第1距離画像TZ1という。例えば図3の基準画像TOの各画素ブロックPBOに第1視差dp1がそれぞれ対応づけられて形成された第1距離画像TZ1は図5に示すような画像となる。 Hereinafter, the reference image T O of first parallax dp1 is associated to each pixel block PB O of the first distance image T Z 1. For example, the first distance image T Z 1 in which the first parallax dp1 is formed in correspondence to each pixel block PB O of the reference image T O of FIG. 3 is an image as shown in FIG.

なお、一対のメインカメラ21aとサブカメラ21bの中央真下の道路面上の点を原点とし、自車両の車幅方向(左右方向)をX軸方向、車高方向(高さ方向)をY軸方向、車長方向(前後方向)をZ軸方向とした場合の実空間上の点(X,Y,Z)と、上記の第1視差dp1および第1距離画像TZ1上の点(i,j)とは、三角測量の原理に基づき下記(2)〜(4)式で表される座標変換により1対1に対応づけられる。
=CD/2+Z×PW×(i−IV) …(2)
=CH+Z×PW×(j−JV) …(3)
=CD/(PW×(dp1−DP)) …(4)
A point on the road surface directly below the center of the pair of main camera 21a and sub camera 21b is the origin, the vehicle width direction (left-right direction) of the host vehicle is the X-axis direction, and the vehicle height direction (height direction) is the Y-axis. direction, vehicle length direction (longitudinal direction) in the real space of the case of the Z-axis direction point and (X 1, Y 1, Z 1), on the first parallax dp1 and the first distance image T Z 1 of the The point (i 1 , j 1 ) is associated one-to-one by coordinate transformation represented by the following equations (2) to (4) based on the principle of triangulation.
X 1 = CD / 2 + Z 1 × PW × (i 1 -IV) ... (2)
Y 1 = CH + Z 1 × PW × (j 1 −JV) (3)
Z 1 = CD / (PW × (dp1-DP)) (4)

上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の第1距離画像TZ1上のi座標およびj座標、DPは消失点視差を表す。 In the above equations, CD is the distance between the pair of cameras, PW is the viewing angle per pixel, CH is the mounting height of the pair of cameras, and IV and JV are the first distance images T Z at the infinity point in front of the host vehicle. The i-coordinate and j-coordinate on 1 and DP represent the vanishing point parallax.

このように、第1視差dp1と第1距離Zとは1対1に対応づけられるものであるため、第1ステレオマッチング手段26aにおいて、算出した第1視差dp1を上記(4)式に従って第1距離Zに変換し、基準画像TOの各画素ブロックPBOに変換した第1距離Zを割り当てて第1距離画像TZ1を形成するように構成することも可能である。 Thus, since the first parallax dp1 and the first distance Z 1 is intended to be associated in a one-to-one, in the first stereo matching means 26a, the first parallax dp1 calculated according to the above (4) into a first distance Z 1, it can be configured to form a first distance image T Z 1 assigns a first distance Z 1 which is converted into pixel blocks PB O of the reference image T O.

第1ステレオマッチング手段26aは、上記のようにして形成した第1距離画像TZ1の情報を第1距離データメモリ27aに送信して格納させるとともに、検出手段29に送信するようになっている。 The first stereo matching means 26a transmits the information of the first distance image T Z1 formed as described above to the first distance data memory 27a for storage, and also transmits it to the detection means 29. .

一方、第2画像処理手段25bには、前処理手段28(図2参照)で基準画像TOと比較画像TCに対してそれぞれ所定の前処理が施されて形成された2つの画像が入力されるようになっている。本実施形態では、前処理手段28では、所定の前処理として基準画像TOと比較画像TCに対してエッジ検出処理を行って基準エッジ画像と比較エッジ画像を形成するようになっている。なお、前処理手段28において行われる前処理として、エッジ検出処理以外の他の処理を行うように構成することも可能である。 On the other hand, the second image processing means 25b receives two images formed by performing predetermined preprocessing on the reference image T O and the comparison image T C by the preprocessing means 28 (see FIG. 2). It has come to be. In the present embodiment, the preprocessing means 28 performs edge detection processing on the reference image T O and the comparison image T C as predetermined preprocessing to form a reference edge image and a comparison edge image. In addition, as pre-processing performed in the pre-processing unit 28, it is possible to perform processing other than edge detection processing.

本実施形態では、画像補正部23からずれやノイズの除去等の画像補正が行われた基準画像TOや比較画像TCの各画素の輝度値p1i,j、p2i,jのデータが基準画像TOや比較画像TCの水平ライン、すなわち1画素幅のエピポーララインごとに順々に出力されて、前処理手段28にそれぞれ入力されてくるようになっている。なお、輝度値p1i,j、p2i,jは基準画像TOおよび比較画像TC上の座標(i,j)における画素の各輝度値を表す。 In this embodiment, the data of the luminance values p1i, j and p2i, j of each pixel of the reference image T O and the comparison image T C on which image correction such as displacement and noise removal has been performed from the image correction unit 23 is the reference image. The horizontal lines of T O and the comparison image T C , that is, the epipolar lines having a width of one pixel are sequentially output and input to the preprocessing means 28, respectively. The luminance values p1i, j and p2i, j represent the respective luminance values of the pixels at the coordinates (i, j) on the reference image T O and the comparative image T C.

前処理手段28は、基準画像TOや比較画像TCの水平ラインごとに入力されてくる各画素の輝度値p1i,j、p2i,jのデータに対して、1次編微分オペレータ(−1/0/+1)(正確には1次編微分オペレータ(−0.5/0/+0.5)の2倍の値のオペレータ)のフィルタをかけてエッジ検出処理を行うようになっている。 The preprocessing means 28 applies a first-order differential operator (−1) to the data of the luminance values p1i, j, p2i, j of each pixel inputted for each horizontal line of the reference image T O and the comparison image T C. / 0 / + 1) (to be precise, an operator having a value twice as large as the first-order differential operator (−0.5 / 0 / + 0.5)) is applied to perform edge detection processing.

すなわち、前処理手段28は、基準画像TOの水平ラインごとに入力されてくる各画素の輝度値p1i,jのデータに対して下記(5)式に示すエッジ検出処理を行って、算出されるエッジ値p3i,jを座標(i,j)における画素の輝度値とする基準エッジ画像TEOを形成する。
p3i,j=−p1i-1,j+p1i+1,j …(5)
That is, the preprocessing means 28 performs the edge detection processing shown in the following equation (5) on the data of the luminance value p1i, j of each pixel input for each horizontal line of the reference image T O and is calculated. that edge value p3i, to form a reference edge image TE O to luminance values of pixels in the j coordinate (i, j).
p3i, j = -p1i-1, j + p1i + 1, j (5)

また、前処理手段28は、比較画像TCの水平ラインごとに入力されてくる各画素の輝度値p2i,jのデータに対して下記(6)式に示すエッジ検出処理を行って、算出されるエッジ値p4i,jを座標(i,j)における画素の輝度値とする比較エッジ画像TECを形成するようになっている。
p4i,j=−p2i-1,j+p2i+1,j …(6)
Further, the preprocessing means 28 performs the edge detection processing shown in the following equation (6) on the data of the luminance value p2i, j of each pixel inputted for each horizontal line of the comparison image T C and is calculated. that edge value P4i, the j coordinate (i, j) so as to form a comparison edge image TE C to luminance values of pixels in.
p4i, j = -p2i-1, j + p2i + 1, j (6)

なお、メインカメラ21aとサブカメラ21bで前述した図25(A)、(B)に示したような基準画像TOと比較画像TCが撮像されるシーンでは、この前処理手段28のエッジ検出処理により、図6(A)、(B)に示すような基準エッジ画像TEOおよび比較エッジ画像TECが得られる。 In the scene where the reference image T O and the comparative image T C as shown in FIGS. 25A and 25B described above with the main camera 21a and the sub camera 21b are captured, the edge detection of the preprocessing means 28 is performed. the process, FIG. 6 (a), the reference edge image TE O and the comparative edge image TE C as shown in (B) is obtained.

前処理手段28は、このようにして輝度値(エッジ値)p3i,j、p4i,jを有する各画素からなる基準エッジ画像TEOと比較エッジ画像TECとをそれぞれ形成して、第2画像処理手段25bに送信するようになっている。 Preprocessing means 28, the luminance value (the edge value) in this manner p3i, j, P4i, with the reference edge image TE O consisting of pixels having j comparative edge image TE C and were respectively formed, the second image The data is transmitted to the processing means 25b.

第2画像処理手段25bは、上記の第1画像処理手段25aと同様に構成されており、第2画像処理手段25bの第2ステレオマッチング手段26bにおいても、図4に示した手法でステレオマッチング処理が行われるようになっている。ただし、ステレオマッチング処理の対象は基準エッジ画像TEOと比較エッジ画像TECである。そして、第2ステレオマッチング手段26bは、第1ステレオマッチング手段26aと同様にして基準エッジ画像TEO上の画素ブロックごとに第2視差dp2を算出し、基準エッジ画像TEOの各画素ブロックに、算出した第2視差dp2を対応づけて第2距離画像TZ2を形成するようになっている。 The second image processing means 25b is configured in the same manner as the first image processing means 25a described above, and the second stereo matching means 26b of the second image processing means 25b also performs stereo matching processing by the method shown in FIG. Is to be done. However, the subject of stereo matching is a comparative edge image TE C with the reference edge image TE O. The second stereo matching means 26b is in the same manner as in the first stereo matching means 26a and the second parallax dp2 calculated for each pixel block in the reference edge image TE O and, in each pixel block of the reference edge image TE O, The second distance image T Z 2 is formed by associating the calculated second parallax dp2.

なお、基準エッジ画像TEOの各画素ブロックは、第1ステレオマッチング手段26aにおける基準画像TO上の各画素ブロックPBOと同じ画素位置に設定されるため、第2距離画像TZ2は、基準画像TOの各画素ブロックPBOに算出した各第2視差dp2を対応づけて形成されると表現することも可能である。 Since each pixel block of the reference edge image TE O is set at the same pixel position as each pixel block PB O on the reference image T O in the first stereo matching means 26a, the second distance image T Z 2 is can also be expressed as a respective second parallax dp2 calculated for each pixel block PB O of the reference image T O is formed in correspondence.

また、上記と同様に原点やX軸方向、Y軸方向、Z軸方向を設定し、第2視差dp2から算出される実空間上の点の座標を(X,Y,Z)とした場合、それと第2視差dp2および第2距離画像TZ2上の点(i,j)とは、三角測量の原理に基づき下記(7)〜(9)式で表される座標変換により1対1に対応づけられる。なお、式中のCD等は上記と同様である。
=CD/2+Z×PW×(i−IV) …(7)
=CH+Z×PW×(j−JV) …(8)
=CD/(PW×(dp2−DP)) …(9)
Similarly to the above, the origin, the X-axis direction, the Y-axis direction, and the Z-axis direction are set, and the coordinates of the point in the real space calculated from the second parallax dp2 are (X 2 , Y 2 , Z 2 ). In this case, the second parallax dp2 and the point (i 2 , j 2 ) on the second distance image T Z 2 are coordinate transformed by the following formulas (7) to (9) based on the principle of triangulation 1-to-1 correspondence. In the formula, CD and the like are the same as described above.
X 2 = CD / 2 + Z 2 × PW × (i 2 −IV) (7)
Y 2 = CH + Z 2 × PW × (j 2 −JV) (8)
Z 2 = CD / (PW × (dp2-DP)) (9)

さらに、第2視差dp2と第2距離Zとが1対1に対応づけられるものであるため、第2ステレオマッチング手段26bにおいて、算出した第2視差dp2を上記(9)式に従って第2距離Zに変換し、基準エッジ画像TEO(基準画像TO)の各画素ブロックPBOに、変換した第2距離Zを対応づけて第2距離画像TZ2を形成するように構成することも可能である。 Furthermore, since the second parallax dp2 and second distance Z 2 is intended to be associated in a one-to-one, the second stereo matching means 26b, the second distance and the second parallax dp2 calculated according to the above (9) converted into Z 2, in each pixel block PB O of the reference edge image TE O (reference image T O), constituting the second distance Z 2 converted to form a second distance image T Z 2 in association with It is also possible.

第2ステレオマッチング手段26bは、上記のようにして形成した第2距離画像TZ2の情報を第2距離データメモリ27bに送信して格納させるとともに、検出手段29に送信するようになっている。 The second stereo matching means 26b transmits the information of the second distance image T Z2 formed as described above to the second distance data memory 27b for storage, and transmits it to the detection means 29. .

検出手段29(図2参照)は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたマイクロコンピュータより構成されている。また、検出手段29には、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されている。なお、ヨーレートセンサの代わりに自車両の車速等からヨーレートを推定する装置等を用いることも可能である。   The detection means 29 (see FIG. 2) is composed of a microcomputer in which a CPU, ROM, RAM, input / output interface, etc. (not shown) are connected to the bus. The detection means 29 is connected to sensors Q such as a vehicle speed sensor, a yaw rate sensor, and a steering angle sensor for measuring the steering angle of the steering wheel. It should be noted that a device for estimating the yaw rate from the vehicle speed of the host vehicle or the like can be used instead of the yaw rate sensor.

検出手段29は、物体検出手段29Aと、先行車両検出手段29Bと、計数手段29Cと、撮像環境判定手段29Dとを備えており、さらに図示しないメモリを備えている。   The detection unit 29 includes an object detection unit 29A, a preceding vehicle detection unit 29B, a counting unit 29C, and an imaging environment determination unit 29D, and further includes a memory (not shown).

物体検出手段29Aは、本実施形態では、第1距離画像TZ1に基づいて基準画像TO中に撮像された物体を検出するようになっているが、例えば、第2距離画像TZ2に基づいて基準画像TO中に物体を検出するように構成することも可能である。また、物体検出手段29Aを、例えば第1距離画像TZ1と第2距離画像TZ2に基づいてそれぞれ物体を検出し、それらの検出結果のうち、良好な検出結果を出力するように構成することも可能である。 In the present embodiment, the object detection means 29A detects an object imaged in the reference image T O based on the first distance image T Z 1, but for example, the second distance image T Z 2 It is also possible to configure to detect an object in the reference image T O based on the above. Further, the object detection unit 29A is configured to detect an object based on, for example, the first distance image T Z1 and the second distance image T Z2 and output a good detection result among the detection results. It is also possible to do.

なお、本実施形態では、物体検出手段29Aは、本願出願人により先に提出された特開平10−283461号公報等に記載された車外監視装置等をベースに構成されている。詳細な説明はそれらの公報に委ねる。以下、簡単にその構成について説明する。   In the present embodiment, the object detection means 29A is configured based on a vehicle exterior monitoring device or the like described in Japanese Patent Laid-Open No. 10-283461 previously filed by the applicant of the present application. Detailed explanations are left to those publications. The configuration will be briefly described below.

物体検出手段29Aは、例えば図5に示したように形成された第1距離画像TZ1を第1距離データメモリ27aから読み出して、まず、図7に示すように第1距離画像TZ1を所定の画素幅で縦方向に延びる短冊状の区分Dnに分割する。そして、各区分Dnごとに図8に示すようなヒストグラムHnを作成し、各区分Dnに属する各第1視差dp1を当該視差dp1が属する区分DnのヒストグラムHnに投票する。そして、度数Fnが最大の階級の階級値をその区分Dnにおける物体の視差dpnとする。これを第1距離画像TZ1の全区分Dnについて行うようになっている。 For example, the object detection unit 29A reads the first distance image T Z1 formed as shown in FIG. 5 from the first distance data memory 27a, and first, as shown in FIG. 7, the first distance image T Z1. Are divided into strip-shaped sections Dn extending in the vertical direction with a predetermined pixel width. Then, a histogram Hn as shown in FIG. 8 is created for each section Dn, and each first parallax dp1 belonging to each section Dn is voted for the histogram Hn of the section Dn to which the parallax dp1 belongs. Then, the class value of the class having the maximum frequency Fn is set as the parallax dpn of the object in the section Dn. This is performed for all sections Dn of the first distance image T Z 1.

物体検出手段29Aは、続いて、各区分Dnごとに得られた視差dpnを上記(4)式のdp1に代入して、視差dpnに対応する各区分Dnごとの実空間上の第1距離Zを算出してその区分Dnの距離Znとし、図9に示すように実空間上にプロットし、図10に示すようにプロットされた各点間の距離や方向性に基づいて互いに隣接する各点をそれぞれグループG1、G2、G3、…にまとめてグループ化するようになっている。 Subsequently, the object detection means 29A substitutes the parallax dpn obtained for each section Dn into dp1 of the above equation (4), and the first distance Z in the real space for each section Dn corresponding to the parallax dpn. 1 is calculated as the distance Zn of the section Dn, plotted on the real space as shown in FIG. 9, and adjacent to each other based on the distance and direction between the plotted points as shown in FIG. The points are grouped together into groups G1, G2, G3,.

本実施形態では、物体検出手段29Aは、各グループに属する各点を図11に示すようにそれぞれ直線近似し、それぞれのグループ内の各点が自車両Aの車幅方向すなわちX軸方向に略平行に並ぶグループには“物体”Oとラベルし、各点が自車両Aの車長方向すなわちZ軸方向に略平行に並ぶグループには“側壁”Sとラベルして分類するようになっている。また、同一の物体の“物体”と“側壁”の交点とみなすことができる箇所にコーナー点としてCをラベルするようになっている。   In this embodiment, the object detection means 29A linearly approximates each point belonging to each group as shown in FIG. 11, and each point in each group is approximately in the vehicle width direction of the host vehicle A, that is, the X-axis direction. A group arranged in parallel is labeled “object” O, and a group in which each point is arranged substantially parallel to the vehicle length direction of the host vehicle A, that is, the Z-axis direction is labeled “side wall” S for classification. Yes. In addition, C is labeled as a corner point at a position that can be regarded as an intersection of “object” and “side wall” of the same object.

そして、物体検出手段29Aは、図11の例では、[側壁S1]、[物体O1]、[側壁S2]、[物体O2とコーナー点Cと側壁S3]、[側壁S4]、[物体O3]、[物体O4]、[側壁S5とコーナー点Cと物体O5]、[物体O6]、[側壁S6]をそれぞれ1つの物体として検出するようになっている。なお、上記のように便宜上ラベルとして“物体”と“側壁”とが用いられるが、“側壁”も物体として検出される。   In the example of FIG. 11, the object detection unit 29A includes [side wall S1], [object O1], [sidewall S2], [object O2 and corner point C and side wall S3], [sidewall S4], and [object O3]. , [Object O4], [side wall S5 and corner point C and object O5], [object O6], and [side wall S6] are detected as one object. As described above, “object” and “side wall” are used as labels for convenience, but “side wall” is also detected as an object.

また、物体検出手段29Aは、このようにして検出した各物体を図12に示すように基準画像TO上で矩形状の枠線で包囲するようにして検出するようになっている。物体検出手段29Aは、このようにして検出した各物体の情報をメモリに保存するとともに、必要に応じて外部に出力するようになっている。 Further, the object detecting means 29A detects each object detected in this manner so as to be surrounded by a rectangular frame line on the reference image T O as shown in FIG. The object detection means 29A stores information on each object detected in this way in a memory and outputs it to the outside as necessary.

先行車両検出手段29Bは、図13に示すように自車両Aの挙動に基づいて自車両Aが今後進行するであろう軌跡を走行軌跡Lestとして推定し、その走行軌跡Lestを中心とする自車両Aの車幅分の領域を自車両Aの進行路Restとして算出するようになっている。   As shown in FIG. 13, the preceding vehicle detection unit 29B estimates a trajectory that the host vehicle A will travel in the future as a travel trajectory Lest based on the behavior of the host vehicle A, and the host vehicle centering on the travel trajectory Lest. An area corresponding to the vehicle width of A is calculated as the traveling path Rest of the host vehicle A.

自車両Aの走行軌跡Lestは、センサ類Qから送信されてくる自車両Aの車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて下記(10)式または下記(11)、(12)式に従って算出される自車両Aの旋回曲率Cuaに基づいて算出することができる。なお、下記の各式におけるReは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua=γ/V …(10)
Re=(1+Asf・V)・(Lwb/δ) …(11)
Cua=1/Re …(12)
The travel locus Lest of the host vehicle A is expressed by the following formula (10) or the following (11) based on information such as the vehicle speed V, the yaw rate γ, and the steering angle δ of the steering wheel transmitted from the sensors Q. It can be calculated based on the turning curvature Cua of the host vehicle A calculated according to the equation (12). In the following equations, Re is a turning radius, Asf is a vehicle stability factor, and Lwb is a wheelbase.
Cua = γ / V (10)
Re = (1 + Asf · V 2 ) · (Lwb / δ) (11)
Cua = 1 / Re (12)

そして、先行車両検出手段29Bは、自車両Aの進行路Rest上に存在する物体の中で自車両Aに最も近接する物体を自車両Aの前方を走行する先行車両Vahとして検出するようになっている。例えば図12や図13では、車両O3が先行車両Vahとして検出される。   The preceding vehicle detection means 29B detects the object closest to the own vehicle A among the objects existing on the travel path Rest of the own vehicle A as the preceding vehicle Vah traveling in front of the own vehicle A. ing. For example, in FIGS. 12 and 13, the vehicle O3 is detected as the preceding vehicle Vah.

先行車両検出手段29Bは、このようにして検出した先行車両Vahの自車両からの距離Zやその他必要な情報をメモリに保存するとともに、後述する先行車追従制御装置3に送信するようになっている。   The preceding vehicle detection means 29B stores the distance Z of the preceding vehicle Vah detected in this way from the host vehicle and other necessary information in a memory, and transmits it to the preceding vehicle follow-up control device 3 described later. Yes.

なお、本実施形態では、先行車両検出手段29Bは、前回のサンプリング周期で検出した先行車両と今回のサンプリング周期で先行車両として検出した物体とが同一の立体物である確率を算出するなどして、整合性を保ちながら先行車両を追跡するようになっている。また、先行車両検出手段29Bは、検出した先行車両が自車両の前方から離脱してさらにその前方の車両が新たに先行車両となったり、自車両と先行車両との間に他の車両が割り込んできて当該他の車両が新たな先行車両となることによる先行車両の交替を検出できるようになっている。   In the present embodiment, the preceding vehicle detection means 29B calculates the probability that the preceding vehicle detected in the previous sampling cycle and the object detected as the preceding vehicle in the current sampling cycle are the same three-dimensional object. It is designed to track the preceding vehicle while maintaining consistency. The preceding vehicle detection means 29B also detects that the detected preceding vehicle has left the front of the host vehicle and that the preceding vehicle becomes a new preceding vehicle, or that another vehicle interrupts between the host vehicle and the preceding vehicle. Thus, the replacement of the preceding vehicle due to the other vehicle becoming a new preceding vehicle can be detected.

計数手段29C(図2参照)は、検出手段29の先行車両検出手段29Bにおける特定の対象である先行車両Vahの検出に用いられた有効なデータの数を計数するようになっている。   The counting means 29C (see FIG. 2) counts the number of valid data used for detecting the preceding vehicle Vah as a specific target in the preceding vehicle detecting means 29B of the detecting means 29.

具体的には、計数手段29Cは、本実施形態では、検出した先行車両Vahを包囲するように基準画像TO上に設定された枠線Frを、上記の物体検出や先行車両検出に用いた図14に例示するような第1距離画像TZ1の同じ画素位置にあてはめて、枠線Fr内の先行車両Vahを表す第1視差dp1が対応づけられた画素ブロックPBOの数を計数するようになっている。 Specifically, in this embodiment, the counting unit 29C uses the frame line Fr set on the reference image T O so as to surround the detected preceding vehicle Vah for the object detection and the preceding vehicle detection. by applying the same pixel position of the first distance image T Z 1 as illustrated in FIG. 14, counts the number of pixel blocks PB O of first parallax dp1 is associated indicating a preceding vehicle Vah in border Fr It is like that.

計数手段29Cは、上記のようにして計数した有効なデータ数すなわち先行車両Vahを表す第1視差dp1が対応づけられた画素ブロックPBOの数をメモリに保存するとともに、後述する先行車追従制御装置3に送信するようになっている。 Counting means 29C is configured to store the number of pixel blocks PB O of first parallax dp1 is associated indicating a valid data number i.e. the preceding vehicle Vah and counted as described above in the memory, the adaptive cruise control to be described later The data is transmitted to the device 3.

撮像環境判定手段29D(図2参照)は、以下の要領で、撮像手段21により撮像された基準画像TO等から形成された第1距離画像TZ1および第2距離画像TZ2に基づいて撮像環境が悪化しているか否かを判定し、さらに撮像環境の悪化の程度を3段階に分けて評価するようになっている。 The imaging environment determination unit 29D (see FIG. 2) is based on the first distance image T Z1 and the second distance image T Z 2 formed from the reference image T O and the like captured by the imaging unit 21 in the following manner. Thus, it is determined whether or not the imaging environment has deteriorated, and the degree of deterioration of the imaging environment is further evaluated in three stages.

本実施形態では、撮像環境判定手段29Dは、撮像環境が悪化しているか否かを判定する基準として、第1距離画像TZ1と第2距離画像TZ2の第1視差dp1と第2視差dp2とを比較してミスマッチングが発生しているか否かを判定し、ミスマッチングがある程度発生していれば撮像環境が悪化していると判定するようになっている。 In the present embodiment, the imaging environment judgment unit 29D, as the criteria for determining whether the imaging environment has deteriorated, the first distance image T Z 1 and the first parallax dp1 of the second distance image T Z 2 second The parallax dp2 is compared to determine whether or not mismatching has occurred. If mismatching has occurred to some extent, it is determined that the imaging environment has deteriorated.

具体的には、撮像環境判定手段29Dは、まず、図15に示すように、第1距離データメモリ27aから第1距離画像TZ1の情報を読み出し、第2距離データメモリ27bから第2距離画像TZ2の情報を読み出して、第1距離画像TZ1および第2距離画像TZ2の対応する画素ブロックPBOの第1視差dp1および第2視差dp2を比較するようになっている。 Specifically, as shown in FIG. 15, the imaging environment determination unit 29D first reads the information of the first distance image T Z 1 from the first distance data memory 27a and the second distance from the second distance data memory 27b. reads the information of the image T Z 2, is adapted to compare the first distance image T Z 1 and the second distance corresponding first parallax dp1 and second parallax dp2 pixel block PB O image T Z 2 .

そして、撮像環境判定手段29Dは、同じ画素位置の画素ブロックPBOの第1視差dp1と第2視差dp2との差の絶対値が所定の閾値Δdpth以上である場合、すなわち、
|dp1−dp2|≧Δdpth …(13)
を満たす場合に、当該画素ブロックPBOでミスマッチングが発生していると判定するようになっている。
The imaging environment judgment unit 29D, when the absolute value of the difference between the first parallax dp1 pixel block PB O in the same pixel position and the second parallax dp2 is greater than a predetermined threshold value Derutadpth, i.e.,
| Dp1-dp2 | ≧ Δdpth (13)
If satisfying, mismatching in the pixel block PB O is adapted to determine that has occurred.

この閾値Δdpthは、上記(4)式や上記(9)式に従って第1視差dp1と第2視差dp2をそれぞれ第1距離Zと第2距離Zとに変換した場合に、その差、すなわち実空間上の距離の差が明らかに存在すると考えられる値に設定される。距離の差が明らかに存在すると考えられる値は第1距離Zや第2距離Z自体の値によっても変わり得るから、本実施形態では、第1距離Zや第2距離Zの値が10m程度の値である場合は例えば5m、第1距離Zや第2距離Zの値が100m程度の値である場合は例えば20mのように、閾値Δdpthは、第1距離Z等の値が大きくなるに従って大きくなるように設定されている。 The threshold Δdpth, when converted to the above (4) and (9) and the first parallax dp1 the second parallax dp2 a first distance Z 1 each second distance according to equation Z 2, the difference, i.e. The distance difference in the real space is set to a value that is considered to exist clearly. Since values that are considered to have a difference in distance may vary depending on the values of the first distance Z 1 and the second distance Z 2 themselves, in this embodiment, the values of the first distance Z 1 and the second distance Z 2 The threshold Δdpth is, for example, 5 m when the value is about 10 m, and 20 m when the values of the first distance Z 1 and the second distance Z 2 are about 100 m, the first distance Z 1, etc. Is set to increase as the value of increases.

そして、撮像環境判定手段29Dは、上記のようにして、第1距離画像TZ1上と第2距離画像TZ2上の同じ画素位置の各画素ブロックPBOについてミスマッチングが発生しているか否かを判定し、ミスマッチングが発生していると判定した画素ブロックPBOの数をカウントしていく。そして、そのような画素ブロックPBOの数が所定個数以上見出した場合に、撮像環境が悪化していると判定するようになっている。 Then, if the imaging environment judgment unit 29D is as described above, the first distance image T Z 1 on each pixel block PB O for mismatching the same pixel position on the second distance image T Z 2 is generated It determines whether, mismatching continue to count the number of pixel blocks PB O it is determined to be occurring. When the number of such pixel blocks PB O is found greater than a predetermined number, so as to determine that the imaging environment has deteriorated.

なお、上記の各画素ブロックPBOごとのミスマッチング判定は、第1距離画像TZ1と第2距離画像TZ2のそれぞれ全画像領域について行うように構成してもよいが、各距離画像には多数の画素ブロックPBOが属していて判定処理に時間がかかるうえ、各距離画像の上方の領域の方は空や先行車両Vahのさらに前方の風景が撮像されていてミスマッチングを生じ易いが、そのような部分でミスマッチングを生じても先行車両Vahの検出にはさほど影響がない。 Incidentally, mismatching determination for each pixel block PB O described above may but be configured to perform the first distance image T Z 1 and each entire image region of the second distance image T Z 2, each range image it takes time to determine process belong a number of pixel block PB O in, it is susceptible to mismatching further have front scenery sky or the preceding vehicle Vah is imaged in the upper region of each range image However, even if mismatching occurs in such a portion, detection of the preceding vehicle Vah is not so much affected.

そのため、本実施形態では、撮像環境判定手段29Dは、第1距離画像TZ1や第2距離画像TZ2の全画素ブロックPBOのうち、先行車両Vah等が検出される第1距離画像TZ1や第2距離画像TZ2の縦方向の中央部分に設定される図示を省略する所定の画像領域に属する画素ブロックPBOに対して、上記のようなミスマッチング判定を行うようになっている。 Therefore, in this embodiment, the imaging environment judgment unit 29D, among the first distance image T Z 1 and all pixel blocks PB O of the second distance image T Z 2, the first distance image preceding vehicle Vah like is detected The mismatching determination as described above is performed for the pixel block PB O belonging to a predetermined image region (not shown) set in the vertical center portion of T Z 1 and the second distance image T Z 2. It has become.

撮像環境判定手段29Dは、このようにして、各フレーム(すなわち各サンプリング周期)ごとに1回ずつ、撮像環境が悪化していると判定し、或いは撮像環境は悪化していないと判定するようになっている。   In this way, the imaging environment determination unit 29D determines that the imaging environment has deteriorated once for each frame (that is, each sampling period), or determines that the imaging environment has not deteriorated. It has become.

また、撮像環境判定手段29Dは、図示しないカウンタを備えており、本実施形態では、図16に示すように、撮像環境が悪化していると判定したフレームではカウンタのカウント数Cを増加させ、撮像環境が悪化していないと判定したフレームではカウンタのカウント数Cを減少させるようにして、撮像環境の悪化状況の履歴を監視するようになっている。   In addition, the imaging environment determination unit 29D includes a counter (not shown). In the present embodiment, as illustrated in FIG. 16, in the frame where it is determined that the imaging environment has deteriorated, the count number C of the counter is increased. In a frame in which it is determined that the imaging environment has not deteriorated, the count number C of the counter is decreased, and the history of the deterioration condition of the imaging environment is monitored.

また、本実施形態では、このカウンタのカウント数Cに、第1閾値Cth1およびそれよりも大きな値に設定される第2閾値Cth2が設定されている。   In the present embodiment, the first threshold value Cth1 and the second threshold value Cth2 set to a larger value are set as the count number C of the counter.

そして、撮像環境判定手段29Dは、カウンタのカウント数Cが、
(1)第1閾値Cth1未満の場合には、撮像環境の悪化の程度が最も改善されている段階αであると評価し、
(2)第1閾値Cth1以上で第2閾値Cth2未満の場合には、撮像環境の悪化の程度が中間の段階βであると評価し、
(3)第2閾値Cth2以上の場合には、撮像環境の悪化の程度が最も悪い段階γであると評価して、
撮像環境の悪化の程度を3段階に分けて評価するようになっている。
Then, the imaging environment determination unit 29D is configured such that the count number C of the counter is
(1) If it is less than the first threshold Cth1, it is evaluated that the degree of deterioration of the imaging environment is the most improved stage α,
(2) When the first threshold value Cth1 is equal to or greater than the second threshold value Cth2, the degree of deterioration of the imaging environment is evaluated as an intermediate stage β;
(3) When the second threshold value Cth2 or more, it is evaluated that the degree of deterioration of the imaging environment is the worst stage γ,
The degree of deterioration of the imaging environment is evaluated in three stages.

なお、図16では、第1閾値Cth1がカウンタのカウント数Cで2、第2閾値Cth2がカウント数Cで10に設定されている場合が示されているが、第1閾値Cth1および第2閾値Cth2は適宜の値に設定される。   FIG. 16 shows the case where the first threshold value Cth1 is set to 2 with the count number C of the counter and the second threshold value Cth2 is set to 10 with the count number C. However, the first threshold value Cth1 and the second threshold value are shown. Cth2 is set to an appropriate value.

撮像環境判定手段29Dは、上記のようにして評価した撮像環境の悪化の程度の段階α〜γのいずれかを、後述する先行車追従制御装置3に送信するようになっている。   The imaging environment determination unit 29D transmits any of the stages α to γ of the degree of deterioration of the imaging environment evaluated as described above to the preceding vehicle follow-up control device 3 described later.

[先行車追従制御装置]
本実施形態における運転支援装置である先行車追従制御装置3(図1参照)は、検出装置2の検出手段29で検出され送信されてくる先行車両Vahの情報に基づいて、運転支援制御として、自車両に対して先行車両Vahに追従するように制御する先行車追従制御を行うようになっている。
[Leading vehicle tracking control device]
The preceding vehicle follow-up control device 3 (see FIG. 1), which is the driving assistance device in the present embodiment, is based on the information on the preceding vehicle Vah detected and transmitted by the detecting means 29 of the detecting device 2 as driving assistance control. The preceding vehicle follow-up control is performed to control the own vehicle so as to follow the preceding vehicle Vah.

先行車追従制御装置3は、マイクロコンピュータ等からなる制御手段31と、制御手段31からの指示に基づいて自車両のアクセルスロットルやブレーキ機構等を操作するアクチュエータ等からなる応動部32等で構成されており、さらに図示しないメモリを備えている。   The preceding vehicle follow-up control device 3 includes a control unit 31 composed of a microcomputer or the like, and a response unit 32 composed of an actuator or the like that operates an accelerator throttle or a brake mechanism of the host vehicle based on an instruction from the control unit 31. And a memory (not shown).

先行車追従制御装置3の制御手段31は、検出装置2の先行車両検出手段29Bから先行車両Vahの自車両からの距離Zの情報等が送信されてくると、それに基づいて応動部32を指示して自車両を先行車両Vahに追従させるようになっている。その際、自車両と先行車両Vahとが走行中であれば、先行車両Vahとの車間距離を保つ状態で自車両を先行車両Vahに追従させ、先行車両Vahが停止した場合には、先行車両Vahの後方の先行車両Vahから所定の距離だけ離れた位置で自車両を停止させる。   The control means 31 of the preceding vehicle follow-up control device 3 instructs the responding unit 32 based on the information on the distance Z of the preceding vehicle Vah from the own vehicle transmitted from the preceding vehicle detection means 29B of the detection device 2. Thus, the host vehicle is made to follow the preceding vehicle Vah. At this time, if the host vehicle and the preceding vehicle Vah are traveling, the host vehicle is made to follow the preceding vehicle Vah while maintaining the inter-vehicle distance from the preceding vehicle Vah, and when the preceding vehicle Vah stops, the preceding vehicle The host vehicle is stopped at a position away from the preceding vehicle Vah behind Vah by a predetermined distance.

制御手段31は、このように、検出装置2の先行車両検出手段29Bから送信されてくる先行車両Vahの情報に基づいて、自車両に対して、上記の処理を含む公知の先行車追従制御を行うようになっている。   In this way, the control means 31 performs known preceding vehicle follow-up control including the above processing on the own vehicle based on the information on the preceding vehicle Vah transmitted from the preceding vehicle detection means 29B of the detection device 2 in this way. To do.

また、制御手段31は、検出装置2の計数手段29Cから送信されてくる先行車両Vahの検出に用いられた有効なデータ数と、撮像環境判定手段29Dから送信されてくる撮像環境の悪化の程度の段階α〜γに基づいて、先行車追従制御装置3による自車両に対する先行車追従制御を一時停止し、或いは先行車追従制御の一時停止を解除するようになっている。   In addition, the control unit 31 determines the number of effective data used for detecting the preceding vehicle Vah transmitted from the counting unit 29C of the detection device 2 and the degree of deterioration of the imaging environment transmitted from the imaging environment determination unit 29D. On the basis of the stages α to γ, the preceding vehicle following control for the host vehicle by the preceding vehicle following control device 3 is temporarily stopped, or the temporary stopping of the preceding vehicle following control is released.

本実施形態では、基本的に、制御手段31は、撮像環境判定手段29Dから送信されてきた撮像環境の悪化の程度が最も悪い段階である段階γ(図16参照)である場合には、計数手段29Cから送信されてくる先行車両Vahの検出に用いられた有効なデータ数にかかわらず、先行車追従制御装置3による自車両に対する先行車追従制御を一時停止するようになっている。   In the present embodiment, basically, the control unit 31 counts when the deterioration level of the imaging environment transmitted from the imaging environment determination unit 29D is at the stage γ (see FIG. 16), which is the worst stage. Regardless of the number of valid data used for detecting the preceding vehicle Vah transmitted from the means 29C, the preceding vehicle following control for the host vehicle by the preceding vehicle following control device 3 is temporarily stopped.

また、制御手段31は、撮像環境判定手段29Dから送信されてきた撮像環境の悪化の程度が最も改善されている段階である段階αである場合には、計数手段29Cから送信されてくる先行車両Vahの検出に用いられた有効なデータ数にかかわらず、自車両に対する先行車追従制御の一時停止を解除するようになっている。   In addition, when the degree of deterioration of the imaging environment transmitted from the imaging environment determination unit 29D is the most improved stage α, the control unit 31 leads the preceding vehicle transmitted from the counting unit 29C. Regardless of the number of valid data used for the detection of Vah, the temporary stop of the preceding vehicle follow-up control for the host vehicle is canceled.

一方、制御手段31は、撮像環境判定手段29Dから送信されてきた撮像環境の悪化の程度が中間の段階である段階βである場合には、計数手段29Cから送信されてくる先行車両Vahの検出に用いられた有効なデータ数Nを参照するようになっている。   On the other hand, if the degree of deterioration of the imaging environment transmitted from the imaging environment determination unit 29D is the intermediate stage β, the control unit 31 detects the preceding vehicle Vah transmitted from the counting unit 29C. The effective number of data N used in the above is referred to.

そして、自車両に対する先行車追従制御が継続されている状態(すなわち一時停止されていない状態)で、撮像環境の悪化の程度が中間の段階である段階βである場合、制御手段31は、計数手段29Cから送信されてくる前記有効なデータの数Nが予め設定された閾値Nth以上であれば先行車追従制御を継続するが、閾値Nth未満である場合には自車両に対する先行車追従制御を一時停止するようになっている。   When the preceding vehicle follow-up control for the host vehicle is continued (that is, the vehicle is not temporarily stopped), when the degree of deterioration of the imaging environment is the intermediate stage β, the control means 31 counts If the number N of valid data transmitted from the means 29C is equal to or greater than a preset threshold value Nth, the preceding vehicle follow-up control is continued. If the number N is less than the threshold value Nth, the preceding vehicle follow-up control is performed on the host vehicle. It is designed to pause.

また、自車両に対する先行車追従制御が一時停止されている状態で、撮像環境の悪化の程度が中間の段階である段階βである場合、制御手段31は、計数手段29Cから送信されてくる前記有効なデータの数Nが予め設定された閾値Nth未満であれば先行車追従制御の一時停止を継続するが、閾値Nth以上である場合には自車両に対する先行車追従制御の一時停止を解除するようになっている。   When the preceding vehicle follow-up control for the host vehicle is temporarily stopped and the degree of deterioration of the imaging environment is the intermediate stage β, the control means 31 is transmitted from the counting means 29C. If the number N of valid data is less than a preset threshold value Nth, the preceding vehicle follow-up control is temporarily stopped. If the number of valid data is equal to or greater than the threshold value Nth, the preceding vehicle follow-up control for the host vehicle is canceled. It is like that.

なお、先行車両Vahの検出に用いられた有効なデータの数Nは、図14に示したように、先行車両Vahを包囲するように基準画像TO上に設定された枠線Fr内の、先行車両Vahを表す第1視差dp1が対応づけられた画素ブロックPBOの数である。また、先行車両Vahを包囲する枠線Frは、先行車両Vahの自車両からの距離Zが長くなるほど(すなわち遠くなるほど)小さくなるから、枠線Frに属する全画素ブロックPBOの数は少なくなる。 Note that the number N of valid data used for detecting the preceding vehicle Vah is, as shown in FIG. 14, within the frame line Fr set on the reference image T O so as to surround the preceding vehicle Vah. prior first parallax dp1 indicative of vehicle Vah is the number of pixel blocks PB O that is associated. Moreover, border Fr which surrounds the preceding vehicle Vah, since the distance Z from the vehicle to the preceding vehicle Vah is smaller as the longer (i.e. farther), the total number of pixel blocks PB O belonging to the frame line Fr is reduced .

そこで、上記の有効なデータの数Nに関する閾値Nthは、自車両から先行車両Vahまでの距離Zが長くなるほど小さな値になるように設定されるようになっている。本実施形態では、この距離Zと閾値Nthとを対応づけるテーブルが予めメモリに保存されており、制御手段31は、検出装置2の先行車両検出手段29Bから距離Zの情報が送信されてくると、そのテーブルを参照して閾値Nthを決定するようになっている。   Therefore, the threshold value Nth related to the number N of valid data is set to be smaller as the distance Z from the host vehicle to the preceding vehicle Vah is longer. In the present embodiment, a table that associates the distance Z with the threshold value Nth is stored in advance in the memory, and the control unit 31 receives information on the distance Z from the preceding vehicle detection unit 29B of the detection device 2. The threshold value Nth is determined with reference to the table.

以上の制御手段31における先行車追従制御の一時停止の開始や解除の基準を概念的に表すと図17に示すように分類される。なお、本実施形態では、有効なデータの数Nに関して、先行車追従制御を一時停止する閾値と、先行車追従制御の一時停止を解除する閾値とを同じ値Nthに設定する場合について説明したが、これらの閾値を異なる値に設定するように構成することも可能である。   The concept of starting and releasing the temporary stop of the preceding vehicle follow-up control in the control means 31 is conceptually expressed as shown in FIG. In the present embodiment, regarding the number N of valid data, the case where the threshold value for temporarily stopping the preceding vehicle tracking control and the threshold value for canceling the temporary stopping of the preceding vehicle tracking control are set to the same value Nth has been described. These threshold values may be set to different values.

ところで、自車両のドライバが、先行車追従制御が一時停止されたことに気づかないと、先行車追従制御が作動していると誤信して例えば自車両に対する制動操作を怠り、先行車両Vahに追突する等の事態が生じる可能性がある。そのため、本実施形態では、先行車追従制御装置3の制御手段31は、自車両に対する先行車追従制御を一時停止した場合には、例えば報知装置4の図示しないスピーカから音声を発声させたり図示しない画面上に表示させたり或いは図示しない所定のランプを点灯させるなどして、先行車追従制御が一時停止されたことをドライバに報知するようになっている。   By the way, if the driver of the own vehicle does not notice that the preceding vehicle follow-up control is temporarily stopped, the driver misunderstands that the preceding vehicle follow-up control is operating, for example, neglects the braking operation on the own vehicle, and collides with the preceding vehicle Vah. There is a possibility that such a situation will occur. Therefore, in the present embodiment, when the preceding vehicle follow-up control for the host vehicle is temporarily stopped, the control means 31 of the preceding vehicle follow-up control device 3 utters a sound from a speaker (not shown) of the notification device 4 or does not show it, for example. The driver is informed that the preceding vehicle following control has been temporarily stopped by displaying it on a screen or turning on a predetermined lamp (not shown).

[作用]
次に、本実施形態に係る運転支援システム1の作用について説明する。
[Action]
Next, the operation of the driving support system 1 according to the present embodiment will be described.

検出装置2では、メインカメラ21aとサブカメラ21b等で構成される撮像手段21で自車両の周囲の環境が撮像され、出力された基準画像TOおよび比較画像TCに基づいて、第1画像処理手段25aの第1ステレオマッチング手段26aで、基準画像TOの各画素ブロックPBOについてそれぞれ第1視差dp1が算出されて、第1距離画像TZ1が形成される。 In the detection apparatus 2, the environment around the host vehicle is imaged by the imaging means 21 including the main camera 21 a and the sub camera 21 b, and the first image is based on the output reference image T O and the comparison image T C. in the first stereo matching means 26a processing means 25a, the first parallax dp1 respectively, for each pixel block PB O of the reference image T O is calculated, the first distance image T Z 1 is formed.

また、出力された基準画像TOおよび比較画像TCは、前処理手段28でそれぞれ例えばエッジ検出処理が行われて基準エッジ画像TEOと比較エッジ画像TECとが形成され、それらの基準エッジ画像TEOおよび比較エッジ画像TECに基づいて、第2画像処理手段25bの第2ステレオマッチング手段26bで、基準エッジ画像TEOの各画素ブロックについてそれぞれ第2視差dp2が算出されて、第2距離画像TZ2が形成される。 Further, the outputted reference image T O and the comparative image T C is pre-processing means 28 in each example edge detection processing is performed with the reference edge image TE O and comparative edge image TE C is formed, those reference edge based on the image TE O and the comparative edge image TE C, the second stereo matching means 26b of the second image processing unit 25b, a second parallax dp2, respectively for each pixel block of the reference edge image TE O is calculated, the second A distance image T Z 2 is formed.

そして、ステレオマッチング処理により得られた第1距離画像TZ1等に基づいて、検出手段29の物体検出手段29Aと先行車両検出手段29Bで、基準画像TO中から物体や先行車両Vahが検出される。物体検出手段29Aを第1距離画像TZ1と第2距離画像TZ2に基づいてそれぞれ物体を検出するように構成する場合には、それらの検出結果のうち、良好な検出結果が出力される。 Based on the first distance image T Z1 obtained by the stereo matching process, the object detection unit 29A and the preceding vehicle detection unit 29B of the detection unit 29 detect the object and the preceding vehicle Vah from the reference image T O. Is done. When the object detection unit 29A is configured to detect an object based on each of the first distance image T Z1 and the second distance image T Z 2, a good detection result is output among these detection results. The

この物体検出や先行車両検出は、ミスマッチングの発生の有無にかかわらず常時行われ、それらの情報が先行車追従制御装置3の制御手段31や必要に応じて他のECU等の装置に常時送信される。   This object detection and preceding vehicle detection are always performed regardless of the occurrence of mismatching, and such information is constantly transmitted to the control means 31 of the preceding vehicle tracking control device 3 and other devices such as an ECU as necessary. Is done.

計数手段29Cは、第1距離画像TZ1にあてはめた枠線Fr内で、先行車両Vahの検出に用いられた有効なデータ(画素ブロックPBO)の数Nを計数して、先行車追従制御装置3の制御手段31に送信する。 Counting means 29C is in a frame line Fr which fit in the first distance image T Z 1, by counting the number N of valid data used for the detection of the preceding vehicle Vah (pixel block PB O), adaptive cruise It transmits to the control means 31 of the control apparatus 3.

また、撮像環境判定手段29Dは、第1距離画像TZ1と第2距離画像TZ2のそれぞれ縦方向の中央部分の画像領域に属する第1距離画像TZ1上と第2距離画像TZ2上の同じ画素位置の画素ブロックPBOの第1視差dp1と第2視差dp2とを比較し、それらの値の差の絶対値が、前述した距離に応じて変化する所定の閾値Δdpth以上であれば、その画素ブロックPBOでミスマッチングが発生していると判定する。この場合、第1距離画像TZ1と第2距離画像TZ2のいずれでミスマッチングを生じているかは検出しない。 The imaging environment judgment unit 29D, the first distance image T Z 1 and the first distance image T Z 1 and on the second distance image T that belong to the image area of the central portion of the second distance each vertical image T Z 2 The first parallax dp1 and the second parallax dp2 of the pixel block PB O at the same pixel position on Z 2 are compared, and the absolute value of the difference between these values is equal to or greater than the predetermined threshold Δdpth that changes according to the distance described above. if, it is determined that the mismatch in the pixel block PB O is occurring. In this case, whether the first distance image T Z 1 to be occurring one in mismatching of the second distance image T Z 2 not detected.

撮像環境判定手段29Dは、この判定処理を、上記の第1距離画像TZ1と第2距離画像TZ2の画像領域に属する全ての画素ブロックPBOについて行い、ミスマッチングが発生していると判定した画素ブロックPBOの数をカウントし、所定個数以上見出した場合に撮像環境が悪化していると判定する。 The imaging environment determination unit 29D performs this determination process for all the pixel blocks PB O belonging to the image areas of the first distance image T Z1 and the second distance image T Z 2 and mismatching occurs. determines that counts the number of pixel blocks PB O was determined, the imaging environment if found more than a predetermined number are worse.

このように、本実施形態では、第1距離画像TZ1や第2距離画像TZ2で、許容される数の画素ブロックPBOでミスマッチングが発生していても、即座に撮像環境が悪化していると判定されることはなく、許容される範囲を越える数の画素ブロックPBOでミスマッチングが発生している場合に撮像環境が悪化していると判定される。別の言い方をすれば、ミスマッチングが発生する画素ブロックPBOの数として許容される限界の数が前記所定個数として設定される。 Thus, in this embodiment, even if mismatching occurs in the allowable number of pixel blocks PB O in the first distance image T Z1 and the second distance image T Z 2, the imaging environment is immediately set. It not is determined to be deteriorated, it is determined that the imaging environment has deteriorated when the mismatch in the number of pixel blocks PB O beyond the range permitted occurs. In other words, the number of limit mismatching is acceptable as the number of pixel blocks PB O generated is set as the predetermined number.

また、本実施形態では、撮像環境判定手段29Dは、このような撮像環境の悪化の程度を、上記のようにして撮像環境が悪化していると判定される頻度の観点から定義づける。そして、図16に示したフレームごとに増減するカウンタのカウント数Cに基づいて撮像環境の悪化状況の履歴を監視し、撮像環境が悪化していると判定される頻度が多くなり、カウント数Cが大きくなるに従って、撮像環境の悪化の程度を、最も改善されている段階αから、中間の段階β、最も悪い段階γへと引き上げるようにして、撮像環境の悪化の程度を3段階に分けて評価する。   In the present embodiment, the imaging environment determination unit 29D defines the degree of deterioration of the imaging environment from the viewpoint of the frequency at which it is determined that the imaging environment has deteriorated as described above. Then, the history of the imaging environment deterioration status is monitored based on the count number C of the counter that increases and decreases for each frame shown in FIG. 16, and the frequency at which it is determined that the imaging environment is deteriorated increases. The degree of deterioration of the imaging environment is divided into three stages by increasing the degree of deterioration of the imaging environment from the most improved stage α to the intermediate stage β and the worst stage γ. evaluate.

また、逆に、撮像環境が悪化していると判定される頻度が減少していき、カウント数Cが小さくなるに従って、撮像環境の悪化の程度を、最も悪い段階γから、中間の段階β、最も改善されている段階αへと引き下げるようにして評価する。そして、撮像環境判定手段29Dは、フレームごとに、評価結果である撮像環境の悪化の程度の段階が段階α〜γのいずれであるかを先行車追従制御装置3の制御手段31に送信する。   Conversely, the frequency at which it is determined that the imaging environment has deteriorated decreases, and as the count number C decreases, the degree of deterioration of the imaging environment is changed from the worst stage γ to the intermediate stage β, The evaluation is made by lowering to the most improved stage α. Then, the imaging environment determination unit 29D transmits, for each frame, to the control unit 31 of the preceding vehicle follow-up control device 3, which of the stages α to γ is the level of the degree of deterioration of the imaging environment that is the evaluation result.

一方、運転支援装置である先行車追従制御装置3(図1参照)の側では、検出装置2の検出手段29で検出され送信されてくる先行車両Vahの情報に基づいて、制御手段31からの指示により応動部32が自車両のアクセルスロットルやブレーキ機構等を操作して自車両に対して先行車両Vahに追従するように制御する先行車追従制御を行う。   On the other hand, on the side of the preceding vehicle follow-up control device 3 (see FIG. 1), which is a driving support device, the control unit 31 receives information from the preceding vehicle Vah detected and transmitted by the detecting unit 29 of the detecting unit 2. In response to the instruction, the responding unit 32 operates the accelerator throttle, the brake mechanism, and the like of the host vehicle to perform preceding vehicle follow-up control for controlling the host vehicle to follow the preceding vehicle Vah.

また、先行車追従制御装置3の制御手段31は、検出装置2の計数手段29Cから送信されてくる先行車両Vahの検出に用いられた有効なデータ数と、撮像環境判定手段29Dから送信されてくる撮像環境の悪化の程度の段階α〜γに基づいて、図17に示したような基準に従って、先行車追従制御を一時停止させたり、その一時停止を解除したりする。   Further, the control means 31 of the preceding vehicle follow-up control device 3 transmits the effective number of data used for detection of the preceding vehicle Vah transmitted from the counting means 29C of the detection device 2 and the imaging environment determination means 29D. Based on the stages α to γ of the degree of deterioration of the imaging environment coming, the preceding vehicle follow-up control is paused or the pause is released according to the standard as shown in FIG.

この基準によれば、検出装置2の撮像環境判定手段29Dにおける前記カウンタのカウント数Cが大きく累積し、撮像環境の悪化の程度が最も悪い段階γと評価されるような撮像環境が明らかに悪化した場合には、先行車追従制御が即座に一時停止される。   According to this criterion, the imaging environment in which the count number C of the counter in the imaging environment determination unit 29D of the detection apparatus 2 is accumulated greatly and the imaging environment is evaluated as the worst stage γ is clearly deteriorated. In this case, the preceding vehicle follow-up control is immediately suspended.

本実施形態では、撮像環境が悪化した原因が、画像中に発生するフレアFlやスミアSm(図24参照)の影響であるのか、一対の画像の明るさのバランスが崩れた(図25(A)、(B)参照)ためであるかはわからず、第1ステレオマッチング手段26aや第2ステレオマッチング手段26bで算出される第1距離画像TZ1および第2距離画像TZ2のいずれでミスマッチングを生じているかも検知しないが、いずれにせよ、ステレオマッチング処理においてミスマッチングが多発するような撮像環境であることはわかる。 In this embodiment, the cause of the deterioration of the imaging environment is the influence of flare Fl and smear Sm (see FIG. 24) generated in the image, or the balance of the brightness of the pair of images is lost (FIG. 25 (A ), (B) not known by either reference) Therefore, in any of the first distance image T Z 1 and the second distance image T Z 2 calculated in the first stereo matching means 26a or the second stereo matching means 26b Whether or not mismatching has occurred is not detected, but in any case, it is understood that the imaging environment is such that mismatching frequently occurs in stereo matching processing.

このようなミスマッチングが多発するような撮像環境が複数のフレームで続くということは撮像環境が非常に良くない状況であると判断できる。そして、このようなミスマッチングが多発すると、例えば先行車両Vahの自車両からの距離Zを算出してもその距離Zの信頼性が乏しく、算出された当該距離Zに従って先行車追従制御を継続すると、先行車両Vahに追突したり、安定的に走行している先行車両Vahの後方で自車両が不必要に加速したり減速したりする事態を生じてしまう。   It can be determined that the imaging environment where the mismatching occurs frequently in a plurality of frames is a very poor imaging environment. If such mismatching occurs frequently, for example, even if the distance Z of the preceding vehicle Vah from the host vehicle is calculated, the reliability of the distance Z is poor, and the preceding vehicle following control is continued according to the calculated distance Z. The vehicle may collide with the preceding vehicle Vah, or the host vehicle may unnecessarily accelerate or decelerate behind the preceding vehicle Vah that is traveling stably.

そのため、検出装置2の撮像環境判定手段29Dにおける前記カウンタのカウント数Cが大きく累積し、撮像環境の悪化の程度が最も悪い段階γと評価されるような撮像環境が明らかに悪化した場合に、先行車追従制御を即座に一時停止する方が、自車両の安全走行や安定走行に資する結果となる。   Therefore, when the imaging environment where the count number C of the counter in the imaging environment determination unit 29D of the detection apparatus 2 is largely accumulated and the imaging environment in which the degree of deterioration of the imaging environment is evaluated as the worst stage γ is clearly deteriorated, Immediately stopping the preceding vehicle following control results in safe driving and stable driving of the host vehicle.

しかし、その場合、自車両のドライバが、先行車追従制御が一時停止されたことに気づかないと、先行車追従制御が作動していると誤信して例えば自車両に対する制動操作を怠り、先行車両Vahに追突する等の事態が生じる可能性があるため、例えば報知装置4を介して先行車追従制御が一時停止されたことをドライバに報知することが好ましい。   However, in that case, if the driver of the own vehicle does not notice that the preceding vehicle follow-up control has been temporarily stopped, the driver misunderstands that the preceding vehicle follow-up control is operating and neglects the braking operation on the own vehicle, for example. Since a situation such as a collision with Vah may occur, it is preferable to notify the driver that the preceding vehicle follow-up control has been temporarily stopped via the notification device 4, for example.

また、上記の基準によれば、検出装置2の撮像環境判定手段29Dにおける前記カウンタのカウント数Cが0またはそれに近い値であり、撮像環境の悪化の程度が最も改善されている段階αと評価されるような撮像環境が明らかに改善されている状況においては、先行車追従制御の一時停止が即座に解除される。これは、撮像環境が良好な状況である場合には、撮像環境の悪化による先行車追従制御の一時停止を行う必要がないからである。   Further, according to the above criteria, the count number C of the counter in the imaging environment determination unit 29D of the detection apparatus 2 is 0 or a value close thereto, and the evaluation is a stage α where the degree of deterioration of the imaging environment is most improved. In such a situation where the imaging environment is clearly improved, the suspension of the preceding vehicle following control is immediately released. This is because it is not necessary to temporarily stop the preceding vehicle follow-up control due to the deterioration of the imaging environment when the imaging environment is favorable.

確かに、撮像環境が良好であっても、すなわちミスマッチングが生じない或いは生じてもごく小規模でしかないような場合であっても、例えば先行車両Vah等を検出できずにロストする場合がある。しかし、それは、先行車両Vahの背面等に明確な構造がなかったり、先行車両Vahの明るさとその周囲の明るさが非常に近い明るさであったりするためにステレオマッチングがうまく行えない等、撮像環境の悪化とは別の原因で生じているものである。そのため、少なくとも撮像環境の悪化の観点から言えば、撮像環境が明らかに改善されたのであれば、それによる先行車追従制御の一時停止は解除されるべきである。   Certainly, even when the imaging environment is good, that is, when mismatching does not occur or when it is only a small scale, for example, the preceding vehicle Vah or the like may be lost without being detected. is there. However, there is no clear structure on the back of the preceding vehicle Vah, or the stereo matching cannot be performed well because the brightness of the preceding vehicle Vah and the surrounding brightness are very close. It is caused by a cause other than environmental deterioration. Therefore, at least from the viewpoint of the deterioration of the imaging environment, if the imaging environment is clearly improved, the suspension of the preceding vehicle follow-up control by that should be canceled.

さらに、上記の基準によれば、自車両に対する先行車追従制御が継続されている状態(すなわち一時停止されていない状態)で、撮像環境の悪化の程度が中間の段階である段階βである場合、計数手段29Cから送信されてくる有効なデータの数Nが閾値Nth以上であれば先行車追従制御を継続するが、閾値Nth未満である場合には自車両に対する先行車追従制御を一時停止する。   Further, according to the above criteria, when the preceding vehicle follow-up control for the host vehicle is continued (that is, the vehicle is not temporarily stopped), the imaging environment is deteriorated at an intermediate stage β If the number N of valid data transmitted from the counting means 29C is equal to or greater than the threshold value Nth, the preceding vehicle follow-up control is continued. If the number N is less than the threshold value Nth, the preceding vehicle follow-up control is temporarily stopped. .

また、逆に、自車両に対する先行車追従制御が一時停止されている状態で、撮像環境の悪化の程度が中間の段階である段階βである場合に、計数手段29Cから送信されてくる有効なデータの数Nが閾値Nth未満であれば先行車追従制御の一時停止を継続するが、閾値Nth以上である場合には自車両に対する先行車追従制御の一時停止を解除する。   On the contrary, when the preceding vehicle follow-up control for the host vehicle is temporarily stopped and the degree of deterioration of the imaging environment is the stage β which is an intermediate stage, the effective transmission from the counting unit 29C is effective. If the number N of data is less than the threshold value Nth, the preceding vehicle follow-up control is temporarily stopped, but if the number N is equal to or greater than the threshold value Nth, the preceding vehicle follow-up control for the host vehicle is canceled.

ミスマッチングが発生していて撮像環境が悪化しているが、その悪化の程度が深刻な状況ではない状態、すなわち撮像環境の悪化の程度が中間の段階である段階βである状態で、画像認識性能が低下せずに先行車両Vahを十分的確に検出できているのであれば、その情報を有効に活用し、先行車両Vahを検出して先行車追従制御を有効に行うことができる。しかし、撮像環境の悪化の程度が深刻な状況ではない状態でも、画像認識性能が低下して先行車両Vahを的確に検出できないのであれば、先行車追従制御を一時停止する方がよい。   Image recognition in a state where mismatching has occurred and the imaging environment has deteriorated, but the degree of deterioration is not a serious situation, that is, in a state where the degree of deterioration of the imaging environment is an intermediate stage β If the preceding vehicle Vah can be detected sufficiently accurately without degrading the performance, the information can be used effectively, the preceding vehicle Vah can be detected, and the preceding vehicle following control can be performed effectively. However, it is better to temporarily stop the preceding vehicle following control if the image recognition performance is deteriorated and the preceding vehicle Vah cannot be accurately detected even in a state where the degree of deterioration of the imaging environment is not serious.

そこで、上記のようにミスマッチングが発生していて撮像環境が悪化しているがその悪化の程度が深刻な状況ではない状態(段階β)では、本実施形態のように、画像認識性能が限界に達し、検出装置2の先行車両検出手段29Bにおける先行車両Vahの検出に用いる有効なデータの数Nが十分に得られなくなるまで、先行車追従制御を一時停止せず継続することが望ましい。また、先行車追従制御が一時停止されている状態で画像認識性能が回復すれば、先行車追従制御の一時停止を解除することが望ましい。   Therefore, in the state where the mismatching has occurred and the imaging environment has deteriorated as described above but the degree of the deterioration is not serious (stage β), the image recognition performance is limited as in this embodiment. It is desirable to continue the preceding vehicle follow-up control without pausing until the number N of effective data used for detection of the preceding vehicle Vah in the preceding vehicle detection means 29B of the detection device 2 is not sufficiently obtained. Further, if the image recognition performance recovers in a state where the preceding vehicle following control is paused, it is desirable to cancel the temporary stopping of the preceding vehicle following control.

[効果]
以上のように、本実施形態に係る運転支援システム1によれば、検出装置2の検出手段29(先行車両検出手段29B)による特定の対象(先行車両Vah)の検出に用いられた有効なデータの数Nと、撮像手段21により撮像された基準画像TOおよび比較画像TCから得られた第1視差dp1と第2視差dp2に基づいて撮像環境が悪化しているか否かを判定して撮像環境の悪化の程度を3段階に分けて評価した段階α〜γの情報に基づいて、運転支援装置(先行車追従制御装置3)による自車両に対する運転支援制御(先行車追従制御)を一時停止したり、一時停止を解除するように構成した。
[effect]
As described above, according to the driving support system 1 according to the present embodiment, effective data used for detection of a specific target (preceding vehicle Vah) by the detecting unit 29 (preceding vehicle detecting unit 29B) of the detecting device 2. Whether or not the imaging environment has deteriorated is determined based on the number N and the first parallax dp1 and the second parallax dp2 obtained from the reference image T O and the comparison image T C captured by the imaging unit 21. Based on the information of the stages α to γ that evaluate the degree of deterioration of the imaging environment in three stages, the driving support control (preceding vehicle tracking control) for the host vehicle is temporarily performed by the driving support device (preceding vehicle tracking control device 3). It was configured to stop or release the pause.

そのため、撮像環境が明らかに悪化した場合(段階γ)には運転支援制御を即座に一時停止し、撮像環境が明らかに改善されている状況(段階α)においては運転支援制御の一時停止を即座に解除することが可能となる。   Therefore, when the imaging environment is clearly deteriorated (stage γ), the driving support control is temporarily stopped, and when the imaging environment is clearly improved (stage α), the driving support control is temporarily stopped. Can be released.

また、それとともに、撮像環境が悪化してもその悪化の程度が深刻な状況ではなく、撮像環境の悪化の程度が上記の最も悪い段階γと最も改善されている段階αの中間の段階βである状態では、検出装置2の検出手段29による特定の対象の検出に用いられた有効なデータの数Nを監視して、画像認識性能が限界に達し、有効なデータの数Nが十分に得られなくなるまで、運転支援制御を一時停止せず継続させることが可能となる。また、運転支援制御が一時停止されている状態で画像認識性能が回復した場合には、運転支援制御の一時停止を解除することが可能となる。   At the same time, even if the imaging environment deteriorates, the degree of the deterioration is not a serious situation, and the degree of the deterioration of the imaging environment is the intermediate stage β between the worst stage γ and the most improved stage α. In a certain state, the number N of effective data used for detection of a specific object by the detection unit 29 of the detection device 2 is monitored, and the image recognition performance reaches a limit, and the number N of effective data is sufficiently obtained. The driving support control can be continued without being temporarily stopped until it is no longer possible. In addition, when the image recognition performance is recovered while the driving support control is paused, the suspension of the driving support control can be canceled.

このように、本実施形態に係る運転支援システム1によれば、撮像環境の悪化の程度に応じて画像認識性能が限界に達した時点で運転支援制御を的確に一時停止させ、運転支援制御が一時停止されている状態では、画像認識性能が回復した時点で運転支援制御の一時停止を的確に解除することが可能となる。   Thus, according to the driving support system 1 according to the present embodiment, when the image recognition performance reaches the limit according to the degree of deterioration of the imaging environment, the driving support control is appropriately paused and the driving support control is performed. In the paused state, it is possible to accurately cancel the suspension of the driving support control when the image recognition performance is recovered.

[変形例]
なお、上記の実施形態では、運転支援制御を一時停止させ、或いは運転支援制御の一時停止を解除する制御手段31を運転支援装置3側に設ける場合について説明したが、例えば、制御手段31を検出装置2の検出手段29のコンピュータ内に構成し、制御手段31から運転支援装置3に運転支援制御の停止や停止の解除を指示する信号を送信するように構成することも可能である。
[Modification]
In the above-described embodiment, the case where the control unit 31 that temporarily stops the driving support control or releases the suspension of the driving support control is provided on the driving support device 3 side is described. For example, the control unit 31 is detected. It is also possible to configure in the computer of the detection means 29 of the device 2 so that the control means 31 transmits a signal instructing the driving support control 3 to stop or cancel the driving support control.

また、上記の実施形態では、撮像環境判定手段29Dを検出装置2内に構成し、撮像手段21により撮像された画像TO、TCに基づいて撮像環境が悪化しているか否かを判定する処理と、撮像環境の悪化の程度を3段階に分けて評価する処理とを検出装置2の検出手段29内で行うように構成する場合について説明したが、例えば、前者の処理を検出装置2内で行い、撮像環境が悪化していると判定した場合に運転支援装置3側に信号を送信し、運転支援装置3の例えば制御手段31でその信号を計数してカウント数Cを増減させて、制御手段31等で撮像環境の悪化の程度を3段階に分けて評価するように構成することも可能である。 In the above embodiment, the imaging environment determination unit 29D is configured in the detection device 2, and it is determined whether the imaging environment has deteriorated based on the images T O and T C captured by the imaging unit 21. The case where the processing and the processing for evaluating the degree of deterioration of the imaging environment in three stages are described in the detection unit 29 of the detection device 2 has been described. For example, the former processing is performed in the detection device 2. When it is determined that the imaging environment is deteriorated, a signal is transmitted to the driving support device 3 side, and the signal is counted by the control means 31 of the driving support device 3, for example, and the count number C is increased or decreased. The degree of deterioration of the imaging environment can be divided into three stages and evaluated by the control means 31 or the like.

さらに、上記の実施形態では、検出装置2で検出する特定の対象が先行車両Vahであり、運転支援装置である先行車追従制御装置3で自車両に対して先行車追従制御を行う場合について説明したが、この他にも、例えば検出装置2で検出する特定の対象を自車両の左右の車線とし、運転支援装置で自車両に対して車線追従制御を行う場合にも本発明を適用することができる。   Further, in the above-described embodiment, the specific object detected by the detection device 2 is the preceding vehicle Vah, and the preceding vehicle following control device 3 that is a driving support device performs the preceding vehicle following control on the own vehicle. However, in addition to this, for example, the present invention is also applied to a case where the specific target detected by the detection device 2 is the left and right lanes of the host vehicle and the driving support device performs lane tracking control on the host vehicle. Can do.

この場合、運転支援システムは、図1における先行車追従制御装置3の代わりに運転支援装置として車線追従制御装置3を備え、車線追従制御装置3の制御手段31は、検出手段2により検出された車線の情報に基づいて、例えばステアリングサーボ機能を有する制御システムを備える応動部32を指示してステアリングホイールに操舵トルクを与えるなどして自車両に対して車線に追従するように制御するように構成される。   In this case, the driving support system includes a lane tracking control device 3 as a driving support device instead of the preceding vehicle tracking control device 3 in FIG. 1, and the control means 31 of the lane tracking control device 3 is detected by the detection means 2. Based on the lane information, for example, the response unit 32 having a control system having a steering servo function is instructed to give steering torque to the steering wheel, and the vehicle is controlled to follow the lane. Is done.

また、検出装置2は、車線を検出するための車線検出手段を備えるように構成される。そして、車線検出手段では、例えば、画像データメモリ24(図2参照)から図3に示した基準画像TOのデータを読み出して、図18に示すように、基準画像TOを用いて、その1画素幅の水平ラインj上を例えば基準画像TOの中央から左右方向に探索し、輝度値が隣接する画素の輝度値から設定された閾値以上に大きく変化する画素を車線候補点cl、crとして検出する。 Moreover, the detection apparatus 2 is comprised so that a lane detection means for detecting a lane may be provided. Then, the lane detection means reads out the data of the reference image T O shown in FIG. 3 from the image data memory 24 (see FIG. 2), and uses the reference image T O as shown in FIG. For example, a horizontal line j having a width of 1 pixel is searched from the center of the reference image T O in the left-right direction, and pixels whose luminance value changes greatly from a luminance value of an adjacent pixel to a threshold value or more are set as lane candidate points cl and cr. Detect as.

そして、基準画像TO上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点cl、crを検出していく。その際、車線検出手段は、例えば第1距離データメモリ27aから第1視差dp1の情報を読み出して、検出した車線候補点cl、crにおける第1視差dp1等に基づいて当該車線候補点cl、crが道路面上にないと判断した場合には当該車線候補点cl、crを車線候補点から除外する。そして、残った車線候補点cl、crのうち、自車両に近い側の車線候補点cl、crに基づいて車線をハフ変換等により直線で近似して自車両の左右にそれぞれ検出する。 Then, while shifting the horizontal line j on the reference image T O upward by one pixel at a time, the lane candidate points cl and cr are detected on each horizontal line j in the same manner. At this time, the lane detection unit reads out information on the first parallax dp1 from the first distance data memory 27a, for example, and based on the detected first parallax dp1 at the lane candidate points cl and cr, the lane candidate points cl and cr Is not on the road surface, the lane candidate points cl and cr are excluded from the lane candidate points. Of the remaining lane candidate points cl and cr, the lane is approximated by a straight line by Hough transformation or the like based on the lane candidate points cl and cr on the side closer to the own vehicle, and detected on the left and right sides of the own vehicle, respectively.

その際、直線との整合性が取れない車線候補点cl、crを除外するなどして検出の信頼性を向上させながら、自車両の一方の側(例えば右側)に複数の車線が検出される場合には自車両の他方(例えば左側)に検出した車線との整合性がある車線や前回のサンプリング周期で検出した車線との整合性がある車線を選ぶ等して、自車両の左右にそれぞれ直線を選別する。   At this time, a plurality of lanes are detected on one side (for example, the right side) of the host vehicle while improving the reliability of detection by excluding lane candidate points cl and cr that cannot be matched with a straight line. In this case, select the lane that is consistent with the lane detected on the other side of the vehicle (for example, the left side) or the lane that is consistent with the lane detected in the previous sampling cycle. Sort straight lines.

このようにして、自車両に近い側に車線を直線状にそれぞれ検出すると、それより遠い側ではその直線に基づいて直線との位置関係等から車線候補点cl、crを選別して結ぶことで、図19に示すように自車両の左側および右側にそれぞれ車線Ll、Lrを検出するようになっている。なお、以上の車線検出手段の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に車線認識装置等として詳述されており、詳細な説明はそれらの公報を参照されたい。   In this way, when the lane is detected in a straight line on the side closer to the host vehicle, the lane candidate points cl and cr are selected and connected based on the positional relationship with the straight line based on the straight line on the far side. As shown in FIG. 19, lanes Ll and Lr are detected on the left and right sides of the host vehicle, respectively. The processing configuration of the above lane detection means is described in detail as a lane recognition device in Japanese Patent Application Laid-Open No. 2006-331389 previously filed by the applicant of the present application, and refer to those publications for detailed description. I want to be.

この場合の運転支援システムにおいては、撮像環境が悪化しているか否かを判定し、撮像環境の悪化の程度を3段階に分けて評価する撮像環境判定手段における処理は、上記の実施形態における撮像環境判定手段29Dと同様にして行うことができる。   In the driving support system in this case, the processing in the imaging environment determination unit that determines whether the imaging environment has deteriorated and evaluates the degree of deterioration of the imaging environment in three stages is the imaging in the above embodiment. This can be performed in the same manner as the environment determination unit 29D.

また、計数手段における特定の対象(車線LL、LR)の検出に用いられた有効なデータの数の計数の対象は、この場合、例えば、車線LL、LRをそれぞれ特定するために用いられた左右それぞれの車線候補点cl、crの数として定義することができる。その場合、有効なデータの数に関して予め設定される閾値として、例えば検出された車線LL、LRの各位置等の情報がそれぞれ信頼できるに足る情報であることを保証する数が設定され、有効なデータ数がその数以上であれば画像認識性能はまだ限界に達していないと判断でき、有効なデータ数がその数を下回れば画像認識性能が限界を越えたと判断できるような数が設定される。   In addition, in this case, for example, the right and left used for specifying the lanes LL and LR are the targets for counting the number of valid data used for detecting the specific target (lanes LL and LR) in the counting unit. It can be defined as the number of lane candidate points cl and cr. In that case, as a threshold value set in advance with respect to the number of valid data, for example, a number that guarantees that information such as each position of the detected lanes LL and LR is reliable enough is set. If the number of data is more than that number, it can be judged that the image recognition performance has not yet reached the limit, and if the number of valid data falls below that number, the number can be judged that the image recognition performance has exceeded the limit. .

また、有効なデータの数の計数の対象を、例えば、検出することができた車線LL、LRの自車両の位置からの実空間上の長さとして定義することも可能である。その場合、有効なデータの数に関して予め設定される閾値として、例えば自車両の位置からの長さとして50m等の長さが設定され、検出された車線LL、LRの長さが50m等以上であれば画像認識性能はまだ限界に達していないと判断され、検出された車線LL、LRの長さが50m等に達しないようであれば画像認識性能が限界を越えたと判断される。   The target of counting the number of valid data can be defined as, for example, the length in real space from the position of the own vehicle in the lanes LL and LR that can be detected. In that case, as a threshold value set in advance with respect to the number of valid data, for example, a length such as 50 m is set as the length from the position of the host vehicle, and the length of the detected lanes LL and LR is 50 m or more. If so, it is determined that the image recognition performance has not yet reached the limit, and if the detected lanes LL, LR do not reach 50 m or the like, it is determined that the image recognition performance has exceeded the limit.

一方、上記の実施形態では、基準画像TOおよび比較画像TCに対して異なる前処理の仕方(前処理を行わない場合を含む。)で第1距離画像TZ1と第2距離画像TZ2を形成し、第1距離画像TZ1と第2距離画像TZ2の対応する画素ブロックPBOの第1視差dp1と第2視差dp2とを比較して、それらの差の絶対値が所定の閾値Δdpth以上である画素ブロックPBOが所定個数以上存在する場合に、撮像環境が悪化していると判定する場合について説明した。この場合、撮像環境が悪化した原因が、画像中に発生するフレアFlやスミアSm(図24参照)の影響であるのか、一対の画像の明るさのバランスが崩れた(図25(A)、(B)参照)ためであるかは問わない。 On the other hand, in the above-described embodiment, the first distance image T Z1 and the second distance image T are differently pre-processed (including the case where the pre-process is not performed) with respect to the reference image T O and the comparison image T C. forming a Z 2, compared first distance image T Z 1 and the first parallax dp1 of the second distance image T Z 2 of the corresponding pixel block PB O and a second parallax dp2, the absolute value of their difference there has been described a case where determining that the pixel block PB O is above a predetermined threshold Δdpth is if there more than a predetermined number, the imaging environment is getting worse. In this case, whether the cause of the deterioration of the imaging environment is the influence of flare Fl and smear Sm (see FIG. 24) generated in the image, or the balance of the brightness of the pair of images is lost (FIG. 25 (A), It does not matter whether or not (see (B)).

しかし、例えば、画像中にスミアSmが発生していることを端的に検出して、それに基づいて撮像環境が悪化していることを判定するように構成することも可能である。なお、これは、上記の実施形態に代えて行ってもよく、或いは上記の実施形態と併行して行うように構成することも可能である。   However, for example, it is also possible to simply detect that smear Sm is generated in the image and to determine that the imaging environment has deteriorated based on the smear Sm. This may be performed in place of the above-described embodiment, or may be configured to be performed in parallel with the above-described embodiment.

このスミアSmを検出して撮像環境の悪化を判定する構成では、下記に述べるように、基準画像TOと比較画像TCとそれらから形成される距離画像があれば十分である。そのため、上記の実施形態と併行して行う場合には、例えば第1画像処理手段25aにより形成された第1距離画像TZ1の第1視差dp1が用いられるように構成される。 In the configuration for detecting the smear Sm and determining the deterioration of the imaging environment, it is sufficient if there is a reference image T O , a comparison image T C, and a distance image formed therefrom, as described below. Therefore, when performing in parallel with the above embodiment, for example, first distance first parallax dp1 image T Z 1 formed by the first image processing unit 25a is configured to be used.

以下の説明では、画像処理手段を1系統のみ有する検出装置を用いる場合について説明する。なお、上記の実施形態と同様の機能を有する装置や手段等については同じ符号を付して説明する。また、以下では、検出装置2の検出手段29の先行車両検出手段29Bにより特定の対象として先行車両Vahを検出し、運転支援装置として、先行車両Vahの情報に基づいて自車両に対して先行車両Vahに追従するように制御する先行車追従制御を行う先行車追従制御装置3を備える場合について説明するが、前述したように、自車両の左右に車線を検出し、自車両に対して車線に追従するように制御する車線追従制御を行う場合にも適用される。   In the following description, a case where a detection apparatus having only one system of image processing means is used will be described. In addition, about the apparatus, means, etc. which have the function similar to said embodiment, the same code | symbol is attached | subjected and demonstrated. In the following description, the preceding vehicle Vah is detected as a specific target by the preceding vehicle detecting means 29B of the detecting means 29 of the detecting device 2, and the preceding vehicle is compared with the own vehicle based on the information on the preceding vehicle Vah as a driving support device. The case where the preceding vehicle follow-up control device 3 that performs the preceding vehicle follow-up control for controlling the vehicle to follow Vah will be described. The present invention is also applied to the case where lane tracking control is performed to control to follow.

この場合の運転支援システムの全体構成は、図1に示した上記の実施形態に係る運転支援システム1と同様である。   The overall configuration of the driving support system in this case is the same as that of the driving support system 1 according to the above-described embodiment shown in FIG.

検出装置2は、図20に示すように、撮像手段21、変換手段22、検出手段29等で構成されており、撮像手段21から検出手段29の計数手段29Cまでの構成も図2に示した上記の実施形態に係る検出装置2と同様である。ただし、この場合、図2に示した前処理手段28は不要である。   As shown in FIG. 20, the detection device 2 includes an imaging unit 21, a conversion unit 22, a detection unit 29, and the like. The configuration from the imaging unit 21 to the counting unit 29C of the detection unit 29 is also shown in FIG. It is the same as that of the detection apparatus 2 which concerns on said embodiment. However, in this case, the preprocessing means 28 shown in FIG. 2 is unnecessary.

撮像環境判定手段29Eは、この場合、図8に示した検出手段29の物体検出手段29Aにおける距離画像TZ(上記の実施形態における第1距離画像TZ1と同じ。)を分割する各区分Dnに属する各画素ブロックPBOの視差dp(上記の実施形態における第1視差dp1と同じ。)の、ヒストグラムHnへの投票状況を監視し、当該ヒストグラムHnにおける無限遠を含む遠方距離に相当する視差dpの投票数を監視するように構成される。 In this case, the imaging environment determination unit 29E divides each distance image T Z (same as the first distance image T Z 1 in the above embodiment) in the object detection unit 29A of the detection unit 29 illustrated in FIG. The voting status of the parallax dp (same as the first parallax dp1 in the above embodiment) of each pixel block PB O belonging to Dn to the histogram Hn is monitored and corresponds to a far distance including infinity in the histogram Hn. It is configured to monitor the number of votes of the parallax dp.

これは、スミアSm(図24参照)は画像TOを上から下まで貫くように発生し、スミアSmが太陽Suの逆光等を反映するものであることから、ステレオマッチング処理を行った場合、スミアSmの部分では自車両から太陽Suまでの距離、すなわち事実上の無限遠を含む遠方距離に相当する視差dpが算出されるという知見に基づくものである。 This is because the smear Sm (see FIG. 24) penetrates the image T O from the top to the bottom, and the smear Sm reflects the backlight of the sun Su. The smear Sm portion is based on the knowledge that the parallax dp corresponding to the distance from the vehicle to the sun Su, that is, the far distance including virtually infinite distance is calculated.

また、例えば太陽光を反射するなどして白く輝く柱状の物体がスミアSmと同様に画像TOを上から下まで貫くように撮像されることがあるが、このような物体に対するステレオマッチング処理では物体に実際の位置に対応する無限遠を含む遠方距離ではない有限の距離に対応する視差dpが算出されるため、画像TO上に同様に上から下まで貫くように現れても、その視差dpを監視することで、物体とスミアSmとを明確に区別することができる。 Further, for example, a columnar object that shines white by reflecting sunlight or the like may be imaged so as to penetrate the image T O from the top to the bottom in the same manner as the smear Sm. since the parallax dp corresponding to infinity finite distance not far range containing corresponding to the actual position on the object is calculated, also from above in the same manner on the image T O appeared to penetrate to the bottom, the parallax By monitoring dp, the object and the smear Sm can be clearly distinguished.

また、自車両から無限遠を含む遠方距離に相当する視差dpの値とは、上記(4)式の左辺の距離Zに無限大∞を代入し、第1視差dp1を視差dpとして変形すると、
∞=CD/(PW×(dp−DP))
dp−DP=CD/(PW×∞)=0
すなわち、
dp=DP
となることからも分かるように、消失点視差DPやそれに近い値のことである。
Further, the value of the parallax dp corresponding to the far distance including infinity from the vehicle, the above equation (4) by substituting infinity ∞ on the left side of the distance Z 1 of the deformed first parallax dp1 as the parallax dp ,
∞ = CD / (PW × (dp−DP))
dp-DP = CD / (PW × ∞) = 0
That is,
dp = DP
As can be seen from this, it is the vanishing point parallax DP or a value close thereto.

このことから、本実施形態では、ステレオマッチング処理により算出された視差dpの値に、無限遠を含む遠方距離に対応する遠方視差閾値を設け、遠方視差閾値を例えば無限遠に対応する視差DPに近い値であるDP+1に設定し、視差dpが遠方視差閾値であるDP+1以下である画素ブロックPBOを、無限遠を含む遠方距離に対応する視差dpの値が算出された画素ブロックPBOとして検出するようになっている。 Therefore, in this embodiment, a disparity parallax threshold value corresponding to a far distance including infinity is provided in the value of the parallax dp calculated by the stereo matching process, and the far parallax threshold value is set to, for example, a parallax DP corresponding to infinity. A pixel block PB O that is set to a close value DP + 1 and the parallax dp is equal to or smaller than DP + 1 that is a disparity parallax threshold is detected as a pixel block PB O for which the value of the disparity dp corresponding to the far distance including infinity It is supposed to be.

なお、前述したように、基準画像TOの各画素ブロックPBOにそれぞれ距離Zの情報を対応づけて距離画像TZを形成する場合には、無限遠を含む遠方距離を規定する距離Zの閾値として遠方距離閾値を設定し、距離Zが遠方距離閾値以上である画素ブロックPBOを、無限遠を含む遠方距離に対応する距離Zの値が算出された画素ブロックPBOとして検出するように構成する。この場合、遠方距離閾値は、例えば前述した遠方視差閾値として設定される視差DP+1に対応する距離の値が設定される。 As described above, when the information of each distance Z in each pixel block PB O of the reference image T O in association to form a distance image T Z is the distance Z defines the far distance including infinity set the far distance threshold as a threshold, the distance Z is a pixel block PB O is more distant distance threshold, so as to detect a pixel block PB O value of the distance Z corresponding to the far distance is calculated including infinity Configure. In this case, the distance value corresponding to the disparity DP + 1 set as the above-mentioned disparity parallax threshold is set as the far distance threshold, for example.

具体的には、撮像環境判定手段29Eは、上記のように視差dpの投票が行われる各ヒストグラムHnにおける投票状況を監視し、図21に示すように、ヒストグラムHnにおいて視差dpの値がDP+1以下の範囲の視差dpの投票数を監視して、当該範囲の視差dpの投票数の合計値が所定の閾値以上になった場合に、当該ヒストグラムHnに対応する距離画像TZ上の区分Dnをスミア候補とする。 Specifically, the imaging environment determination unit 29E monitors the voting status in each histogram Hn where the parallax dp is voted as described above, and the value of the parallax dp in the histogram Hn is DP + 1 or less as shown in FIG. range by monitoring the number of votes of the parallax dp of, if the total value of the number of votes of the parallax dp of the range exceeds a predetermined threshold, the section Dn on distance image T Z that corresponds to the histogram Hn Smear candidate.

なお、遠方視差閾値や遠方距離閾値をどのような値に設定するか、或いは投票数の合計値に関する上記の所定の閾値をどのような値に設定するかは、検出装置2の撮像手段21のCCDイメージセンサ等の性能等に依存するため、適宜、適切な値がそれぞれ設定される。   It should be noted that what value is set for the far parallax threshold and the far distance threshold, or what value is set for the predetermined threshold related to the total number of votes, is determined by the imaging means 21 of the detection device 2. Appropriate values are set as appropriate because they depend on the performance of the CCD image sensor and the like.

続いて、撮像環境判定手段29Eは、上記の条件が満たされてスミア候補とされた距離画像TZの当該区分Dnと同じ基準画像TO上の領域に画素列に設定する。距離画像TZ上の区分Dnが縦方向に延在する4画素幅の画素列であれば、図22に示すように、基準画像TOの同じ位置に4画素幅の画素列Dnをあてはめて設定する。なお、図22では、1画素幅が実際より大きく表現されている。 Subsequently, the imaging environment determination unit 29E sets a pixel row in the same region on the reference image T O as the section Dn of the distance image T Z that satisfies the above condition and is regarded as a smear candidate. If the section Dn on the distance image T Z is a pixel row having a width of 4 pixels extending in the vertical direction, the pixel row Dn having a width of 4 pixels is applied to the same position of the reference image T O as shown in FIG. Set. In FIG. 22, one pixel width is expressed larger than actual.

ここで、4画素幅の画素列Dn全体を対象としてスミアSmが発生しているか否かの判定を行うように構成することも可能である。しかし、4画素幅の画素列Dnを形成する1画素幅の画素列の1列だけスミアSmが発生する場合もあり得る。そこで、撮像環境判定手段29Eは、4画素幅の画素列Dnに含まれる1画素幅の各画素列Dn1〜Dn4(図22参照)についてスミアSmが発生しているか否かの判定を行う。   Here, it is possible to determine whether smear Sm has occurred or not for the entire pixel row Dn having a width of 4 pixels. However, there may be a case where smear Sm occurs only in one column of pixel columns having a width of 1 pixel that forms a pixel column Dn having a width of 4 pixels. Therefore, the imaging environment determination unit 29E determines whether smear Sm has occurred in each of the pixel columns Dn1 to Dn4 (see FIG. 22) having a pixel width included in the pixel column Dn having a pixel width of 4 pixels.

具体的には、撮像環境判定手段29Eは、1画素幅の各画素列Dn1〜Dn4について、それぞれ画素列の各画素の輝度値p1i,jの探索を行い、所定の輝度値以上の輝度値を有する高輝度の画素の数が、当該1画素幅の画素列に属する全画素数の所定の割合以上存在するか否かを検出する。ここで、基準画像TOの各画素の輝度値p1i,jが0〜255のグレースケールで設定される場合には、上記の所定の輝度値は例えば輝度値の飽和状態に近い240等の高い値に設定される。また、上記の所定の割合は例えば75%等に設定される。 Specifically, the imaging environment determination unit 29E searches for the luminance value p1i, j of each pixel in the pixel column for each pixel column Dn1 to Dn4 having one pixel width, and determines a luminance value equal to or greater than a predetermined luminance value. It is detected whether or not the number of high-luminance pixels is greater than or equal to a predetermined ratio of the total number of pixels belonging to the pixel row having the one-pixel width. Here, when the luminance value p1i, j of each pixel of the reference image T O is set with a gray scale of 0 to 255, the predetermined luminance value is as high as 240 or the like close to the saturation state of the luminance value, for example. Set to a value. The predetermined ratio is set to 75%, for example.

そして、撮像環境判定手段29Eは、4画素幅の画素列Dn中の1画素幅の各画素列Dn1〜Dn4のうち、少なくとも1列の画素列で上記の条件が満たされる場合に、スミアSmが発生していると判定する。   The imaging environment determination unit 29E determines that the smear Sm is present when the above condition is satisfied in at least one pixel column among the pixel columns Dn1 to Dn4 having one pixel width in the pixel column Dn having four pixel widths. It is determined that it has occurred.

なお、基準画像TOの上方部分には、自車両前方の車両等よりもさらに高い位置にある物体が撮像されるため、基準画像TOの上方部分の基準画素ブロックPBOでは、スミアSmが発生していない場合でも、ステレオマッチング処理により視差dpとして無限遠を含む遠方距離に相当する視差が算出される場合がある。 Note that the upper portion of the reference image T O, since the objects in the higher position than the front of the vehicle such as a vehicle is imaged, in the reference pixel block PB O of the upper portion of the reference image T O, smear Sm is Even when no occurrence occurs, the parallax corresponding to the far distance including infinity may be calculated as the parallax dp by the stereo matching process.

そこで、このような基準画像TOの上方部分の悪影響を回避するために、基準画像TOにあてはめて設定した画素列Dnや1画素幅の各画素列Dn1〜Dn4の領域のうち、それらの画素列の基準画像TOにおける下端の画素から上方に所定個数(縦方向の全画素数の例えば80%に相当する個数)の画素について高輝度値の画素の探索を行うように構成することも可能である。その場合、例えば240等の値に設定される輝度値以上の輝度値を有する画素の数が、例えば90%以上存在する場合にスミアSmが発生していると判定される。 Therefore, such a reference image T O In order to avoid adverse effects of the upper portion, of the area of each pixel row Dn1~Dn4 the reference image T O pixel set by applying the column Dn and one pixel wide, their It is also possible to perform a search for a pixel having a high luminance value for a predetermined number of pixels (a number corresponding to, for example, 80% of the total number of pixels in the vertical direction) above the lowermost pixel in the reference image T O of the pixel column. Is possible. In this case, it is determined that smear Sm has occurred when the number of pixels having a luminance value equal to or higher than the luminance value set to a value such as 240, for example, is 90% or more.

撮像環境判定手段29Eは、スミアSmの発生の有無を判定すると、上記の実施形態の場合(図16参照)と同様に、スミアSmが発生し撮像環境が悪化していると判定したフレームではカウンタのカウント数Cを増加させ、スミアSmは発生しておらず撮像環境が悪化していないと判定したフレームではカウンタのカウント数Cを減少させるようにして、撮像環境の悪化状況の履歴を監視する。そして、カウンタのカウント数Cに応じて、さらに撮像環境の悪化の程度を3段階α〜γに分けて評価する。   When determining whether or not smear Sm has occurred, the imaging environment determination unit 29E counts a frame in which it is determined that smear Sm has occurred and the imaging environment has deteriorated, as in the case of the above-described embodiment (see FIG. 16). In a frame where it is determined that smear Sm has not occurred and the imaging environment has not deteriorated, the count number C of the counter is decreased to monitor the history of deterioration of the imaging environment. . Then, according to the count number C of the counter, the degree of deterioration of the imaging environment is further evaluated in three stages α to γ.

このように構成すれば、先行車追従制御装置3の制御手段31が、検出装置2の検出手段29(先行車両検出手段29B)による特定の対象(先行車両Vah)の検出に用いられた有効なデータの数Nと、撮像環境判定手段29Eから送信されてくる撮像環境の悪化の程度(段階α〜γ)の情報に基づいて、運転支援装置(先行車追従制御装置3)による自車両に対する運転支援制御(先行車追従制御)を的確に一時停止し、或いは先行車追従制御の一時停止を的確に解除することが可能となる。   If comprised in this way, the control means 31 of the preceding vehicle follow-up control apparatus 3 is effective used for the detection of the specific target (preceding vehicle Vah) by the detection means 29 (preceding vehicle detection means 29B) of the detection apparatus 2. Based on the number N of data and information on the degree of deterioration of the imaging environment (stages α to γ) transmitted from the imaging environment determination unit 29E, the driving support device (preceding vehicle following control device 3) drives the vehicle. The support control (preceding vehicle follow-up control) can be accurately temporarily stopped, or the temporary stop of the preceding vehicle follow-up control can be accurately canceled.

また、撮像環境の悪化の程度が中間の段階βでは、画像認識性能が限界に達した時点で運転支援制御(先行車追従制御)を的確に一時停止させ、運転支援制御(先行車追従制御)が一時停止されている状態では、画像認識性能が回復した時点で運転支援制御(先行車追従制御)の一時停止を的確に解除することが可能となる。   Further, at the stage β in which the degree of deterioration of the imaging environment is intermediate, when the image recognition performance reaches the limit, the driving support control (preceding vehicle follow-up control) is stopped accurately and the driving support control (leading vehicle follow-up control) When the vehicle is temporarily stopped, it is possible to accurately cancel the suspension of the driving support control (preceding vehicle follow-up control) when the image recognition performance is recovered.

さらにまた、霧や吹雪等による視界不良や、カメラのレンズや自車両のフロントガラスの曇りや汚れ等に起因する撮像環境の悪化を検出する技術が開示されているが、その技術を本発明に応用するように構成することも可能である。当該技術については、本願出願人により先に提出された例えば特開2001−28746号公報等に詳述されており、詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。   Furthermore, there is disclosed a technique for detecting poor visibility due to fog, snowstorm, etc., and deterioration of the imaging environment due to fogging or dirt on the lens of the camera or the windshield of the host vehicle. It can also be configured to be applied. The technique is described in detail in, for example, Japanese Patent Application Laid-Open No. 2001-28746, which has been previously submitted by the applicant of the present application, and the detailed description is left to those publications. A brief description is given below.

なお、当該技術を応用した下記の手法を、上記の実施形態や、画像中のスミアSmの発生を検出して行う上記の変形例に代えて行ってもよく、或いはそれらと併行して行うように構成することも可能である。   In addition, the following method applying the technology may be performed instead of the above-described embodiment or the above-described modified example in which the occurrence of smear Sm in the image is detected, or may be performed in parallel therewith. It is also possible to configure.

この場合の運転支援システムの全体構成も、図1に示した上記の実施形態に係る運転支援システム1と同様である。また、検出装置2は、図20に示した構成と同様に構成することができる。   The overall configuration of the driving support system in this case is the same as that of the driving support system 1 according to the above-described embodiment shown in FIG. Further, the detection device 2 can be configured in the same manner as the configuration shown in FIG.

撮像環境判定手段29Eは、この場合、画像データメモリ24から基準画像TOのデータを読み出して、図23に示すように、基準画像TOにおける中央上部に基準画像TOの水平方向に延在する長方形状の監視領域Rを設定する。そして、監視領域Rに属する画素の輝度値p1i,jの平均値すなわち輝度平均値を算出して、輝度平均値が所定の第1判定値よりも大きいか否かを判定する。 Imaging environment determination means 29E, in this case, reads out the data of the reference image T O from the image data memory 24, as shown in FIG. 23, extending in the horizontal direction of the reference image T O at the top center of the reference image T O A rectangular monitoring area R to be set is set. Then, an average value of luminance values p1i, j of the pixels belonging to the monitoring region R, that is, a luminance average value is calculated, and it is determined whether or not the luminance average value is larger than a predetermined first determination value.

これは、霧や吹雪等による視界不良や、カメラのレンズや自車両のフロントガラスの曇りや汚れ等に起因して撮像された基準画像TO等に画像ぼけが発生している状況では、通常、画像の全体的な輝度が大きくなる傾向があることによる。従って、第1判定値として、そのような画像ぼけが生じているか否かを適切に判別できる比較的高輝度の値が適宜設定される。 This and poor visibility due to fog or snowstorm, etc., in a situation where image blur in the reference image T O etc. imaged due to fogging and dirt of the windshield of the lens of the camera and the vehicle has occurred, usually This is because the overall brightness of the image tends to increase. Therefore, as the first determination value, a relatively high luminance value that can appropriately determine whether or not such image blur has occurred is appropriately set.

また、撮像環境判定手段29Eは、監視領域Rに属する各画素において基準画像TOの垂直方向の各画素対の輝度値p1i,jの差すなわち輝度差を算出して、所定値以上の輝度差を有する画素対の数をエッジ数として算出して、エッジ数が所定の第2判定値よりも小さいか否かを判定する。 In addition, the imaging environment determination unit 29E calculates a luminance difference p1i, j of each pixel pair in the vertical direction of the reference image T O , that is, a luminance difference in each pixel belonging to the monitoring region R, and a luminance difference equal to or greater than a predetermined value. Is calculated as the number of edges, and it is determined whether or not the number of edges is smaller than a predetermined second determination value.

これは、基準画像TOにおける中央上部に監視領域Rを設定した場合、通常、監視領域Rには先行車両Vahや他の種々の物体が撮像されており、画像ぼけが発生していなければ隣接する画素の輝度値p1i,jが急激に変化する箇所(エッジ部)が存在するが、画像ぼけが生じているとその輝度値p1i,jの変化が緩やかになる傾向があることによる。従って、所定値として、そのような画像ぼけが生じている場合と生じていない場合の輝度差を適切に判別できる比較的大きな値が適宜設定される。 This is because when the monitoring region R is set at the upper center of the reference image T O , the preceding vehicle Vah and other various objects are usually imaged in the monitoring region R, and if the image is not blurred, it is adjacent. This is because there is a portion (edge portion) where the luminance value p1i, j of the pixel to be abruptly changed, but when the image blur occurs, the change in the luminance value p1i, j tends to be gradual. Accordingly, as the predetermined value, a relatively large value that can appropriately determine the luminance difference between when the image blur occurs and when the image blur does not occur is appropriately set.

また、画像ぼけが生じていない場合にはそのようなエッジ部が監視領域R内に多数見出されるが、画像ぼけが生じている場合にはエッジ部の数は減る。従って、第2判定値として、そのような画像ぼけが生じているか否かを適切に判別できるエッジ部の数が適宜設定される。   Further, when there is no image blur, a large number of such edge portions are found in the monitoring region R, but when the image blur occurs, the number of edge portions decreases. Therefore, as the second determination value, the number of edge portions that can appropriately determine whether or not such image blur has occurred is set as appropriate.

そして、撮像環境判定手段29Eは、輝度平均値が上記の第1判定値よりも大きく、且つ、エッジ数が上記の第2判定値よりも小さい場合に、撮像環境が悪化していると判定する。   The imaging environment determination unit 29E determines that the imaging environment has deteriorated when the average brightness value is larger than the first determination value and the number of edges is smaller than the second determination value. .

これ以降の処理は上記の場合と同様であり、撮像環境判定手段29Eは、撮像環境が悪化していると判定したフレームではカウンタのカウント数Cを増加させ、撮像環境が悪化していないと判定したフレームではカウンタのカウント数Cを減少させるようにして、撮像環境の悪化状況の履歴を監視する。そして、カウンタのカウント数Cに応じて、さらに撮像環境の悪化の程度を3段階α〜γに分けて評価する。   The subsequent processing is the same as in the above case, and the imaging environment determination unit 29E increases the count number C of the counter in the frame determined that the imaging environment has deteriorated, and determines that the imaging environment has not deteriorated. In such a frame, the count number C of the counter is decreased, and the history of the imaging environment deterioration status is monitored. Then, according to the count number C of the counter, the degree of deterioration of the imaging environment is further evaluated in three stages α to γ.

このように構成すれば、先行車追従制御装置3の制御手段31が、検出装置2の検出手段29(先行車両検出手段29B)による特定の対象(先行車両Vah)の検出に用いられた有効なデータの数Nと、撮像環境判定手段29Eから送信されてくる撮像環境の悪化の程度(段階α〜γ)の情報に基づいて、運転支援装置(先行車追従制御装置3)による自車両に対する運転支援制御(先行車追従制御)を的確に一時停止し、或いは先行車追従制御の一時停止を的確に解除することが可能となる。   If comprised in this way, the control means 31 of the preceding vehicle follow-up control apparatus 3 is effective used for the detection of the specific target (preceding vehicle Vah) by the detection means 29 (preceding vehicle detection means 29B) of the detection apparatus 2. Based on the number N of data and information on the degree of deterioration of the imaging environment (stages α to γ) transmitted from the imaging environment determination unit 29E, the driving support device (preceding vehicle following control device 3) drives the vehicle. The support control (preceding vehicle follow-up control) can be accurately temporarily stopped, or the temporary stop of the preceding vehicle follow-up control can be accurately canceled.

また、撮像環境の悪化の程度が中間の段階βでは、画像認識性能が限界に達した時点で運転支援制御(先行車追従制御)を的確に一時停止させ、運転支援制御(先行車追従制御)が一時停止されている状態では、画像認識性能が回復した時点で運転支援制御(先行車追従制御)の一時停止を的確に解除することが可能となる。   Further, at the stage β in which the degree of deterioration of the imaging environment is intermediate, when the image recognition performance reaches the limit, the driving support control (preceding vehicle follow-up control) is stopped accurately and the driving support control (preceding vehicle follow-up control) When the vehicle is temporarily stopped, it is possible to accurately cancel the suspension of the driving support control (preceding vehicle follow-up control) when the image recognition performance is recovered.

本実施形態に係る運転支援システムの全体構成を示す図である。It is a figure showing the whole driving support system composition concerning this embodiment. 本実施形態に係る検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the detection apparatus which concerns on this embodiment. 基準画像の一例を示す図である。It is a figure which shows an example of a reference | standard image. ステレオマッチング処理の手法を説明する図である。It is a figure explaining the method of a stereo matching process. 図3の基準画像等に基づいて形成された第1距離画像を示す図である。It is a figure which shows the 1st distance image formed based on the reference | standard image etc. of FIG. (A)図25(A)の基準画像から得られる基準エッジ画像を示す写真であり、(B)図25(B)の比較画像から得られる比較エッジ画像を示す写真である。(A) A photograph showing a reference edge image obtained from the reference image of FIG. 25 (A), and (B) a photograph showing a comparative edge image obtained from the comparison image of FIG. 25 (B). 距離画像を分割する短冊状の区分を説明する図である。It is a figure explaining the strip-shaped division which divides | segments a distance image. 図7の各区分ごとに作成されるヒストグラムを説明する図である。It is a figure explaining the histogram produced for every division of FIG. 区分ごとの距離を実空間上にプロットした各点を表す図である。It is a figure showing each point which plotted the distance for every division on real space. 図9の各点がグループ化されて形成される各グループを表す図である。It is a figure showing each group formed by grouping each point of FIG. 図10の各グループの各点を直線近似して検出された物体の例を表す図である。It is a figure showing the example of the object detected by carrying out the straight line approximation of each point of each group of FIG. 基準画像上に枠線で包囲されて検出された各物体を表す図である。It is a figure showing each object detected by being enclosed by the frame line on the reference | standard image. 実空間上の自車両の走行軌跡、進行路および先行車両を示す図である。It is a figure which shows the driving | running | working locus | trajectory, the advancing path, and preceding vehicle of the own vehicle in real space. 基準画像上に設定された枠線を第1距離画像の同じ画素位置にあてはめた状態を説明する図である。It is a figure explaining the state which applied the frame line set on the reference | standard image to the same pixel position of the 1st distance image. ミスマッチング判定手段における第1視差と第2視差の比較の手法を説明する図である。It is a figure explaining the method of the comparison with the 1st parallax in a mismatching determination means, and a 2nd parallax. カウンタのカウント数のフレームごとの増減および閾値を表すグラフである。It is a graph showing the increase / decrease for every frame of the count number of a counter, and a threshold value. 制御手段における先行車追従制御の一時停止の開始や解除の基準を概念的に表す図である。It is a figure which represents notionally the reference | standard of the start and cancellation | release of the temporary stop of preceding vehicle follow-up control in a control means. 基準画像上での車線候補点の検出の手法を説明する図である。It is a figure explaining the method of the detection of the lane candidate point on a reference | standard image. 基準画像上に検出された左右の車線を示す図である。It is a figure which shows the left and right lane detected on the reference | standard image. 変形例における検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the detection apparatus in a modification. スミアが発生している場合のヒストグラムへの投票状況の一例を表す図である。It is a figure showing an example of the vote situation to a histogram in case smear has occurred. 基準画像にあてはめられて設定された画素列を説明する図である。It is a figure explaining the pixel row | line | column applied and set to the reference | standard image. 基準画像における中央上部に設定された監視領域を説明する図である。It is a figure explaining the surveillance field set up in the center upper part in a standard picture. フレアやスミアが発生している画像の一例を示す図である。It is a figure which shows an example of the image which the flare and the smear have generate | occur | produced. (A)基準画像の一例を示す写真であり、(B)(A)の基準画像より全体的に暗く撮像された比較画像を示す写真である。(A) It is a photograph which shows an example of a reference | standard image, (B) It is a photograph which shows the comparative image imaged darker than the reference | standard image of (A).

符号の説明Explanation of symbols

1 運転支援システム
2 検出装置
3 先行車追従制御装置(運転支援装置)
21 撮像手段
21a、21b 一対のカメラ(メインカメラ、サブカメラ)
26a 第1ステレオマッチング手段
26b 第2ステレオマッチング手段
29 検出手段
29B 先行車両検出手段
29C 計数手段
29D、29E 撮像環境判定手段
31 制御手段
A 自車両
C カウント数
Cth1 第1閾値
Cth2 第2閾値
Dn、Dn1〜Dn4 画素列
dp 視差
dp1 第1視差
dp2 第2視差
LL、LR 車線
N 有効なデータの数
Nth 閾値
PBO 画素ブロック
p1i,j 輝度値
R 監視領域
C 比較画像
O 基準画像(画像)
TEC 比較画像に前処理が施された画像(比較エッジ画像)
TEO 基準画像に前処理が施された画像(基準エッジ画像)
Z 距離画像
Z1 第1距離画像
Z2 第2距離画像
Vah 先行車両(特定の対象)
Z 距離
α 撮像環境の悪化の程度が最も改善されている段階
β 撮像環境の悪化の程度が中間の段階
γ 撮像環境の悪化の程度が最も悪い段階
Δdpth 閾値
DESCRIPTION OF SYMBOLS 1 Driving assistance system 2 Detection apparatus 3 Leading vehicle following control apparatus (driving assistance apparatus)
21 Imaging means 21a, 21b A pair of cameras (main camera, sub camera)
26a First stereo matching means 26b Second stereo matching means 29 Detection means 29B Preceding vehicle detection means 29C Counting means 29D, 29E Imaging environment determination means 31 Control means A Own vehicle C Count number Cth1 First threshold Cth2 Second threshold Dn, Dn1 ~Dn4 pixel column dp parallax dp1 first parallax dp2 second parallax LL, LR lane N number of valid data Nth threshold PB O pixel block p1i, j luminance value R monitoring region T C comparative image T O reference image (image)
TE C comparison image preprocessing image is performed (Comparative edge image)
TE O reference image preprocessing image is performed (reference edge image)
T Z distance image T Z 1 first distance image T Z 2 second distance image Vah preceding vehicle (specific target)
Z distance α The stage where the degree of deterioration of the imaging environment is most improved β The stage where the degree of deterioration of the imaging environment is intermediate γ The stage where the degree of deterioration of the imaging environment is worst Δdpth threshold

Claims (7)

自車両の周囲を撮像する撮像手段と、前記撮像手段により撮像された画像中から特定の対象を検出する検出手段とを備える検出装置と、
前記検出手段により検出された前記特定の対象の情報に基づいて自車両に対する運転支援制御を行う運転支援装置と、
を備える運転支援システムにおいて、
前記検出手段による前記特定の対象の検出に用いられた有効なデータの数を計数する計数手段と、
前記撮像手段により撮像された画像に基づいて撮像環境が悪化しているか否かを判定し、前記撮像環境の悪化の程度を3段階に分けて評価する撮像環境判定手段と、
前記撮像環境判定手段により前記撮像環境の悪化の程度が最も悪い段階であると評価された場合、または、前記撮像環境の悪化の程度が中間の段階であると評価された場合であって且つ前記計数手段により計数される前記有効なデータの数が予め設定された閾値未満である場合に、前記運転支援装置による自車両に対する前記運転支援制御を一時停止する制御手段と、
を備え
前記撮像環境判定手段は、前記撮像環境が悪化していると判定したフレームではカウント数を増加させ、前記撮像環境が悪化していると判定しなかったフレームではカウント数を減少させるカウンタを備え、前記カウンタのカウント数に第1閾値と前記第1閾値よりも大きな値に設定される第2閾値とを設け、前記カウンタのカウント数が前記第1閾値未満の場合に前記撮像環境の悪化の程度が最も改善されている段階であると評価し、前記カウンタのカウント数が前記第1閾値以上で前記第2閾値未満の場合に前記撮像環境の悪化の程度が中間の段階であると評価し、前記カウンタのカウント数が前記第2閾値以上の場合に前記撮像環境の悪化の程度が最も悪い段階であると評価し、
前記運転支援装置は、自車両に対する前記運転支援制御が一時停止された場合に、自車両のドライバに対して前記運転支援制御が停止されたことを報知し、
前記制御手段は、前記撮像環境判定手段により前記撮像環境の悪化の程度が最も改善されている段階であると評価された場合、または、前記撮像環境の悪化の程度が中間の段階であると評価された場合であって且つ前記計数手段により計数される前記有効なデータの数が予め設定された閾値以上である場合に、前記自車両に対する前記運転支援制御の一時停止を解除することを特徴とする運転支援システム。
A detection apparatus comprising: an imaging unit that captures an image of the surroundings of the host vehicle; and a detection unit that detects a specific target from an image captured by the imaging unit;
A driving support device that performs driving support control on the host vehicle based on the information on the specific target detected by the detection unit;
In a driving support system comprising:
Counting means for counting the number of valid data used for detection of the specific object by the detection means;
An imaging environment determination unit that determines whether the imaging environment is deteriorated based on an image captured by the imaging unit, and evaluates the degree of deterioration of the imaging environment in three stages;
When the imaging environment determination means evaluates that the degree of deterioration of the imaging environment is the worst stage, or when the degree of deterioration of the imaging environment is evaluated as an intermediate stage, and Control means for temporarily stopping the driving support control for the host vehicle by the driving support device when the number of the valid data counted by the counting means is less than a preset threshold;
Equipped with a,
The imaging environment determination unit includes a counter that increases a count number in a frame that is determined that the imaging environment is deteriorated, and that decreases a count number in a frame that is not determined that the imaging environment is deteriorated, A first threshold value and a second threshold value set to a value larger than the first threshold value are provided for the count number of the counter, and the degree of deterioration of the imaging environment when the count number of the counter is less than the first threshold value Is evaluated as the most improved stage, and when the count number of the counter is greater than or equal to the first threshold and less than the second threshold, the degree of deterioration of the imaging environment is evaluated as an intermediate stage, When the count number of the counter is greater than or equal to the second threshold value, the degree of deterioration of the imaging environment is evaluated to be the worst stage,
When the driving support control for the host vehicle is temporarily stopped, the driving support device notifies the driver of the host vehicle that the driving support control has been stopped,
The control unit evaluates that the imaging environment determination unit evaluates that the degree of deterioration of the imaging environment is most improved, or that the degree of deterioration of the imaging environment is an intermediate stage. If the number of the valid data that is counted by and said counting means in a case where is is preset threshold or more, characterized that you unpause the driving support control for the vehicle Driving support system.
前記特定の対象は、先行車両であり、
前記運転支援装置は、前記検出手段により検出された前記先行車両の情報に基づいて自車両に対して前記先行車両に追従するように制御する先行車追従制御を行うことを特徴とする請求項1に記載の運転支援システム。
The specific object is a preceding vehicle,
The driving support device according to claim 1, characterized in that the preceding vehicle follow-up control to control so as to follow the preceding vehicle relative to the host vehicle based on the information of the preceding vehicle detected by said detecting means operation support system according to.
前記有効なデータの数に関する前記閾値は、自車両から前記先行車両までの距離が長くなるほど小さな値になるように設定されることを特徴とする請求項に記載の運転支援システム。 The driving support system according to claim 2 , wherein the threshold value relating to the number of valid data is set to be smaller as the distance from the host vehicle to the preceding vehicle becomes longer. 前記特定の対象は、自車両の左右の車線であり、
前記運転支援装置は、前記検出手段により検出された前記車線の情報に基づいて自車両に対して前記車線に追従するように制御する車線追従制御を行うことを特徴とする請求項1から請求項のいずれか一項に記載の運転支援システム。
The specific target is the left and right lanes of the host vehicle,
The said driving assistance apparatus performs lane tracking control which controls so that it may track the said lane with respect to the own vehicle based on the information of the said lane detected by the said detection means. 3 driving support system according to any one of.
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、前記基準画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像とのステレオマッチング処理を行い、前記基準画像の前記各画素ブロックに算出した視差または距離をそれぞれ対応づけて形成された距離画像に基づいて、前記撮像手段により撮像された画像中から特定の対象を検出し、
前記撮像環境判定手段は、前記距離として無限遠を含む遠方距離閾値以上の距離または前記視差として前記遠方距離閾値に対応する遠方視差閾値以下の視差が算出された前記画素ブロックが属する前記基準画像の縦方向に延在する画素列の各画素の輝度値の探索を行い、所定の輝度値以上の輝度値を有する前記画素の数が前記画素列に属する画素の数の所定の割合以上存在するフレームに対し、前記撮像環境が悪化していると判定することを特徴とする請求項1から請求項のいずれか一項に記載の運転支援システム。
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection unit divides the reference image into pixel blocks having a predetermined number of pixels, performs a stereo matching process with the comparison image for each pixel block, and calculates a parallax calculated for each pixel block of the reference image or Based on distance images formed by associating distances with each other, a specific target is detected from the images captured by the imaging unit,
The imaging environment determining unit is configured to detect a distance of the reference image to which the pixel block to which a disparity equal to or greater than a distant disparity threshold corresponding to the distant disparity threshold corresponding to the distant disparity threshold is calculated as the disparity including the distant distance threshold including infinity as the distance. A frame in which the luminance value of each pixel in the pixel column extending in the vertical direction is searched, and the number of pixels having a luminance value equal to or higher than a predetermined luminance value is greater than or equal to a predetermined ratio of the number of pixels belonging to the pixel column On the other hand , it determines with the said imaging environment deteriorating, The driving assistance system as described in any one of Claims 1-4 characterized by the above-mentioned.
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、
前記基準画像または前記基準画像に所定の前処理が施されて形成された画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像または前記比較画像に前記所定の前処理が施されて形成された画像とのステレオマッチング処理を行い、前記各画素ブロックに算出した第1視差をそれぞれ対応づけて第1距離画像を形成する第1ステレオマッチング手段と、
前記基準画像に前記前処理とは異なる別の前処理が施されて形成された画像を前記所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像に前記別の前処理が施されて形成された画像とのステレオマッチング処理を行い、前記各画素ブロックに算出した第2視差をそれぞれ対応づけて第2距離画像を形成する第2ステレオマッチング手段と、を備え、
前記撮像環境判定手段は、前記第1距離画像および前記第2距離画像の対応する画素ブロックの前記第1視差および前記第2視差を比較して、それらの差の絶対値が所定の閾値以上である画素ブロックが所定個数以上存在するフレームに対し、前記撮像環境が悪化していると判定することを特徴とする請求項1から請求項のいずれか一項に記載の運転支援システム。
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection means includes
The reference image or an image formed by performing predetermined preprocessing on the reference image is divided into pixel blocks having a predetermined number of pixels, and the predetermined image is divided into the comparison image or the comparison image for each pixel block. A first stereo matching unit that performs a stereo matching process with the image formed by the processing and associates the calculated first parallax with each pixel block to form a first distance image;
An image formed by subjecting the reference image to another preprocessing different from the preprocessing is divided into pixel blocks having the predetermined number of pixels, and the separate preprocessing is performed on the comparison image for each pixel block. A second stereo matching unit that performs a stereo matching process with the image formed by applying the second parallax calculated to each of the pixel blocks, and forms a second distance image.
The imaging environment determination unit compares the first parallax and the second parallax of corresponding pixel blocks of the first distance image and the second distance image, and an absolute value of the difference is equal to or greater than a predetermined threshold value. The driving support system according to any one of claims 1 to 5 , wherein the imaging environment is determined to be deteriorated with respect to a frame in which a predetermined number or more of pixel blocks exist.
前記撮像手段は、一対のカメラで自車両の周囲の環境を撮像して基準画像と比較画像とを出力するステレオカメラであり、
前記検出手段は、前記基準画像を所定の画素数の画素ブロックに分割し、前記各画素ブロックごとに前記比較画像とのステレオマッチング処理を行い、前記基準画像の前記各画素ブロックに算出した視差または距離をそれぞれ対応づけて形成された距離画像に基づいて、前記撮像手段により撮像された画像中から特定の対象を検出し、
前記撮像環境判定手段は、前記画像における中央上部に画像の水平方向に延在する長方形状の監視領域を設定して当該監視領域の輝度平均値を算出し、前記監視領域において画像の垂直方向の各画素対の輝度差を算出して所定値以上の輝度差を有する画素対の数をエッジ数として算出し、前記輝度平均値が所定の第1判定値よりも大きく、且つ、前記エッジ数が所定の第2判定値よりも小さいフレームに対し、前記撮像環境が悪化していると判定することを特徴とする請求項1から請求項のいずれか一項に記載の運転支援システム。
The imaging means is a stereo camera that images the environment around the host vehicle with a pair of cameras and outputs a reference image and a comparison image,
The detection unit divides the reference image into pixel blocks having a predetermined number of pixels, performs a stereo matching process with the comparison image for each pixel block, and calculates a parallax calculated for each pixel block of the reference image or Based on distance images formed by associating distances with each other, a specific target is detected from the images captured by the imaging unit,
The imaging environment determination unit sets a rectangular monitoring area extending in the horizontal direction of the image at the upper center of the image, calculates a luminance average value of the monitoring area, and in the monitoring area in the vertical direction of the image The luminance difference between each pixel pair is calculated, the number of pixel pairs having a luminance difference equal to or greater than a predetermined value is calculated as the number of edges, the average luminance value is greater than a predetermined first determination value, and the number of edges is The driving support system according to any one of claims 1 to 6 , wherein the imaging environment is determined to be deteriorated with respect to a frame smaller than a predetermined second determination value.
JP2008087472A 2008-03-28 2008-03-28 Driving support system Active JP5172422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008087472A JP5172422B2 (en) 2008-03-28 2008-03-28 Driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008087472A JP5172422B2 (en) 2008-03-28 2008-03-28 Driving support system

Publications (2)

Publication Number Publication Date
JP2009241636A JP2009241636A (en) 2009-10-22
JP5172422B2 true JP5172422B2 (en) 2013-03-27

Family

ID=41304070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008087472A Active JP5172422B2 (en) 2008-03-28 2008-03-28 Driving support system

Country Status (1)

Country Link
JP (1) JP5172422B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10853692B2 (en) 2017-09-22 2020-12-01 Denso Corporation Vicinity supervising device and method for supervising vicinity of vehicle

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6274820B2 (en) * 2013-10-31 2018-02-07 株式会社Subaru Vehicle control system
DE102018209306A1 (en) * 2018-06-12 2019-12-12 Conti Temic Microelectronic Gmbh Method for the detection of beacons
JP7247772B2 (en) * 2019-06-13 2023-03-29 株式会社デンソー Information processing device and driving support system
WO2022130780A1 (en) 2020-12-14 2022-06-23 日立Astemo株式会社 Image processing device
CN113147782B (en) * 2020-12-28 2024-05-14 上海汽车工业(集团)总公司 Intelligent driving vehicle self-vehicle reference track screening method and screening system
CN115527395B (en) * 2022-09-29 2023-12-22 招商局检测车辆技术研究院有限公司 Intelligent traffic safety identification device for auxiliary judgment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207563A (en) * 1999-01-20 2000-07-28 Fujitsu Ten Ltd Image recognizing device
JP4784175B2 (en) * 2005-06-28 2011-10-05 セイコーエプソン株式会社 Backlight image determination and dark area correction
JP2007201655A (en) * 2006-01-25 2007-08-09 Noritsu Koki Co Ltd Image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10853692B2 (en) 2017-09-22 2020-12-01 Denso Corporation Vicinity supervising device and method for supervising vicinity of vehicle

Also Published As

Publication number Publication date
JP2009241636A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
JP5073548B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP4956452B2 (en) Vehicle environment recognition device
JP4876080B2 (en) Environment recognition device
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
JP5172422B2 (en) Driving support system
JP4987573B2 (en) Outside monitoring device
US9311711B2 (en) Image processing apparatus and image processing method
US9676333B2 (en) Vehicle control system
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6316976B2 (en) In-vehicle image recognition device
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
TWI530409B (en) Automatic tracking collision avoidance system and method thereof
CN103359119A (en) Driving support apparatus
JP5027710B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP6315308B2 (en) Control object identification device, mobile device control system, and control object recognition program
JP2008158640A (en) Moving object detection device
JP2008117073A (en) Interrupting vehicle detection device
JP5411671B2 (en) Object detection device and driving support system
JP6672202B2 (en) In-vehicle camera system, attached matter detection device, attached matter removal method, and attached matter detection program
JP5011186B2 (en) Driving support device and driving support system
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP5149669B2 (en) Driving assistance device
JP2020126304A (en) Out-of-vehicle object detection apparatus
JP2018092603A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
CN104517098A (en) Filtering device and environment recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121226

R150 Certificate of patent or registration of utility model

Ref document number: 5172422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250