[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4451179B2 - Lane position detection system - Google Patents

Lane position detection system Download PDF

Info

Publication number
JP4451179B2
JP4451179B2 JP2004091403A JP2004091403A JP4451179B2 JP 4451179 B2 JP4451179 B2 JP 4451179B2 JP 2004091403 A JP2004091403 A JP 2004091403A JP 2004091403 A JP2004091403 A JP 2004091403A JP 4451179 B2 JP4451179 B2 JP 4451179B2
Authority
JP
Japan
Prior art keywords
filter
white line
profile
detection system
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004091403A
Other languages
Japanese (ja)
Other versions
JP2005276041A (en
Inventor
博隆 岩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2004091403A priority Critical patent/JP4451179B2/en
Publication of JP2005276041A publication Critical patent/JP2005276041A/en
Application granted granted Critical
Publication of JP4451179B2 publication Critical patent/JP4451179B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

車載カメラで路面を撮像して得られた画像を俯瞰画像に変換し、該俯瞰画像の輝度を車両進行方向に平行に積分して進行方向に垂直な方向に対する輝度プロファイルを求めて白線の位置を検出する車線位置検知システムに関する。   The image obtained by imaging the road surface with the in-vehicle camera is converted into a bird's-eye view image, the luminance of the bird's-eye view image is integrated in parallel with the vehicle traveling direction, and the luminance profile in the direction perpendicular to the traveling direction is obtained to determine the position of the white line. The present invention relates to a lane position detection system for detection.

従来より、車両の進行方向前方又は後方に向けてカメラを設置し、視点変換技術を用いて撮影されたカメラの画像を俯瞰画像に変換する方法が知られており(例えば、特許文献1、特許文献2、特許文献3、特許文献4参照)、さらに、変換された俯瞰画像より路面の白線(レーンマーカー)位置を検出するレーンマーカー位置検出装置が提案されている(特願2002−246859号明細書、特願2003−146535号明細書参照)。   2. Description of the Related Art Conventionally, a method is known in which a camera is installed facing forward or backward in the traveling direction of a vehicle, and a camera image captured using a viewpoint conversion technique is converted into a bird's-eye view image (for example, Patent Document 1, Patent) Further, there has been proposed a lane marker position detection device that detects the position of a white line (lane marker) on the road surface from the converted overhead image (see Japanese Patent Application No. 2002-246859). And Japanese Patent Application No. 2003-146535).

図7は、上述したレーンマーカー位置検出装置の概略構成を示したブロック図である。レーンマーカー位置検出装置1は、カメラ2と、俯瞰画像変換装置3と、白線検知/逸脱警報装置4と、モニタ5とを備えている。図8は車両後方に設置したカメラ(リアカメラ)2により撮影された画像である。カメラ2で撮影された画像は、俯瞰画像変換装置3で、図9(a)に示すように俯瞰画像に変化される。   FIG. 7 is a block diagram showing a schematic configuration of the above-described lane marker position detection apparatus. The lane marker position detection device 1 includes a camera 2, a bird's-eye view image conversion device 3, a white line detection / deviation warning device 4, and a monitor 5. FIG. 8 is an image taken by a camera (rear camera) 2 installed at the rear of the vehicle. The image photographed by the camera 2 is changed to an overhead image by the overhead image conversion device 3 as shown in FIG.

白線検知/逸脱警報装置4は、マイコン6と、ワークメモリ7と、エンコーダ8と、バッファメモリ9と、警報装置10とを備えている。マイコン6は、俯瞰画像変換装置3で変換された俯瞰画像を、ワークメモリ7を用いて画像の縦方向の輝度を画素毎に積算し、積算した輝度を横方向の画素毎にグラフ化して俯瞰画像の輝度プロファイルを生成する(図10のステップS1)。図9(b)は、図9(a)に示した俯瞰画像の理想的な輝度プロファイルを示したものである。路面において白色で記される標識・白線等は、高い強度(輝度値)を示すので、強度値の強さ(輝度の高さ)やその位置、ピーク幅等から白線に対応するピークを輝度プロファイルより求めることが可能となる(図10のステップS2)。俯瞰画像をモニタ5に出力する場合には、俯瞰画像の画像信号がエンコーダ8によりコンポジット信号などに変換されてモニタに出力される。なお、警報装置10は、車両位置と白線位置との比較に基づいて車両が白線に従って(沿って)走行していないと判断した場合に、運転者にブザー等の警告を発する(図10のステップ3)。俯瞰画像変換装置3とマイコン6の間に設置されるバッファメモリ9は両者の同期をとるためのメモリである。   The white line detection / departure alarm device 4 includes a microcomputer 6, a work memory 7, an encoder 8, a buffer memory 9, and an alarm device 10. The microcomputer 6 integrates the overhead image converted by the overhead image conversion device 3 for each pixel using the work memory 7 and graphs the integrated luminance for each pixel in the horizontal direction. A luminance profile of the image is generated (step S1 in FIG. 10). FIG. 9B shows an ideal luminance profile of the overhead view image shown in FIG. Signs, white lines, etc. written in white on the road surface show high intensity (luminance value), so the peak corresponding to the white line from the intensity value (brightness level), its position, peak width, etc. is the luminance profile. (Step S2 in FIG. 10). When the overhead image is output to the monitor 5, the image signal of the overhead image is converted into a composite signal or the like by the encoder 8 and output to the monitor. Note that the warning device 10 issues a warning such as a buzzer to the driver when it is determined that the vehicle is not traveling along (along) the white line based on the comparison between the vehicle position and the white line position (step of FIG. 10). 3). A buffer memory 9 installed between the overhead image conversion device 3 and the microcomputer 6 is a memory for synchronizing both.

上述したようにマイコン6により生成された輝度プロファイルは、理想的な値で検出されれば、図9(b)、図11(a)に示すようなグラフとなるが、現実的に生成される輝度プロファイルは、ノイズ等の影響を受けて、図11(b)に示すような連続した曲線等により構成されたグラフとなる。このため、マイコン6は、ハイパスフィルタ等を用いたフィルタ処理を輝度プロファイルに施すことによって、図11(c)に示すように白線に関連した信号部分を強調する処理を行った後に車線検知を行う。
特開平3−99952号公報 特開平9−171348号公報 特開2001−114048号公報 特開2001−116567号公報
As described above, if the brightness profile generated by the microcomputer 6 is detected as an ideal value, the graphs shown in FIGS. 9B and 11A are obtained, but are generated realistically. The luminance profile is a graph composed of continuous curves as shown in FIG. 11B under the influence of noise and the like. For this reason, the microcomputer 6 performs lane detection after performing processing for emphasizing the signal portion related to the white line as shown in FIG. 11C by performing filter processing using a high-pass filter or the like on the luminance profile. .
JP-A-3-99952 JP-A-9-171348 Japanese Patent Laid-Open No. 2001-114048 JP 2001-116567 A

しかしながら、道路環境は多様であり、路面には白線以外の特徴点も多く存在することから、白線以外の部分が生成された輝度プロファイル内でピーク強度として現れてしまう場合がある。また、状況によってはこのピーク強度が顕著に現れてしまう場合があり、白線との強度比において差異がない場合には車線を誤認識するおそれがある。特に、天候や時間帯の変化に伴って路面状況が変化する場合には誤認識してしまうおそれが高いので、単一のフィルタ処理を用いて全ての路面状況に対応することが困難であるという問題があった。 However, since the road environment is diverse and there are many feature points other than the white line on the road surface, a portion other than the white line may appear as a peak intensity in the generated luminance profile. Also, depending on the situation, this peak intensity may appear prominently, and if there is no difference in the intensity ratio with the white line, there is a risk of erroneously recognizing the lane. In particular, if the road surface condition changes due to changes in weather or time zone, it is highly likely that it will be misrecognized, so it is difficult to handle all road surface conditions using a single filter process. There was a problem.

本発明は、上述した問題に鑑みてなされたものであり、種々の道路状況・道路環境に応じて自動的に最適な白線検知処理を行うことが可能な車線位置検知システムを提供することを課題とする。   The present invention has been made in view of the above-described problems, and it is an object of the present invention to provide a lane position detection system capable of automatically performing optimal white line detection processing according to various road conditions and road environments. And

請求項1に係る発明は、車載カメラで路面を撮像して得られた画像を俯瞰画像に変換し、該俯瞰画像の輝度を車両進行方向に平行に積分して進行方向に垂直な方向に対する輝度プロファイルを求め、該輝度プロファイルにフィルタ処理を施すことによって白線の位置を検出する車線位置検知システムにおいて、前記フィルタ処理に用いられるフィルタとして周波数特性の異なる複数のフィルタを用意し、1つの前記輝度プロファイルに対して、それらの複数のフィルタをそれぞれに用いたフィルタ処理を施して得られた複数の輝度プロファイル間のピーク強度を比較して、白線位置の判定を行う車線位置検出システムであることを特徴とする。
請求項2に係る発明は、請求項1に記載の車線位置検出システムにおいて、複数のハイパスフィルタを用いて、1つの前記輝度プロファイルに対して、前記フィルタ処理を施された複数の前記輝度プロファイルを比較した場合に、前記ピーク強度の差が一定以上の大きさを示す部分を誤信号として削除することを特徴とする。

The invention according to claim 1 converts an image obtained by imaging a road surface with an in-vehicle camera into a bird's-eye view image, integrates the luminance of the bird's-eye view image in parallel with the vehicle traveling direction, and luminance in a direction perpendicular to the traveling direction. In the lane position detection system for obtaining a profile and detecting the position of a white line by applying a filter process to the brightness profile , a plurality of filters having different frequency characteristics are prepared as filters used for the filter process, and the one brightness profile On the other hand, the present invention is a lane position detection system that compares the peak intensities between a plurality of luminance profiles obtained by performing filter processing using each of the plurality of filters, and determines a white line position. And
The invention according to claim 2 is the lane position detection system of claim 1, using a plurality of high-pass filter for one of the brightness profile, among a plurality of the luminance profile that has been subjected to the filtering process Are compared, the portion where the difference in peak intensity shows a certain level or more is deleted as an erroneous signal.

請求項3に係る発明は、請求項1に記載の車線位置検出システムにおいて、前記フィルタ処理に用いられるフィルタが微分フィルタとハイパスフィルタとであり、当該微分フィルタを用いてフィルタ処理を施した輝度プロファイルにおいて二重ピークが現れる部分を白線位置の候補として判断し、前記ハイパスフィルタを用いてフィルタ処理を施した輝度プロファイルから、さらに白線位置を絞り込むことを特徴とする。 The invention according to claim 3 is the lane position detection system according to claim 1, wherein the filter used for the filter processing is a differential filter and a high-pass filter, and the luminance profile is subjected to filter processing using the differential filter. the partial double peak appears is determined as a candidate of the white line position in, and wherein the luminance profile subjected to filtering, over there narrow down further the white line position by using the high-pass filter.

本発明に係る車線位置検知システムによれば、複数のフィルタを用いてフィルタ処理を行って輝度プロファイルのピーク強度の比較を行うので、白線検知の検出精度を向上させることができる。 According to the lane position detection system according to the present invention, the filtering process is performed using a plurality of filters to compare the peak intensities of the luminance profiles, so that the detection accuracy of white line detection can be improved.

以下、本発明に係る車線位置検知システムを、図面を用いて説明する。本発明に係る車線位置検知システムは複数の情報を利用して白線検知精度を高めることを特徴とするものである。このようにして白線検知精度を高める方法として、(1)車両に設置されるセンサ等により検出される結果及び電装機器の稼働状況等を参考にして道路状況を判断する方法と、(2)複数の処理を並列化してその結果の違いを評価しながら、適切なフィルタ処理或いは結果等を選択する方法との2種類の方法を用いる。なお、この2種類の方法を原理的な説明と代表的な複数の実施例を用いて説明するが、現実の道路状況・道路環境は多種多様であるため、本発明の処理方法は実施例に示したものだけに限定されるものではない。   Hereinafter, a lane position detection system according to the present invention will be described with reference to the drawings. The lane position detection system according to the present invention is characterized in that white line detection accuracy is enhanced by using a plurality of information. As a method of improving the white line detection accuracy in this way, (1) a method of judging road conditions with reference to results detected by sensors installed in vehicles and operating conditions of electrical equipment, and (2) a plurality of methods Two types of methods are used: a method of selecting an appropriate filter process or a result while evaluating the difference in the results by parallelizing the above processes. These two types of methods will be described using a principle description and a plurality of representative examples. However, since there are a wide variety of actual road conditions and road environments, the processing method of the present invention is not limited to the examples. It is not limited to what is shown.

(1)センサ等の検出結果及び電装機器の稼働状況等に基づいて道路状況を判断する方法
図1は、本発明に係る車線位置検知しシステムを示したブロック図である。車線位置検知システム20は、カメラ21と俯瞰図生成部22とプロファイル生成部23とレーン検知部24と警報部25と、環境判定部26とを備えている。環境判定部26には、車両に設置される各種センサ27の検出結果及び電装機器の稼働状況等が伝達される。具体的に、環境判定部26は、車速パルスセンサ、ギアスイッチ、ワイパースイッチ、光センサ(ヘッドライト自動点消灯用光センサ)、ヘッドライト、方向指示器スイッチ、舵角センサ、ナビゲーションシステム(道路情報(マップ情報)、位置情報、日付・時間情報、加速度センサ)等の情報を受信することによって、路面状況(周囲の明るさ、ウェット・ドライ状況等)、道路環境情報(高速道・一般道、車線数・道路幅)、車両走行状況、走行車線特定、道路カーブ・直線状況、車線変更の有無等の判断を行う。
(1) Method for Determining Road Conditions Based on Detection Results of Sensors and the like and Operational Conditions of Electrical Equipment FIG. 1 is a block diagram showing a lane position detection system according to the present invention. The lane position detection system 20 includes a camera 21, an overhead view generation unit 22, a profile generation unit 23, a lane detection unit 24, an alarm unit 25, and an environment determination unit 26. Detection results of various sensors 27 installed in the vehicle, operating conditions of the electrical equipment, and the like are transmitted to the environment determination unit 26. Specifically, the environment determination unit 26 includes a vehicle speed pulse sensor, a gear switch, a wiper switch, a light sensor (light sensor for automatically turning on and off the headlight), a headlight, a direction indicator switch, a rudder angle sensor, and a navigation system (road information). (Map information), location information, date / time information, acceleration sensors, etc., to receive information such as road surface conditions (ambient brightness, wet / dry conditions, etc.), road environment information (highways, general roads, (Number of lanes / road width), vehicle running status, driving lane identification, road curve / straight line status, presence / absence of lane change, etc.

環境判定部26は、路面状況等の判断結果を、俯瞰図生成部22、プロファイル生成部23、レーン検知部24等に送信する。プロファイル生成部23では、受信した判断結果に基づいて、俯瞰画像のうち輝度プロファイルを作成する領域を選択する処理(着目領域制御処理)や輝度プロファイルに施すフィルタ処理用のフィルタの選択・調整を行い、1つ或いは複数の輝度プロファイルを生成する。   The environment determination unit 26 transmits a determination result such as a road surface condition to the overhead view generation unit 22, the profile generation unit 23, the lane detection unit 24, and the like. Based on the received determination result, the profile generation unit 23 performs processing for selecting a region for generating a brightness profile in the overhead image (focused region control processing) and selection / adjustment of a filter for filter processing applied to the luminance profile. One or more luminance profiles are generated.

図2(a)は、雨天時に高速走行中する車両の後方路面状況を示した俯瞰画像である。このような雨天時の環境では、晴天時の場合に比べて、
特徴1.後車輪により轍状の水しぶきが発生し疑似的に白線30が発生してしまう。
FIG. 2A is a bird's-eye view showing the rear road surface condition of a vehicle traveling at high speed in rainy weather. In such an environment in rainy weather, compared to that in fine weather,
Features 1. A spear-like water splash is generated by the rear wheel, and a pseudo white line 30 is generated.

特徴2.雨天により外周の照度が低下するため(低照度)、俯瞰画像において背景ノイズが相対的に増加してしまう。     Feature 2. Since the illuminance at the outer periphery decreases due to rain (low illuminance), background noise increases relatively in the overhead image.

という特徴がある。特に、特徴1は、図2(b)に示すように輝度プロファイルを生成する場合に水しぶきが疑似白線として誤認識される可能性が高くなるので重要な問題となる。   It has the characteristics In particular, the feature 1 is an important problem because the possibility that the splash is erroneously recognized as a pseudo white line is increased when the luminance profile is generated as shown in FIG.

このため、環境判定部26は、ワイパースイッチと速度センサとを用いて周囲の状況が雨天であるかどうかを判断する。特に、ワイパースイッチは、雨の状況によって間欠動作状態から連続動作状態へと段階的に切り替え設定されるので、雨の強弱を判断することができる。例えば、路面に水しぶきがあがる状況は、路面に水がそれなりに溜まる必要があるため、ワイパーが連続動作状態に切り替えられたときに水しぶきが発生し得るものと推定することができる。   For this reason, the environment determination part 26 determines whether the surroundings are rainy using a wiper switch and a speed sensor. In particular, since the wiper switch is set in a stepwise manner from an intermittent operation state to a continuous operation state depending on rain conditions, it is possible to determine the strength of rain. For example, in a situation where the water splashes on the road surface, it is necessary to accumulate water on the road surface. Therefore, it can be estimated that the water spray can occur when the wiper is switched to the continuous operation state.

また、車両が一定の速度以上で走行しなければ長い水しぶき跡が路面に残らないため、環境判定部26は、走行速度情報をワイパーの連続動作状況と併用して判断することにより水しぶき対応処理を行うか否かの判断を行う。   In addition, if the vehicle does not travel at a certain speed or longer, a long splash mark does not remain on the road surface. Therefore, the environment determination unit 26 performs the splash handling process by determining the traveling speed information together with the continuous operation state of the wiper. It is determined whether or not to do so.

ワイパーの稼動状況と車両走行速度情報との2つの条件を満たす場合、環境判断部26は、道路状況は水しぶきがあがり得る環境にあるものと判断し、プロファイル生成部23対して水しぶき対応した処理を実施するように指示を出す。   When the two conditions of the wiper operating condition and the vehicle traveling speed information are satisfied, the environment determining unit 26 determines that the road condition is in an environment where splashing can occur, and performs processing corresponding to the splashing for the profile generating unit 23. Give instructions to do so.

水しぶきがあがり得る環境と判定した場合、プロファイル生成部23は、まず、輝度プロファイルにフィルタ処理を施すためのハイパスフィルタ(HPF)の遮断周波数を変更する。例えば、水しぶきによる白線状の軌跡30は、実際の白線31に比べ俯瞰画像においてエッジがぼけて示される。また、水しぶきはタイヤの外に広がるため、俯瞰画像における見た目の幅が白線よりも広がってしまう。水しぶきのピーク値は白線のピーク値に比べて低周波成分を多く含むので、ハイパスフィルタの遮断周波数を通常よりも高く設定することによって、図2(c)に示すように水しぶきによる信号強度を選択的に低下させる。この遮断周波数は、事前に実験などによりあらかじめ決めておく。この遮断周波数の変更は、信号強度を弱めるため、こうした水しぶきの問題がない晴天時などは、低い方が望ましい。   When it is determined that the environment can be splashed, the profile generation unit 23 first changes the cutoff frequency of the high-pass filter (HPF) for filtering the luminance profile. For example, a white line-shaped locus 30 due to splashing is shown with a blurred edge in the overhead image compared to the actual white line 31. Moreover, since the splash spreads out of the tire, the apparent width in the overhead view image becomes wider than the white line. Since the splash peak value contains more low-frequency components than the white line peak value, the signal strength due to splashing is selected by setting the cutoff frequency of the high-pass filter higher than usual, as shown in FIG. Decrease. This cut-off frequency is determined in advance by experiments or the like. Since the change in the cut-off frequency weakens the signal intensity, it is desirable that the lower one is used when the weather is fine when there is no such problem of spraying.

以上のように、雨天状況専用のフィルタ処理を施した後に、レーン検知部24が白線位置の検出処理を行うが、このレーン検知部24における白線検知処理においても雨天状況専用の判定処理を行う。水しぶきによる擬似白線30は後車輪の位置で発生する特徴があるため、その特徴を利用した処理を行うことで誤検出を低減させることができる。   As described above, the lane detection unit 24 performs the white line position detection process after the rain condition specific filtering process is performed. The white line detection process in the lane detection unit 24 also performs the determination process dedicated to the rain condition. Since the pseudo white line 30 due to splashing has a characteristic that occurs at the position of the rear wheel, erroneous detection can be reduced by performing processing using the characteristic.

例えば、水しぶきはタイヤの外に広がるため、俯瞰画像における見た目の幅が白線よりも広がってしまい、水しぶきのピーク幅と白線のピーク幅には幅差が現れやすい。このため、ピーク幅の誤差をより重く評価することで、水しぶきと白線31との判定精度を上げることができ、誤検出を低減させることが可能となる。また、検出されるピーク位置に置いて、車輪位置33にある信号の重み付けを相対的に軽くすることによって、タイヤからのびる水しぶきの擬似白線の誤検出を低減させることができる。   For example, since the splash spreads outside the tire, the apparent width in the overhead view image is wider than the white line, and a width difference tends to appear between the peak width of the splash and the peak width of the white line. For this reason, by evaluating the error of the peak width more heavily, it is possible to increase the determination accuracy between the splash and the white line 31, and to reduce erroneous detection. Further, by setting the weight of the signal at the wheel position 33 to be relatively light at the detected peak position, it is possible to reduce false detection of a pseudo white line of splashing from the tire.

さらに、輝度プロファイルの変化を経時的(時間的)に判断したものに対して、時間軸を基準としたフィルタ処理(時間軸に関するフィルタ処理、時間フィルタ)を変更することにより、また、雨天等による外周の照度の低下(低照度)により、俯瞰画像において背景ノイズが混入しやすくなっていると考えられる場合には、時間的なローパスフィルタ(LPF)において遮断周波数を低周側にずらしたフィルタに切り替えることによって、ノイズを減少させて検出強度の安定性を高めることが可能である。なお、フィルタ部(空間フィルタ)での変更処理、判定部での処理変更、時間フィルタ部での処理変更の3つの要素を全て実行する構成だけに限定されるものではなく、道路状況等によっては、いずれかの処理を選択的に施すだけで十分な精度で車線検知を行うことが可能な場合もある。従って、車線検知処理は上述したものに限定されるものではなく、各種センサで道路状況等を特定し、最適なフィルタ特性を選ぶことで総合的に信頼性を向上させることが可能である。   Furthermore, by changing the filter processing (filter processing related to the time axis, time filter) based on the time axis for changes in the luminance profile determined over time (temporal), it may also be due to rainy weather, etc. When it is considered that background noise is likely to be mixed in a bird's-eye view image due to a decrease in peripheral illuminance (low illuminance), a filter with a cut-off frequency shifted to the low-circumference side in a temporal low-pass filter (LPF) By switching, it is possible to reduce noise and improve the stability of detection intensity. In addition, it is not limited only to the structure which performs all three elements of the change process in a filter part (spatial filter), the process change in a determination part, and the process change in a time filter part, depending on road conditions etc. In some cases, it is possible to detect the lane with sufficient accuracy by selectively performing one of the processes. Accordingly, the lane detection processing is not limited to the above-described one, and it is possible to improve the reliability comprehensively by specifying road conditions and the like with various sensors and selecting the optimum filter characteristics.

車線検出の信頼性を向上させるためには、[実施例1]に示したようにフィルタ特性を制御するだけでなく、俯瞰図生成部22を制御して車線検出を行うための俯瞰画像の俯瞰パターン或いは画像処理領域を制御する方法も有効である。このような画像処理には、俯瞰パターンの縮尺そのものを変更する方法と、画像の特定の走査線領域のみを処理する方法との2種類の方法がある。俯瞰パターンの縮尺変更方法は俯瞰図生成部22における処理により実現され、特定の走査線領域のみを処理する方法は、プロファイル生成部23における処理により実現される。それぞれ、俯瞰画像の粗調整及び微調整に有効な方法である。   In order to improve the reliability of the lane detection, not only the filter characteristics are controlled as shown in [Embodiment 1], but also an overhead view of the overhead view image for performing the lane detection by controlling the overhead view generation unit 22. A method of controlling the pattern or image processing area is also effective. Such image processing includes two types of methods: a method of changing the scale of the overhead pattern itself, and a method of processing only a specific scanning line region of the image. The method of changing the scale of the overhead view pattern is realized by the processing in the overhead view generation unit 22, and the method of processing only a specific scanning line region is realized by the processing in the profile generation unit 23. Each is an effective method for coarse adjustment and fine adjustment of an overhead image.

例えば、車両走行中の道路が直線道路であるか、カーブであるかによって、車線検出に用いられる俯瞰画像を適宜切り替えることが望ましい。車両が直線走行している場合には、できるだけ俯瞰画像の前端から後端までの広い画像領域を用いて輝度プロファイルを作成することにより、白線31のピークを高く高精度に検出することが可能になるとともに、ノイズによるピークを白線ピークに比べて低減させることができる。また、水しぶきのような擬似白線(白波線)30のピークとの違いを明確にすることが可能となり、白線31の信号強度を安定的に確保することが可能となる。一方、図3(a)に示すようなカーブを走行している場合には、車線位置の検出精度を確保するために、直線道路に近似することができる車両近景部分(車両に近い側)35の俯瞰画像を車線検出処理に用いることが望ましい。カーブの検知は、前述したセンサ27、例えばカーナビゲーションシステムからのナビ情報、舵角センサによるハンドルの操舵角度情報、或いは左右車速センサの回転数差などの情報を用いて判断する。環境判断部26により車両がカーブを走行していると判断された場合、プロファイル生成部23は環境判断部26からの信号に基づいて俯瞰画像の範囲を俯瞰画像の全範囲から近景範囲35に変更してプロファイルを生成する。このとき、前述した2種類の方法のうちどちらの方法を採用するのかはハードウェアの制約など考慮して適切な選択する。図3(b)は俯瞰画像の全範囲を対象として生成した輝度プロファイルを示しており、図3(c)は俯瞰画像のうち近景範囲35だけを対象として生成した輝度プロファイルを示している。図3(b)、(c)より明らかなように、近景範囲35だけを用いた輝度プロファイルでは、遠景範囲36の白線部分のピーク強度(図3(c)の鎖線で示されている部分)が含まれていないため、ピーク幅が狭くなり、車線位置の検出精度が向上する。   For example, it is desirable to appropriately switch the bird's-eye view image used for lane detection depending on whether the road on which the vehicle is traveling is a straight road or a curve. When the vehicle is traveling in a straight line, it is possible to detect the peak of the white line 31 with high accuracy by creating a luminance profile using a wide image area from the front end to the rear end of the overhead image as much as possible. In addition, the peak due to noise can be reduced compared to the white line peak. Further, the difference from the peak of the pseudo white line (white wave line) 30 such as splashing can be clarified, and the signal intensity of the white line 31 can be stably secured. On the other hand, when traveling on a curve as shown in FIG. 3A, in order to ensure the detection accuracy of the lane position, a vehicle foreground portion (side closer to the vehicle) 35 that can be approximated to a straight road. It is desirable to use the bird's-eye view image for lane detection processing. The detection of the curve is determined using information such as the sensor 27 described above, for example, navigation information from the car navigation system, steering angle information of the steering wheel by the steering angle sensor, or a difference in rotational speeds of the left and right vehicle speed sensors. When the environment determination unit 26 determines that the vehicle is traveling on a curve, the profile generation unit 23 changes the range of the overhead view image from the entire range of the overhead view image to the foreground range 35 based on the signal from the environment determination unit 26. To generate a profile. At this time, which one of the two methods described above is to be adopted is appropriately selected in consideration of hardware restrictions and the like. FIG. 3B shows a luminance profile generated for the entire range of the overhead image, and FIG. 3C shows a luminance profile generated only for the foreground range 35 of the overhead image. As apparent from FIGS. 3B and 3C, in the luminance profile using only the foreground range 35, the peak intensity of the white line portion in the far view range 36 (the portion indicated by the chain line in FIG. 3C). Is not included, the peak width is narrowed, and the detection accuracy of the lane position is improved.

図4は、夜間時に高速走行中する車両の後方路面状況を示した俯瞰画像である。夜間は図4に示すように遠方までライトの光が届かないため、白線31の輝度に基づいて車線検知処理を行う場合、有効に白線検知処理を行うことが可能な範囲は、ライセンスプレートの光が路面を照射可能な範囲である車両に近い領域(図4の処理領域1)だけである。   FIG. 4 is a bird's-eye view image showing the rear road surface condition of a vehicle traveling at high speed at night. As shown in FIG. 4, the light of the light does not reach far away at night, so when performing the lane detection process based on the brightness of the white line 31, the range in which the white line detection process can be performed effectively is the light of the license plate Is a region close to the vehicle (processing region 1 in FIG. 4) that is a range in which the road surface can be irradiated.

環境判断部26は、ランプ類の点灯の有無を検知したり、時刻情報をカーナビゲーションシステムナビから受信したりすることによって、走行時刻が夜間であるか否かの判断を行う。環境判断部26が夜間であると判断した場合、プロファイル生成部が、図4の処理領域1の範囲だけを抽出して、この範囲だけを用いて輝度プロファイルを作成する。処理領域1だけを用いて輝度プロファイルを生成することによって、輝度プロファイルの信頼性を高めることができ、白線の検知精度を向上させることが可能となる。なお、この具体的手法を用いる場合には[実施例2]と同様に2種類の方法を用いることが可能である。
(2)複数の処理を並列化してその結果の違いを評価しながら、適切なフィルタ処理或いは結果等を選択する方法。
The environment determination unit 26 determines whether or not the traveling time is nighttime by detecting whether or not the lamps are turned on or by receiving time information from the car navigation system navigation. When the environment determination unit 26 determines that it is nighttime, the profile generation unit extracts only the range of the processing area 1 in FIG. 4 and creates a luminance profile using only this range. By generating the luminance profile using only the processing region 1, it is possible to improve the reliability of the luminance profile and improve the white line detection accuracy. When this specific method is used, two types of methods can be used as in [Example 2].
(2) A method of selecting an appropriate filter process or result while parallelizing a plurality of processes and evaluating the difference between the results.

次に複数の処理を並列化(並列フィルタ処理による自立的判定)を行う方法を説明する。   Next, a method for parallelizing a plurality of processes (independent determination by parallel filter processing) will be described.

上述する各種センサ27の情報が十分に得られない場合には、特定の条件に適応したフィルタ処理を幾つか動作させ、複数のプロファイルを生成する。その後、各プロファイルを用いて総合的に或いは選択的に判断することにより白線の検出精度を高める。この方法は、以下の2つの手法に分類される。   When the information of the various sensors 27 described above cannot be obtained sufficiently, several filter processes adapted to specific conditions are operated to generate a plurality of profiles. Thereafter, the white line detection accuracy is increased by making a comprehensive or selective determination using each profile. This method is classified into the following two methods.

方法1 輝度プロファイルを比較し誤信号を排除してから白線検知を行う方法(実施例4)。   Method 1 A method of performing white line detection after comparing luminance profiles and eliminating erroneous signals (Example 4).

方法2 輝度プロファイル毎に白線検知を行い比較により判断する方法(実施例5)
以下、上述した2つの方法について説明を行う。なお、以下の説明において便宜的にフィルタを2つ併用した例を用いて説明を行うが、フェイルセーフ的な考え方の下では3つ以上のフィルタを併用して判断することが望ましい場合も多くあり、その数は状況に応じて変化するので、2つに限定されるわけではない。
Method 2 A method in which white lines are detected for each luminance profile and judged by comparison (Example 5)
Hereinafter, the two methods described above will be described. In the following description, the description will be made using an example in which two filters are used together for the sake of convenience. However, in many cases, it is desirable to make a determination using three or more filters under a fail-safe idea. The number varies depending on the situation, and is not limited to two.

で述べた轍状の水しぶきによる疑似白線が路面上に表示されている場合には、水しぶきの特性として表されるエッジぼけ部分を対象にして遮断周波数を決定し、フィルタ処理を施すことによって、図2(c)のように水しぶきが原因となって輝度プロファイルに発生するピーク強度を低下或いは強調させることができる。従って複数のフィルタ処理を施された輝度プロファイルを比較した場合に、ピーク強度の状態が異なる部分ほどそのピークが白線31以外の部分(例えば、水しぶき部分)である可能性が高いと判断できる。このため、同時に2つのフィルタ処理を施して、そのピーク強度の差が一定以上大きさを示す信号を無視するか、或いは重み付けを軽くすることで、車線検知の誤検出を低減させることが可能となる。   When the pseudo white line due to the spider-like spray described in (1) is displayed on the road surface, the cutoff frequency is determined for the edge blurring portion expressed as the characteristics of the spray, and the filter processing is performed. As in 2 (c), the peak intensity generated in the luminance profile due to the splash can be reduced or enhanced. Therefore, when comparing the luminance profiles subjected to a plurality of filter processes, it can be determined that the portion with a different peak intensity state is more likely to be a portion other than the white line 31 (for example, a sprayed portion). For this reason, it is possible to reduce false detection of lane detection by applying two filter processes at the same time and ignoring signals whose peak intensity difference is greater than a certain level or reducing the weighting. Become.

図5(a)は、路面表面の色合いが補修等によって異なる道路を示す俯瞰画像である。   FIG. 5A is a bird's-eye view image showing roads in which the color of the road surface is different due to repair or the like.

図5(a)に示すように、広範囲の暗い領域(補修面40)と、明るい領域(路面41)とがある場合、境界42付近で輝度プロファイルの強度がステップ関数のように変化することとなり高周波成分を含むため、フィルタ処理を施しても信号強度か残りやすくなり誤認識を生じやすいという問題がある(図5(b))。   As shown in FIG. 5A, when there is a wide range of dark areas (repair surface 40) and bright areas (road surface 41), the intensity profile intensity changes in the vicinity of the boundary 42 like a step function. Since a high frequency component is included, there is a problem that signal strength is likely to remain even if filtering is performed, and erroneous recognition is likely to occur (FIG. 5B).

このような問題を回避するため、微分フィルタを併用することにより変曲点を検出して輝度プロファイルのピークの値が白線31であるか、明暗領域の境界42であるかの判断を行う。微分フィルタを用いたフィルタ処理を施すと、図5(c)に示すように、明暗領域の境界42部分では変化点が1つであるためピークが1つになるが、白線31のように明るい領域が一定幅の部分では二重にピークが現れる。従って、微分フィルタを用いたフィルタ処理を施すことによって、輝度プロファイルに二重ピークが生じた箇所を白線31位置の候補とし、それ以外の場所は白線31位置以外の場所であるもの判断して無視したり、評価関数での重み付けを軽くしたりすることによって、検出誤差を低減させることが可能となる。   In order to avoid such a problem, an inflection point is detected by using a differential filter together to determine whether the value of the peak of the luminance profile is the white line 31 or the boundary 42 of the light and dark area. When the filtering process using the differential filter is performed, as shown in FIG. 5C, there is one change point at the boundary 42 portion of the light and dark region, so there is one peak, but it is as bright as the white line 31. Double peaks appear in areas where the area is constant. Therefore, by applying a filtering process using a differential filter, a position where a double peak occurs in the luminance profile is set as a candidate for the position of the white line 31, and other places are determined to be positions other than the position of the white line 31 and ignored. Or by reducing the weighting of the evaluation function, the detection error can be reduced.

なお、最初から微分フィルタのみを用いて白線位置の判断処理を行うことも原理的に可能である。しかしながら、微分フィルタは強度の低いノイズでも急激に変化していればピークが強調されてしまうため、ピークの数が増加しやすくなりそのままでは計算量が増えてしまうので、かえって誤認識を増加させる可能性もある。従って、図5(b)に示すような、ハイパスフィルタを用いたフィルタ処理と、図5(c)に示すような、微分フィルタを用いたフィルタ処理との2つの処理を同時に利用し、その相乗効果により誤認識を抑制させることが有効である。さらに、一方のフィルタで着目領域を先に抽出し、その領域のみに対して局所的に他方のフィルタ処理を施すことによって全体のフィルタ処理の軽減を図ることも可能である。すなわち、フィルタ処理の併用により、白線認識率の向上と負荷低減の2面の相乗効果が期待できる。   In principle, it is possible to determine the position of the white line using only the differential filter from the beginning. However, the differential filter emphasizes the peaks if the noise is abruptly changing even with low-intensity noise, so the number of peaks tends to increase, and the amount of calculation increases. There is also sex. Therefore, the two processes of the filter process using the high-pass filter as shown in FIG. 5B and the filter process using the differential filter as shown in FIG. It is effective to suppress misrecognition by the effect. Further, it is possible to reduce the overall filter processing by extracting the region of interest first with one filter and locally applying the other filter processing to only that region. That is, the combined use of the filter processing can be expected to produce a synergistic effect of two aspects of improving the white line recognition rate and reducing the load.

また、暗い領域と明るい領域とにより境界42が現れる道路状況であれば、図5(a)に示すように境界が補修面と通常路面とにより生ずる場合だけでなく、道路の一部が日陰になってしまって、他の日の当たる部分との比較により暗い領域と明るい領域との境界が現れてしまう場合にも同様に適用することが可能である。   Further, in the road situation in which the boundary 42 appears due to the dark area and the bright area, not only the boundary is caused by the repair surface and the normal road surface as shown in FIG. 5A, but also a part of the road is shaded. Thus, the present invention can be similarly applied to a case where a boundary between a dark region and a bright region appears due to comparison with a portion exposed to another day.

輝度プロファイルを作成して白線検知を行うためには、できるだけ車両の遠方から車両側近までの広い範囲の俯瞰画像を用いて輝度積算を行い、ピーク強度を求めることが望ましく、このようにしてピーク強度を求めることによって安定的に白線検出を行うこと可能となる。しかしながら、あまりに遠方の情報を用いると、[実施例2]で示したように、車両がカーブを走行している場合に正確な白線位置を検出することが困難となり、また、異常に接近してきた車両が存在する場合には誤検出を起こしやすいという問題があった。   In order to create a brightness profile and detect white lines, it is desirable to perform brightness integration using a bird's-eye view of a wide range from the far side of the vehicle to the side of the vehicle as much as possible to obtain the peak intensity. Thus, it is possible to stably detect the white line. However, if too far away information is used, as shown in [Example 2], it is difficult to detect an accurate white line position when the vehicle is traveling on a curve, and the vehicle has approached abnormally. There is a problem that erroneous detection is likely to occur when a vehicle is present.

そこで、例えば、図3に示すように俯瞰画像を領域毎に分割し、近景と遠景とを独立に処理することにより道路がカーブであるか否かを自立的に検出することができる。   Therefore, for example, as shown in FIG. 3, it is possible to independently detect whether the road is a curve by dividing the bird's-eye view image for each region and processing the near view and the distant view independently.

具体的な処理手順を例示すると
1.俯瞰画像の全範囲(全画面)を用いて輝度プロファイルを生成し、白線位置(位置1とする)を推定する。
2.俯瞰画像の近景領域を用いて輝度プロファイルを生成し、位置1付近より白線位置(位置2とする)を推定する。
3.俯瞰画像の遠近景領域を用いて輝度プロファイルを生成し、位置1付近より白線位置(位置3とする)を推定する。
4.位置1及び位置2の誤差が許容値以下の場合、その位置を白線位置と認定する
5.位置2に対して位置3がシフトしている場合はカーブであると判定する。
6.位置2に対して位置3が大きく異なる場合には異常事態(接近車等)であると判定する。
となる。このステップを経ることでカーブ走行などを自動検知し、白線検知の精度・信頼性を向上することが可能となる。
Specific processing procedures are exemplified as follows: A brightness profile is generated using the entire range (full screen) of the overhead image, and the white line position (position 1) is estimated.
2. A luminance profile is generated using the foreground area of the overhead image, and the white line position (position 2) is estimated from the vicinity of position 1.
3. A luminance profile is generated using the perspective view area of the overhead image, and the white line position (position 3) is estimated from the vicinity of position 1.
4). 4. If the error between position 1 and position 2 is less than the allowable value, that position is recognized as a white line position. When the position 3 is shifted with respect to the position 2, it is determined as a curve.
6). When position 3 is significantly different from position 2, it is determined that an abnormal situation (such as an approaching vehicle) is present.
It becomes. By passing through this step, it is possible to automatically detect a curve run or the like and improve the accuracy and reliability of white line detection.

図6(a)は、正常な白線と傷みや汚れにより見えにくくなった白線とを示した俯瞰画像である。白線検知において検知を行う白線が道路工事や経年劣化などによって激しく傷み、白線が見えにくくなっている場合には、輝度プロファイルを作成しても正常な白線45に比べプロファイル強度が低下してしまい十分なピーク強度を得ることができないので、白線検知の誤検出を招くおそれがある。   FIG. 6A is a bird's-eye view image showing a normal white line and a white line that has become difficult to see due to damage or dirt. If the white line to be detected in white line detection is severely damaged due to road construction or aging deterioration, and it is difficult to see the white line, the profile intensity will be lower than the normal white line 45 even if a brightness profile is created. Since it is not possible to obtain an appropriate peak intensity, there is a risk of erroneous detection of white line detection.

元来、フィルタ処理は信号強度の絶対値を弱くする性質を有するため、正常な白線45に合わせてフィルタ処理(例えば、バンドパスフィルタを用いたフィルタ処理。このときに用いるフィルタをフィルタ1とする。)を施すと、図6(b)に示すように、弱い信号を有効に分離できない場合がある。一方で、弱い信号に合わせたフィルタ処理(例えば、ハイパスフィルタを用いたフィルタ処理。このときに用いるフィルタをフィルタ2とする。)を通常強度の輝度プロファイに適用すると、図6(c)に示すように弱い背景ノイズまで拾ってしまい、処理が煩雑になりやすいとく問題がある。   Originally, the filter process has the property of weakening the absolute value of the signal strength, so the filter process is performed in accordance with the normal white line 45 (for example, the filter process using a bandpass filter. The filter used at this time is the filter 1. )), There are cases where a weak signal cannot be effectively separated as shown in FIG. On the other hand, when a filtering process (for example, a filtering process using a high-pass filter; the filter used at this time is a filter 2) adapted to a weak signal is applied to a luminance profile of normal intensity, it is shown in FIG. As such, there is a problem that the background noise is picked up and the processing tends to be complicated.

このような状況に対応するために、白線検知が可能な強度範囲が異なる2種類以上のフィルタを併用し、強い強度に対応したフィルタから順に信号検出判定を行い、信号が検出できなかった場合に順に低い強度のフィルタ処理結果を参照することで、白線検知に用いるフィルタを選択する。図6(a)の例で示せば、
1.通常はフィルタ1を用いたフィルタ処理により白線位置を検知する(図6(b))。
To cope with such a situation, when two or more types of filters with different intensity ranges that can detect white lines are used together, signal detection determination is performed in order from the filter corresponding to the strong intensity, and the signal cannot be detected The filter used for white line detection is selected by referring to the filter processing results of lower strength in order. In the example of FIG.
1. Usually, the position of the white line is detected by filter processing using the filter 1 (FIG. 6B).

2.一定時間、白線未検出状態が連続したときには、フィルタ2を用いたフィルタ処理により白線位置を検出する(図6(c))。
となる。フィルタ2は先に述べたように疑似ピークがあるため、フィルタ処理の処理負担が重くなり、単位時間に処理できる回数が低下するが、フィルタ1を用いた未検出状態に比べれば大幅に白線検知精度を改善することができる。また、フィルタ1で検出したピーク強度の信頼性は高いと考えられるため、このピーク強度を信頼して、見えにくくなった白線46の位置をフィルタ2の結果から検索することで、信頼性の向上を図ることが可能となる。このようにしたフィルタ構成例として、遮断周波数帯及びフィルタ次数を調整したハイパスフィルタ(HPF)或いはバンドパスフィルタ(BPF)等が用いられる。
2. When the white line undetected state continues for a certain time, the white line position is detected by filter processing using the filter 2 (FIG. 6C).
It becomes. Since the filter 2 has a pseudo peak as described above, the processing load of the filter processing becomes heavy, and the number of times that processing can be performed per unit time is reduced. However, compared with the undetected state using the filter 1, white line detection is significantly performed. Accuracy can be improved. Further, since the reliability of the peak intensity detected by the filter 1 is considered to be high, the reliability is improved by searching for the position of the white line 46 that is difficult to see by trusting the peak intensity. Can be achieved. As an example of the filter configuration as described above, a high-pass filter (HPF) or a band-pass filter (BPF) whose cutoff frequency band and filter order are adjusted is used.

以上、本発明に係る車線位置検知システムを、図面を用いて説明したが、本発明に係る車線位置検知システムは、上述したものに限定されるものではなく、当業者が考え得る範囲での設計変更・改良を施したものも本発明に係る車線位置検知システムに含まれるものである。   The lane position detection system according to the present invention has been described above with reference to the drawings. However, the lane position detection system according to the present invention is not limited to the above-described one, and is designed within a range that can be considered by those skilled in the art. Changes and improvements are also included in the lane position detection system according to the present invention.

本発明に係る車線位置検出システムを示したブロック図である。It is the block diagram which showed the lane position detection system which concerns on this invention. (a)は雨天時に高速走行中する車両の後方路面状況を示した俯瞰画像であり、(b)は、(a)の俯瞰画像の輝度プロファイルを示しており、(c)は(b)に比べてハイパスフィルタの遮断周波数を高く設定した輝度プロファイルを示している。(A) is the bird's-eye view image showing the road surface condition of the vehicle traveling at high speed in rainy weather, (b) shows the luminance profile of the bird's-eye view image of (a), and (c) is shown in (b). In comparison, a luminance profile in which the cutoff frequency of the high-pass filter is set higher is shown. (a)はカーブを高速走行中する車両の後方路面状況を示した俯瞰画像であり、(b)は、(a)の俯瞰画像の全領域を用いて生成した輝度プロファイルを示しており、(c)は(a)の俯瞰画像の近景領域を用いて生成した輝度プロファイルを示している。(A) is a bird's-eye view image showing a road surface condition of a vehicle traveling at a high speed on a curve, and (b) shows a luminance profile generated using the entire region of the bird's-eye view image of (a). c) shows a luminance profile generated using the near view area of the overhead image of (a). 夜間時に高速走行中する車両の後方路面状況を示した俯瞰画像である。It is the bird's-eye view image which showed the road surface condition of the vehicle which is driving at high speed at night. (a)は、路面表面の色合いが補修等によって異なる道路を示す俯瞰画像であり、(b)は、ハイパスフィルタによるフィルタ処理を施した輝度プロファイルを示しており、(c)は、微分フィルタによるフィルタ処理を施した輝度プロファイルを示している。(A) is a bird's-eye view image showing roads with different road surface colors due to repairs, etc., (b) shows a luminance profile that has been filtered by a high-pass filter, and (c) shows a differential filter. The luminance profile which performed the filter process is shown. (a)は、正常な白線と傷みや汚れにより見えにくくなった白線とを示した俯瞰画像であり、(b)は、バンドパスフィルタによるフィルタ処理を施した輝度プロファイルを示しており、(c)は、ハイパスフィルタによるフィルタ処理を施した輝度プロファイルを示している。(A) is a bird's-eye view image showing a normal white line and a white line that has become difficult to see due to scratches or dirt, and (b) shows a luminance profile that has been subjected to filter processing by a bandpass filter. ) Shows a luminance profile that has been filtered by a high-pass filter. 従来のレーン位置検出装置を示したブロック図である。It is the block diagram which showed the conventional lane position detection apparatus. 車両後方に設置したカメラ(リアカメラ)により撮影された画像である。It is the image image | photographed with the camera (rear camera) installed in the vehicle back. (a)は図8に示した画像の俯瞰画像であり、(b)は輝度プロファイルである。(A) is an overhead image of the image shown in FIG. 8, and (b) is a luminance profile. 従来のレーン位置検出装置における車線位置検出処理を示したフローチャートである。It is the flowchart which showed the lane position detection process in the conventional lane position detection apparatus. (a)は俯瞰画像より生成される理想的な輝度プロファイルを示しており、(b)は現実の輝度プロファイルを示しており、(c)は(b)に示す輝度プロファイルにハイパスフィルタによるフィルタ処理を施した輝度プロファイルを示している。(A) shows an ideal luminance profile generated from a bird's-eye view image, (b) shows an actual luminance profile, and (c) shows a filtering process using a high-pass filter on the luminance profile shown in (b). The brightness | luminance profile which gave is shown.

符号の説明Explanation of symbols

20 車線位置検出システム
21 カメラ
22 俯瞰図生成部
23 プロファイル生成部
24 レーン検知部
25 警報部
26 環境判定部
27 センサ
20 lane position detection system 21 camera 22 overhead view generation unit 23 profile generation unit 24 lane detection unit 25 alarm unit 26 environment determination unit 27 sensor

Claims (3)

車載カメラで路面を撮像して得られた画像を俯瞰画像に変換し、該俯瞰画像の輝度を車両進行方向に平行に積分して進行方向に垂直な方向に対する輝度プロファイルを求め、該輝度プロファイルにフィルタ処理を施すことによって白線の位置を検出する車線位置検知システムにおいて、
前記フィルタ処理に用いられるフィルタとして周波数特性の異なる複数のフィルタを用意し、1つの前記輝度プロファイルに対して、それらの複数のフィルタをそれぞれに用いたフィルタ処理を施して得られた複数の輝度プロファイル間のピーク強度を比較して、白線位置の判定を行うことを特徴とする車線位置検出システム。
An image obtained by imaging the road surface with the in-vehicle camera is converted into a bird's-eye view image, and the luminance profile of the bird's-eye view image is integrated in parallel with the vehicle traveling direction to obtain a luminance profile in a direction perpendicular to the traveling direction. In the lane position detection system that detects the position of the white line by applying filter processing,
A plurality of filters having different frequency characteristics are prepared as filters used for the filter processing, and a plurality of luminance profiles obtained by applying filter processing using each of the plurality of filters to the one luminance profile A lane position detection system characterized in that the white line position is determined by comparing peak intensities between the two.
複数のハイパスフィルタを用いて、1つの前記輝度プロファイルに対して、前記フィルタ処理を施された複数の前記輝度プロファイルを比較した場合に、前記ピーク強度の差が一定以上の大きさを示す部分を誤信号として削除することを特徴とする請求項1に記載の車線位置検出システム。 Using a plurality of high-pass filter, the portion indicated with respect to one of the brightness profile, when comparing among a plurality of the luminance profile that has been subjected to the filtering process, the difference is above a certain magnitude of the peak intensity The lane position detection system according to claim 1, wherein the lane position detection system is deleted as an erroneous signal. 前記フィルタ処理に用いられるフィルタが微分フィルタとハイパスフィルタとであり、当該微分フィルタを用いてフィルタ処理を施した輝度プロファイルにおいて二重ピークが現れる部分を白線位置の候補として判断し、前記ハイパスフィルタを用いてフィルタ処理を施した輝度プロファイルから、さらに白線位置を絞り込むことを特徴とする請求項1に記載の車両位置検知システム。The filter used for the filter processing is a differential filter and a high-pass filter, a portion where a double peak appears in a luminance profile subjected to filter processing using the differential filter is determined as a candidate for a white line position, and the high-pass filter is The vehicle position detection system according to claim 1, wherein the position of the white line is further narrowed down from the brightness profile subjected to the filtering process.
JP2004091403A 2004-03-26 2004-03-26 Lane position detection system Expired - Fee Related JP4451179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004091403A JP4451179B2 (en) 2004-03-26 2004-03-26 Lane position detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004091403A JP4451179B2 (en) 2004-03-26 2004-03-26 Lane position detection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009131067A Division JP4927908B2 (en) 2009-05-29 2009-05-29 Lane position detection system

Publications (2)

Publication Number Publication Date
JP2005276041A JP2005276041A (en) 2005-10-06
JP4451179B2 true JP4451179B2 (en) 2010-04-14

Family

ID=35175621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004091403A Expired - Fee Related JP4451179B2 (en) 2004-03-26 2004-03-26 Lane position detection system

Country Status (1)

Country Link
JP (1) JP4451179B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5067847B2 (en) * 2007-07-23 2012-11-07 アルパイン株式会社 Lane recognition device and navigation device
JP4697480B2 (en) 2008-01-11 2011-06-08 日本電気株式会社 Lane recognition device, lane recognition method, and lane recognition program
JP5792678B2 (en) 2012-06-01 2015-10-14 株式会社日本自動車部品総合研究所 Lane boundary detection device and program
JP2014109458A (en) * 2012-11-30 2014-06-12 Nippon Soken Inc Position detection apparatus
JP6105509B2 (en) * 2014-04-08 2017-03-29 株式会社日本自動車部品総合研究所 Runway estimation device and runway estimation program
JP6404748B2 (en) * 2015-03-02 2018-10-17 株式会社Soken Traveling line recognition device
US20210223061A1 (en) * 2017-05-17 2021-07-22 Mitsubishi Electric Corporation Object identification device, roadside apparatus, and object identification method
CN113643534B (en) * 2021-07-29 2023-04-18 北京万集科技股份有限公司 Traffic control method and equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719882A (en) * 1993-06-30 1995-01-20 Mazda Motor Corp Traveling area recognition apparatus of vehicle and safety apparatus with the device
JP3368697B2 (en) * 1994-11-18 2003-01-20 日産自動車株式会社 Ambient monitoring device
JPH0939601A (en) * 1995-08-04 1997-02-10 Mitsubishi Motors Corp Dosing driving alarm device
JP3330285B2 (en) * 1996-06-20 2002-09-30 本田技研工業株式会社 Vehicle white line detection device
JP3104645B2 (en) * 1996-08-28 2000-10-30 松下電器産業株式会社 Road white line detection method and road white line detection device
JP3285575B2 (en) * 1996-08-28 2002-05-27 松下電器産業株式会社 Road region extraction device and method
JP3352655B2 (en) * 1999-09-22 2002-12-03 富士重工業株式会社 Lane recognition device

Also Published As

Publication number Publication date
JP2005276041A (en) 2005-10-06

Similar Documents

Publication Publication Date Title
JP5887219B2 (en) Lane departure warning device
JP5682304B2 (en) Image providing device
WO2014129312A1 (en) Device for suppressing deviation from lane boundary line
EP2618304B1 (en) Imaging apparatus, vehicle system having the same, and image-processing method
JP5823661B2 (en) How to detect events that obstruct the field of view of an automobile
EP2879912B1 (en) System and method for controlling exterior vehicle lights responsive to detection of a semi-truck
JP4935586B2 (en) Image processing apparatus, in-vehicle image processing apparatus, in-vehicle image display apparatus, and vehicle control apparatus
JP2001519266A (en) Method and apparatus for determining the state of light in front of a moving object, for example in front of a car
US7944362B2 (en) Method of detecting a visibility interference phenomenon for a vehicle
US20120314055A1 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
JP6364797B2 (en) Image analysis apparatus and image analysis method
WO2015008566A1 (en) Vehicle-mounted device
JP4539415B2 (en) Image processing device
JP2002197470A (en) Device for detecting traffic lane
JP7229804B2 (en) Image processing device and image processing method
JP2017503715A (en) Method and apparatus for determining road surface condition using in-vehicle camera system
US9721172B2 (en) Imaging system and method with ego motion detection
JP2008250904A (en) Traffic lane division line information detecting device, travel traffic lane maintaining device, and traffic lane division line recognizing method
JP4927908B2 (en) Lane position detection system
JP4451179B2 (en) Lane position detection system
JP5457224B2 (en) Road surface condition detection device
JP6426455B2 (en) Approaching vehicle detection device
CN113815572A (en) Automobile headlamp cleaning control method, cleaning control system and automobile
JP4211483B2 (en) In-vehicle camera exposure control system
JP2020045045A (en) Lighting control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees