[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101609819B1 - Apparatus for Inter-Vehicle Distance Estimation - Google Patents

Apparatus for Inter-Vehicle Distance Estimation Download PDF

Info

Publication number
KR101609819B1
KR101609819B1 KR1020140193105A KR20140193105A KR101609819B1 KR 101609819 B1 KR101609819 B1 KR 101609819B1 KR 1020140193105 A KR1020140193105 A KR 1020140193105A KR 20140193105 A KR20140193105 A KR 20140193105A KR 101609819 B1 KR101609819 B1 KR 101609819B1
Authority
KR
South Korea
Prior art keywords
lane
distance
vehicle
data
inter
Prior art date
Application number
KR1020140193105A
Other languages
Korean (ko)
Inventor
조재수
김기석
박종섭
박요한
유광준
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020140193105A priority Critical patent/KR101609819B1/en
Application granted granted Critical
Publication of KR101609819B1 publication Critical patent/KR101609819B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

An apparatus for estimating an inter-vehicle distance includes a camera, an information processing device, a lane standard database, and an output device. The camera converts images of a preceding car and a lane to image data. The information processing device has a lane detection unit, a distance estimation unit, and a correction unit. The lane detection unit detects lane data by the image data being applied thereto from the camera for a plurality of frames. The distance estimation unit estimates a distance between the preceding car and a traveling vehicle by detecting a y-axis pixel position of the preceding car and comparing the y-axis pixel position to the lane data and pre-stored lane standard data. The correction unit corrects the estimated distance by collecting the distance estimated by the distance information generation unit for the plurality of frames. The lane standard data is stored in the lane standard database. The output device outputs the estimated distance generated by the information processing device.

Description

차간거리 추정장치{Apparatus for Inter-Vehicle Distance Estimation}[0001] Apparatus for Inter-Vehicle Distance Estimation [

본 발명은 차간거리 추정장치를 제공하는데 있다. 보다 상세하게는 차선인식을 이용하여 보다 간편하고 정확성이 향상된 차간거리 추정장치에 관한 것이다.The present invention is to provide an inter-vehicle distance estimating apparatus. More particularly, to an inter-vehicle distance estimating apparatus which is simpler and more accurate in accuracy by using lane recognition.

자동차가 보급된 이후 정보통신기술의 발전과 함께 각종 주행 보조 기술들이 개발되어 왔다. 주행 보조 기술들로는 주행중인 차량의 차선 이탈 경보나, 졸음경보, 정속주행이 가능한 크루즈 기능, 앞 차량과의 거리 경보 등이 있다. 그러나 상기 기술들의 대부분이 이직까지는 인명을 맡길 정도의 정확도나 신뢰성을 보이지 못하고 있다. 또한 별도의 복잡한 추가장비를을 요구하기 때문에 적용에 필요한 비용이 높다.Since the spread of automobiles, various driving assistance technologies have been developed along with the development of information and communication technologies. Driving assistance technologies include lane departure warning, sleep warning, cruise capable of cruising at speed, and distance warning from the preceding vehicle. However, most of the above technologies do not show enough accuracy or credibility to give their lives until they turn. In addition, the cost of application is high because it requires additional complicated additional equipment.

차간거리를 인식하는 기술은 차량안전을 위한 보조기술로서 개발되고 있다. 차간거리를 인식하기 위해서는 통상 두 개의 카메라에서 인식된 영상을 비교분석하는 방식이 사용된다. 두 개의 카메라에서 인식된 영상을 이용하기 위해서는 카메라 대수의 증가로 인한 비용상승, 두 개의 카메라 사이의 이격거리 확보를 위한 여유공간 등 다양한 문제점이 있다. 이는 측정된 차간거리의 정확도와도 관련이 있기 때문에 널리 사용되지 못하고 있다.The technique of recognizing the inter-vehicle distance is being developed as an assistive technology for vehicle safety. In order to recognize the inter-vehicle distance, a method of comparing and analyzing images recognized by two cameras is generally used. In order to use images recognized by two cameras, there are various problems such as an increase in cost due to an increase in the number of cameras, and a free space for securing a separation distance between two cameras. This is not widely used because it is also related to the accuracy of the measured inter-vehicle distance.

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 차선인식을 이용하여 보다 간편하고 정확성이 향상된 차간거리 추정장치를 제공하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an inter-vehicle distance estimating apparatus which is simpler and more accurate in accuracy by using lane recognition.

본 발명은 상기와 같은 문제점을 해결하기 위한 수단으로서, 차간거리 추정장치는 카메라, 정보처리장치, 차선규격 데이터베이스, 및 출력장치를 포함한다. 상기 카메라는 앞차 및 차선의 영상을 이미지 데이터로 변환시킨다. 상기 정보처리장치는 상기 카메라로부터 복수의 프레임동안 이미지 데이터를 인가받아 차선 데이터를 검출하는 차선검출부와, 상기 앞차의 y축 화소위치를 검출하여 상기 차선 데이터 및 기저장된 차선규격 데이터와 비교하여 상기 앞차와 운행차량 사이의 거리를 추정하는 거리추정부와, 상기 거리정보생성부에 의해 추정된 거리를 상기 복수개의 프레임 동안 수집하여 상기 추정된 거리를 보정하는 보정부를 포함한다. 상기 차선규격 데이터베이스는 상기 차선규격 데이터가 저장된다. 상기 출력장치는 상기 정보처리장치에 의해 생성된 상기 추정된 거리를 출력한다.The present invention is a means for solving the above problems, wherein the inter-vehicle distance estimation apparatus includes a camera, an information processing apparatus, a lane standard database, and an output device. The camera converts the image of the leading vehicle and the lane into image data. The information processing apparatus includes a lane detecting unit that receives image data for a plurality of frames from the camera and detects lane data, and a lane detecting unit that detects a y-axis pixel position of the leading vehicle and compares the lane data and the stored lane standard data, And a correcting unit for correcting the estimated distance by collecting the distance estimated by the distance information generating unit during the plurality of frames. The lane specification database stores the lane specification data. The output device outputs the estimated distance generated by the information processing device.

일 실시예에서, 상기 운행차량의 속도를 측정하는 속도계를 더 포함하고, 상기 정보처리장치는 복수개의 특징점들에 대하여 구해진 평균속도 및 이동신간을 이용하여 상기 차간거리를 추정할 수 있다.In one embodiment, the information processing apparatus may further include a speedometer for measuring the speed of the driving vehicle, and the information processing apparatus may estimate the inter-vehicle distance using an average speed and a moving speed obtained for the plurality of feature points.

일 실시예에서, 상기 거리추정부는 상기 운행차량과 상기 앞차 사이의 차선들의 개수 및 인접하는 차선 사이의 개수를 상기 기저장된 차간규격 데이터와 비교하여 상기 거리를 추정할 수 있다.In one embodiment, the distance estimator may estimate the distance by comparing the number of lanes between the driving vehicle and the front vehicle and the number of adjacent lanes with the pre-stored inter-vehicle specification data.

이상에서 살펴본 바와 같이 본 발명에 따르면, 차선인식 및 차간거리 추정방법에 있어서 하나의 카메라만을 사용하여 제조비용이 감소하고, 좁은 설치공간만으로 사용가능한 장점이 있다. 또한 단순히 차선인식하는 방법 뿐만 아니라, 차량의 y축 절대위치를 이용한 방법, 특징점들 및 속도를 이용하는 방법을 함께 적용함으로써 차간거리 추정의 정확도가 향상된다.As described above, according to the present invention, in the lane recognition and the headway distance estimation method, the manufacturing cost is reduced by using only one camera, and it is advantageous that the method can be used with only a narrow installation space. In addition, the accuracy of the headway distance estimation is improved by applying the method using the y-axis absolute position of the vehicle, the method using the feature points, and the speed as well as the method of simply recognizing the lane.

도 1은 본 발명의 일 실시예에 따른 차간거리 추정장치를 나타내는 사시도이다.
도 2는 도 1의 y축 화소위치 검출부를 나타내는 이미지이다.
도 3은 도 1의 y축 화소위치 검출부를 이용하여 차간거리를 추정하는 그래프이다.
도 4a 내지 4c는 도 1의 특징점 분석부를 나타내는 이미지이다.
도 5는 도 1의 차선검출부에 의해 검출되는 차선을 나타내는 평면도이다.
도 6은 도 1의 차선검출부를 이용하여 추정되는 차간을 나타내는 이미지이다.
도 7은 도 1의 차선검출부를 이용하여 차간거리를 추정하는 그래프이다.
도 8은 도 1의 차선검출부를 이용하여 차선을 검출하는 단계를 나타내는 이미지이다.
도 9a 내지 9c는 도 8의 차선을 검출하는 단계를 상세하게 나타내는 이미지들이다.
도 10은 도 9a 내지 9c의 이미지들을 이용하여 검출된 차선을 나타내는 이미지이다.
도 11은 도 1의 차선검출부를 이용하여 차선검출 정보들을 처리하는 방법을 나타내는 블록도이다.
도 12a 내지 도 12c는 도 1의 차선검출부를 이용하여 차량을 탐색하는 단계를 나타내는 이미지들이다.
도 13은 도 1에 도시된 차간거리 추정장치를 이용한 차간거리 추정방법을 나타내는 흐름도이다.
도 14는 도 13의 차간거리정보생성하는 단계를 나타내는 흐름도이다.
1 is a perspective view of an inter-vehicle distance estimator according to an embodiment of the present invention.
2 is an image showing the y-axis pixel position detection unit of Fig.
FIG. 3 is a graph for estimating the inter-vehicle distance using the y-axis pixel position detection unit of FIG.
4A to 4C are images showing the minutiae analyzing unit of Fig.
Fig. 5 is a plan view showing a lane detected by the lane detecting unit of Fig. 1; Fig.
Fig. 6 is an image showing a vehicle interval estimated using the lane detecting unit of Fig. 1; Fig.
FIG. 7 is a graph for estimating the inter-vehicle distance using the lane detecting unit of FIG.
Fig. 8 is an image showing a step of detecting a lane using the lane detecting unit of Fig. 1; Fig.
9A to 9C are images showing in detail the step of detecting the lane of FIG.
Fig. 10 is an image showing lanes detected using the images of Figs. 9a to 9c.
11 is a block diagram illustrating a method of processing lane detection information using the lane detecting portion of Fig.
12A to 12C are images showing a step of searching for a vehicle using the lane detecting portion of Fig.
13 is a flowchart showing a headway distance estimation method using the headway distance estimation apparatus shown in FIG.
14 is a flowchart showing the step of generating the inter-vehicle distance information in Fig.

본 발명의 여러 실시예들을 상세히 설명하기 전에, 다음의 상세한 설명에 기재되거나 도면에 도시된 구성요소들의 구성 및 배열들의 상세로 그 응용이 제한되는 것이 아니라는 것을 알 수 있을 것이다. 본 발명은 다른 실시예들로 구현되고 실시될 수 있고 다양한 방법으로 수행될 수 있다. 또, 장치 또는 요소 방향(예를 들어 "전(front)", "후(back)", "위(up)", "아래(down)", "상(top)", "하(bottom)", "좌(left)", "우(right)", "횡(lateral)")등과 같은 용어들에 관하여 본원에 사용된 표현 및 술어는 단지 본 발명의 설명을 단순화하기 위해 사용되고, 관련된 장치 또는 요소가 단순히 특정 방향을 가져야 함을 나타내거나 의미하지 않는다는 것을 알 수 있을 것이다.Before describing in detail several embodiments of the invention, it will be appreciated that the application is not limited to the details of construction and arrangement of components set forth in the following detailed description or illustrated in the drawings. The invention may be embodied and carried out in other embodiments and carried out in various ways. It should also be noted that the device or element orientation (e.g., "front," "back," "up," "down," "top," "bottom, Expressions and predicates used herein for terms such as "left," " right, "" lateral," and the like are used merely to simplify the description of the present invention, Or that the element has to have a particular orientation.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하도록 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 1은 본 발명의 일 실시예에 따른 차간거리 추정장치를 나타내는 사시도이다.1 is a perspective view of an inter-vehicle distance estimator according to an embodiment of the present invention.

도 1을 참조하면, 차간거리 추정장치는 카메라(10), 속도계(20), 차선규격 데이터 베이스(40), 출력장치(50), 및 정보처리장치(100)를 포함한다. 이때, 차선규격 데이터베이스(40)는 생략될 수 있다. 다른 실시예에서, GPS(도시되지 않음)와 같은 차량위치측정장치를 더 포함할 수도 있다.1, an inter-vehicle distance estimating apparatus includes a camera 10, a speedometer 20, a lane standard database 40, an output device 50, and an information processing apparatus 100. [ At this time, the lane specification database 40 may be omitted. In another embodiment, it may further comprise a vehicle position measuring device, such as a GPS (not shown).

카메라(10)는 운행차량의 내부 또는 외부에 배치되어 정면의 영상을 이미지 데이터로 변경한다. 예를 들어, 카메라(10)는 일반적인 네비게이션 시스템, 차량용 블랙박스 시스템 등에 사용되는 카메라와 동일한 카메라를 포함할 수 있다.The camera 10 is disposed inside or outside the vehicle, and converts the front image into image data. For example, the camera 10 may include the same camera as the camera used for a general navigation system, a vehicle black box system, and the like.

속도계(20)는 운행차량의 속도를 실시간으로 측정하여 속도신호를 생성한다. 예를 들어, 별도의 속도계를 포함하지 않고, 운행차량 내부의 속도계로부터 속도신호를 인가받을 수 있다. 다른 실시예에서, 속도계(20)가 GPS 등과 같은 차량위치측정장치를 이용하여 절대속도를 측정할 수도 있다.The speed meter 20 generates a speed signal by measuring the speed of the vehicle in real time. For example, a speed signal can be received from a speedometer inside a traveling vehicle without including a separate speedometer. In another embodiment, the speed meter 20 may measure the absolute speed using a vehicle position measuring device such as a GPS or the like.

차선규격 데이터 베이스(40)는 각 도로별 차간거리, 차폭 등의 차선규격 데이터를 포함한다. 예를 들어, 차선규격 데이터베이스(40)는 각 위치별 차선규격 데이터를 포함할 수도 있다.The lane specification database 40 includes lane specification data such as the inter-vehicle distance and the vehicle width for each road. For example, the lane specification database 40 may include lane specification data for each position.

출력장치(50)는 정보처리장치(100)에 의해 추정된 차간거리를 출력한다.The output device 50 outputs the inter-vehicle distance estimated by the information processing device 100.

정보처리장치(100)는 카메라(10)로부터 인가받은 이미지 데이터, 속도계(20)로부터 인가받은 속도신호, 차선규격 데이터베이스(40)로부터 인가받은 차선규격 데이터를 이용하여 앞차와의 차간거리를 추정한다.The information processing apparatus 100 estimates an inter-vehicle distance from the next vehicle using the image data received from the camera 10, the speed signal received from the speedometer 20, and the lane specification data received from the lane specification database 40 .

정보처리장치(100)는 영상정보 처리부(110), 거리정보 생성부(120), 거리추정부(130) 및 보정부(140)를 포함한다.The information processing apparatus 100 includes an image information processing unit 110, a distance information generation unit 120, a distance estimation unit 130, and a correction unit 140.

영상정보 처리부(110)는 카메라(10)로부터 인가받은 이미지 데이터를 전처리하여 노이즈를 제거한다. 예를 들어, 휘도가 너무 밝거나 어두운 경우 이를 보정하고, 노이즈 제거작업 등을 수행할 수 있다. 또한, 이미지 데이터 중에서 불필요한 좌우상하측 이미지를 제거하여 정면방향의 이미지만을 추출할 수 있다.The image information processing unit 110 prepares the image data received from the camera 10 to remove noise. For example, when the luminance is too bright or dark, it can be compensated and a noise removing operation or the like can be performed. In addition, unnecessary left and right upper and lower images can be removed from the image data, so that only the image in the front direction can be extracted.

거리정보 생성부(120)는 영상정보 처리부(110)로부터 인가받은 이미지 데이터로부터 거리정보를 생성한다. 거리정보 생성부(120)는 y축 화소위치 검출부(122), 특징점 분석부(124), 차선 검출부(126) 등을 포함할 수 있다. 다른 실시예에서, 거리정보 생성부(120)는 y축 화소위치 검출부(122), 특징점 분석부(124), 차선 검출부(126) 중에서 하나 또는 두 개만을 포함할 수도 있다.The distance information generation unit 120 generates distance information from the image data received from the image information processing unit 110. The distance information generation unit 120 may include a y-axis pixel position detection unit 122, a minutia analysis unit 124, a lane detection unit 126, and the like. The distance information generating unit 120 may include only one or two of the y-axis pixel position detecting unit 122, the feature point analyzing unit 124, and the lane detecting unit 126. [

y축 화소위치 검출부(122), 특징점 분석부(124) 및 차선 검출부(126)는 도 2 내지 도 12를 참조하여 후술한다.The y-axis pixel position detection unit 122, the feature point analysis unit 124, and the lane detection unit 126 will be described later with reference to Figs. 2 to 12. Fig.

거리추정부(130)는 거리정보 생성부(120)로부터 인가받은 거리정보를 이용하여 운행차량과 앞차 사이의 거리를 추정한다.The distance estimating unit 130 estimates the distance between the driving vehicle and the front vehicle using the distance information received from the distance information generating unit 120.

보정부(140)는 거리추정부(130)에 의해 추정된 거리를 보정하여 보정된 차간거리를 거리추정부(130)로 재인가한다.The correction unit 140 corrects the distance estimated by the distance estimation unit 130 and re-applies the corrected inter-vehicle distance to the distance estimation unit 130. [

출력장치(50)는 정보처리장치(100)에 의해 추정된 거리를 출력한다.The output device 50 outputs the distance estimated by the information processing device 100. [

도 2는 도 1의 y축 화소위치 검출부를 나타내는 이미지이고, 도 3은 도 1의 y축 화소위치 검출부를 이용하여 차간거리를 추정하는 그래프이다.FIG. 2 is an image showing the y-axis pixel position detecting unit of FIG. 1, and FIG. 3 is a graph of estimating an inter-vehicle distance using the y-axis pixel position detecting unit of FIG.

도 1 내지 도 3을 참조하면, y축 화소위치 검출부(122)는 영상정보 처리부(110)로부터 인가받은 정면방향의 이미지에서 앞차의 y축 화소위치를 검출한다. 예를 들어, 앞차와 운행차량 사이의 거리가 가까우면, 정면방향 이미지에서 앞차의 y축 화소위치가 낮다(y1). 앞차와 운행차량 사이의 거리가 점차 멀어지면, 정면방향 이미지에서 y축 화소위치가 점차 높아진다(y2, y3). 앞차와 운행차량 사이의 거리가 많이 멀어지면, 정면방향 이미지에서 y축 화소위치가 많이 높아진다(y4).1 to 3, the y-axis pixel position detection unit 122 detects the y-axis pixel position of the preceding vehicle in the image in the front direction received from the image information processing unit 110. [ For example, if the distance between the vehicle ahead and the vehicle is close, the y-axis pixel position of the leading vehicle in the frontal image is low (y1). When the distance between the vehicle ahead and the vehicle gradually increases, the position of the y-axis pixel gradually increases in the frontal direction image (y2, y3). If the distance between the vehicle ahead and the vehicle is far away, the position of the y-axis pixel is much higher in the frontal image (y4).

이를 이용하여 정면방향 이미지에서 앞차 이미지의 y축 화소위치(y1, y2, y3, y4)를 검출하면, 각 y축 화소위치(y1, y2, y3, y4)에 대응되는 앞차와의 차간거리(d1, d2, d3, d4)를 추정할 수 있다.When the y-axis pixel positions (y1, y2, y3, y4) of the image of the preceding vehicle in the frontal direction image are detected using this, the headway distance between the y-axis pixel positions (y1, y2, y3, y4) d1, d2, d3, d4).

다만, 정면방향 이미지에서 y축 화소위치만을 이용하여 앞차와의 차간거리를 추정하면, 앞차와 운행차량 사이의 수직높이가 다른 경우에는 오차가 발생할 수 있다. 즉, 운행차량이 언덕지역을 지나가는 경우, 오르막길에서 앞차의 y축 화소위치가 낮아져서 실제보다 추정거리가 가까워질 수 있다. 반면에 운행차량이 골짜기를 가로지르는 경우, 내리막길에서 앞차의 y축 화소위치가 높아져서 실제보다 추정거리가 멀어질 수 있다. 따라서 후술될 특징점 분석부(124) 및 차선 검출부(126)를 이용하여 추정거리를 보정하는 기술이 요구된다.However, if the headway distance from the front vehicle is estimated using only the y-axis pixel position in the frontal direction image, an error may occur if the vertical height between the vehicle ahead and the vehicle is different. That is, when the driving vehicle passes the hill area, the y-axis pixel position of the leading vehicle in the uphill road is lowered, so that the estimated distance can be closer to the actual one. On the other hand, if the driving vehicle traverses the valley, the y-axis pixel position of the leading vehicle on the descending road becomes higher, and the estimated distance may be farther than the actual distance. Therefore, a technique for correcting the estimated distance using the minutia analysis unit 124 and the lane detection unit 126, which will be described later, is required.

도 4a 내지 4c는 도 1의 특징점 분석부를 나타내는 이미지이다.4A to 4C are images showing the minutiae analyzing unit of Fig.

도 1 내지 3, 도 4a 내지 4c를 참조하면, 영상의 특징점들(t1, t2, ... tn) 및 운행차량의 평균속도를 이용하여 차간거리를 추정한다.Referring to Figs. 1 to 3 and Figs. 4A to 4C, the inter-vehicle distance is estimated by using the characteristic points t1, t2, ..., tn of the image and the average speed of the vehicle.

예를 들어, 앞차의 위치(y1)으로부터 운행차량의 위치(yn)까지 순차적인 위치(y1, y2, ... yn)에 대하여, 각 위치에서의 운행차량의 속도(v1, v2, ... vn) 및 각 위치에서의 시각(t1, t2, ... tn)을 이용하여 각 화소에서의 차간거리(d1, d2, ... dn)를 계산하는 식은 다음과 같다.For example, with respect to the positions y1, y2, ... yn sequentially from the position y1 of the forward vehicle to the position yn of the vehicle, the speeds v1, v2, ..., (d1, d2, ..., dn) at each pixel using the time (t1, t2, ..., tn)

[식 1][Formula 1]

Figure 112014127702378-pat00001
Figure 112014127702378-pat00001

Figure 112014127702378-pat00002
Figure 112014127702378-pat00002

Figure 112014127702378-pat00003
Figure 112014127702378-pat00003

[식 2] [Formula 2]

Figure 112014127702378-pat00004
Figure 112014127702378-pat00004

Figure 112014127702378-pat00005
Figure 112014127702378-pat00005

Figure 112014127702378-pat00006
Figure 112014127702378-pat00006

[식 1], [식 2]와 같은 방식으로 나머지 차량위치들(y3, y4, ... yn)에서의 차간거리들(d3, d4, ... dn)을 구할 수 있다. 다만 yn은 운행차량과 앞차 사이의 거리가 0인 경우이므로, 굳이 거리를 구할 필요가 없다.It is possible to obtain the inter-vehicle distances d3, d4, ..., dn at the remaining vehicle positions y3, y4, ..., yn in the same manner as in [Expression 1] and [Expression 2]. However, yn is the case where the distance between the driving vehicle and the front vehicle is zero, so it is not necessary to calculate the distance.

도 5는 도 1의 차선검출부에 의해 검출되는 차선을 나타내는 평면도이다.Fig. 5 is a plan view showing a lane detected by the lane detecting unit of Fig. 1; Fig.

도 1 내지 3, 도 5를 참조하면, 차선규격은 각 도로별로 규정되어 있어서, 차선(5)의 폭과 거리를 이용하여 차간거리를 추정할 수 있다. 예를 들어, 고속도로 또는 고속화도로의 경우, 차선(5, 흰색부분)의 길이는 10m, 인접하는 차선들(5) 사이의 길이는 10m로서, 하나의 차선셋트의 길이는 20m (차선부분 10m + 인접하는 차선들 사이부분 10m)이다. 또한 서울을 비롯한 대부분 지방의 시가지도로의 경우, 차선(5)의 길이는 3m, 인접하는 차선들(5) 사이의 길이는 5m로서, 하나의 차선셋트의 길이는 8m (차선부분 3m + 인접하는 차선들 사이부분 5m)이다. 대구경북지역의 시가지도로의 경우, 차선(5)의 길이는 5m, 인접하는 차선들(5) 사이의 길이는 5m로서, 하나의 차선셋트의 길이는 10m (차선부분 3m + 인접하는 차선들 사이부분 5m)이다. 부산지역의 시가지도로의 경우, 차선(5)의 길이는 3m, 인접하는 차선들(5) 사이의 길이는 3m로서, 하나의 차선셋트의 길이는 6m (차선부분 3m + 인접하는 차선들 사이부분 3m)이다. 외곽지역의 국도의 경우, 차선(5)의 길이는 5m, 인접하는 차선들(5) 사이의 길이는 8m로서, 하나의 차선셋트의 길이는 13m (차선부분 5m + 인접하는 차선들 사이부분 8m)이다. 다만, 제주지역의 시가지도로는, 3m - 2m 셋트, 3m - 3m 셋트, 4m - 5m 셋트, 4m - 7m 셋트, 8m -12m 셋트 등 다양한 차선셋트가 존재한다.Referring to FIGS. 1 to 3 and 5, the lane specification is defined for each road, and the vehicle-to-vehicle distance can be estimated using the width and the distance of the lane 5. For example, in the case of a highway or an accelerated road, the length of the lane 5 (white portion) is 10 m, the length between adjacent lanes 5 is 10 m, and the length of one lane set is 20 m (lane portion 10 m + The portion 10m between adjacent lanes). The length of the lane (5) is 3 m and the length between the adjacent lanes (5) is 5 m, and the length of one lane set is 8 m (lane portion 3 m + The part between the lanes is 5m). The length of the lane 5 is 5 m and the length between the adjacent lanes 5 is 5 m and the length of one lane set is 10 m (lane portion 3 m + between adjacent lanes 5) Part 5m). In the case of urban roads in the Busan area, the length of the lane 5 is 3 m and the length between the adjacent lanes 5 is 3 m, and the length of one lane set is 6 m (lane portion 3 m + 3m). In the case of the national road in the outlying area, the length of the lane 5 is 5 m, the length between the adjacent lanes 5 is 8 m, the length of one lane set is 13 m (lane portion 5 m + )to be. However, there are various lane sets such as 3m - 2m set, 3m - 3m set, 4m - 5m set, 4m - 7m set and 8m - 12m set in Jeju area.

상기 차선규격들은 차선규격 데이터베이스(40)에 저장된다.The lane specification is stored in the lane specification database 40.

도 6은 도 1의 차선검출부를 이용하여 추정되는 차간을 나타내는 이미지이고, 도 7은 도 1의 차선검출부를 이용하여 차간거리를 추정하는 그래프이다.FIG. 6 is an image showing a roadway estimated using the lane detecting unit of FIG. 1, and FIG. 7 is a graph of estimating the roadway distance using the lane detecting unit of FIG.

도 1 내지 3, 도 5 내지 7을 참조하면, 차선검출부(126)는 영상정보 처리부(110)로부터 인가받은 정면방향의 이미지에서 차선(5)의 이미지 및 앞차의 y축 화소위치를 검출한다. 예를 들어, 운행차량의 바로 앞의 인접차선간 거리(y2-y1), 그 후의 차선거리(y3-y2), 그 후의 인접차선간 거리(y4-y3), 그 다음의 차선거리(y5-y4)를 측정하면 앞차와의 차간거리(y5-y1)를 추정할 수 있다.1 to 3 and 5 to 7, the lane detecting unit 126 detects the image of the lane 5 and the y-axis pixel position of the next lane in the frontal direction image received from the image information processing unit 110. [ For example, the distance between the adjacent lanes (y2-y1) immediately preceding the driving vehicle, the lane distance thereafter (y3-y2), the adjacent lane distance thereafter (y4-y3) y4), it is possible to estimate the inter-vehicle distance (y5-y1) from the preceding vehicle.

예를 들어, 차량을 고속도로에서 운행하는 경우, 각 차선의 길이 및 인접차선들 사이의 거리는 모두 10m이므로, 앞차까지의 거리는 50m에서 운행차량과 차선 사이의 거리(α)를 합한 값이 된다.For example, when the vehicle is traveling on a highway, the length of each lane and the distance between adjacent lanes are all 10 m, so the distance to the next vehicle is the sum of the distance α between the vehicle and the lane at 50 m.

도 8은 도 1의 차선검출부를 이용하여 차선을 검출하는 단계를 나타내는 이미지이다.Fig. 8 is an image showing a step of detecting a lane using the lane detecting unit of Fig. 1; Fig.

도 1 내지 3, 도 5 내지 8을 참조하면, 차간거리는 이미지 데이터 상에서 소실점의 수직위치(h1), 운행차량의 앞부분(예를 들어, 자동차의 모닛)의 높이(h2), 운행차량의 앞부분(h2)과 양쪽 차선이 만나는 두 점 사이의 거리(w, 차선폭), 수실점(pv), 왼쪽 차선과 운행차량의 앞부분(h2)이 만나는 좌측점(pl), 오른쪽 차선과 운행차량의 앞부분(h2)이 만나는 우측점(Pr)을 이용하여 구할 수 있다. Referring to Figs. 1 to 3 and Figs. 5 to 8, the inter-vehicle distance includes a vertical position h1 of the vanishing point on the image data, a height h2 of the front portion of the vehicle (e.g., a monkey of the vehicle) h2) and the distance (w, a lane width between two points both sides of the lane is met), the number of runs (p v), to meet the front part (h2) of the left lane and the moving vehicle left point (p l), the right lane and the moving vehicle Can be obtained by using the right point P r where the front portion h 2 of the first and second points meet.

도 9a 내지 9c는 도 8의 차선을 검출하는 단계를 상세하게 나타내는 이미지들이다.9A to 9C are images showing in detail the step of detecting the lane of FIG.

도 1 내지 3, 도 5 내지 9c를 참조하면, 차선을 인식하기 위하여 먼저 양쪽 차선을 검출한다. 양쪽 차선을 검출하기 위하여, 이미지 데이터(도 9a 참조) 중에서 차선이 될 만한 화소들만 선별하여 별도의 영상(도 9b 참조)을 만든다. 차선이 될 만한 화소들만 선별한 별도의 영상의 크기는 소실점(pv), 좌측점(pl), 우측점(pr)이 이루는 삼각형의 크기와 같다. 이미지 데이터의 각 행(row)별로 최대 두 개의 화소를 선별한다. 소실점(pv)의 가로 위치를 중심으로 하여 좌측은 왼쪽 방향으로, 우측은 오른쪽 방향으로 각각 스캔하여 처음 만나는 에지(edge) 화소를 선별한다. 다른 실시예에서, 정확도를 조절하기 위하여 스캔의 시작점과 끝점 위치에 임의의 바이어스 값을 마진(margin)으로 부여할 수도 있다. 차선을 찾지 못한 경우 상기 바이어스 값이 조절되어 더 넓은 영역을 스캔할 수 있다.Referring to Figs. 1 to 3 and Figs. 5 to 9C, both lanes are first detected to recognize lanes. In order to detect both lanes, only the pixels which are likely to be lanes in the image data (see Fig. 9A) are selected to make a separate image (see Fig. 9B). The size of a separate image, which is selected only for the pixels to be the lane, is equal to the size of the triangle formed by the vanishing point (p v ), the left point (p l ), and the right point (p r ). At most two pixels are selected for each row of image data. The left edge is scanned in the left direction and the right direction is scanned in the right direction with the horizontal position of the vanishing point (p v ) as the center, to select the edge pixels that meet first. In other embodiments, arbitrary bias values may be provided as margins at the start and end points of the scan to adjust the accuracy. If the lane is not found, the bias value is adjusted and a wider area can be scanned.

도 10은 도 9a 내지 9c의 이미지들을 이용하여 검출된 차선을 나타내는 이미지이다.Fig. 10 is an image showing lanes detected using the images of Figs. 9a to 9c.

도 1 내지 3, 도 5 내지 10을 참조하면, 도 9c에서 구해진 이미지 데이터로부터 직선들을 추출한다. 추출된 직선들 중에서 좌측 차선 및 우측 차선의 후보가 될 수 있는 직선들을 선별한다. 예를 들어, 좌측 차선의 허용각도는 30도 내지 90도 이며, 우측차선의 허용각도는 -30도 내지 90도이다. 상기 후보가 될 수 있는 직선들 중에서 상기 허용각도 내에 배치되는 직선들을 각각 선별하여 좌측차선 및 우측차선으로 삼는다.Referring to Figs. 1 to 3 and 5 to 10, straight lines are extracted from the image data obtained in Fig. 9C. Among the extracted straight lines, straight lines that can be candidates of the left lane and the right lane are selected. For example, the allowable angle of the left lane is 30 to 90 degrees, and the allowable angle of the right lane is -30 to 90 degrees. The straight lines disposed within the allowable angle among the straight lines that can become the candidates are respectively selected as the left lane and the right lane.

도 11은 도 1의 차선검출부를 이용하여 차선검출 정보들을 처리하는 방법을 나타내는 블록도이다.11 is a block diagram illustrating a method of processing lane detection information using the lane detecting portion of Fig.

도 1 내지 3, 도 5 내지 11을 참조하면, 상기 검출된 좌측차선, 우측차선, 소실점(pv), 좌측점(pl), 우측점(pr)의 데이터 셋트를 축적한다. 축적된 데이터 셋트는 각 프레임(frame 1, frame 2, ... frame n+1)별로 구할 수 있다. 상기 데이터 셋트의 축적은 소정의 임계치에 다다를 때까지 계속된다. 예를 들어, 임계치는 n-1일 수 있다.1 to 3 and 5 to 11, a data set of the detected left lane, right lane, vanishing point (p v ), left point (p 1 ) and right point (p r ) is accumulated. The accumulated data set can be obtained for each frame (frame 1, frame 2, ... frame n + 1). The accumulation of the data set continues until a predetermined threshold is reached. For example, the threshold may be n-1.

임계치를 넘는 충분한 수의 데이터 셋트가 수집되면, 차선 위치를 추정하게 된다. 차선 위치를 추정함과 아울러, 데이터 셋트를 수집하여 업데이트 하는 과정도 반복된다. 임계치를 넘는 충분한 수의 데이터 셋트가 수집되면, 매번 새로운 프레임의 데이터 셋트가 들어옴에 따라, 가장 오래된 데이터 셋트가 삭제된다. 따라서 축적되는 데이터 셋트의 개수는 임계치(n-1) 만큼씩 유지된다.When a sufficient number of data sets exceeding the threshold value are collected, the lane position is estimated. The process of estimating the lane position and collecting and updating the data set is also repeated. Once a sufficient number of data sets over the threshold have been collected, the oldest data set is deleted as the data set of the new frame comes in each time. Therefore, the number of accumulated data sets is maintained by the threshold value (n-1).

차선 위치를 추정하기 위하여, 소실점(pv), 좌측점(pl), 우측점(pr)의 평균값들을 구한다. 각 평균값들이 소정의 임계값들을 넘지 않는 경우, 올바른 차선이라고 판단한다. 즉, 소실점(pv)의 평균과 현재 프레임의 소실점(pv) 사이의 거리가 소실점의 임계값을 넘지 않고, 좌측점(pl)의 평균과 현재 프레임의 좌측점(pl) 사이의 거리가 좌측점의 임계값을 넘지 않으며, 우측점(pr)의 평균과 현재 프레임의 우측점(pr) 사이의 거리가 우측점의 임계값을 넘지 않는 경우에, 올바른 차선이라고 판단한다.To estimate the lane position, mean values of the vanishing point (p v ), the left point (p l ), and the right point (p r ) are obtained. If the average values do not exceed the predetermined threshold values, it is determined that the vehicle is a correct lane. That is, between the vanishing point (p v) means and a vanishing point in the current frame (p v) the distance does not exceed the threshold value of the vanishing point between a left point (p l) mean and left points (p l) in the current frame of the if the distance does not exceed the threshold value of the left point, a distance between the right point (p r) the average and the right point (p r) of the current frame does not exceed the threshold of the right points, it is determined that the right lane.

반면에, 각 평균값들이 소정의 임계값들을 넘는 경우, 올바른 차선을 찾지 못한 것으로 판단한다. 또한 차선의 위치 및 각도변화가 급격히 발생하는 경우, 차선이탈(변경)로 판단한다.On the other hand, when the average values exceed the predetermined threshold values, it is determined that the correct lane is not found. Further, when a change in the position and angle of the lane suddenly occurs, the lane departure (change) is determined.

도 12a 내지 도 12c는 도 1의 차선검출부를 이용하여 차량을 탐색하는 단계를 나타내는 이미지들이다.12A to 12C are images showing a step of searching for a vehicle using the lane detecting portion of Fig.

도 1 내지 3, 도 5 내지 12c를 참조하면, 소실점(pv), 좌측점(pl), 우측점(pr)에 의해 형성된 삼각형의 내부영역(도 12a) 중에서, 운행차량과 같은 차선 내에 있는 소실점(pv) 까지의 공간(도 12b)을 추출한다. 추출된 운행차량과 소실점(pv) 사이의 공간(도 12b)의 각 행(row) 별로 밝기 값(그림자)의 히스토그램(도 12c)을 계산한다. 이때, 소실점(pv)에 가까워질수록 수평방향의 너비가 줄어들기 때문에, 각 행(row)의 너비에 탐색 영역 삼각형의 밑변(w)과의 비율을 가중치로 적용한다.Referring to Figs. 1 to 3 and Figs. 5 to 12C, among the inner regions (Fig. 12A) of the triangle formed by the vanishing point (p v ), the left point (p l ) and the right point (p r ) the vanishing point (p v) space (Fig. 12b) to that in the extracts. The extracted moving vehicle and the vanishing point (p v) calculates the area histogram (Fig. 12c) of brightness values (shadow), for each line (row) (Fig. 12b) between. At this time, since the width in the horizontal direction decreases as the pixel approaches the vanishing point (p v ), the ratio of the width of each row to the base w of the search area triangle is weighted.

히스토그램(도 12c)을 이용하여 이미지 데이터 상에서 앞차의 위치를 구할 수 있다. 본 실시예에서, 계산된 히스토그램(도 12c)은 매 프레임마다 구해지고, 소정의 횟수동안 지속적으로 나타나는 경우에만 앞차의 존재로 인식한다. 계산된 히스토그램(도 12c)이 소정의 횟수동안 지속적으로 나타나는 경우에만 앞차의 존재를 인식하는 경우, 도로의 그늘이나 얼룩 등 노이즈에 의한 오류를 방지할 수 있다.The position of the next vehicle on the image data can be obtained using the histogram (Fig. 12C). In the present embodiment, the calculated histogram (Fig. 12C) is obtained every frame, and is recognized as the presence of the next vehicle only when it appears continuously for a predetermined number of times. In the case where the presence of the next vehicle is recognized only when the calculated histogram (FIG. 12C) continuously appears for a predetermined number of times, it is possible to prevent an error due to noise such as shade or stain on the road.

앞차의 위치, 차간거리(w), 차선(5)의 길이 등을 이용하여 앞차와의 차간거리를 추정한다. 차선규격 데이터베이스(40) 내에 저장된 차선길이 데이터를 이용하여, 인식된 차선길이를 이용하여 실제 거리를 계산할 수 있다. 본 실시예에서, 전처리 과정을 통하여 이미지 데이터 내 화소 높이에 따른 대략적ㅇ니 거리를 계산한다. 예를 들어, 전처리 과정에서 이미지 데이터 내 화소의 높이에 따른 거리를 미리 계산해서 차선규격 데이터베이스(40) 내에 저장해 두고, 검출된 앞차의 화소 높이에 따라 저장된 거리를 바로 출력할 수 있다.The inter-vehicle distance from the preceding vehicle is estimated using the position of the vehicle ahead, the inter-vehicle distance w, the length of the lane 5, and the like. The actual distance can be calculated using the recognized lane length using the lane length data stored in the lane specification database 40. [ In the present embodiment, a roughness distance according to the pixel height in the image data is calculated through a preprocessing process. For example, in the preprocessing process, the distance according to the height of the pixels in the image data may be calculated in advance, stored in the lane specification database 40, and the distance stored according to the pixel height of the detected next vehicle.

도 13은 도 1에 도시된 차간거리 추정장치를 이용한 차간거리 추정방법을 나타내는 흐름도이다.13 is a flowchart showing a headway distance estimation method using the headway distance estimation apparatus shown in FIG.

도 1 및 도 13을 참조하면, 차간거리 추정장치를 이용하여 차간거리를 추정하기 위하여, 먼저 카메라(10)를 이용하여 이미지 데이터를 생성한다. 생성된 이미지 데이터는 영상정보처리부(110)를 이용하여 전처리된다(S100). 예를 들어, 휘도를 조절하거나, 태양, 가로등 등에 의한 오류를 제거하고, 정면방향의 소정영역 만을 추출하는 작업 등이 수행된다.Referring to FIGS. 1 and 13, in order to estimate the inter-vehicle distance using the inter-vehicle distance estimating apparatus, image data is first generated using the camera 10. The generated image data is preprocessed using the image information processing unit 110 (S100). For example, adjustment of the luminance, elimination of errors caused by sunlight, streetlight, etc., and extraction of only a predetermined area in the frontal direction are performed.

이어서 전처리된 이미지 데이터를 이용하여 차간거리정보를 생성한다(S200).Next, the inter-vehicle distance information is generated using the preprocessed image data (S200).

도 14는 도 13의 차간거리정보생성하는 단계를 나타내는 흐름도이다.14 is a flowchart showing the step of generating the inter-vehicle distance information in Fig.

도 1, 13, 및 14를 참조하면, 차간거리정보를 생성하기 위하여, y축 화소위치를 검출하거나(S210), 특징점을 분석하거나(S220), 차선을 검출할 수 있다(S230). y축 화소위치를 검출하는 단계(S210), 특징점을 분석하는 단계(S220), 차선을 검출하는 단계(S230)는 세 개 모두 수행될 수도 있고, 그중의 하나 또는 두 개만 수행될 수도 있다. 예를 들어, 차선을 검출하는 단계(S230)만이 수행될 수도 있다. y축 화소위치를 검출하는 단계(S210), 특징점을 분석하는 단계(S220), 차선을 검출하는 단계(S230)는 도 2 내지 도 12에 도시된 방법과 동일하므로 중복되는 설명은 생략한다.Referring to FIGS. 1, 13 and 14, in order to generate the inter-vehicle distance information, the y-axis pixel position is detected (S210), the feature point is analyzed (S220), and the lane can be detected (S230). The steps of detecting the y-axis pixel position (S210), analyzing the feature point (S220), and detecting the lane (S230) may be performed all three or only one or two of them may be performed. For example, only the step of detecting the lane (S230) may be performed. Steps S210 to S200 of analyzing the y-axis pixel position, S220 of analyzing the feature point, and step S230 of detecting the lane are the same as those shown in Figs. 2 to 12, and thus a duplicate description will be omitted.

이후에 차간거리정보를 이용하여 차간거리를 추정한다(S300). 본 실시예에서, 차간거리는 복수개의 프레임들에 대하여 수행되고, 복수개의 프레임들에 대한 차간거리들은 보정과정(S400)을 거쳐서 오차가 감소한다.Then, the inter-vehicle distance is estimated using the inter-vehicle distance information (S300). In this embodiment, the inter-vehicle distance is performed for a plurality of frames, and the inter-vehicle distances for the plurality of frames are corrected through the correction process (S400).

마지막으로 오류가 제거된 차간거리가 추력된다(S500).Finally, the inter-vehicle distance at which the error is eliminated is thrusted (S500).

상기와 같은 본 발명에 따르면, 차선인식 및 차간거리 추정방법에 있어서 하나의 카메라만을 사용하여 제조비용이 감소하고, 좁은 설치공간만으로 사용가능한 장점이 있다. 또한 단순히 차선인식하는 방법 뿐만 아니라, 차량의 y축 절대위치를 이용한 방법, 특징점들 및 속도를 이용하는 방법을 함께 적용함으로써 차간거리 추정의 정확도가 향상된다.According to the present invention, there is an advantage that the manufacturing cost is reduced by using only one camera in the lane recognition and the headway distance estimation method, and it is possible to use only a narrow installation space. In addition, the accuracy of the headway distance estimation is improved by applying the method using the y-axis absolute position of the vehicle, the method using the feature points, and the speed as well as the method of simply recognizing the lane.

또한, y축 화소위치 검출부로 인하여 추정된 차간거리를 특징점 분석부 및 차선 검출부를 이용하여 보정함으로써, 운행차량이 언덕이나 골짜기를 가로지르더라도 추정된 거리의 정확도가 향상된다.Further, by correcting the estimated inter-vehicle distance due to the y-axis pixel position detecting unit using the feature point analyzing unit and the lane detecting unit, the accuracy of the estimated distance is improved even when the driving vehicle traverses the hill or the valley.

더욱이 앞차와의 차간거리를 추정함에 있어서 소정의 프레임 이상 지속되는 경우에만 앞차의 존재를 인식하여, 노이즈에 의한 오류를 방지할 수 있다.Furthermore, in estimating the inter-vehicle distance from the preceding vehicle, it is possible to recognize the presence of the next vehicle only when the distance is longer than a predetermined frame, thereby preventing an error caused by noise.

본 발명의 차간거리 추정장치는 차량운행 보조장치, 무인운행시스템, 기관차나 지하철의 안전운행시스템 등 다양한 곳에 사용될 수 있는 산업상 이용가능성이 있다.INDUSTRIAL APPLICABILITY The inter-vehicle distance estimating apparatus of the present invention is industrially applicable, which can be used in various fields such as a vehicle driving assist system, an unmanned operating system, a safe driving system of a locomotive or a subway.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변경이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is to be understood that various changes and modifications may be made without departing from the scope of the appended claims.

5 : 차선 10 : 카메라
20 : 속도계 30 : GPS
40 : 차선규격 데이터베이스 50 : 출력장치
100 : 정보처리장치 110 : 영상정보처리부
120 : 거리정보생성부 122 : y축 화소위치 검출부
124 : 특징점 분석부 126 : 차선 검출부
130 : 거리추정부 140 : 보정부
5: Lane 10: Camera
20: Speedometer 30: GPS
40: lane specification database 50: output device
100: information processing apparatus 110: image information processing section
120: distance information generation unit 122: y-axis pixel position detection unit
124: feature point analysis unit 126: lane detection unit
130: Distance estimation unit 140:

Claims (3)

앞차 및 차선의 영상을 이미지 데이터로 변환시키는 카메라;
상기 카메라로부터 복수의 프레임동안 이미지 데이터를 인가받아 차선 데이터를 검출하는 차선검출부와, 상기 앞차의 y축 화소위치를 검출하여 상기 차선 데이터 및 기저장된 차선규격 데이터와 비교하여 상기 앞차와 운행차량 사이의 거리를 추정하는 거리추정부와, 상기 거리추정부에 의해 추정된 거리를 상기 복수개의 프레임 동안 수집하여 상기 추정된 거리를 보정하는 보정부를 포함하는 정보처리장치;
상기 차선규격 데이터가 저장되는 차선규격 데이터베이스; 및
상기 정보처리장치에 의해 생성된 상기 추정된 거리를 출력하는 출력장치를 포함하고
상기 거리추정부는 상기 운행차량과 상기 앞차 사이의 차선들의 개수 및 인접하는 차선 사이의 개수를 상기 기저장된 차간규격 데이터와 비교하여 상기 거리를 추정하는 것을 특징으로 하는 차간거리 추정장치.
A camera for converting the image of the leading vehicle and the lane into image data;
A lane detecting section for receiving image data from the camera for a plurality of frames and detecting lane data; and a lane detecting section for detecting a y-axis pixel position of the preceding vehicle and comparing the lane data and the stored lane standard data, An information processing apparatus comprising a distance estimator for estimating a distance and a compensator for collecting the distance estimated by the distance estimator during the plurality of frames and correcting the estimated distance;
A lane specification database in which the lane specification data is stored; And
And an output device for outputting the estimated distance generated by the information processing device
Wherein the distance estimating unit estimates the distance by comparing the number of lanes between the driving vehicle and the front vehicle and the number of adjacent lanes with the pre-stored inter-vehicle specification data.
삭제delete 삭제delete
KR1020140193105A 2014-12-30 2014-12-30 Apparatus for Inter-Vehicle Distance Estimation KR101609819B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140193105A KR101609819B1 (en) 2014-12-30 2014-12-30 Apparatus for Inter-Vehicle Distance Estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140193105A KR101609819B1 (en) 2014-12-30 2014-12-30 Apparatus for Inter-Vehicle Distance Estimation

Publications (1)

Publication Number Publication Date
KR101609819B1 true KR101609819B1 (en) 2016-04-06

Family

ID=55790821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140193105A KR101609819B1 (en) 2014-12-30 2014-12-30 Apparatus for Inter-Vehicle Distance Estimation

Country Status (1)

Country Link
KR (1) KR101609819B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809088B1 (en) * 2017-07-11 2017-12-14 주식회사 에프에스솔루션 Apparatus and method for forward collision warning
KR20210058350A (en) * 2019-11-14 2021-05-24 계명대학교 산학협력단 Apparatus for calculating distance between vehicles and method thereof
KR102363924B1 (en) * 2020-10-06 2022-02-15 한국산업기술대학교산학협력단 Distance measuring device and method for nearing vehicle using image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003322522A (en) 2002-05-07 2003-11-14 Daihatsu Motor Co Ltd Inter-vehicle distance detection device and detection method
JP2006331193A (en) 2005-05-27 2006-12-07 Honda Motor Co Ltd Vehicle, image processing system, image processing method, and image processing program
JP2013119283A (en) 2011-12-06 2013-06-17 Isuzu Motors Ltd Collision damage reducing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003322522A (en) 2002-05-07 2003-11-14 Daihatsu Motor Co Ltd Inter-vehicle distance detection device and detection method
JP2006331193A (en) 2005-05-27 2006-12-07 Honda Motor Co Ltd Vehicle, image processing system, image processing method, and image processing program
JP2013119283A (en) 2011-12-06 2013-06-17 Isuzu Motors Ltd Collision damage reducing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809088B1 (en) * 2017-07-11 2017-12-14 주식회사 에프에스솔루션 Apparatus and method for forward collision warning
KR20210058350A (en) * 2019-11-14 2021-05-24 계명대학교 산학협력단 Apparatus for calculating distance between vehicles and method thereof
KR102259603B1 (en) 2019-11-14 2021-06-02 계명대학교 산학협력단 Apparatus for calculating distance between vehicles and method thereof
KR102363924B1 (en) * 2020-10-06 2022-02-15 한국산업기술대학교산학협력단 Distance measuring device and method for nearing vehicle using image

Similar Documents

Publication Publication Date Title
US9836657B2 (en) System and method for periodic lane marker identification and tracking
EP2757541B1 (en) Three-dimensional object detection device
CN107392103B (en) Method and device for detecting road lane line and electronic equipment
EP2843615B1 (en) Device for detecting three-dimensional object and method for detecting three-dimensional object
US10246030B2 (en) Object detection apparatus and driving assistance apparatus
JP4321821B2 (en) Image recognition apparatus and image recognition method
RU2571368C1 (en) Device for detecting three-dimensional objects, method of detecting three-dimensional objects
US11023744B2 (en) Road parameter calculator
EP3223241A1 (en) Travel route recognition device, and travel assistance system using same
EP2797320B1 (en) Object detection device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
EP3576008A1 (en) Image based lane marking classification
US10002433B2 (en) Boundary line recognition apparatus and branch road determination apparatus
KR101240499B1 (en) Device and method for real time lane recogniton and car detection
JP4616046B2 (en) VEHICLE IMAGE PROCESSING SYSTEM, VEHICLE IMAGE PROCESSING METHOD, VEHICLE IMAGE PROCESSING PROGRAM, AND VEHICLE
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
KR20150102546A (en) Apparatus and method for recognizing lane
EP2720193A2 (en) Method and system for detecting uneven road surface
US20150363653A1 (en) Road environment recognition system
KR101035761B1 (en) Method of processing image for recognizing a lane and the system thereof
JP2001050713A (en) Image processing method and device
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP2018190082A (en) Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system
KR101609819B1 (en) Apparatus for Inter-Vehicle Distance Estimation
JP6649859B2 (en) Vehicle position estimation device and vehicle position estimation method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190306

Year of fee payment: 4