KR101609819B1 - Apparatus for Inter-Vehicle Distance Estimation - Google Patents
Apparatus for Inter-Vehicle Distance Estimation Download PDFInfo
- Publication number
- KR101609819B1 KR101609819B1 KR1020140193105A KR20140193105A KR101609819B1 KR 101609819 B1 KR101609819 B1 KR 101609819B1 KR 1020140193105 A KR1020140193105 A KR 1020140193105A KR 20140193105 A KR20140193105 A KR 20140193105A KR 101609819 B1 KR101609819 B1 KR 101609819B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- distance
- vehicle
- data
- inter
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 차간거리 추정장치를 제공하는데 있다. 보다 상세하게는 차선인식을 이용하여 보다 간편하고 정확성이 향상된 차간거리 추정장치에 관한 것이다.The present invention is to provide an inter-vehicle distance estimating apparatus. More particularly, to an inter-vehicle distance estimating apparatus which is simpler and more accurate in accuracy by using lane recognition.
자동차가 보급된 이후 정보통신기술의 발전과 함께 각종 주행 보조 기술들이 개발되어 왔다. 주행 보조 기술들로는 주행중인 차량의 차선 이탈 경보나, 졸음경보, 정속주행이 가능한 크루즈 기능, 앞 차량과의 거리 경보 등이 있다. 그러나 상기 기술들의 대부분이 이직까지는 인명을 맡길 정도의 정확도나 신뢰성을 보이지 못하고 있다. 또한 별도의 복잡한 추가장비를을 요구하기 때문에 적용에 필요한 비용이 높다.Since the spread of automobiles, various driving assistance technologies have been developed along with the development of information and communication technologies. Driving assistance technologies include lane departure warning, sleep warning, cruise capable of cruising at speed, and distance warning from the preceding vehicle. However, most of the above technologies do not show enough accuracy or credibility to give their lives until they turn. In addition, the cost of application is high because it requires additional complicated additional equipment.
차간거리를 인식하는 기술은 차량안전을 위한 보조기술로서 개발되고 있다. 차간거리를 인식하기 위해서는 통상 두 개의 카메라에서 인식된 영상을 비교분석하는 방식이 사용된다. 두 개의 카메라에서 인식된 영상을 이용하기 위해서는 카메라 대수의 증가로 인한 비용상승, 두 개의 카메라 사이의 이격거리 확보를 위한 여유공간 등 다양한 문제점이 있다. 이는 측정된 차간거리의 정확도와도 관련이 있기 때문에 널리 사용되지 못하고 있다.The technique of recognizing the inter-vehicle distance is being developed as an assistive technology for vehicle safety. In order to recognize the inter-vehicle distance, a method of comparing and analyzing images recognized by two cameras is generally used. In order to use images recognized by two cameras, there are various problems such as an increase in cost due to an increase in the number of cameras, and a free space for securing a separation distance between two cameras. This is not widely used because it is also related to the accuracy of the measured inter-vehicle distance.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 차선인식을 이용하여 보다 간편하고 정확성이 향상된 차간거리 추정장치를 제공하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an inter-vehicle distance estimating apparatus which is simpler and more accurate in accuracy by using lane recognition.
본 발명은 상기와 같은 문제점을 해결하기 위한 수단으로서, 차간거리 추정장치는 카메라, 정보처리장치, 차선규격 데이터베이스, 및 출력장치를 포함한다. 상기 카메라는 앞차 및 차선의 영상을 이미지 데이터로 변환시킨다. 상기 정보처리장치는 상기 카메라로부터 복수의 프레임동안 이미지 데이터를 인가받아 차선 데이터를 검출하는 차선검출부와, 상기 앞차의 y축 화소위치를 검출하여 상기 차선 데이터 및 기저장된 차선규격 데이터와 비교하여 상기 앞차와 운행차량 사이의 거리를 추정하는 거리추정부와, 상기 거리정보생성부에 의해 추정된 거리를 상기 복수개의 프레임 동안 수집하여 상기 추정된 거리를 보정하는 보정부를 포함한다. 상기 차선규격 데이터베이스는 상기 차선규격 데이터가 저장된다. 상기 출력장치는 상기 정보처리장치에 의해 생성된 상기 추정된 거리를 출력한다.The present invention is a means for solving the above problems, wherein the inter-vehicle distance estimation apparatus includes a camera, an information processing apparatus, a lane standard database, and an output device. The camera converts the image of the leading vehicle and the lane into image data. The information processing apparatus includes a lane detecting unit that receives image data for a plurality of frames from the camera and detects lane data, and a lane detecting unit that detects a y-axis pixel position of the leading vehicle and compares the lane data and the stored lane standard data, And a correcting unit for correcting the estimated distance by collecting the distance estimated by the distance information generating unit during the plurality of frames. The lane specification database stores the lane specification data. The output device outputs the estimated distance generated by the information processing device.
일 실시예에서, 상기 운행차량의 속도를 측정하는 속도계를 더 포함하고, 상기 정보처리장치는 복수개의 특징점들에 대하여 구해진 평균속도 및 이동신간을 이용하여 상기 차간거리를 추정할 수 있다.In one embodiment, the information processing apparatus may further include a speedometer for measuring the speed of the driving vehicle, and the information processing apparatus may estimate the inter-vehicle distance using an average speed and a moving speed obtained for the plurality of feature points.
일 실시예에서, 상기 거리추정부는 상기 운행차량과 상기 앞차 사이의 차선들의 개수 및 인접하는 차선 사이의 개수를 상기 기저장된 차간규격 데이터와 비교하여 상기 거리를 추정할 수 있다.In one embodiment, the distance estimator may estimate the distance by comparing the number of lanes between the driving vehicle and the front vehicle and the number of adjacent lanes with the pre-stored inter-vehicle specification data.
이상에서 살펴본 바와 같이 본 발명에 따르면, 차선인식 및 차간거리 추정방법에 있어서 하나의 카메라만을 사용하여 제조비용이 감소하고, 좁은 설치공간만으로 사용가능한 장점이 있다. 또한 단순히 차선인식하는 방법 뿐만 아니라, 차량의 y축 절대위치를 이용한 방법, 특징점들 및 속도를 이용하는 방법을 함께 적용함으로써 차간거리 추정의 정확도가 향상된다.As described above, according to the present invention, in the lane recognition and the headway distance estimation method, the manufacturing cost is reduced by using only one camera, and it is advantageous that the method can be used with only a narrow installation space. In addition, the accuracy of the headway distance estimation is improved by applying the method using the y-axis absolute position of the vehicle, the method using the feature points, and the speed as well as the method of simply recognizing the lane.
도 1은 본 발명의 일 실시예에 따른 차간거리 추정장치를 나타내는 사시도이다.
도 2는 도 1의 y축 화소위치 검출부를 나타내는 이미지이다.
도 3은 도 1의 y축 화소위치 검출부를 이용하여 차간거리를 추정하는 그래프이다.
도 4a 내지 4c는 도 1의 특징점 분석부를 나타내는 이미지이다.
도 5는 도 1의 차선검출부에 의해 검출되는 차선을 나타내는 평면도이다.
도 6은 도 1의 차선검출부를 이용하여 추정되는 차간을 나타내는 이미지이다.
도 7은 도 1의 차선검출부를 이용하여 차간거리를 추정하는 그래프이다.
도 8은 도 1의 차선검출부를 이용하여 차선을 검출하는 단계를 나타내는 이미지이다.
도 9a 내지 9c는 도 8의 차선을 검출하는 단계를 상세하게 나타내는 이미지들이다.
도 10은 도 9a 내지 9c의 이미지들을 이용하여 검출된 차선을 나타내는 이미지이다.
도 11은 도 1의 차선검출부를 이용하여 차선검출 정보들을 처리하는 방법을 나타내는 블록도이다.
도 12a 내지 도 12c는 도 1의 차선검출부를 이용하여 차량을 탐색하는 단계를 나타내는 이미지들이다.
도 13은 도 1에 도시된 차간거리 추정장치를 이용한 차간거리 추정방법을 나타내는 흐름도이다.
도 14는 도 13의 차간거리정보생성하는 단계를 나타내는 흐름도이다.1 is a perspective view of an inter-vehicle distance estimator according to an embodiment of the present invention.
2 is an image showing the y-axis pixel position detection unit of Fig.
FIG. 3 is a graph for estimating the inter-vehicle distance using the y-axis pixel position detection unit of FIG.
4A to 4C are images showing the minutiae analyzing unit of Fig.
Fig. 5 is a plan view showing a lane detected by the lane detecting unit of Fig. 1; Fig.
Fig. 6 is an image showing a vehicle interval estimated using the lane detecting unit of Fig. 1; Fig.
FIG. 7 is a graph for estimating the inter-vehicle distance using the lane detecting unit of FIG.
Fig. 8 is an image showing a step of detecting a lane using the lane detecting unit of Fig. 1; Fig.
9A to 9C are images showing in detail the step of detecting the lane of FIG.
Fig. 10 is an image showing lanes detected using the images of Figs. 9a to 9c.
11 is a block diagram illustrating a method of processing lane detection information using the lane detecting portion of Fig.
12A to 12C are images showing a step of searching for a vehicle using the lane detecting portion of Fig.
13 is a flowchart showing a headway distance estimation method using the headway distance estimation apparatus shown in FIG.
14 is a flowchart showing the step of generating the inter-vehicle distance information in Fig.
본 발명의 여러 실시예들을 상세히 설명하기 전에, 다음의 상세한 설명에 기재되거나 도면에 도시된 구성요소들의 구성 및 배열들의 상세로 그 응용이 제한되는 것이 아니라는 것을 알 수 있을 것이다. 본 발명은 다른 실시예들로 구현되고 실시될 수 있고 다양한 방법으로 수행될 수 있다. 또, 장치 또는 요소 방향(예를 들어 "전(front)", "후(back)", "위(up)", "아래(down)", "상(top)", "하(bottom)", "좌(left)", "우(right)", "횡(lateral)")등과 같은 용어들에 관하여 본원에 사용된 표현 및 술어는 단지 본 발명의 설명을 단순화하기 위해 사용되고, 관련된 장치 또는 요소가 단순히 특정 방향을 가져야 함을 나타내거나 의미하지 않는다는 것을 알 수 있을 것이다.Before describing in detail several embodiments of the invention, it will be appreciated that the application is not limited to the details of construction and arrangement of components set forth in the following detailed description or illustrated in the drawings. The invention may be embodied and carried out in other embodiments and carried out in various ways. It should also be noted that the device or element orientation (e.g., "front," "back," "up," "down," "top," "bottom, Expressions and predicates used herein for terms such as "left," " right, "" lateral," and the like are used merely to simplify the description of the present invention, Or that the element has to have a particular orientation.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하도록 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.
도 1은 본 발명의 일 실시예에 따른 차간거리 추정장치를 나타내는 사시도이다.1 is a perspective view of an inter-vehicle distance estimator according to an embodiment of the present invention.
도 1을 참조하면, 차간거리 추정장치는 카메라(10), 속도계(20), 차선규격 데이터 베이스(40), 출력장치(50), 및 정보처리장치(100)를 포함한다. 이때, 차선규격 데이터베이스(40)는 생략될 수 있다. 다른 실시예에서, GPS(도시되지 않음)와 같은 차량위치측정장치를 더 포함할 수도 있다.1, an inter-vehicle distance estimating apparatus includes a
카메라(10)는 운행차량의 내부 또는 외부에 배치되어 정면의 영상을 이미지 데이터로 변경한다. 예를 들어, 카메라(10)는 일반적인 네비게이션 시스템, 차량용 블랙박스 시스템 등에 사용되는 카메라와 동일한 카메라를 포함할 수 있다.The
속도계(20)는 운행차량의 속도를 실시간으로 측정하여 속도신호를 생성한다. 예를 들어, 별도의 속도계를 포함하지 않고, 운행차량 내부의 속도계로부터 속도신호를 인가받을 수 있다. 다른 실시예에서, 속도계(20)가 GPS 등과 같은 차량위치측정장치를 이용하여 절대속도를 측정할 수도 있다.The
차선규격 데이터 베이스(40)는 각 도로별 차간거리, 차폭 등의 차선규격 데이터를 포함한다. 예를 들어, 차선규격 데이터베이스(40)는 각 위치별 차선규격 데이터를 포함할 수도 있다.The
출력장치(50)는 정보처리장치(100)에 의해 추정된 차간거리를 출력한다.The
정보처리장치(100)는 카메라(10)로부터 인가받은 이미지 데이터, 속도계(20)로부터 인가받은 속도신호, 차선규격 데이터베이스(40)로부터 인가받은 차선규격 데이터를 이용하여 앞차와의 차간거리를 추정한다.The
정보처리장치(100)는 영상정보 처리부(110), 거리정보 생성부(120), 거리추정부(130) 및 보정부(140)를 포함한다.The
영상정보 처리부(110)는 카메라(10)로부터 인가받은 이미지 데이터를 전처리하여 노이즈를 제거한다. 예를 들어, 휘도가 너무 밝거나 어두운 경우 이를 보정하고, 노이즈 제거작업 등을 수행할 수 있다. 또한, 이미지 데이터 중에서 불필요한 좌우상하측 이미지를 제거하여 정면방향의 이미지만을 추출할 수 있다.The image
거리정보 생성부(120)는 영상정보 처리부(110)로부터 인가받은 이미지 데이터로부터 거리정보를 생성한다. 거리정보 생성부(120)는 y축 화소위치 검출부(122), 특징점 분석부(124), 차선 검출부(126) 등을 포함할 수 있다. 다른 실시예에서, 거리정보 생성부(120)는 y축 화소위치 검출부(122), 특징점 분석부(124), 차선 검출부(126) 중에서 하나 또는 두 개만을 포함할 수도 있다.The distance
y축 화소위치 검출부(122), 특징점 분석부(124) 및 차선 검출부(126)는 도 2 내지 도 12를 참조하여 후술한다.The y-axis pixel
거리추정부(130)는 거리정보 생성부(120)로부터 인가받은 거리정보를 이용하여 운행차량과 앞차 사이의 거리를 추정한다.The
보정부(140)는 거리추정부(130)에 의해 추정된 거리를 보정하여 보정된 차간거리를 거리추정부(130)로 재인가한다.The
출력장치(50)는 정보처리장치(100)에 의해 추정된 거리를 출력한다.The
도 2는 도 1의 y축 화소위치 검출부를 나타내는 이미지이고, 도 3은 도 1의 y축 화소위치 검출부를 이용하여 차간거리를 추정하는 그래프이다.FIG. 2 is an image showing the y-axis pixel position detecting unit of FIG. 1, and FIG. 3 is a graph of estimating an inter-vehicle distance using the y-axis pixel position detecting unit of FIG.
도 1 내지 도 3을 참조하면, y축 화소위치 검출부(122)는 영상정보 처리부(110)로부터 인가받은 정면방향의 이미지에서 앞차의 y축 화소위치를 검출한다. 예를 들어, 앞차와 운행차량 사이의 거리가 가까우면, 정면방향 이미지에서 앞차의 y축 화소위치가 낮다(y1). 앞차와 운행차량 사이의 거리가 점차 멀어지면, 정면방향 이미지에서 y축 화소위치가 점차 높아진다(y2, y3). 앞차와 운행차량 사이의 거리가 많이 멀어지면, 정면방향 이미지에서 y축 화소위치가 많이 높아진다(y4).1 to 3, the y-axis pixel
이를 이용하여 정면방향 이미지에서 앞차 이미지의 y축 화소위치(y1, y2, y3, y4)를 검출하면, 각 y축 화소위치(y1, y2, y3, y4)에 대응되는 앞차와의 차간거리(d1, d2, d3, d4)를 추정할 수 있다.When the y-axis pixel positions (y1, y2, y3, y4) of the image of the preceding vehicle in the frontal direction image are detected using this, the headway distance between the y-axis pixel positions (y1, y2, y3, y4) d1, d2, d3, d4).
다만, 정면방향 이미지에서 y축 화소위치만을 이용하여 앞차와의 차간거리를 추정하면, 앞차와 운행차량 사이의 수직높이가 다른 경우에는 오차가 발생할 수 있다. 즉, 운행차량이 언덕지역을 지나가는 경우, 오르막길에서 앞차의 y축 화소위치가 낮아져서 실제보다 추정거리가 가까워질 수 있다. 반면에 운행차량이 골짜기를 가로지르는 경우, 내리막길에서 앞차의 y축 화소위치가 높아져서 실제보다 추정거리가 멀어질 수 있다. 따라서 후술될 특징점 분석부(124) 및 차선 검출부(126)를 이용하여 추정거리를 보정하는 기술이 요구된다.However, if the headway distance from the front vehicle is estimated using only the y-axis pixel position in the frontal direction image, an error may occur if the vertical height between the vehicle ahead and the vehicle is different. That is, when the driving vehicle passes the hill area, the y-axis pixel position of the leading vehicle in the uphill road is lowered, so that the estimated distance can be closer to the actual one. On the other hand, if the driving vehicle traverses the valley, the y-axis pixel position of the leading vehicle on the descending road becomes higher, and the estimated distance may be farther than the actual distance. Therefore, a technique for correcting the estimated distance using the
도 4a 내지 4c는 도 1의 특징점 분석부를 나타내는 이미지이다.4A to 4C are images showing the minutiae analyzing unit of Fig.
도 1 내지 3, 도 4a 내지 4c를 참조하면, 영상의 특징점들(t1, t2, ... tn) 및 운행차량의 평균속도를 이용하여 차간거리를 추정한다.Referring to Figs. 1 to 3 and Figs. 4A to 4C, the inter-vehicle distance is estimated by using the characteristic points t1, t2, ..., tn of the image and the average speed of the vehicle.
예를 들어, 앞차의 위치(y1)으로부터 운행차량의 위치(yn)까지 순차적인 위치(y1, y2, ... yn)에 대하여, 각 위치에서의 운행차량의 속도(v1, v2, ... vn) 및 각 위치에서의 시각(t1, t2, ... tn)을 이용하여 각 화소에서의 차간거리(d1, d2, ... dn)를 계산하는 식은 다음과 같다.For example, with respect to the positions y1, y2, ... yn sequentially from the position y1 of the forward vehicle to the position yn of the vehicle, the speeds v1, v2, ..., (d1, d2, ..., dn) at each pixel using the time (t1, t2, ..., tn)
[식 1][Formula 1]
[식 2] [Formula 2]
[식 1], [식 2]와 같은 방식으로 나머지 차량위치들(y3, y4, ... yn)에서의 차간거리들(d3, d4, ... dn)을 구할 수 있다. 다만 yn은 운행차량과 앞차 사이의 거리가 0인 경우이므로, 굳이 거리를 구할 필요가 없다.It is possible to obtain the inter-vehicle distances d3, d4, ..., dn at the remaining vehicle positions y3, y4, ..., yn in the same manner as in [Expression 1] and [Expression 2]. However, yn is the case where the distance between the driving vehicle and the front vehicle is zero, so it is not necessary to calculate the distance.
도 5는 도 1의 차선검출부에 의해 검출되는 차선을 나타내는 평면도이다.Fig. 5 is a plan view showing a lane detected by the lane detecting unit of Fig. 1; Fig.
도 1 내지 3, 도 5를 참조하면, 차선규격은 각 도로별로 규정되어 있어서, 차선(5)의 폭과 거리를 이용하여 차간거리를 추정할 수 있다. 예를 들어, 고속도로 또는 고속화도로의 경우, 차선(5, 흰색부분)의 길이는 10m, 인접하는 차선들(5) 사이의 길이는 10m로서, 하나의 차선셋트의 길이는 20m (차선부분 10m + 인접하는 차선들 사이부분 10m)이다. 또한 서울을 비롯한 대부분 지방의 시가지도로의 경우, 차선(5)의 길이는 3m, 인접하는 차선들(5) 사이의 길이는 5m로서, 하나의 차선셋트의 길이는 8m (차선부분 3m + 인접하는 차선들 사이부분 5m)이다. 대구경북지역의 시가지도로의 경우, 차선(5)의 길이는 5m, 인접하는 차선들(5) 사이의 길이는 5m로서, 하나의 차선셋트의 길이는 10m (차선부분 3m + 인접하는 차선들 사이부분 5m)이다. 부산지역의 시가지도로의 경우, 차선(5)의 길이는 3m, 인접하는 차선들(5) 사이의 길이는 3m로서, 하나의 차선셋트의 길이는 6m (차선부분 3m + 인접하는 차선들 사이부분 3m)이다. 외곽지역의 국도의 경우, 차선(5)의 길이는 5m, 인접하는 차선들(5) 사이의 길이는 8m로서, 하나의 차선셋트의 길이는 13m (차선부분 5m + 인접하는 차선들 사이부분 8m)이다. 다만, 제주지역의 시가지도로는, 3m - 2m 셋트, 3m - 3m 셋트, 4m - 5m 셋트, 4m - 7m 셋트, 8m -12m 셋트 등 다양한 차선셋트가 존재한다.Referring to FIGS. 1 to 3 and 5, the lane specification is defined for each road, and the vehicle-to-vehicle distance can be estimated using the width and the distance of the
상기 차선규격들은 차선규격 데이터베이스(40)에 저장된다.The lane specification is stored in the
도 6은 도 1의 차선검출부를 이용하여 추정되는 차간을 나타내는 이미지이고, 도 7은 도 1의 차선검출부를 이용하여 차간거리를 추정하는 그래프이다.FIG. 6 is an image showing a roadway estimated using the lane detecting unit of FIG. 1, and FIG. 7 is a graph of estimating the roadway distance using the lane detecting unit of FIG.
도 1 내지 3, 도 5 내지 7을 참조하면, 차선검출부(126)는 영상정보 처리부(110)로부터 인가받은 정면방향의 이미지에서 차선(5)의 이미지 및 앞차의 y축 화소위치를 검출한다. 예를 들어, 운행차량의 바로 앞의 인접차선간 거리(y2-y1), 그 후의 차선거리(y3-y2), 그 후의 인접차선간 거리(y4-y3), 그 다음의 차선거리(y5-y4)를 측정하면 앞차와의 차간거리(y5-y1)를 추정할 수 있다.1 to 3 and 5 to 7, the
예를 들어, 차량을 고속도로에서 운행하는 경우, 각 차선의 길이 및 인접차선들 사이의 거리는 모두 10m이므로, 앞차까지의 거리는 50m에서 운행차량과 차선 사이의 거리(α)를 합한 값이 된다.For example, when the vehicle is traveling on a highway, the length of each lane and the distance between adjacent lanes are all 10 m, so the distance to the next vehicle is the sum of the distance α between the vehicle and the lane at 50 m.
도 8은 도 1의 차선검출부를 이용하여 차선을 검출하는 단계를 나타내는 이미지이다.Fig. 8 is an image showing a step of detecting a lane using the lane detecting unit of Fig. 1; Fig.
도 1 내지 3, 도 5 내지 8을 참조하면, 차간거리는 이미지 데이터 상에서 소실점의 수직위치(h1), 운행차량의 앞부분(예를 들어, 자동차의 모닛)의 높이(h2), 운행차량의 앞부분(h2)과 양쪽 차선이 만나는 두 점 사이의 거리(w, 차선폭), 수실점(pv), 왼쪽 차선과 운행차량의 앞부분(h2)이 만나는 좌측점(pl), 오른쪽 차선과 운행차량의 앞부분(h2)이 만나는 우측점(Pr)을 이용하여 구할 수 있다. Referring to Figs. 1 to 3 and Figs. 5 to 8, the inter-vehicle distance includes a vertical position h1 of the vanishing point on the image data, a height h2 of the front portion of the vehicle (e.g., a monkey of the vehicle) h2) and the distance (w, a lane width between two points both sides of the lane is met), the number of runs (p v), to meet the front part (h2) of the left lane and the moving vehicle left point (p l), the right lane and the moving vehicle Can be obtained by using the right point P r where the
도 9a 내지 9c는 도 8의 차선을 검출하는 단계를 상세하게 나타내는 이미지들이다.9A to 9C are images showing in detail the step of detecting the lane of FIG.
도 1 내지 3, 도 5 내지 9c를 참조하면, 차선을 인식하기 위하여 먼저 양쪽 차선을 검출한다. 양쪽 차선을 검출하기 위하여, 이미지 데이터(도 9a 참조) 중에서 차선이 될 만한 화소들만 선별하여 별도의 영상(도 9b 참조)을 만든다. 차선이 될 만한 화소들만 선별한 별도의 영상의 크기는 소실점(pv), 좌측점(pl), 우측점(pr)이 이루는 삼각형의 크기와 같다. 이미지 데이터의 각 행(row)별로 최대 두 개의 화소를 선별한다. 소실점(pv)의 가로 위치를 중심으로 하여 좌측은 왼쪽 방향으로, 우측은 오른쪽 방향으로 각각 스캔하여 처음 만나는 에지(edge) 화소를 선별한다. 다른 실시예에서, 정확도를 조절하기 위하여 스캔의 시작점과 끝점 위치에 임의의 바이어스 값을 마진(margin)으로 부여할 수도 있다. 차선을 찾지 못한 경우 상기 바이어스 값이 조절되어 더 넓은 영역을 스캔할 수 있다.Referring to Figs. 1 to 3 and Figs. 5 to 9C, both lanes are first detected to recognize lanes. In order to detect both lanes, only the pixels which are likely to be lanes in the image data (see Fig. 9A) are selected to make a separate image (see Fig. 9B). The size of a separate image, which is selected only for the pixels to be the lane, is equal to the size of the triangle formed by the vanishing point (p v ), the left point (p l ), and the right point (p r ). At most two pixels are selected for each row of image data. The left edge is scanned in the left direction and the right direction is scanned in the right direction with the horizontal position of the vanishing point (p v ) as the center, to select the edge pixels that meet first. In other embodiments, arbitrary bias values may be provided as margins at the start and end points of the scan to adjust the accuracy. If the lane is not found, the bias value is adjusted and a wider area can be scanned.
도 10은 도 9a 내지 9c의 이미지들을 이용하여 검출된 차선을 나타내는 이미지이다.Fig. 10 is an image showing lanes detected using the images of Figs. 9a to 9c.
도 1 내지 3, 도 5 내지 10을 참조하면, 도 9c에서 구해진 이미지 데이터로부터 직선들을 추출한다. 추출된 직선들 중에서 좌측 차선 및 우측 차선의 후보가 될 수 있는 직선들을 선별한다. 예를 들어, 좌측 차선의 허용각도는 30도 내지 90도 이며, 우측차선의 허용각도는 -30도 내지 90도이다. 상기 후보가 될 수 있는 직선들 중에서 상기 허용각도 내에 배치되는 직선들을 각각 선별하여 좌측차선 및 우측차선으로 삼는다.Referring to Figs. 1 to 3 and 5 to 10, straight lines are extracted from the image data obtained in Fig. 9C. Among the extracted straight lines, straight lines that can be candidates of the left lane and the right lane are selected. For example, the allowable angle of the left lane is 30 to 90 degrees, and the allowable angle of the right lane is -30 to 90 degrees. The straight lines disposed within the allowable angle among the straight lines that can become the candidates are respectively selected as the left lane and the right lane.
도 11은 도 1의 차선검출부를 이용하여 차선검출 정보들을 처리하는 방법을 나타내는 블록도이다.11 is a block diagram illustrating a method of processing lane detection information using the lane detecting portion of Fig.
도 1 내지 3, 도 5 내지 11을 참조하면, 상기 검출된 좌측차선, 우측차선, 소실점(pv), 좌측점(pl), 우측점(pr)의 데이터 셋트를 축적한다. 축적된 데이터 셋트는 각 프레임(frame 1, frame 2, ... frame n+1)별로 구할 수 있다. 상기 데이터 셋트의 축적은 소정의 임계치에 다다를 때까지 계속된다. 예를 들어, 임계치는 n-1일 수 있다.1 to 3 and 5 to 11, a data set of the detected left lane, right lane, vanishing point (p v ), left point (p 1 ) and right point (p r ) is accumulated. The accumulated data set can be obtained for each frame (
임계치를 넘는 충분한 수의 데이터 셋트가 수집되면, 차선 위치를 추정하게 된다. 차선 위치를 추정함과 아울러, 데이터 셋트를 수집하여 업데이트 하는 과정도 반복된다. 임계치를 넘는 충분한 수의 데이터 셋트가 수집되면, 매번 새로운 프레임의 데이터 셋트가 들어옴에 따라, 가장 오래된 데이터 셋트가 삭제된다. 따라서 축적되는 데이터 셋트의 개수는 임계치(n-1) 만큼씩 유지된다.When a sufficient number of data sets exceeding the threshold value are collected, the lane position is estimated. The process of estimating the lane position and collecting and updating the data set is also repeated. Once a sufficient number of data sets over the threshold have been collected, the oldest data set is deleted as the data set of the new frame comes in each time. Therefore, the number of accumulated data sets is maintained by the threshold value (n-1).
차선 위치를 추정하기 위하여, 소실점(pv), 좌측점(pl), 우측점(pr)의 평균값들을 구한다. 각 평균값들이 소정의 임계값들을 넘지 않는 경우, 올바른 차선이라고 판단한다. 즉, 소실점(pv)의 평균과 현재 프레임의 소실점(pv) 사이의 거리가 소실점의 임계값을 넘지 않고, 좌측점(pl)의 평균과 현재 프레임의 좌측점(pl) 사이의 거리가 좌측점의 임계값을 넘지 않으며, 우측점(pr)의 평균과 현재 프레임의 우측점(pr) 사이의 거리가 우측점의 임계값을 넘지 않는 경우에, 올바른 차선이라고 판단한다.To estimate the lane position, mean values of the vanishing point (p v ), the left point (p l ), and the right point (p r ) are obtained. If the average values do not exceed the predetermined threshold values, it is determined that the vehicle is a correct lane. That is, between the vanishing point (p v) means and a vanishing point in the current frame (p v) the distance does not exceed the threshold value of the vanishing point between a left point (p l) mean and left points (p l) in the current frame of the if the distance does not exceed the threshold value of the left point, a distance between the right point (p r) the average and the right point (p r) of the current frame does not exceed the threshold of the right points, it is determined that the right lane.
반면에, 각 평균값들이 소정의 임계값들을 넘는 경우, 올바른 차선을 찾지 못한 것으로 판단한다. 또한 차선의 위치 및 각도변화가 급격히 발생하는 경우, 차선이탈(변경)로 판단한다.On the other hand, when the average values exceed the predetermined threshold values, it is determined that the correct lane is not found. Further, when a change in the position and angle of the lane suddenly occurs, the lane departure (change) is determined.
도 12a 내지 도 12c는 도 1의 차선검출부를 이용하여 차량을 탐색하는 단계를 나타내는 이미지들이다.12A to 12C are images showing a step of searching for a vehicle using the lane detecting portion of Fig.
도 1 내지 3, 도 5 내지 12c를 참조하면, 소실점(pv), 좌측점(pl), 우측점(pr)에 의해 형성된 삼각형의 내부영역(도 12a) 중에서, 운행차량과 같은 차선 내에 있는 소실점(pv) 까지의 공간(도 12b)을 추출한다. 추출된 운행차량과 소실점(pv) 사이의 공간(도 12b)의 각 행(row) 별로 밝기 값(그림자)의 히스토그램(도 12c)을 계산한다. 이때, 소실점(pv)에 가까워질수록 수평방향의 너비가 줄어들기 때문에, 각 행(row)의 너비에 탐색 영역 삼각형의 밑변(w)과의 비율을 가중치로 적용한다.Referring to Figs. 1 to 3 and Figs. 5 to 12C, among the inner regions (Fig. 12A) of the triangle formed by the vanishing point (p v ), the left point (p l ) and the right point (p r ) the vanishing point (p v) space (Fig. 12b) to that in the extracts. The extracted moving vehicle and the vanishing point (p v) calculates the area histogram (Fig. 12c) of brightness values (shadow), for each line (row) (Fig. 12b) between. At this time, since the width in the horizontal direction decreases as the pixel approaches the vanishing point (p v ), the ratio of the width of each row to the base w of the search area triangle is weighted.
히스토그램(도 12c)을 이용하여 이미지 데이터 상에서 앞차의 위치를 구할 수 있다. 본 실시예에서, 계산된 히스토그램(도 12c)은 매 프레임마다 구해지고, 소정의 횟수동안 지속적으로 나타나는 경우에만 앞차의 존재로 인식한다. 계산된 히스토그램(도 12c)이 소정의 횟수동안 지속적으로 나타나는 경우에만 앞차의 존재를 인식하는 경우, 도로의 그늘이나 얼룩 등 노이즈에 의한 오류를 방지할 수 있다.The position of the next vehicle on the image data can be obtained using the histogram (Fig. 12C). In the present embodiment, the calculated histogram (Fig. 12C) is obtained every frame, and is recognized as the presence of the next vehicle only when it appears continuously for a predetermined number of times. In the case where the presence of the next vehicle is recognized only when the calculated histogram (FIG. 12C) continuously appears for a predetermined number of times, it is possible to prevent an error due to noise such as shade or stain on the road.
앞차의 위치, 차간거리(w), 차선(5)의 길이 등을 이용하여 앞차와의 차간거리를 추정한다. 차선규격 데이터베이스(40) 내에 저장된 차선길이 데이터를 이용하여, 인식된 차선길이를 이용하여 실제 거리를 계산할 수 있다. 본 실시예에서, 전처리 과정을 통하여 이미지 데이터 내 화소 높이에 따른 대략적ㅇ니 거리를 계산한다. 예를 들어, 전처리 과정에서 이미지 데이터 내 화소의 높이에 따른 거리를 미리 계산해서 차선규격 데이터베이스(40) 내에 저장해 두고, 검출된 앞차의 화소 높이에 따라 저장된 거리를 바로 출력할 수 있다.The inter-vehicle distance from the preceding vehicle is estimated using the position of the vehicle ahead, the inter-vehicle distance w, the length of the
도 13은 도 1에 도시된 차간거리 추정장치를 이용한 차간거리 추정방법을 나타내는 흐름도이다.13 is a flowchart showing a headway distance estimation method using the headway distance estimation apparatus shown in FIG.
도 1 및 도 13을 참조하면, 차간거리 추정장치를 이용하여 차간거리를 추정하기 위하여, 먼저 카메라(10)를 이용하여 이미지 데이터를 생성한다. 생성된 이미지 데이터는 영상정보처리부(110)를 이용하여 전처리된다(S100). 예를 들어, 휘도를 조절하거나, 태양, 가로등 등에 의한 오류를 제거하고, 정면방향의 소정영역 만을 추출하는 작업 등이 수행된다.Referring to FIGS. 1 and 13, in order to estimate the inter-vehicle distance using the inter-vehicle distance estimating apparatus, image data is first generated using the
이어서 전처리된 이미지 데이터를 이용하여 차간거리정보를 생성한다(S200).Next, the inter-vehicle distance information is generated using the preprocessed image data (S200).
도 14는 도 13의 차간거리정보생성하는 단계를 나타내는 흐름도이다.14 is a flowchart showing the step of generating the inter-vehicle distance information in Fig.
도 1, 13, 및 14를 참조하면, 차간거리정보를 생성하기 위하여, y축 화소위치를 검출하거나(S210), 특징점을 분석하거나(S220), 차선을 검출할 수 있다(S230). y축 화소위치를 검출하는 단계(S210), 특징점을 분석하는 단계(S220), 차선을 검출하는 단계(S230)는 세 개 모두 수행될 수도 있고, 그중의 하나 또는 두 개만 수행될 수도 있다. 예를 들어, 차선을 검출하는 단계(S230)만이 수행될 수도 있다. y축 화소위치를 검출하는 단계(S210), 특징점을 분석하는 단계(S220), 차선을 검출하는 단계(S230)는 도 2 내지 도 12에 도시된 방법과 동일하므로 중복되는 설명은 생략한다.Referring to FIGS. 1, 13 and 14, in order to generate the inter-vehicle distance information, the y-axis pixel position is detected (S210), the feature point is analyzed (S220), and the lane can be detected (S230). The steps of detecting the y-axis pixel position (S210), analyzing the feature point (S220), and detecting the lane (S230) may be performed all three or only one or two of them may be performed. For example, only the step of detecting the lane (S230) may be performed. Steps S210 to S200 of analyzing the y-axis pixel position, S220 of analyzing the feature point, and step S230 of detecting the lane are the same as those shown in Figs. 2 to 12, and thus a duplicate description will be omitted.
이후에 차간거리정보를 이용하여 차간거리를 추정한다(S300). 본 실시예에서, 차간거리는 복수개의 프레임들에 대하여 수행되고, 복수개의 프레임들에 대한 차간거리들은 보정과정(S400)을 거쳐서 오차가 감소한다.Then, the inter-vehicle distance is estimated using the inter-vehicle distance information (S300). In this embodiment, the inter-vehicle distance is performed for a plurality of frames, and the inter-vehicle distances for the plurality of frames are corrected through the correction process (S400).
마지막으로 오류가 제거된 차간거리가 추력된다(S500).Finally, the inter-vehicle distance at which the error is eliminated is thrusted (S500).
상기와 같은 본 발명에 따르면, 차선인식 및 차간거리 추정방법에 있어서 하나의 카메라만을 사용하여 제조비용이 감소하고, 좁은 설치공간만으로 사용가능한 장점이 있다. 또한 단순히 차선인식하는 방법 뿐만 아니라, 차량의 y축 절대위치를 이용한 방법, 특징점들 및 속도를 이용하는 방법을 함께 적용함으로써 차간거리 추정의 정확도가 향상된다.According to the present invention, there is an advantage that the manufacturing cost is reduced by using only one camera in the lane recognition and the headway distance estimation method, and it is possible to use only a narrow installation space. In addition, the accuracy of the headway distance estimation is improved by applying the method using the y-axis absolute position of the vehicle, the method using the feature points, and the speed as well as the method of simply recognizing the lane.
또한, y축 화소위치 검출부로 인하여 추정된 차간거리를 특징점 분석부 및 차선 검출부를 이용하여 보정함으로써, 운행차량이 언덕이나 골짜기를 가로지르더라도 추정된 거리의 정확도가 향상된다.Further, by correcting the estimated inter-vehicle distance due to the y-axis pixel position detecting unit using the feature point analyzing unit and the lane detecting unit, the accuracy of the estimated distance is improved even when the driving vehicle traverses the hill or the valley.
더욱이 앞차와의 차간거리를 추정함에 있어서 소정의 프레임 이상 지속되는 경우에만 앞차의 존재를 인식하여, 노이즈에 의한 오류를 방지할 수 있다.Furthermore, in estimating the inter-vehicle distance from the preceding vehicle, it is possible to recognize the presence of the next vehicle only when the distance is longer than a predetermined frame, thereby preventing an error caused by noise.
본 발명의 차간거리 추정장치는 차량운행 보조장치, 무인운행시스템, 기관차나 지하철의 안전운행시스템 등 다양한 곳에 사용될 수 있는 산업상 이용가능성이 있다.INDUSTRIAL APPLICABILITY The inter-vehicle distance estimating apparatus of the present invention is industrially applicable, which can be used in various fields such as a vehicle driving assist system, an unmanned operating system, a safe driving system of a locomotive or a subway.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변경이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is to be understood that various changes and modifications may be made without departing from the scope of the appended claims.
5 : 차선 10 : 카메라
20 : 속도계 30 : GPS
40 : 차선규격 데이터베이스 50 : 출력장치
100 : 정보처리장치 110 : 영상정보처리부
120 : 거리정보생성부 122 : y축 화소위치 검출부
124 : 특징점 분석부 126 : 차선 검출부
130 : 거리추정부 140 : 보정부5: Lane 10: Camera
20: Speedometer 30: GPS
40: lane specification database 50: output device
100: information processing apparatus 110: image information processing section
120: distance information generation unit 122: y-axis pixel position detection unit
124: feature point analysis unit 126: lane detection unit
130: Distance estimation unit 140:
Claims (3)
상기 카메라로부터 복수의 프레임동안 이미지 데이터를 인가받아 차선 데이터를 검출하는 차선검출부와, 상기 앞차의 y축 화소위치를 검출하여 상기 차선 데이터 및 기저장된 차선규격 데이터와 비교하여 상기 앞차와 운행차량 사이의 거리를 추정하는 거리추정부와, 상기 거리추정부에 의해 추정된 거리를 상기 복수개의 프레임 동안 수집하여 상기 추정된 거리를 보정하는 보정부를 포함하는 정보처리장치;
상기 차선규격 데이터가 저장되는 차선규격 데이터베이스; 및
상기 정보처리장치에 의해 생성된 상기 추정된 거리를 출력하는 출력장치를 포함하고
상기 거리추정부는 상기 운행차량과 상기 앞차 사이의 차선들의 개수 및 인접하는 차선 사이의 개수를 상기 기저장된 차간규격 데이터와 비교하여 상기 거리를 추정하는 것을 특징으로 하는 차간거리 추정장치.
A camera for converting the image of the leading vehicle and the lane into image data;
A lane detecting section for receiving image data from the camera for a plurality of frames and detecting lane data; and a lane detecting section for detecting a y-axis pixel position of the preceding vehicle and comparing the lane data and the stored lane standard data, An information processing apparatus comprising a distance estimator for estimating a distance and a compensator for collecting the distance estimated by the distance estimator during the plurality of frames and correcting the estimated distance;
A lane specification database in which the lane specification data is stored; And
And an output device for outputting the estimated distance generated by the information processing device
Wherein the distance estimating unit estimates the distance by comparing the number of lanes between the driving vehicle and the front vehicle and the number of adjacent lanes with the pre-stored inter-vehicle specification data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140193105A KR101609819B1 (en) | 2014-12-30 | 2014-12-30 | Apparatus for Inter-Vehicle Distance Estimation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140193105A KR101609819B1 (en) | 2014-12-30 | 2014-12-30 | Apparatus for Inter-Vehicle Distance Estimation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101609819B1 true KR101609819B1 (en) | 2016-04-06 |
Family
ID=55790821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140193105A KR101609819B1 (en) | 2014-12-30 | 2014-12-30 | Apparatus for Inter-Vehicle Distance Estimation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101609819B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101809088B1 (en) * | 2017-07-11 | 2017-12-14 | 주식회사 에프에스솔루션 | Apparatus and method for forward collision warning |
KR20210058350A (en) * | 2019-11-14 | 2021-05-24 | 계명대학교 산학협력단 | Apparatus for calculating distance between vehicles and method thereof |
KR102363924B1 (en) * | 2020-10-06 | 2022-02-15 | 한국산업기술대학교산학협력단 | Distance measuring device and method for nearing vehicle using image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003322522A (en) | 2002-05-07 | 2003-11-14 | Daihatsu Motor Co Ltd | Inter-vehicle distance detection device and detection method |
JP2006331193A (en) | 2005-05-27 | 2006-12-07 | Honda Motor Co Ltd | Vehicle, image processing system, image processing method, and image processing program |
JP2013119283A (en) | 2011-12-06 | 2013-06-17 | Isuzu Motors Ltd | Collision damage reducing device |
-
2014
- 2014-12-30 KR KR1020140193105A patent/KR101609819B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003322522A (en) | 2002-05-07 | 2003-11-14 | Daihatsu Motor Co Ltd | Inter-vehicle distance detection device and detection method |
JP2006331193A (en) | 2005-05-27 | 2006-12-07 | Honda Motor Co Ltd | Vehicle, image processing system, image processing method, and image processing program |
JP2013119283A (en) | 2011-12-06 | 2013-06-17 | Isuzu Motors Ltd | Collision damage reducing device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101809088B1 (en) * | 2017-07-11 | 2017-12-14 | 주식회사 에프에스솔루션 | Apparatus and method for forward collision warning |
KR20210058350A (en) * | 2019-11-14 | 2021-05-24 | 계명대학교 산학협력단 | Apparatus for calculating distance between vehicles and method thereof |
KR102259603B1 (en) | 2019-11-14 | 2021-06-02 | 계명대학교 산학협력단 | Apparatus for calculating distance between vehicles and method thereof |
KR102363924B1 (en) * | 2020-10-06 | 2022-02-15 | 한국산업기술대학교산학협력단 | Distance measuring device and method for nearing vehicle using image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
EP2757541B1 (en) | Three-dimensional object detection device | |
CN107392103B (en) | Method and device for detecting road lane line and electronic equipment | |
EP2843615B1 (en) | Device for detecting three-dimensional object and method for detecting three-dimensional object | |
US10246030B2 (en) | Object detection apparatus and driving assistance apparatus | |
JP4321821B2 (en) | Image recognition apparatus and image recognition method | |
RU2571368C1 (en) | Device for detecting three-dimensional objects, method of detecting three-dimensional objects | |
US11023744B2 (en) | Road parameter calculator | |
EP3223241A1 (en) | Travel route recognition device, and travel assistance system using same | |
EP2797320B1 (en) | Object detection device | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
EP3576008A1 (en) | Image based lane marking classification | |
US10002433B2 (en) | Boundary line recognition apparatus and branch road determination apparatus | |
KR101240499B1 (en) | Device and method for real time lane recogniton and car detection | |
JP4616046B2 (en) | VEHICLE IMAGE PROCESSING SYSTEM, VEHICLE IMAGE PROCESSING METHOD, VEHICLE IMAGE PROCESSING PROGRAM, AND VEHICLE | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
KR20150102546A (en) | Apparatus and method for recognizing lane | |
EP2720193A2 (en) | Method and system for detecting uneven road surface | |
US20150363653A1 (en) | Road environment recognition system | |
KR101035761B1 (en) | Method of processing image for recognizing a lane and the system thereof | |
JP2001050713A (en) | Image processing method and device | |
JP4775658B2 (en) | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method | |
JP2018190082A (en) | Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system | |
KR101609819B1 (en) | Apparatus for Inter-Vehicle Distance Estimation | |
JP6649859B2 (en) | Vehicle position estimation device and vehicle position estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190306 Year of fee payment: 4 |