KR20180075985A - Apparatus for autonomous steering prediction considering driving environment and method thereof - Google Patents
Apparatus for autonomous steering prediction considering driving environment and method thereof Download PDFInfo
- Publication number
- KR20180075985A KR20180075985A KR1020160180010A KR20160180010A KR20180075985A KR 20180075985 A KR20180075985 A KR 20180075985A KR 1020160180010 A KR1020160180010 A KR 1020160180010A KR 20160180010 A KR20160180010 A KR 20160180010A KR 20180075985 A KR20180075985 A KR 20180075985A
- Authority
- KR
- South Korea
- Prior art keywords
- value
- steering
- driving
- traveling
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000007613 environmental effect Effects 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000010485 coping Effects 0.000 abstract description 2
- 208000035278 mandibuloacral dysplasia progeroid syndrome Diseases 0.000 description 11
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D6/00—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
- B62D6/001—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits the torque NOT being among the input parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D6/00—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
- B62D6/002—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits computing target steering angles for front or rear wheels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B60W2550/10—
-
- B60W2550/14—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
Abstract
Description
본 발명은 주행환경 감응형 자율 조향 예측 장치 및 그 방법에 관한 것으로, 보다 상세하게는 주행 차량의 주행 정보 및 주행환경을 고려하여 조향값을 예측하는 주행환경 감응형 자율 조향 예측 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for predicting a traveling environment-sensitive autonomous steering, and more particularly, to a traveling environment-sensitive autonomous-steering prediction apparatus and method for predicting a steering value in consideration of traveling information and a traveling environment of a traveling vehicle .
자율 주행 자동차(Self-Driving Car)는 운전자의 조작 없이도 자동차 스스로 도로의 상황을 파악해 자동으로 주행하는 차를 말한다. 자율 주행 자동차는 운전자에게 운전하는 시간을 절약하게 해주고 도로 뒤에서 사고를 줄여주며, 연료 사용을 절감하고 오염물질 배출을 줄이는 등의 다양한 장점을 가지고 있다. A self-driving car is a car that automatically recognizes the condition of a road without the driver's operation. Autonomous vehicles have a number of advantages, including saving drivers time, reducing accidents behind the road, reducing fuel use and reducing pollutant emissions.
이와 같은 자율 주행 자동차가 실용화가 되기 위해서는 안정성 측면에서 다양한 주행상황에서 다음 주행단계를 위한 빠른 판단을 하고 최선의 주행결과를 도출할 수 있어야 한다. 그러므로 고속도로 및 도심환경에서 기본적인 자율주행 기능으로 분류되는 스티어링 휠의 조향을 자율적으로 제어하는 기술은 환경인지 능력과 상황적 대처의 유연성이 요구된다.In order for such an autonomous vehicle to be put to practical use, it should be possible to make a quick judgment for the next driving stage in various driving situations in terms of stability and to derive the best driving result. Therefore, the technology to autonomously control the steering wheel steering, which is classified as basic autonomous driving function in the highway and the urban environment, requires environmental awareness and flexibility of situational coping.
현재 자율 조향제어 기술은 카메라 또는 근적외선을 이용하는 라이다(LiDAR)와 같은 광학센서를 사용하여 차선을 검출 및 인식하고 이를 바탕으로 주행 차량의 바람직한 조향 각도를 계산한다. 이를 위해 현재 주행 차량의 정보(조향각, 속도 등)를 사용하여 횡방향 제어모델을 사용하며 선행차량을 검지하고 속도를 가감속하기 위해서는 카메라보다 외부환경에 강인한 레이다(RADAR)를 사용하기도 한다.Current autonomous steering control technology detects and recognizes lanes using cameras or optical sensors such as LiDAR (LiDAR) using near-infrared rays, and calculates the preferred steering angle of the traveling vehicle based on the detection. For this, a lateral control model is used by using information (steering angle, speed, etc.) of the current driving vehicle, and a radar (RADAR) stronger to the outside environment than the camera is used in order to detect the preceding vehicle and speed up and down.
이와 같은 방법은 차선추종기반 자율 조향제어 기능에 특화된 것으로 일반적인 주행환경에서는 안정적인 주행성능을 제공한다. This method is specialized for lane-following autonomous steering control and provides stable driving performance in a typical driving environment.
하지만, 실제 주행환경은 날씨, 도로상태, 계절, 주야간 등의 다양한 환경에 노출이 되어 있어 완전한 자율주행을 보장하기 위해 통상적인 환경수준을 가정하기가 어렵다는 문제점이 있다. However, since the actual driving environment is exposed to various environments such as weather, road conditions, seasons, day and night, it is difficult to assume a normal environment level in order to guarantee complete autonomous driving.
그러므로, 실제 주행환경과 같은 환경 조건에 대응하여 조향각을 예측하고 보정하는 기술이 요구된다. Therefore, there is a demand for a technique for predicting and correcting the steering angle in response to environmental conditions such as the actual driving environment.
본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제 10-1490905호(2015.02.06 공고)에 개시되어 있다.The technology which is the background of the present invention is disclosed in Korean Patent No. 10-1490905 (published on Feb. 20, 2015).
본 발명이 이루고자 하는 기술적 과제는 주행 차량의 주행 정보 및 주행환경을 고려하여 조향값을 예측하는 주행환경 감응형 자율 조향 예측 장치 및 그 방법을 제공하는 것이다.An object of the present invention is to provide a driving environment-sensitive autonomous steering prediction apparatus and method for predicting a steering value in consideration of driving information and driving environment of a driving vehicle.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 주행환경 감응형 자율 조향 예측 장치는 주행 차량에 장착된 카메라의 촬영 영상으로부터 특징점을 추출하고, 추출된 특징점을 이용하여 조향값을 예측하는 기본 조향값 예측부, 이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 상기 주행 차량의 주행환경 특이성을 판단하는 상황 판단부, 상기 주행환경 특이성에 대응하는 환경요소를 고려하여 상기 예측된 조향값을 보정하는 조향값 보정부, 그리고 상기 예측된 조향값의 신뢰도 값을 도출하고, 상기 신뢰도 값과 기 설정된 임계값과 비교하여 상기 신뢰도 값이 상기 임계값보다 크면, 예측된 조향값을 출력하고, 상기 신뢰도 값이 상기 임계값보다 작으면, 보정된 조향값을 출력하는 제어부를 포함한다.According to an embodiment of the present invention, a traveling environment-sensitive autonomous-steer-type predicting device is provided for extracting a characteristic point from an image of a camera mounted on a driving vehicle, and estimating a steering value using the extracted characteristic point The steering angle estimating unit may include a situation determining unit for determining the driving environment specificity of the driving vehicle by analyzing the driving information of the driving vehicle and the driving environment recognition result at the current point of time at the previous point of time, Calculating a reliability value of the predicted steering value by comparing the reliability value with a preset threshold value and if the reliability value is greater than the threshold value, And outputs a corrected steering value when the reliability value is smaller than the threshold value .
상기 상황 판단부는, 상기 주행 차량에 장착된 카메라를 통해 촬영된 영상을 분석하여, 주행 도로의 노면 상태, 전방 가시 상태, 주행도로 타입, 주행 인접 객체 또는 장애물 분포별로 분류하여 환경 조건을 인식할 수 있다.The situation determination unit may analyze an image photographed through a camera mounted on the driving vehicle to recognize environmental conditions by classifying the image according to a road surface state, a forward visibility state, a traveling road type, a driving neighboring object, have.
상기 상황 판단부는, 상기 주행 차량의 조향각, 속도를 포함하는 내부정보와 분류별로 인식된 환경 조건을 심층신경망(Deep Neural Network)에 적용하여 주행환경 특이성을 판단할 수 있다.The situation determination unit can determine the driving environment specificity by applying the internal information including the steering angle and speed of the traveling vehicle and the environmental condition recognized by the classification to the Deep Neural Network.
상기 제어부는, 상기 보정된 조향값의 보정 값이 기준 범위에 포함되는지 판단하여, 상기 보정 값이 기준 범위에 포함되는 경우 상기 보정된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력하고, 상기 보정 값이 기준 범위에 포함되지 않는 경우 상기 예측된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력할 수 있다.The control unit may determine whether the correction value of the corrected steering value is included in the reference range, and when the correction value is included in the reference range, the corrected steering value may be determined by an ECU (Electronic Control Unit) And outputs the predicted steering value to an ECU (Electronic Control Unit) of the traveling vehicle or electric power steering when the correction value is not included in the reference range.
상기 기본 조향값 예측부는, 상기 추출된 특징점을 이용하여 주행차선 검출하고 주행 차량의 위치를 추정하여, 미리 조향값을 예측하거나 또는 심층신경망(DNN)을 포함하는 학습알고리즘을 통하여 촬영 영상으로부터 조향값을 예측할 수 있다.The basic steering value predicting unit estimates the driving vehicle lane using the extracted characteristic points and estimates the position of the driving vehicle and predicts the steering value from the steering angle value or the steering angle value from the photographing image through a learning algorithm including a deep- Can be predicted.
본 발명의 다른 실시예에 따르면, 주행환경 감응형 자율 조향 예측 장치를 이용한 자율 조향 예측 방법에 있어서, 주행 차량에 장착된 카메라의 촬영 영상으로부터 특징점을 추출하고, 추출된 특징점을 이용하여 조향값을 예측하는 단계, 예측된 조향값의 신뢰도 값을 도출하고 상기 신뢰도 값과 기 설정된 임계값과 비교하여, 상기 신뢰도 값이 상기 임계값보다 크면, 예측된 조향값을 출력하는 단계, 상기 신뢰도 값이 상기 임계값보다 작으면, 이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 상기 주행 차량의 주행환경 특이성을 판단하는 단계, 상기 주행환경 특이성에 대응하는 환경요소를 고려하여 상기 예측된 조향값을 보정하는 단계, 그리고 보정된 조향값을 출력하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method of predicting autonomous steering using an autonomous steering system of a traveling environment-sensitive autonomous steering system, comprising the steps of: extracting a feature point from an image of a camera mounted on a driving vehicle; Calculating a reliability value of a predicted steering value, comparing the reliability value with a predetermined threshold value, and outputting a predicted steering value if the reliability value is greater than the threshold value, Determining a driving environment specificity of the driving vehicle by analyzing driving information of the driving vehicle and a current driving environment recognition result at a previous time point if the driving environment specificity is smaller than a threshold value, Correcting the predicted steering value, and outputting the corrected steering value.
본 발명에 따르면, 주행 차량의 상태 정보 및 외부 주행환경을 고려하여 조향값을 보정함으로써, 실제 주행환경에 적합하고 돌발 상황에서 유연하게 대처 가능한 조향값을 예측하고 제공할 수 있다. According to the present invention, it is possible to predict and provide a steering value that is suitable for an actual driving environment and can be flexibly coped with in an unexpected situation by correcting the steering value in consideration of the state information of the traveling vehicle and the external driving environment.
또한, 본 발명에 따르면 심층 네트워크 (Deep Neural Network) 모델을 이용하여 지속적인 학습을 통해 주행 차량의 자율 주행 판단 능력이 향상된다. In addition, according to the present invention, the ability to determine the autonomous driving of a traveling vehicle is improved through continuous learning using a deep network model.
도 1은 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 시스템을 도시한 구성도이다.
도 2는 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 장치를 나타낸 구성도이다.
도 3은 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 방법을 나타낸 순서도이다.
도 4는 본 발명의 실시예에 따른 다양한 주행환경을 나타낸 예시도이다. FIG. 1 is a configuration diagram showing a traveling environment-sensitive autonomous steering prediction system according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a traveling environment-sensitive autonomous-steering prediction apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a traveling environment-sensitive autonomous steering prediction method according to an embodiment of the present invention.
4 is an exemplary view showing various driving environments according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.
먼저, 도 1을 통해 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 장치를 이용한 자율 조향 예측 시스템에 대해서 살펴본다. 도 1은 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 시스템을 도시한 구성도이다.First, an autonomous steering prediction system using a traveling environment-sensitive autonomous steering prediction apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram showing a traveling environment-sensitive autonomous steering prediction system according to an embodiment of the present invention.
도 1에 도시한 바와 같이, 자율 조향 예측 시스템은 카메라(100), 주행환경 감응형 자율 조향 예측 장치(200), 차량 센서(300) 및 ECU/MDPS(400)을 포함한다. 1, the autonomous steering prediction system includes a camera 100, a traveling environment sensitive autonomous
먼저, 카메라(100)는 차량에 장착되어 차량의 전방을 포함하는 차량의 주변 환경을 촬영한다. 이때, 카메라(100)는 적어도 하나의 카메라가 차량에 별도로 장착될 수 있고, 차량에 장착되어있는 내비게이션, 블랙박스와 같은 기기의 카메라를 나타낼 수 있다. First, the camera 100 is mounted on the vehicle and photographs the surrounding environment of the vehicle including the front of the vehicle. At this time, at least one camera may be separately installed in the vehicle 100, and may represent a camera of a device such as a navigation device or a black box mounted on the vehicle.
주행환경 감응형 자율 조향 예측 장치(200)는 카메라(100)로부터 촬영 영상을 수신하여 차선을 검출하고, 검출된 차선방향에 따라 조향 값을 예측한다The driving environment-sensitive
그리고 주행환경 감응형 자율 조향 예측 장치(20)는 예측된 조향 값에 대한 신뢰도 값을 도출하고, 기 설정된 임계값과 비교하여 예측된 조향값이 현재 상황에 적합한지 확인한다. The driving environment-sensitive autonomous steering apparatus 20 derives a reliability value for the predicted steering value, compares the reliability value with a preset threshold value, and confirms whether the predicted steering value is suitable for the current situation.
만약, 예측된 조향 값에 대한 신뢰도 값이 기 설정된 임계값보다 크면, 주행환경 감응형 자율 조향 예측 장치(200)는 예측된 조향값을 차량의 이동 방향을 제어하는 장치로 출력한다. 반면에, 예측된 조향 값에 대한 신뢰도 값이 기 설정된 임계값보다 작거나 같으면 주행환경 감응형 자율 조향 예측 장치(200)는 이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 주행환경 특이성을 판단한다. 그리고 주행환경 감응형 자율 조향 예측 장치(200)는 주행환경 특이성에 대응하는 환경요소를 고려하여 예측된 조향값을 보정하고, 보정된 조향값을 차량의 이동 방향을 제어하는 장치로 출력한다. If the reliability value of the predicted steering value is greater than a predetermined threshold value, the traveling environment-sensitive autonomous-
차량 센서(300)는 차량에 장착되어 차량의 외부 또는 내부의 정보를 측정하는 센서 및 기기를 나타낸다. The vehicle sensor 300 represents a sensor and a device mounted on the vehicle for measuring information on the outside or inside of the vehicle.
예를 들어 차량 센서(300)는 레이다 센서, 레이더 센서, 노면 상태를 판단하는 센서, 후방 감지 센서, 초음파 센서, 하이트 센서(Height Sensor), 차량 속도 센서(VSS: Vehicle Speed Sensor), 전자 제어 기기(Electronic Control Unit, ECU), 차량안전장치(Electronic Stability Program, ESP)를 포함하며 이에 한정하지는 않는다. For example, the vehicle sensor 300 may be a radar sensor, a radar sensor, a sensor for determining the road surface condition, a rear sensor, an ultrasonic sensor, a height sensor, a vehicle speed sensor (VSS) (Electronic Control Unit, ECU), and Electronic Stability Program (ESP).
ECU/MDPS(400)는 차량의 이동 방향을 제어하는 장치를 나타낸다. 여기서, 전자 제어 기기(ECU)는 자동차의 엔진, 자동변속기, 브레이크 잠김 방지 장치(anti-lock brake system, ABS)의 상태를 컴퓨터로 제어하는 전자 제어 장치를 나타내며, 전동식 파워 스티어링(Motor Driven Power Steering, MDPS)는 전동식 모터의 힘으로 핸들을 조종할 때 보조해주는 장치를 의미한다. MDPS는 저속에는 가볍게 돌아가고 고속에는 무겁게 움직이도록 속도에 따라 저속과 고속에서 최적으로 조향력을 달리 제공할 수 있으며, 차량 조향 시에만 작동하여 연비향상에 도움이 된다. The ECU / MDPS 400 represents a device for controlling the moving direction of the vehicle. Here, the electronic control unit (ECU) represents an electronic control unit that controls the state of an engine of an automobile, an automatic transmission, and an anti-lock brake system (ABS) by a computer, and includes an electric power steering , MDPS) refers to a device that assists in steering a handle with the help of an electric motor. MDPS can provide optimum steering power at low and high speeds depending on the speed so that it moves lightly at low speeds and heavily at high speeds.
설명 편의상 ECU/MDPS로 명칭하였으나 차량의 조향값을 적용하여 차량의 이동 방향을 제어하는 장치를 포함하며, 특정한 장치로 한정하는 것은 아니다.For convenience of explanation, the ECU / MDPS is referred to as a device for controlling the moving direction of the vehicle by applying the steering value of the vehicle. However, the present invention is not limited to the specific device.
다음으로 도 2는 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 장치를 나타낸 구성도이다. Next, FIG. 2 is a configuration diagram of a traveling environment-sensitive autonomous-steering prediction apparatus according to an embodiment of the present invention.
도 2에 도시한 바와 같이, 주행환경 감응형 자율 조향 예측 장치(200)는 기본 조향값 예측부(210), 상황판단부(220), 조향값 보정부(230) 및 제어부(240)를 포함한다. 2, the traveling environment-sensitive
먼저, 기본 조향값 예측부(210)는 촬영 영상에서 특징점을 추출하고, 추출된 특징점을 이용하여 주행차선 검출하고 주행 차량의 위치를 추정한 후 다음 조향값을 연산할 수 있다. First, the basic steering value predicting unit 210 may extract feature points from the photographed image, detect driving lanes using the extracted feature points, estimate the position of the driving vehicle, and calculate the following steering values.
또는, 기본 조향값 예측부(210)는 End-to-End Learning 방식을 이용하여 촬영 영상으로부터 다음 최적의 조향값을 예측할 수 있다. 이때, End-to-End Learning방식은, 촬영 영상으로부터 별도의 차선 검출 및 조향각 계산 과정을 거치지 않고 주행 데이터로부터 심층신경망(DNN)과 같은 학습 알고리즘을 적용하여 조향값을 예측할 수 있다. Alternatively, the basic steering value predicting unit 210 may predict the next optimum steering value from the shot image using the end-to-end learning method. In this case, the end-to-end learning method can predict a steering value by applying a learning algorithm such as a deep-nerve network (DNN) from running data without performing a separate lane detection and a steering angle calculation process from the shot image.
상황 판단부(220)는 카메라(100)의 촬영 영상을 분석하거나 차량에 장착된 센서(300)를 통해 노면 및 주행환경의 상태를 인식한다. 또한, 상황판단부(220)는 주행하는 차량의 내부 주행 정보를 수신하여 현재 시점에서의 주행 차량의 제어 상태를 인식할 수 있다. 따라서, 상황 판단부(220)는 외부 주행환경 및 차량의 주행 상태를 인식하여 주행 환경 특이성을 판단할 수 있다. The
다음으로 조향값 보정부(230)는 상황 판단부(220)에서 판단한 주행환경 특이성에 대응하는 환경요소를 고려하여 예측된 조향값을 보정한다. Next, the steering
그리고 제어부(240)는 예측된 조향값의 신뢰도 값을 도출하고, 신뢰도 값이 기 설정된 임계값보다 크면 예측된 조향값을 차량의 전자 제어 기기(ECU) 또는 전동식 파워 스티어링(MDPS)으로 출력한다. The
한편, 제어부(240)는 예측된 조향값의 신뢰도 값이 기 설정된 임계값보다 같거나 작으면 외부 환경 요소를 고려한 보정된 조향값을 전자 제어 기기(ECU) 또는 전동식 파워 스티어링(MDPS)으로 출력한다. If the reliability value of the predicted steering value is equal to or smaller than a predetermined threshold value, the
이때, 제어부(240)는 보정된 조향값이 정상범위에 해당하는 지 확인 한 후, 정상범위에 해당하는 경우에만 보정된 조향값을 출력하고, 정상범위에 해당하지 않은 경우, 기본 조향값 예측부(210)에서 예측한 조향값을 출력할 수 있다.At this time, the
이하에서는 도 3 및 도 4를 이용하여 다양한 주행 환경에 따른 주행환경 감응형 자율 조향 예측 방법에 대해서 설명한다. Hereinafter, a driving environment-sensitive autonomous steering prediction method according to various driving environments will be described with reference to FIGS. 3 and 4. FIG.
도 3은 본 발명의 실시예에 따른 주행환경 감응형 자율 조향 예측 방법을 나타낸 순서도이고, 도 4는 본 발명의 실시예에 따른 다양한 주행환경을 나타낸 예시도이다. FIG. 3 is a flow chart illustrating a method of predicting a driving environment-sensitive autonomous steering according to an embodiment of the present invention, and FIG. 4 is a diagram illustrating various driving environments according to an embodiment of the present invention.
먼저, 기본 조향 예측부(210)는 주행 차량에 장착된 카메라의 촬영 영상으로부터 특징점을 추출하고, 추출된 특징점을 이용하여 조향값을 예측한다(S310). 이때, 기본 조향 예측부(210)는 추출된 특징점을 이용하여 주행차선 검출하고 주행 차량의 위치를 추정하고, 그에 따라 다음 조향값을 예측한다, First, the basic steering predictor 210 extracts the feature points from the photographed images of the camera mounted on the driving vehicle, and predicts the steering values using the extracted feature points (S310). At this time, the basic steering predictor 210 detects the driving lane using the extracted feature points, estimates the position of the driving vehicle, and predicts the next steering value accordingly.
또는 기본 조향 예측부(210)는 심층신경망(DNN)을 포함하는 학습알고리즘을 통하여 촬영 영상으로부터 다음 시점의 조향값을 예측할 수 있다. Alternatively, the basic steering predictor 210 may predict a steering value at a next time point from a photographed image through a learning algorithm including a depth-of-field network (DNN).
한편 기본 조향 예측부(210)는 두가지 방법을 모두 이용하여 하나의 조향값을 예측하거나, 두가지 방법을 통해 각각 조향값을 예측하고 제어부(240)가 각 예측된 조향값의 신뢰도 값을 도출하여 신뢰도 값이 더 높은 예측 방법의 예측된 조향값을 선택할 수 있다. Meanwhile, the basic steering predictor 210 estimates one steering value by using both methods or predicts the steering values through two methods, and the
다음으로, 제어부(240)는 예측된 조향값의 신뢰도 값을 도출(S320)하고 상기 신뢰도 값과 기 설정된 임계값과 비교한다(S330). Next, the
여기서, 신뢰도는 차선의 검출 정확도를 나타낸다. 예를 들어, 눈 또는 얼음으로 차로가 덮여 있거나 차로에 크랙 발생이나 전방 시야의 확보 어려움으로 차선의 표식 상태가 불완전한 경우 신뢰도 값은 낮게 도출된다. Here, the reliability represents the detection accuracy of the lane. For example, if lane markings are incomplete due to lane covered with snow or ice, or cracks in the lane or difficulty in securing an anterior visual field, the reliability value is lowered.
이와 같은 신뢰도를 측정하는 기준 및 임계값은 추후에 사용자에 의해 변경 및 설정이 가능하다. The criterion and threshold value for measuring such reliability can be changed and set later by the user.
그리고 제어부(240)는 신뢰도 값이 임계값보다 크면, 예측된 조향값을 출력한다(S340). If the reliability value is greater than the threshold value, the
제어부(240)는 신뢰도 값이 임계값보다 크면, 예측된 조향값이 도로 상황에 적합하다고 판단하여 해당 조향값에 따라 차량의 이동 방향을 제어하도록 주행 차량의 전자 제어 기기(ECU) 또는 전동식 파워 스티어링(MDPS)으로 출력한다. If the reliability value is greater than the threshold value, the
한편, 신뢰도 값이 임계값보다 작으면, 상황판단부(220)는 이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 상기 주행 차량의 주행환경 특이성을 판단한다(S350).If the reliability value is smaller than the threshold value, the
상황 판단부(220)는 이전 시점에서의 주행 차량의 조향값, 속도와 같은 주행 정보를 수집하고, 카메라(100)를 통해 차선뿐 아니라 주행 도로 노면의 상태, 도로의 규모, 도로가 위치한 인근환경, 날씨, 가시성등과 같은 주행환경을 인식한다. The
도 4에서와 같이, 주행환경은 동일한 도로라고 하더라도 계절, 날씨, 상황에 따라서 다양한 도로 상태가 달라진다. 즉, 도로 상태에 따라 동일한 조향값을 적용하더라도 실제 차량이 움직이는 정도가 달라진다. As shown in FIG. 4, various road conditions vary depending on season, weather, and situation even if the driving environment is the same road. That is, even if the same steering value is applied according to the road condition, the degree of movement of the actual vehicle is changed.
그러므로, 상황 판단부(220)는 주행 차량에 장착된 카메라(100)와 센서(300)를 통해 수집된 데이터를 분석하여, 주행 도로의 노면 상태, 전방 가시 상태, 주행도로 타입, 주행 인접 객체 또는 장애물 분포별로 분류하여 환경 조건을 인식한다. Therefore, the
보다 상세하게 설명하면, 상황 판단부(220)는 크게 노면상태인식분류기, 주행도로타입 인식분류기, 전방가시상태 인식분류기, 주행인접객체 또는 장애물 인식 분류기와 같이 4종류의 세부 주요 인식분류기로 구분하여 주행환경을 인식할 수 있다. In more detail, the
먼저, 상황 판단부(220)는 노면상태인식분류기를 통해 도로 노면의 차선표식 상태의 선명한 정도, 노면 편평도 및 방지턱 또는 홀의 상태, 노면습기, 눈, 먼지 등으로 인한 도로면 위에 도포된 물질의 상태 및 정도를 인식한다. First, the
그리고 상황 판단부(220)는 주행도로타입 인식분류기를 통해 현재 주행하는 도로의 차선이 다차선 또는 단차선인지, 현재 차량이 주행하는 차선의 위치를 파악하고, 고속도로, 시골길, 산길, 터널 등의 도로 인근 환경의 타입을 인식한다. Then, the
다음으로 상황 판단부(220)는 전방 가시상태 인식 분류기를 통해 안개, 주간 태양광 상태, 야간의 조명 상태, 우천 상태 등 전방 시야에 대한 가시성을 인식한다. Next, the
그리고 상황 판단부(220)는 주행인접객체 또는 장애물 인식 분류기를 통해 주행 차량의 좌측, 우측, 전방 및 후방에 근접한 객체를 분류하고, 근접한 객체의 위치를 파악하며, 가드레일, 러버콘, 바와 같은 주행로 안내용 차선 대체물을 인식한다. The
이와 같은 인식분류기는 심층신경망(Deep Neural Network, DNN)의 학습에 용이하도록 계측적으로 분류된 것으로 심층신경망 네트워크 모델의 설계에 따라 적절하게 계측이 재분류 되거나 계층 또는 분류 단계가 추가되거나 감소될 수 있다. This recognition classifier is classified as a metrological classification for easy learning of Deep Neural Network (DNN). It can be appropriately re-classified according to the design of the neural network model, have.
즉, 본 발명의 실시예에서는 크게 4종류의 상위계층 분류기와 각 세부의 다양한 하위계층 분류그룹으로 나눠진 2계층의 분류계층도를 가지고 있지만, 추후에 사용자에 의해서 단일 계층 구조에서 상위계층 분류기를 세분화되거나 2단계 계층이 아닌 3단계 이상의 계층으로 분류그룹을 보다 계층화할 수도 있다. 또한, 주행환경 시나리오의 복잡성에 따라 주행환경 세부의 하위계층 분류의 경우의 수가 추가되거나 감소될 수 있다.In other words, in the embodiment of the present invention, there are two hierarchical classification hierarchies classified into four types of upper hierarchical classifiers and various sub-hierarchical classification groups of each detail, but later the user classifies the upper hierarchical classifiers in a single hierarchical structure Alternatively, the classification group may be further layered into three or more hierarchical levels rather than a two-level hierarchical level. In addition, the number of cases of lower hierarchical classification of the driving environment details may be added or reduced depending on the complexity of the driving environment scenario.
이와 같이, 주행 판단부(220)는 주행 차량의 조향각, 속도를 포함하는 내부정보와 분류별로 인식된 환경 조건을 심층신경망(DNN)에 적용하여 주행환경 특이성을 판단한다. In this manner, the driving
즉, 주행환경 특이성은 외부 주행 환경 및 내부 주행 정보를 모두 포함할 수 있다.That is, the driving environment specificity may include both the external driving environment and the internal driving information.
다음으로, 조향값 보정부(230)는 주행환경 특이성에 대응하는 환경요소를 고려하여 예측된 조향값을 보정한다(S360). Next, the steering
조향값 보정부(230)는 다양한 주행환경에서 차량의 조향값을 예측하고 적용하여 얻은 데이터를 이용하여 해당 환경요소에 대응하여 예측된 조향값을 보정할 수 있다. The steering
다음으로 제어부(240)는 보정된 조향값의 보정 값이 기준 범위에 포함되는지 판단한다(S370).Next, the
즉, 제어부(240)는 예측된 조향값과 보정된 조향값간의 차이 값인 보정 값이 환경요소를 고려할 때 정상범위에 포함되는 지 판단할 수 있다. That is, the
그리고 제어부(240)는 보정 값이 기준 범위에 포함되는 경우 보정된 조향값을 전자 제어 기기(ECU) 또는 전동식 파워 스티어링(MDPS)으로 출력한다(S380).If the correction value is included in the reference range, the
그리고 제어부(240)는 보정 값이 기준 범위에 포함되지 않는 경우 보정된 조향값이 정상적이지 않다고 판단하여 예측된 조향값을 주행 차량의 전자 제어 기기(ECU) 또는 전동식 파워 스티어링(MDPS)으로 출력한다.If the correction value is not included in the reference range, the
이와 같이 본 발명의 실시예에 따르면, 주행 차량의 상태 정보 및 외부 주행환경을 고려하여 조향값을 보정함으로써, 실제 주행환경에 적합하고 돌발 상황에서 유연하게 대처 가능한 조향값을 예측하고 제공할 수 있다. As described above, according to the embodiment of the present invention, the steering value is corrected in consideration of the state information of the traveling vehicle and the external traveling environment, so that it is possible to predict and provide a steering value that is suitable for the actual traveling environment and can be flexibly coped with in an unexpected situation .
또한, 본 발명의 실시예에 따르면 심층 네트워크(DNN) 모델을 이용하여 지속적인 학습을 통해 주행 차량의 자율 주행 판단 능력이 향상된다. In addition, according to the embodiment of the present invention, the self-driving determination ability of the traveling vehicle is improved through continuous learning using a deep network (DNN) model.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100: 카메라 200: 주행환경 감응형 자율 조향 예측 장치
210: 기본 조향 예측부 220: 상황 판단부
230: 조향값 보정부 240: 제어부
300: 차량 센서 400: ECU/MDPS100: camera 200: traveling environment-sensitive autonomous steering prediction device
210: basic steering prediction unit 220:
230: steering value correcting unit 240:
300: vehicle sensor 400: ECU / MDPS
Claims (10)
이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 상기 주행 차량의 주행환경 특이성을 판단하는 상황 판단부,
상기 주행환경 특이성에 대응하는 환경요소를 고려하여 예측된 조향값을 보정하는 조향값 보정부, 그리고
상기 예측된 조향값의 신뢰도 값을 도출하고, 상기 신뢰도 값과 기 설정된 임계값과 비교하여 상기 신뢰도 값이 임계값보다 크면, 예측된 조향값을 출력하고, 상기 신뢰도 값이 상기 임계값보다 작으면, 보정된 조향값을 출력하는 제어부를 포함하는 주행환경 감응형 자율 조향 예측 장치.A basic steering value predicting unit for extracting a characteristic point from a photographed image of a camera mounted on a driving vehicle and predicting a steering value using the extracted characteristic point,
A situation determination unit for determining the driving environment specificity of the driving vehicle by analyzing the driving information of the driving vehicle and the driving environment recognition result at the present time,
A steering value correcting unit for correcting a predicted steering value in consideration of an environmental factor corresponding to the traveling environment specificity, and
Derives a reliability value of the predicted steering value, compares the reliability value with a preset threshold value, and outputs a predicted steering value if the reliability value is greater than a threshold value, and if the reliability value is smaller than the threshold value And a controller for outputting the corrected steering value.
상기 상황 판단부는,
상기 주행 차량에 장착된 카메라를 통해 촬영된 영상을 분석하여, 주행 도로의 노면 상태, 전방 가시 상태, 주행도로 타입, 주행 인접 객체 또는 장애물 분포별로 분류하여 환경 조건을 인식하는 주행환경 감응형 자율 조향 예측 장치.The method according to claim 1,
The situation determination unit may determine,
An image captured through a camera mounted on the traveling vehicle is analyzed to classify the traveling condition of the traveling road according to the road surface state, forward visibility state, running road type, running adjacent object or obstacle distribution, Prediction device.
상기 상황 판단부는,
상기 주행 차량의 조향각, 속도를 포함하는 내부정보와 분류별로 인식된 환경 조건을 심층신경망(Deep Neural Network)에 적용하여 주행환경 특이성을 판단하는 주행환경 감응형 자율 조향 예측 장치.3. The method of claim 2,
The situation determination unit may determine,
Wherein the driving environment specificity is determined by applying the internal information including the steering angle and the speed of the driving vehicle to the Deep Neural Network.
상기 제어부는,
상기 보정된 조향값의 보정 값이 기준 범위에 포함되는지 판단하여, 상기 보정 값이 기준 범위에 포함되는 경우 상기 보정된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력하고, 상기 보정 값이 기준 범위에 포함되지 않는 경우 상기 예측된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력하는 주행환경 감응형 자율 조향 예측 장치.The method according to claim 1,
Wherein,
And determines whether the corrected value of the corrected steering value is included in the reference range. If the corrected value is included in the reference range, the corrected steering value is outputted to the ECU (Electronic Control Unit) of the traveling vehicle or the electric power steering And outputs the predicted steering value to an electronic control unit (ECU) or electric power steering of the driving vehicle when the correction value is not included in the reference range.
상기 기본 조향값 예측부는,
상기 추출된 특징점을 이용하여 주행차선 검출하고 주행 차량의 위치를 추정하여, 미리 조향값을 예측하거나 또는 심층신경망(DNN)을 포함하는 학습알고리즘을 통하여 촬영 영상으로부터 조향값을 예측하는 주행환경 감응형 자율 조향 예측 장치.The method according to claim 1,
Wherein the basic steering value predicting unit comprises:
A traveling lane detecting unit for detecting a driving lane using the extracted feature points, estimating a position of the driving vehicle, predicting a steering value in advance, or estimating a steering value from a photographed image through a learning algorithm including a deep- Autonomous steering prediction device.
주행 차량에 장착된 카메라의 촬영 영상으로부터 특징점을 추출하고, 추출된 특징점을 이용하여 조향값을 예측하는 단계,
예측된 조향값의 신뢰도 값을 도출하고 상기 신뢰도 값과 기 설정된 임계값과 비교하여, 상기 신뢰도 값이 임계값보다 크면, 예측된 조향값을 출력하는 단계,
상기 신뢰도 값이 상기 임계값보다 작으면, 이전 시점에서 주행 차량의 주행 정보와 현재 시점의 주행환경 인식 결과를 분석하여 상기 주행 차량의 주행환경 특이성을 판단하는 단계,
상기 주행환경 특이성에 대응하는 환경요소를 고려하여 상기 예측된 조향값을 보정하는 단계, 그리고
보정된 조향값을 출력하는 단계를 포함하는 자율 조향 예측 방법.A method for predicting autonomous steering using a traveling environment-sensitive autonomous steering prediction apparatus,
Extracting a feature point from a photographed image of a camera mounted on the driving vehicle, and estimating a steering value using the extracted feature point,
Deriving a reliability value of a predicted steering value, comparing the reliability value with a predetermined threshold value, and outputting a predicted steering value if the reliability value is greater than a threshold value,
Determining the driving environment specificity of the driving vehicle by analyzing the driving information of the driving vehicle and the driving environment recognition result at the current time when the reliability value is smaller than the threshold value,
Correcting the predicted steering value in consideration of environmental factors corresponding to the driving environment specificity, and
And outputting the corrected steering value.
상기 주행환경 특이성을 판단하는 단계는,
상기 주행 차량에 장착된 카메라를 통해 촬영된 영상을 분석하여, 주행 도로의 노면 상태, 전방 가시 상태, 주행도로 타입, 주행 인접 객체 또는 장애물 분포별로 분류하여 환경 조건을 인식하는 주행환경 감응형 자율 조향 예측 방법.The method according to claim 6,
The step of determining the traveling environment specificity comprises:
An image captured through a camera mounted on the traveling vehicle is analyzed to classify the traveling condition of the traveling road according to the road surface state, forward visibility state, running road type, running adjacent object or obstacle distribution, Prediction method.
상기 주행환경 특이성을 판단하는 단계는,
상기 주행 차량의 조향각, 속도를 포함하는 내부정보와 분류별로 인식된 환경 조건을 심층신경망(Deep Neural Network)에 적용하여 주행환경 특이성을 판단하는 주행환경 감응형 자율 조향 예측 방법.8. The method of claim 7,
The step of determining the traveling environment specificity comprises:
Wherein the driving environment specificity is determined by applying the internal information including the steering angle and the speed of the driving vehicle to the Deep Neural Network.
상기 보정된 조향값을 출력하는 단계는,
상기 보정된 조향값의 보정 값이 기준 범위에 포함되는지 판단하여, 상기 보정 값이 기준 범위에 포함되는 경우 상기 보정된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력하고, 상기 보정 값이 기준 범위에 포함되지 않는 경우 상기 예측된 조향값을 상기 주행 차량의 ECU(Electronic Control Unit) 또는 전동식 파워 스티어링으로 출력하는 주행환경 감응형 자율 조향 예측 방법.The method according to claim 6,
Wherein the step of outputting the corrected steering value comprises:
And determines whether the corrected value of the corrected steering value is included in the reference range. If the corrected value is included in the reference range, the corrected steering value is outputted to the ECU (Electronic Control Unit) of the traveling vehicle or the electric power steering And outputting the predicted steering value to an electronic control unit (ECU) or electric power steering of the driving vehicle when the correction value is not included in the reference range.
상기 조향값을 예측하는 단계는,
상기 추출된 특징점을 이용하여 주행차선 검출하고 주행 차량의 위치를 추정하여, 미리 조향값을 예측하거나 또는 심층신경망(DNN)을 포함하는 학습알고리즘을 통하여 촬영 영상으로부터 조향값을 예측하는 주행환경 감응형 자율 조향 예측 방법.
The method according to claim 6,
The step of predicting the steering value includes:
A traveling lane detecting unit for detecting a driving lane using the extracted feature points, estimating a position of the driving vehicle, predicting a steering value in advance, or estimating a steering value from a photographed image through a learning algorithm including a deep- Autonomous steering prediction method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160180010A KR20180075985A (en) | 2016-12-27 | 2016-12-27 | Apparatus for autonomous steering prediction considering driving environment and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160180010A KR20180075985A (en) | 2016-12-27 | 2016-12-27 | Apparatus for autonomous steering prediction considering driving environment and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180075985A true KR20180075985A (en) | 2018-07-05 |
Family
ID=62920052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160180010A KR20180075985A (en) | 2016-12-27 | 2016-12-27 | Apparatus for autonomous steering prediction considering driving environment and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180075985A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190099148A (en) * | 2019-08-05 | 2019-08-26 | 엘지전자 주식회사 | Method and apparatus for updating application based on data in an autonomous driving system |
CN110758548A (en) * | 2018-07-27 | 2020-02-07 | 比亚迪股份有限公司 | Steering assist control method, vehicle, server, storage medium, and system |
KR20200018183A (en) * | 2018-08-09 | 2020-02-19 | 재단법인대구경북과학기술원 | High Reliability Autonomous Driving System Architecture |
CN116176576A (en) * | 2023-04-25 | 2023-05-30 | 巨野金牛车业有限公司 | Trailer collision intelligent early warning system and method based on artificial intelligence |
KR20240071866A (en) * | 2022-11-16 | 2024-05-23 | 한동대학교 산학협력단 | Method and system for estimating steering value from vehicle driving trajectory |
-
2016
- 2016-12-27 KR KR1020160180010A patent/KR20180075985A/en not_active IP Right Cessation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110758548A (en) * | 2018-07-27 | 2020-02-07 | 比亚迪股份有限公司 | Steering assist control method, vehicle, server, storage medium, and system |
CN110758548B (en) * | 2018-07-27 | 2021-06-18 | 比亚迪股份有限公司 | Steering assist control method, vehicle, server, storage medium, and system |
KR20200018183A (en) * | 2018-08-09 | 2020-02-19 | 재단법인대구경북과학기술원 | High Reliability Autonomous Driving System Architecture |
KR20190099148A (en) * | 2019-08-05 | 2019-08-26 | 엘지전자 주식회사 | Method and apparatus for updating application based on data in an autonomous driving system |
KR20240071866A (en) * | 2022-11-16 | 2024-05-23 | 한동대학교 산학협력단 | Method and system for estimating steering value from vehicle driving trajectory |
CN116176576A (en) * | 2023-04-25 | 2023-05-30 | 巨野金牛车业有限公司 | Trailer collision intelligent early warning system and method based on artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3544856B1 (en) | Determining a road surface characteristic | |
JP7291129B2 (en) | Method and apparatus for recognizing and evaluating environmental impacts based on road surface conditions and weather | |
US8670592B2 (en) | Clear path detection using segmentation-based method | |
US8428305B2 (en) | Method for detecting a clear path through topographical variation analysis | |
US9435885B2 (en) | Road-terrain detection method and system for driver assistance systems | |
US10147002B2 (en) | Method and apparatus for determining a road condition | |
US9297641B2 (en) | Detection of obstacles at night by analysis of shadows | |
US8634593B2 (en) | Pixel-based texture-less clear path detection | |
US9064418B2 (en) | Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system | |
US8699754B2 (en) | Clear path detection through road modeling | |
US8890951B2 (en) | Clear path detection with patch smoothing approach | |
US8452053B2 (en) | Pixel-based texture-rich clear path detection | |
CN104185588B (en) | Vehicle-mounted imaging system and method for determining road width | |
US8560220B2 (en) | Method and apparatus for determining a plausible lane for guiding a vehicle and an automobile | |
KR101891460B1 (en) | Method and apparatus for detecting and assessing road reflections | |
CN106652468A (en) | Device and method for detection of violation of front vehicle and early warning of violation of vehicle on road | |
KR20180075985A (en) | Apparatus for autonomous steering prediction considering driving environment and method thereof | |
CN110458050B (en) | Vehicle cut-in detection method and device based on vehicle-mounted video | |
JPWO2019174682A5 (en) | ||
Quintero et al. | Extended floating car data system-experimental study | |
CN114312838B (en) | Control method and device for vehicle and storage medium | |
JP7486556B2 (en) | Lane marking recognition device | |
WO2024127633A1 (en) | Light distribution control system and light distribution control method | |
KR102250800B1 (en) | Apparatus and Method for detecting traffic path based on road object recognition | |
WO2022209373A1 (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |