KR102025354B1 - Danger vehicle warning device and operation method thereof - Google Patents
Danger vehicle warning device and operation method thereof Download PDFInfo
- Publication number
- KR102025354B1 KR102025354B1 KR1020180100674A KR20180100674A KR102025354B1 KR 102025354 B1 KR102025354 B1 KR 102025354B1 KR 1020180100674 A KR1020180100674 A KR 1020180100674A KR 20180100674 A KR20180100674 A KR 20180100674A KR 102025354 B1 KR102025354 B1 KR 102025354B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- unit
- dangerous
- information
- target vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000000926 separation method Methods 0.000 claims abstract description 64
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000003745 diagnosis Methods 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 23
- 230000009467 reduction Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004092 self-diagnosis Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/52—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating emergencies
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B60W2550/10—
-
- B60W2550/308—
-
- B60W2550/40—
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 출원은 위험차량 경고장치에 관한 것으로, 특히, 선행차량의 이상 상태를 객관적으로 진단하는 위험차량 경고장치 및 그 동작 방법에 관한 것이다. The present application relates to a dangerous vehicle warning device, and more particularly, to a dangerous vehicle warning device and an operation method thereof for objectively diagnosing an abnormal condition of a preceding vehicle.
최근 주행 중인 차량의 사고위험을 방지하기 위한 연구가 활발히 진행되고 있다. 이러한 시도들 중의 하나로 전방에 대해 레이더 신호 또는 레이저 신호를 송신하고, 반사되는 신호를 수신하여 전방 차량과의 충돌 상황을 판단하는 장치들이 개발되었다. Recently, researches are being actively conducted to prevent an accident risk of a driving vehicle. In one of these attempts, devices for transmitting a radar signal or a laser signal to the front and receiving a reflected signal to determine a collision situation with the front vehicle have been developed.
그러나, 이러한 방법들은 직선 도로 주행 또는 곡선 도로 주행 시 충돌 판단의 정확성이 다르고, 차량 간 거리 정보만을 판단할 수 있어, 사고위험에 대해 제한적이기 때문에, 전방 차량과의 충돌 방지 판단에 오류 가능성이 있다. However, these methods differ in the accuracy of collision determination when driving on straight roads or curved roads, and can only determine distance information between vehicles, and are limited in risk of accidents. .
또한, 도로(일예로 고속도로 등)에서 주행 시 차량의 운전자는 전방 차량의 주행 속도를 정확히 인지하지 못할 수 있다. 야간 같은 상황에서 도로를 주행하는 운전자는 전방 차량의 운행 상태(일예로, 고속 운전 상태, 저속 운전 상태, 또는 정지 상태)를 직접 인식하는 데 어려움이 있다. In addition, when driving on a road (for example, a highway), the driver of the vehicle may not accurately recognize the driving speed of the front vehicle. A driver driving on a road in a situation such as nighttime has difficulty in directly recognizing a driving state (eg, a high speed driving state, a low speed driving state, or a stopping state) of a front vehicle.
이에 따라, 전방 차량의 운행 상태를 객관적이고 보다 빠르게 판단하고, 사고위험에 대한 정보를 주변차량 및 해당 전방 차량에 제공할 수 있는 장치가 필요하다. Accordingly, there is a need for an apparatus capable of determining an operation state of a front vehicle more objectively and faster, and providing information on an accident risk to a surrounding vehicle and a corresponding front vehicle.
본 출원의 목적은, 영상을 기반으로, 선행차량의 주행을 학습하고, 선행차량의 이상 상태를 보다 빠르고 객관적으로 진단하여, 자기 차량 및 주변 차량들에 경고할 수 있는 위험차량 경고장치 및 그 동작 방법을 제공하는 것을 목적으로 한다. An object of the present application, a dangerous vehicle warning device and its operation that can learn the driving of the preceding vehicle, based on the image, and more quickly and objectively diagnose the abnormal state of the preceding vehicle, to warn one's own vehicle and surrounding vehicles It is an object to provide a method.
본 출원의 일 실시예에 따르는 위험차량 경고장치는, 자기차량의 전방 영역을 촬영하는 카메라부, 상기 카메라부를 통해 촬영된 영상으로부터 적어도 하나의 차량객체와 적어도 하나의 차선객체를 탐지하는 탐지부, 상기 적어도 하나의 차량객체와 상기 적어도 하나의 차선객체로부터 상기 영상에 기설정된 관심영역에 위치한 대상 차량객체와 한쌍의 차선객체를 추출하는 추출부 및 상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 이격거리에 기초하여, 상기 대상 차량객체에 대한 위험여부를 진단하는 진단학습부를 포함한다. Dangerous vehicle warning apparatus according to an embodiment of the present application, the camera unit for photographing the front area of the own vehicle, the detection unit for detecting at least one vehicle object and at least one lane object from the image photographed through the camera unit, An extraction unit for extracting a target vehicle object and a pair of lane objects located in a region of interest preset in the image from the at least one vehicle object and the at least one lane object, and a separation between the target vehicle object and the pair of lane objects Based on the distance, the diagnostic learning unit for diagnosing the danger to the target vehicle object.
실시예에 있어서, 상기 진단학습부는 상기 이격거리를 일정시간 누적하고, 상기 누적된 이격거리에 기초하여, 기준편차를 학습한다. In an embodiment, the diagnostic learning unit accumulates the separation distance for a predetermined time and learns a reference deviation based on the accumulated separation distance.
실시예에 있어서, 상기 진단학습부는, 상기 이격거리에 대한 단위시간당 길이변화가 상기 기준편차를 초과하는 경우, 상기 대상 차량객체를 위험차량으로 진단한다. In an embodiment, the diagnosis learning unit diagnoses the target vehicle object as a dangerous vehicle when the change in length per unit time with respect to the separation distance exceeds the reference deviation.
실시예에 있어서, 상기 진단학습부는, 상기 이격거리에 대한 단위시간당 길이변화가 상기 기준편차 이하인 경우, 상기 대상 차량객체의 방향지시등의 온오프상태 및 상기 이격거리의 크기에 따라, 상기 대상 차량객체에 대한 위험여부를 재진단한다. In example embodiments, when the length change per unit time with respect to the separation distance is less than or equal to the reference deviation, the target vehicle object according to the on-off state of the direction indicator light of the target vehicle object and the size of the separation distance. Reassess the risk for
실시예에 있어서, 상기 진단학습부는, 상기 자기차량의 속도정보에 기초하여, 나머지 차량객체의 면적감소율의 감소율평균을 학습하고, 상기 대상 차량객체의 면적감소율이 감소율평균보다 일정이상 큰 경우, 상기 대상 차량객체를 위험차량으로 진단한다. In an embodiment, the diagnostic learning unit learns a reduction rate average of the area reduction rate of the remaining vehicle objects based on the speed information of the own vehicle, and when the area reduction rate of the target vehicle object is greater than or equal to the reduction rate average, The target vehicle object is diagnosed as a dangerous vehicle.
실시예에 있어서, 상기 진단학습부는, 상기 자기차량의 속도정보에 기초하여, 상기 한쌍의 차선객체의 해당 영역과 나머지 차량객체 사이의 각 주변거리를 기준으로, 상기 영상에 주행영역과 비주행영역을 설정하고, 상기 비주행영역에 대한 상기 적어도 하나의 차량객체의 진입 및 이탈 횟수에 따라, 상기 전방 영역을 위험영역으로 진단한다. The driving apparatus and the non-driving region may be included in the image based on the peripheral distance between the corresponding area of the pair of lane objects and the remaining vehicle objects based on the speed information of the own vehicle. Set a value, and diagnose the front area as a dangerous area according to the number of entry and exit of the at least one vehicle object with respect to the non-driving area.
실시예에 있어서, 상기 위험차량에 대한 차량정보를 전송받아, 청각적, 시각적 및 촉각적 정보 중 적어도 하나를 통해 상기 자기차량의 운전자에 경고하는 경고알람부, 상기 차량정보를 네트워크를 통해 송신하는 무선통신부 및 상기 자기차량의 전자장치(ECU)를 통해 경적음을 발생시키고, 기설정된 점멸주기로 조명장치를 점멸하는 차량보조 제어부를 포함한다. In an embodiment, a warning alarm unit which receives vehicle information on the dangerous vehicle and warns a driver of the vehicle through at least one of audio, visual and tactile information, and transmits the vehicle information through a network. And a vehicle auxiliary controller configured to generate a horn sound through the wireless communication unit and the electronic device (ECU) of the own vehicle, and to flash the lighting device at a predetermined flashing cycle.
실시예에 있어서, 상기 차량보조 제어부는, 자기진단장치를 통해 상기 자기차량의 조향정보를 전송받고, 상기 자기차량의 조향정보에 기초하여, 상기 카메라의 수평촬영각도를 상기 조향정보 방향으로 조절한다. The vehicle assistance control unit may receive steering information of the subject vehicle through a self-diagnostic apparatus and adjust the horizontal photographing angle of the camera in the direction of the steering information based on the steering information of the subject vehicle. .
실시예에 있어서, 상기 차량보조 제어부는, GPS 모듈부, 고도 센서부 및 자이로센서부를 통해 상기 자기차량의 위치, 고도 및 기울기 정보를 전송받고, 상기 자기차량의 위치, 고도 및 기울기 정보에 기초하여, 상기 카메라의 수직촬영각도를 조절한다. The vehicle auxiliary control unit may receive the position, altitude, and inclination information of the own vehicle through a GPS module unit, an altitude sensor unit, and a gyro sensor unit, based on the position, altitude, and inclination information of the own vehicle. Adjust the vertical shooting angle of the camera.
본 출원의 일 실시예에 따르는 위험차량 경고장치의 동작방법으로서, 자기차량의 전방 영역을 촬영하는 단계, 상기 전방 영역의 영상으로부터 적어도 하나의 차량객체와 적어도 하나의 차선객체를 탐지하는 단계, 상기 적어도 하나의 차량객체와 상기 적어도 하나의 차선객체로부터 상기 영상에 기설정된 관심영역에 위치한 대상 차량객체와 한쌍의 차선객체를 추출하는 단계 및 상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 이격거리에 기초하여, 상기 대상 차량객체에 대한 위험여부를 진단하는 단계를 포함한다. A method of operating a dangerous vehicle warning apparatus according to an embodiment of the present application, the method comprising: photographing a front area of a subject vehicle, detecting at least one vehicle object and at least one lane object from an image of the front area, Extracting, from at least one vehicle object and the at least one lane object, a target vehicle object and a pair of lane objects located in a region of interest preset in the image; and a separation distance between the target vehicle object and the pair of lane objects. Based on the step of diagnosing whether the target vehicle object is dangerous.
실시예에 있어서, 상기 위험여부를 진단하는 단계는, 상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 제1 및 제2 이격거리 중 어느 하나의 이격거리를 프레임별로 일정시간 동안 누적하는 단계, 상기 누적된 프레임별 이격거리들 중 최대이격거리를 기준으로, 상기 어느 하나의 이격거리에 대한 단위시간당 프레임별 길이변화를 학습하는 단계, 상기 프레임별 길이변화를 평균하여 기준편차를 학습하는 단계, 상기 어느 하나의 이격거리에 대한 단위시간당 프레임별 길이변화가 일정시간 이후 상기 기준편차를 초과하는 지를 판단하는 단계 및 상기 단위시간당 프레임별 길이변화가 상기 기준편차를 초과하는 경우, 상기 대상 차량객체를 위험차량으로 진단하는 단계를 포함한다. In an embodiment, the step of diagnosing whether or not the risk may include accumulating one or more separation distances between the target vehicle object and the pair of lane objects for a predetermined time period for each frame. Learning the length change of each frame per unit time for the one separation distance based on the maximum separation distance of accumulated distances per frame, learning a reference deviation by averaging the length change of each frame, Determining whether the length change of the frame per unit time for any one separation distance exceeds the reference deviation after a certain time, and if the length change of the frame per unit time exceeds the reference deviation, risk the target vehicle object Diagnosing with the vehicle.
실시예에 있어서, 상기 단위시간당 프레임별 길이변화가 상기 기준편차 이하인 경우, 상기 대상 차량객체를 정상차량으로 진단하는 단계 및 상기 대상 차량객체가 정상차량으로 진단되는 경우, 상기 대상 차량객체의 방향지시등의 온오프상태 및 상기 어느 하나의 이격거리의 크기에 기초하여, 상기 대상 차량객체에 대한 위험여부를 재진단하는 단계를 포함한다. The method may include: diagnosing the target vehicle object as a normal vehicle when the length change of each frame per frame time is less than or equal to the reference deviation, and when the target vehicle object is diagnosed as a normal vehicle, a direction indicator of the target vehicle object. And re-diagnosing risk for the target vehicle object based on the on-off state and the magnitude of the one separation distance.
본 출원의 실시 예에 따른 위험차량 경고장치 및 그 동작 방법은 선행차량의 사고위험 여부를 객관적이고, 보다 빠르게 진단하여, 선행차량의 사고위험을 사전에 차단할 수 있는 효과가 있다. Dangerous vehicle warning apparatus and its operation method according to an embodiment of the present application has the effect of preventing the accident risk of the preceding vehicle in advance, by objectively and more quickly diagnose the risk of accident of the preceding vehicle.
도 1은 일 실시예에 따른 위험차량 경고장치의 블록도이다.
도 2는 도 1의 위험차량 경고장치의 동작에 따른 실시 예이다.
도 3은 도 1의 진단학습부의 학습동작을 보여주는 실시 예이다.
도 4는 도 2의 위험차량 경고장치의 동작에 따른 다른 실시 예이다.
도 5는 도 4의 위험차량 경고장치의 오버랩 영상을 보여주는 실시 예이다.
도 6은 다른 실시예에 따른 위험차량 경고장치의 블록도이다.
도 7은 또 다른 실시예에 따른 위험차량 경고장치의 블록도이다.
도 8은 위험차량 경고 시스템의 블록도이다.
도 9는 실시예에 따른 위험차량 경고장치의 동작 순서도이다.
도 10은 도 3의 진단학습부의 편차 학습에 따른 진단 순서도이다. 1 is a block diagram of a dangerous vehicle warning apparatus according to an embodiment.
2 is a view illustrating an operation of the dangerous vehicle warning apparatus of FIG. 1.
3 is an embodiment illustrating a learning operation of the diagnostic learning unit of FIG. 1.
4 is another exemplary embodiment of the dangerous vehicle warning apparatus of FIG. 2.
5 is an exemplary embodiment illustrating an overlap image of the dangerous vehicle warning apparatus of FIG. 4.
6 is a block diagram of a dangerous vehicle warning apparatus according to another embodiment.
7 is a block diagram of a dangerous vehicle warning apparatus according to another embodiment.
8 is a block diagram of a dangerous vehicle warning system.
9 is a flowchart illustrating the operation of the dangerous vehicle warning apparatus according to the embodiment.
FIG. 10 is a diagnostic flowchart illustrating deviation learning of the diagnostic learning unit of FIG. 3.
본 출원에 개시되어 있는 본 출원의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 출원의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 출원의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 출원에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present application disclosed in the present application are only illustrated for the purpose of describing embodiments according to the concept of the present application, and the embodiments according to the concept of the present application It may be embodied in various forms and is not limited to the embodiments described in this application.
본 출원의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 출원의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 출원의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present application may be various modifications and may have various forms will be illustrated in the drawings and described in detail in the present application. However, this is not intended to limit the embodiments in accordance with the concepts of the present application to specific disclosure forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present application.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예를 들면 본 출원의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The terms are only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights in accordance with the concepts of the present application, the first component may be called a second component, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 출원을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present application. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is practiced, and that one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this application belongs. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면을 참조하여 본 출원의 바람직한 실시 예를 설명함으로써, 본 출원을 상세히 설명한다.Hereinafter, exemplary embodiments of the present application will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 위험차량 경고장치(10)의 블록도이고, 도 2는 도 1의 위험차량 경고장치(10)의 동작에 따른 실시 예이다. 1 is a block diagram of a dangerous
도 1과 도 2를 참조하면, 위험차량 경고장치(10)는 카메라부(100), 탐지부(200), 추출부(300) 및 진단학습부(400)를 포함할 수 있다. 1 and 2, the dangerous
먼저, 카메라부(100)는 자기차량(1)의 전방 영역의 영상(110)을 촬영할 수 있다. 예를 들면, 카메라부(100)는 기설정된 화각에 따라, 기설정된 전방 영역을 촬영하는 고정카메라로서, 일반적인 화각(약 80도), 그 이상 또는 360도를 촬영할 수 있다. 이때, 카메라부(100)는 IP카메라, HD-SDI 카메라, 아날로그 카메라, 화재감지 컬러카메라, 열화상 카메라, SD(720x486, NTSC)급의 해상도에서 HD(1920x1080, HD1080p) 카메라, IP줌 스피드 카메라 및 CCTV 카메라 중 적어도 어느 하나를 포함하여, 자기차량(1)의 다양한 형태의 영상(110)이나 이미지를 촬영할 수 있다. 또한, 카메라부(100)는 야간 운행과 같은 어두운 환경에서 촬영할 수 있는 IR카메라를 더 포함할 수 있다. First, the
또한, 카메라부(100)는 후술될 차량보조 제어부(530)의 제어 또는 운전자의 조작에 따라, 상하좌우로 화각이 조정되거나 렌즈의 초점거리가 조정되는 PTZ(PAN, TILT, ZOOM)카메라로서, 팬(Pan)/틸트(Tilt)/줌(Zoom) 등의 기능을 구비할 수 있다. 즉, 카메라부(100)는 자기차량(1)의 전방 영역에 대한 영상(110)을 촬영하여, 자기차량(1)의 전방 영역에서 주행중인 적어도 하나의 선행차량(2_1~2_N)을 촬영할 수 있다. In addition, the
실시예에 따라, 카메라부(100)는 정지화상 또는 영상을 촬영할 때, 카메라 제조사, 카메라 모델, 회전 방향, 촬영날짜와 시간, 색 공간, 초점 거리, 플래시, ISO 속도, 조리개, 셔터 속도, gps 등이 기록되는 데이터를 더 획득할 수 있다. According to an embodiment, the
다음으로, 탐지부(200)는 카메라부(100)를 통해 촬영된 영상(110)으로부터, 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N)를 탐지할 수 있다. 여기서, 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N)는 영상 내 좌표정보(X, Y)를 포함할 수 있다. 예를 들면, 탐지부(200)는 영상(110)으로부터 적어도 하나의 차량 및 차선객체들(210_1~210_N, 220_1~220_N)에 대한 각각의 좌표정보를 탐지할 수 있다. Next, the
보다 구체적으로, 탐지부(200)는 미리 저장된 제1 객체정보에 기초하여, 영상(110)에 포함된 복수의 영상객체들(미도시)로부터 적어도 하나의 차량객체(210_1~210_N)를 탐지할 수 있다. 여기서, 제1 객체정보는 차종에 따른 축간거리, 차폭, 타이어 폭, 타이어 개수, 차축 간 거리, 중량, 높이, 브레이크등의 온오프상태 및 방향지시등의 온오프상태 중 어느 하나를 포함하는 차량객체정보일 수 있다. More specifically, the
또한, 탐지부(200)는 미리 저장된 제2 객체정보에 기초하여, 영상(110)에 포함된 복수의 영상객체들(미도시)로부터 적어도 하나의 차선객체(220_1~220_N)를 탐지할 수 있다. 여기서, 제2 객체정보는 차선, 게이트, 겐트리, 연석, 중앙분리대 중 적어도 어느 하나를 포함하는 도로객체정보일 수 있다. In addition, the
예를 들면, 탐지부(200)는 Haar-Like Feature HOG(Histogram of oriented Gradient), CS-LBP(Center-Symmetric Local Binary Pattern) 및 Gabor Filter Response 방식의 추출알고리즘 중 적어도 어느 하나를 이용하여, 미리 저장된 제1 및 제2 객체정보에 기초하여, 전방 영역의 영상(110)으로부터 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N)를 탐지할 수 있다. For example, the
실시예에 따라, 탐지부(200)는 진단학습부(400)를 통해 진단되는 적어도 하나의 차량객체(210_1~210_N)에 대하여, 해당 차량객체에 대한 차량정보를 탐지할 수 있다. 여기서, 차량정보는, 차량번호, 차량종류, 및 차량색상 중 어느 하나를 포함할 수 있다. According to an exemplary embodiment, the
다음으로, 추출부(300)는 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N) 중 영상(110)에 기설정된 관심영역에 위치하는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2)를 추출할 수 있다. 여기서, 기설정된 관심영역은 카메라부(100)를 통해 촬영된 영상(110)의 화면영역에서 중심에 위치하는 좌표구간정보일 수 있다. 즉, 추출부(300)는 적어도 하나의 차량객체(210_1~210_N)에 대한 좌표정보로부터 대상 차량객체(210_1)의 좌표정보를 추출하고, 적어도 하나의 차선객체(220_1~220_N)에 대한 좌표정보로부터 나머지 차량객체들(210_2~210_N)의 좌표정보를 식별할 수 있다. Next, the
실시예에 따라, 추출부(300)는, 기설정된 관심영역에 기초하여, 적어도 하나의 차량객체(210_1~210_N)로부터 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N)을 분류하여 추출할 수 있다. According to an exemplary embodiment, the
다른 실시예에 따라, 추출부(300)는 자기차량(1)의 속도정보에 기초하여, 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N) 중 어느 하나를 선택하여 추출할 수 있다. 이때, 추출부(300)는 자기차량(1)의 자기진단장치(OBD, 700)로부터 진단학습부(400)를 통해 자기차량(1)의 속도정보를 전송받을 수 있다. According to another exemplary embodiment, the
예를 들면, 자기차량(1)의 속도가 기설정된 속도를 초과할 때, 추출부(300)는 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N) 중 대상 차량객체(210_1)를 선택하여 추출할 수 있다. 또한, 자기차량(1)의 속도가 기설정된 속도 미만일 때, 추출부(300)는 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N) 중 나머지 차량객체들(210_2~210_N)을 선택하여 추출할 수 있다. For example, when the speed of the
다음으로, 진단학습부(400)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 사이의 이격거리에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 진단할 수 있다. Next, the
여기서, 이격거리는 대상 차량객체(210_1)의 일 측과 대향하는 제1 차선 객체(220_1) 사이의 제1 이격 거리(DL)와 대상 차량객체(210_1)의 타 측과 대향하는 제2 차선 객체(220_2) 사이의 제2 이격 거리(DR)를 포함할 수 있다. 이때, 제1 이격 거리(DL)의 크기는 제2 이격 거리(DR)의 크기에 반비례하여 변화될 수 있다. Here, the separation distance is the first separation distance DL between the first lane object 220_1 facing one side of the target vehicle object 210_1 and the second lane object facing the other side of the target vehicle object 210_1 ( 220_2) may include a second separation distance DR. In this case, the size of the first separation distance DL may be changed in inverse proportion to the size of the second separation distance DR.
예를 들면, 제1 이격 거리(DL)는 대상 차량객체(210_1)의 일 측과 한쌍의 차선객체(220_1, 220_2) 중 해당 대상 차량객체(210_1)의 좌측에 위치하는 제1 차선 객체(220_1) 사이의 수직으로 이격된 거리일 수 있다. 또한, 제2 이격 거리(DR)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 중 해당 대상 차량객체(210_1)의 우측에 위치하는 제2 차선 객체(220_2) 사이의 수직으로 이격된 거리일 수 있다. For example, the first separation distance DL may be a first lane object 220_1 located on one side of the target vehicle object 210_1 and on the left side of the corresponding target vehicle object 210_1 among the pair of lane objects 220_1 and 220_2. It may be a vertically spaced distance between the). In addition, the second separation distance DR is perpendicular between the target vehicle object 210_1 and the second lane object 220_2 located on the right side of the target vehicle object 210_1 among the pair of lane objects 220_1 and 220_2. It may be a distance apart.
보다 구체적으로, 진단학습부(400)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 사이의 제1 및 제2 이격거리(DL, DR)를 학습할 수 있다. 즉, 진단학습부(400)는 대상 차량객체(210_1)의 일 측과 한쌍의 차선객체(220_1, 220_2) 중 상기 일 측에 대향하는 제1 차선 객체(220_1) 사이의 수직된 X축 좌표구간에 해당하는 제1 이격 거리(DL)를 학습할 수 있다. 또한, 진단학습부(400)는 대상 차량객체(210_1)의 타 측과 한쌍의 차선객체(220_1, 220_2) 중 상기 타 측에 대향하는 제2 차선 객체(220_2) 사이의 수직된 X축 좌표구간에 해당하는 제2 이격 거리(DR)를 학습할 수 있다. More specifically, the
일 실시예에 따라, 진단학습부(400)는 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 진단할 수 있다. According to one embodiment, the
예를 들면, 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)가 기설정된 기준구간보다 작거나 또는 기설정된 기준구간을 초과할 때, 진단학습부(400)는 대상 차량객체(210_1)를 위험차량으로 진단할 수 있다. 또한, 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)가 기설정된 기준구간에 포함되는 경우, 진단학습부(400)는 대상 차량객체(210_1)를 정상차량으로 진단할 수 있다. For example, when the separation distance (eg, DL) of any one of the first and second separation distances DL and DR is smaller than the predetermined reference section or exceeds the predetermined reference section, the
다른 실시예에 따라, 진단학습부(400)는 이격거리를 일정시간 누적하고, 상기 누적된 이격거리에 기초하여, 기준편차(VREF)를 학습할 수 있다. 보다 구체적으로, 진단학습부(400)는 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)에 대한 프레임별 길이변화(L)와 기준편차(VREF) 사이의 차이에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 진단할 수 있다. According to another embodiment, the
도 3에 도시된 바와 같이, 진단학습부(400)는 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)를 일정시간 동안 프레임별로 누적할 수 있다. 누적된 어느 하나의 이격거리(예를 들면, DL)에 대한 데이터는 메모리(미도시)에 저장될 수 있다. 예를 들면, 메모리는 어느 하나의 이격거리(예를 들면, DL)에 대한 프레임별 이격거리(DL1~DLN)를 저장할 수 있다. As illustrated in FIG. 3, the
그런 다음, 진단학습부(400)는 메모리에 저장된 프레임별 이격거리(DL1~DLN) 중 최대이격거리(예를 들면, DL4)를 기준으로, 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)를 학습할 수 있다. 여기서, 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)는 메모리에 저장될 수 있다. 즉, 메모리에는 프레임별 이격거리(DL1~DLN)와 어느 하나의 이격거리(예를 들면, DL)에 대한 프레임별 길이변화(L1~LN-1)가 저장될 수 있다. Then, the
이때, 진단학습부(400)는 단위시간당 프레임별 길이변화(L1~LN-1)를 평균하여 기준편차(VREF)를 학습할 수 있다. 여기서, 기준편차(VREF)는 (L1+L2+L3…LN)/N로부터 도출되는 평균 값일 수 있다. In this case, the
그런 다음, 일정시간 이후, 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)가 기준편차(VREF)를 초과하는 경우, 진단학습부(400)는 대상 차량객체(210_1)를 위험차량으로 진단할 수 있다. 또한, 일정시간 이후, 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)가 기준편차(VREF)를 초과하지 않는 경우, 진단학습부(400)는 대상 차량객체(210_1)를 정상차량으로 진단할 수 있다. Then, after a certain time, when the length change per unit time (L) for any one separation distance (eg, DL) exceeds the reference deviation (V REF ), the
또 다른 실시예에 따라, 진단학습부(400)는 기준편차(VREF)를 학습한 이후, 대상 차량객체(210_1)의 방향지시등의 온오프상태 및 어느 하나의 이격거리(예를 들면, DL)에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 재진단할 수 있다. 여기서, 방향지시등의 온오프상태는 방향지시등의 점멸상태를 의미할 수 있다. According to another embodiment, after the
보다 구체적으로, 기준편차(VREF)에 따라 대상 차량객체(210_1)이 정상차량으로 진단된 경우, 진단학습부(400)는 대상 차량객체(210_1)의 방향지시등이 오프상태이고, 어느 하나의 이격거리(예를 들면, DL)가 최소임계치에 도달될 때, 대상 차량객체(210_1)에 대한 위험여부를 재진단할 수 있다. More specifically, when the target vehicle object 210_1 is diagnosed as a normal vehicle according to the reference deviation V REF , the
예를 들면, 기준편차(VREF)에 따라 대상 차량객체(210_1)이 정상차량으로 진단된 경우, 대상 차량객체(210_1)의 방향지시등이 오프상태이고, 대상 차량객체(210_1)의 어느 하나의 이격거리(예를 들면, DL)가 0의 최소임계치일 때, 대상 차량객체(210_1)를 위험차량으로 진단할 수 있다. For example, when the target vehicle object 210_1 is diagnosed as a normal vehicle according to the reference deviation V REF , the direction indicator light of the target vehicle object 210_1 is off and one of the target vehicle objects 210_1 is turned off. When the separation distance (eg, DL) is a minimum threshold of 0, the target vehicle object 210_1 may be diagnosed as a dangerous vehicle.
또 다른 실시 예에 따라, 진단학습부(400)는 자기차량(1)의 속도정보에 따라, 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N)에 대한 각 객체면적을 학습할 수 있다. According to another embodiment, the
보다 구체적으로, 진단학습부(400)는 자기진단장치(OBD, 700)로부터 자기차량(1)의 속도정보를 전송받을 때, 추출부(300)를 통해 추출되는 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N)를 전송받을 수 있다. 예를 들면, 진단학습부(400)는 자기차량(1)의 자기진단장치(OBD, 700)와 연결되어, 자기진단장치(OBD, 700)로부터 자기차량(1)의 속도정보를 전송받을 수 있다. More specifically, when the
그런 다음, 진단학습부(400)는 자기차량(1)의 속도정보에 따라, 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N)에 대한 각 객체면적을 학습하여 메모리(미도시)에 저장할 수 있다. 예를 들면, 진단학습부(400)는 자기차량(1)의 속도가 60KM/H 이하인 경우, 대상 차량객체(210_1)에 대응되는 제1 객체면적과 나머지 차량객체(예를 들면, 210_2~210_N)에 대응되는 제2 내지 제N 객체면적을 학습할 수 있다. 즉, 자기차량(1)의 속도가 기설정된 속도보다 미만인 경우, 진단학습부(400)는 추출부(300)를 통해 추출되는 대상 차량객체(210_1)와 나머지 차량객체들(210_2~210_N)에 대한 각 객체면적을 학습할 수 있다. Then, the
또한, 진단학습부(400)는 일정시간 동안 나머지 차량객체들(210_2~210_N)의 각 객체면적에 대한 감소율을 학습하여, 기준감소율을 추정할 수 있다. 이때, 진단학습부(400)는 대상 차량객체(210_1)의 객체면적에 대한 감소율을 학습할 수 있다. 그런 다음, 대상 차량객체(210_1)의 객체면적에 대한 감소율과 나머지 차량객체들(210_2~210_N)에 따른 기준감소율 간의 차이에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 진단할 수 있다. In addition, the
예를 들면, 진단학습부(400)는 대상 차량객체(210_1)의 면적에 대한 감소율이 나머지 차량객체들(210_2~210_N)에 따른 기준감소율보다 일정 이상 큰 경우, 대상 차량객체(210_1)를 위험차량으로 진단할 수 있다. For example, the
본 출원에 있어서, 위험차량 경고장치(10)는 카메라부(100)를 통해 촬영된 영상(110)으로부터 기설정된 관심영역에 위치한 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2)를 추출할 수 있다. 그런 다음, 위험차량 경고장치(10)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 사이의 이격거리에 기초하여, 대상 차량객체(210_1)에 대한 위험 여부를 진단할 수 있다. 즉, 위험차량 경고장치(10)는 자기차량(1)에 앞서 주행중인 선행차량의 주행 편차에 기초하여, 선행차량에 대한 위험 여부를 객관적으로 진단할 수 있다. 이에 따라, 선행차량의 사고 위험을 사전에 차단할 수 있게 할 수 있다. In the present application, the dangerous
도 4는 도 2의 위험차량 경고장치(10)의 동작에 따른 다른 실시 예이고, 도 5는 도 4의 위험차량 경고장치(11)의 오버랩 영상(111)을 보여주는 실시 예이다. 4 is another exemplary embodiment according to the operation of the dangerous
도 4와 도 5를 참조하면, 위험차량 경고장치(11)는 카메라부(100), 탐지부(200), 추출부(300), 및 진단학습부(400)를 포함할 수 있다. 4 and 5, the dangerous
이하, 도 1 내지 도 4에서 설명된 동일한 부재번호의 카메라부(100), 탐지부(200), 추출부(300) 및 진단학습부(400)에 대한 중복된 내용은 생략한다. Hereinafter, duplicate descriptions of the
먼저, 진단학습부(400)는 자기차량(1)의 속도정보에 기초하여, 한쌍의 차선객체(220_1, 220_2)와 나머지 차량객체들(210_2~210_N)을 추출부(300)를 통해 전송받을 수 있다. 그런 다음, 진단학습부(400)는 한쌍의 차선객체(220_1, 220_2)에 기초하여, 자기차량(1)의 전방 영역에 위치한 주행영역(Driving Area)을 학습할 수 있다. 또한, 진단학습부(400)는 주행영역(Driving Area)과 나머지 차량객체들(210_2~210_N) 사이의 각 이격거리에 기초하여, 비주행영역(Non-Driving Area)을 학습할 수 있다. First, the
이때, 진단학습부(400)는 카메라부(100)를 통해 촬영된 영상(110)에 주행영역(Driving Area)과 비주행영역(Non-Driving Area)을 설정할 수 있다. 여기서, 주행영역(Driving Area)과 비주행영역(Non-Driving Area)은 영상(110)에 오버랩되는 이미지일 수 있다. 즉, 카메라부(100)는 촬영되는 영상(100)에 주행영역(Driving Area)과 비주행영역(Non-Driving Area)을 오버랩시키는 이미지 처리부(미도시)를 포함할 수 있다. In this case, the
그런 다음, 도 5에 도시된 바와 같이, 탐지부(200)는 주행영역(Driving Area)과 비주행영역(Non-Driving Area)이 오버랩된 영상(111)으로부터 일정시간 동안 비주행영역(Non-Driving Area)에 진입 및 이탈하는 적어도 하나의 차량객체(210_1~210_N)를 탐지할 수 있다. 이때, 추출부(300)는 적어도 하나의 차량객체(210_1~210_N)가 일정시간 동안 비주행영역(Non-Driving Area)에 진입 및 이탈하는 횟수를 카운트할 수 있다. Next, as illustrated in FIG. 5, the
실시예에 따라, 진단학습부(400)는 일정시간 동안 비주행영역(Non-Driving Area)에 진입 및 이탈하는 횟수에 기초하여, 자기차량(1)의 전방 영역에 대한 위험 여부를 진단할 수 있다. 예를 들면, 일정시간 동안 비주행영역(Non-Driving Area)에 진입 및 이탈하는 횟수가 기설정된 횟수를 초과할 때, 진단학습부(400)는 자기차량(1)의 전방 영역을 위험 영역으로 진단할 수 있다. 또한, 일정시간 동안 비주행영역(Non-Driving Area)에 진입 및 이탈하는 횟수가 기설정된 횟수 이하일 때, 진단학습부(400)는 자기차량(1)의 전방 영역을 정상 영역으로 진단할 수 있다. According to an exemplary embodiment, the
도 6은 다른 실시예에 따른 위험차량 경고장치(11)의 블록도이다. 6 is a block diagram of a dangerous
도 6을 참조하면, 위험차량 경고장치(11)는 카메라부(100), 탐지부(200), 추출부(300), 진단학습부(400), 경고알람부(510), 무선통신부(520) 및 차량보조 제어부(530)를 포함할 수 있다. Referring to FIG. 6, the dangerous
이하, 도 1 내지 도 5에서 설명된 동일한 부재번호의 카메라부(100), 탐지부(200) 및 진단학습부(400)에 대한 중복된 내용은 생략한다. Hereinafter, duplicate descriptions of the
먼저, 경고알람부(510)는 진단학습부(400)를 통해 진단되는 위험차량에 대한 차량정보를 청각적, 시각적 및 촉각적 정보 중 적어도 어느 하나를 통해 경고 알람의 형태로 자기차량(1)의 운전자에 출력할 수 있다. First, the
보다 구체적으로, 경고알람부(510)는 진단학습부(400)로부터 수신되거나 메모리(미도시)에 저장된 위험차량에 대한 시각적 정보 예컨대, 경고화면, 적색화면등을 디스플레이장치(미도시)를 통해 출력할 수 있다. 예를 들면, 디스플레이장치(미도시)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 또한, 경고알람부(510)는 진단학습부(400)로부터 수신되거나 메모리(미도시)에 저장된 위험차량에 대한 청각적 정보 예컨대, 차선변경 안내음성 등을 음향 출력 모듈(미도시)을 통해 출력할 수 있다. 예를 들면, 음향 출력 모듈(미도시)에는 스피커(speaker), 버저(Buzzer), 피에조 센서(Piezo sensor) 등이 포함될 수 있다. 또한, 경고알람부(510)는 위험차량에 대한 촉각적 정보 예컨대, 일정주기의 진동 등을 알람 장치(미도시)를 통해 출력할 수 있다. 예를 들면, 알람 장치(미도시)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력하는 진동 수단일 수 있다. 예를 들면, 경고장치는 진동 형태로 촉각적 정보를 출력할 수 있다.More specifically, the
다음으로, 무선통신부(520)는 진단학습부(400)를 통해 진단되는 위험차량에 대한 차량정보를 무선 네트워크(30)를 통해 도로관리 서버(50) 또는 무선 네트워크(30)를 통해 연결된 주변차량들(2_1~2_N)에 송신할 수 있다. Next, the
예를 들면, 무선통신부(520)는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet AccesB), HSUPA(High Speed Uplink Packet AccesB), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBB) 중 적어도 어느 하나를 포함할 수 있다. For example, the
또한, 무선통신부(520)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 중 적어도 어느 하나를 포함할 수 있다. In addition, the
다음으로, 차량보조 제어부(530)는 진단학습부(400)를 통해 진단되는 위험차량에 따라, 자기차량(1)의 전자장치(ECU)를 통해 자동으로 경적음을 외부로 발생시키고, 자기차량(1)의 조명장치(미도시)를 기설정된 주기로 점멸시킬 수 있다. 예를 들면, 차량보조 제어부(530)는 자기차량(1)의 전자장치(ECU)와 통신하여, 자기차량(1)의 조명장치(미도시)와 경적장치(미도시)를 제어할 수 있다. Next, the vehicle
실시예에 따라, 차량보조 제어부(530)는 진단학습부(400)를 통해 진단되는 위험차량에 따라, 자기차량(1)의 전자장치(ECU)를 통해 차량운전 보조 기능을 수행할 수 있다. According to an embodiment, the vehicle
여기서, 차량운전 보조 기능은 자동 비상 제동 기능(AEB : Autonomous Emergency Braking), 전방 충돌 회피 기능(FCW : Foward Collision Warning), 차선 이탈 경고 기능(LDW : Lane Departure Warning), 차선 유지 보조 기능(LKA : Lane Keeping Assist), 속도 지원 기능(SAS : Speed Assist System), 교통 신호 검출 기능(TSR : Traffic Sign Recognition), 적응형 상향등 제어 기능(HBA : High Beam Assist), 사각 지대 감시 기능(BSD : Blind Spot Detection), 자동 비상 조향 기능(AES : Autonomous Emergency Steering), 커브 속도 경고 기능(CSWS : Curve Speed Warning System), 적응 순향 제어 기능(ACC : Adaptive Cruise Control), 스마트 주차 기능(SPAS : Smart Parking Assist System), 교통 정체 지원 기능(TJA : Traffic Jam Assist), 어라운드 뷰 모니터링 기능(AVM : Around View Monitor) 중 적어도 어느 하나일 수 있다. Here, the vehicle driving assistance function may include an autonomous emergency braking (AEB), a forward collision avoidance function (FCW: foward collision warning), a lane departure warning function (LDW: lane departure warning), and a lane maintenance assistance function (LKA: Lane Keeping Assist (SAS), Speed Assist System (SAS), Traffic Sign Recognition (TSR), Adaptive High Beam Assist (HBA), Blind Spot Monitoring (BSD: Blind Spot) Detection), Autonomous Emergency Steering (AES), Curve Speed Warning System (CSWS), Adaptive Cruise Control (ACC), Smart Parking Assist System (SPAS) ), At least one of a traffic jam support (TJA) and an around view monitor (AVM).
예를 들면, 차량보조 제어부(530)는 진단학습부(400)를 통해 진단되는 위험차량에 대한 차량정보를 전송받을 때, 자동 비상 조향 기능(AES : Autonomous Emergency Steering)과 속도 지원 기능(SAS : Speed Assist System)을 먼저 동작시키고, 다음으로, 전방 충돌 회피 기능(FCW : Foward Collision Warning), 차선 이탈 경고 기능(LDW : Lane Departure Warning), 차선 유지 보조 기능(LKA : Lane Keeping Assist)을 동작시키고, 그 다음으로, 자동 비상 제동 기능(AEB : Autonomous Emergency Braking)을 동작시킬 수 있다. 이후, 차량보조 제어부(530)는 자동 비상 제동 기능(AEB : Autonomous Emergency Braking)을 동작시킴으로써, 차량을 정차시키도록 유도시킬 수 있다. For example, the vehicle
실시예에 따라, 차량보조 제어부(530)는 자기차량(1)의 자기진단장치(OBD, 700)를 통해 전송받는 자기차량(1)의 조향정보에 기초하여, 카메라부(100)의 수평촬영각도를 조향정보의 방향으로 조절할 수 있다. According to an embodiment, the vehicle
예를 들면, 차량보조 제어부(530)는 자기차량(1)의 자기진단장치(OBD, 700)를 통해 자기차량(1)의 조향정보를 전송받을 수 있다. 그런 다음, 자기차량(1)의 조향정보가 좌회전인 경우, 차량보조 제어부(530)는 카메라부(100)의 수평촬영각도를 좌측방향으로 조절할 수 있다. 여기서, 카메라부(100)의 수평촬영각도는 자기차량(1)의 조향정보의 회전각도에 대응될 수 있다. For example, the
도 7은 또 다른 실시예에 따른 위험차량 경고장치(12)의 블록도이다. 7 is a block diagram of a dangerous
도 7을 참조하면, 위험차량 경고장치(12)는 카메라부(100), 탐지부(200) 및 진단학습부(400) 경고알람부(510), 무선통신부(520), 차량보조 제어부(530) GPS 모듈부(610), 고도 센서부(620) 및 자이로센서부(630)를 더 포함할 수 있다. Referring to FIG. 7, the dangerous
이하, 도 1 내지 도 6에서 설명된 동일한 부재번호의 카메라부(100), 탐지부(200) 및 진단학습부(400) 경고알람부(510), 무선통신부(520) 및 차량보조 제어부(530)에 대한 중복된 내용은 생략한다. Hereinafter, the
여기서, GPS 모듈부(610)는 자기차량(1)의 위치정보를 수신하고, 고도 센서부(620)는 자기차량(1)의 고도정보를 감지하며, 자이로센서부(630)는 자기차량(1)의 기울기정보를 감지할 수 있다. Here, the
실시 예에 따라, 차량보조 제어부(530)는 주행도로에 대한 경사도정보에 기초하여, 카메라부(100)의 수직촬영각도를 조절할 수 있다. 보다 구체적으로, 차량보조 제어부(530)는 GPS 모듈부(610), 고도 센서부(620) 및 자이로센서부(630)를 통해 자기차량(1)의 위치, 고도 및 기울기 정보를 전송받을 수 있다. 그런 다음, 차량보조 제어부(530)는 자기차량(1)의 위치, 고도 및 기울기 정보에 따라, 주행도로에 대한 경사도정보를 추정할 수 있다. 이때, 차량보조 제어부(530)는 주행도로에 대한 경사도정보에 기초하여, 카메라부(100)의 수직촬영각도를 조절할 수 있다. According to an embodiment, the vehicle
예를 들면, 자기차량(1)의 위치, 고도 및 기울기 정보에 따라, 주행도로에 대한 경사도정보가 아래로 내려가는 20도의 경사각도로 추정되는 경우, 차량보조 제어부(530)는 20도의 아래를 향하는 방향으로 카메라부(100)의 수직촬영각도를 조절할 수 있다. 여기서, 수직촬영각도는 주행도로에 대한 경사도정보에 대응될 수 있다. For example, when the inclination information on the driving road is estimated at an inclination angle of 20 degrees down according to the position, altitude, and inclination information of the
도 8은 위험차량 경고 시스템(1000)의 블록도이다. 8 is a block diagram of a dangerous vehicle warning system 1000.
도 1 내지 도 8을 참조하면, 위험차량 경고 시스템(1000)은 복수의 위험차량 경고장치들(10_1~10_N) 및 도로관리 서버(50)를 포함할 수 있다. 1 to 8, the dangerous vehicle warning system 1000 may include a plurality of dangerous vehicle warning devices 10_1 to 10_N and a
먼저, 복수의 위험차량 경고장치들(10_1~10_N)은 무선통신부(520)를 통해 서로 통신할 수 있다. 보다 구체적으로, 복수의 위험차량 경고장치들(10_1~10_N) 중 적어도 하나의 위험차량 경고장치(예를 들면 10_1)는 무선통신부(520)를 통해 네트워크(30)에 연결된 나머지 위험차량 경고장치들(10_2~10_N)과 통신할 수 있다. 즉, 하나의 위험차량 경고장치(10_1)는 진단학습부(400)에 의하여 위험차량으로 진단되는 차량정보를 무선통신부(520)를 통해 나머지 위험차량 경고장치들(10_2~10_N)에 중계할 수 있다. First, the plurality of dangerous vehicle warning devices 10_1 to 10_N may communicate with each other through the
또한, 복수의 위험차량 경고장치들(10_1~10_N)은 네트워크(30)를 통해 도로관리 서버(50)에 통신할 수 있다. 예를 들면, 복수의 위험차량 경고장치들(10_1~10_N)은 각 무선통신부(520)를 통해 연결된 네트워크(30)에 접속하여, 도로관리 서버(50)와 통신할 수 있다. In addition, the plurality of dangerous vehicle warning devices 10_1 to 10_N may communicate with the
여기서, 복수의 위험차량 경고장치들(10_1~10_N)은 네트워크(30)를 통해 데이터 송/수신이 가능하도록 컴퓨터나 휴대용 단말기, 텔레비전으로 구현될 수 있다. 예를 들면, 컴퓨터는 근거리 무선통신이 가능한 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access) 2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다.Here, the plurality of dangerous vehicle warning devices 10_1 to 10_N may be implemented as a computer, a portable terminal, or a television to enable data transmission / reception through the
다음으로, 네트워크(30)는 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service) 등을 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미할 수 있다. 또한, 네트워크(30)는 적어도 하나 이상의 위험차량 경고장치들(10_1~10_N)이 도로관리 서버(50)에 접속될 수 있게 하는 환경을 제공할 수 있다. 한편, 네트워크(30)는 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어 망일 수 있다. Next, the
다음으로, 도로관리 서버(50)는 어느 하나의 위험차량 경고장치(예를 들면, 10_1)로부터 위험차량에 대한 차량정보를 전송받아, 나머지 위험차량 경고장치들(예를 들면, 10_2~10_N)에 중계할 수 있다. 즉, 복수의 위험차량 경고장치들(10_1~10_N) 중 어느 하나의 위험차량 경고장치(예를 들면 10_1)는 도로관리 서버(50)를 통해 나머지 위험차량 경고장치들(예를 들면, 10_2~10_N)에 위험차량에 대한 차량정보를 전송할 수 있다. Next, the
또한, 도로관리 서버(50)는 도로 교통을 관리하는 도로교통 상황실과 같은 관공서 기관 또는 연계기관에서 관리하는 도로교통 상황서버와의 연동을 통해 도로의 상태정보를 획득하여, 복수의 위험차량 경고장치들(10_1~10_N)에 전송할 수 있다. In addition, the
예를 들면, 도로의 상태정보는, 도로를 주행중인 차량의 속도, 교통량, 통행시간, 대기길이, 정체도, 구간예측평균속도, 구간예측통과시간, 구간속도추이 등과 같은 도로의 교통소통상황 및 교통예측상황을 나타내는 교통소통정보, 통제위치, 통제 유형, 통제 대상, 통제시간 등과 같은 미리 계획된 도로의 공사, 행사 등 교통의 통제상황을 나타내는 교통통제정보, 위급상황발생정보, 위급상황처리요령 등과 같은 예상하지 못한 도로상의 유고상황을 알려주는 위급상황정보 및 기상조건 및 노면상태, 강우/강설, 수위 등과 같은 돌발상황에 따른 도로의 상태를 나타내는 도로상태정보를 포함할 수 있다.For example, the state information of the road may include traffic traffic conditions of the road such as speed, traffic volume, travel time, waiting length, congestion degree, section prediction average speed, section prediction passing time, section speed trend, and the like. Traffic control information indicating the traffic situation, control location, type of control, control object, control time, traffic control information indicating the control situation of the traffic such as the construction of the pre-planned roads, events, emergency situation information, emergency situation handling tips, etc. It may include emergency situation information indicating unforeseen road conditions and road condition information indicating a road condition according to a sudden situation such as weather conditions, road conditions, rainfall / snowfall, and water level.
이때, 도로관리 서버(50)는 위험차량에 대한 차량정보와 도로의 상태정보를 데이터베이스(51)에 업데이트할 수 있다. 여기서, 데이터베이스(51)는 도로관리 서버(50)로부터 업데이트되는 위험차량에 대한 차량정보와 도로의 상태정보를 데이터베이스(DB)화하여 분류, 저장 및 관리하고, 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이터베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이터베이스 관리 시스템(OODBMS)을 이용하여 본 발명의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(field)들을 가지고 있다. 본 발명에서는, 도로관리 서버(50)와 데이터베이스(51)가 포함된 구성으로 도시하였지만, 이를 한정하는 것은 아니며, 도로관리 서버(50)와 데이터베이스(51)는 독립된 구성일 수 있다. At this time, the
도 9는 실시예에 따른 위험차량 경고장치(10)의 동작 순서도이다.9 is an operation flowchart of the dangerous
도 1과 도 9를 참조하면, S110 단계에서, 카메라부(100)는 자기차량(1)의 전방 영역을 촬영할 수 있다. 1 and 9, in operation S110, the
다음으로, S120 단계에서, 탐지부(200)는 카메라부(100)를 통해 촬영된 영상(110)으로부터, 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N)를 탐지할 수 있다. Next, in operation S120, the
다음으로, S130 단계에서, 추출부(300)는 적어도 하나의 차량객체(210_1~210_N)와 적어도 하나의 차선객체(220_1~220_N)로부터 영상(110)에 기설정된 관심영역에 위치한 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2)를 추출할 수 있다. Next, in operation S130, the
이후, 진단학습부(400)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 사이의 이격거리에 기초하여, 대상 차량객체(210_1)에 대한 위험 여부를 진단할 수 있다. Thereafter, the
도 10은 도 3의 진단학습부(400)의 편차 학습에 따른 진단 순서도이다. FIG. 10 is a diagnostic flowchart illustrating deviation learning of the
도 1, 도 3 및 도 10을 참조하면, S210 단계에서, 진단학습부(400)는 대상 차량객체(210_1)와 한쌍의 차선객체(220_1, 220_2) 사이의 제1 및 제2 이격거리(DL, DR) 중 어느 하나의 이격거리(예를 들면, DL)를 프레임별로 일정시간 동안 누적할 수 있다. 1, 3, and 10, in step S210, the
그런 다음, S220 단계에서, 진단학습부(400)는 누적된 프레임별 이격거리들(DL1~DLN) 중 최대이격거리(예를 들면, DL4)를 기준으로, 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)를 학습할 수 있다. Then, in step S220, the
이때, S230 단계에서, 진단학습부(400)는 단위시간당 프레임별 길이변화(L1~LN-1)를 평균하여 기준편차(VREF)를 학습할 수 있다. At this time, in step S230, the
그런 다음, S240 단계에서, 일정시간 이후의 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)가 기준편차(VREF)를 초과하는 경우, 진단학습부(400)는 대상 차량객체(210_1)를 위험차량으로 진단할 수 있다. Then, in step S240, when the length change per unit time (L) for any one distance (for example, DL) after a certain time exceeds the reference deviation (V REF ), the
이때, S250 단계에서, 차량보조 제어부(530)는 자기차량(1)의 전자장치(ECU)를 통해 자동으로 경적음을 외부로 발생시키고, 자기차량(1)의 조명장치(미도시)를 기설정된 주기로 점멸시킬 수 있다. 이때, 경고알람부(510)는 진단학습부(400)를 통해 위험차량으로 진단된 대상 차량객체(210_1)에 대한 차량정보를 청각적, 시각적 및 촉각적 정보 중 적어도 어느 하나를 통해 경고 알람의 형태로 자기차량(1)의 운전자에 출력할 수 있다. 또한, 무선통신부(520)는 무선 네트워크(30)를 통해 대상 차량객체(210_1)에 대한 차량정보를 도로관리 서버(50) 또는 주변차량들(2_1~2_N)에 송신할 수 있다. At this time, in step S250, the vehicle
한편, S260 단계에서, 일정시간 이후의 어느 하나의 이격거리(예를 들면, DL)에 대한 단위시간당 길이변화(L)가 기준편차(VREF)를 초과하지 않는 경우, 진단학습부(400)는 대상 차량객체(210_1)를 정상차량으로 진단할 수 있다. On the other hand, in step S260, when the length change per unit time (L) for any one distance (for example, DL) after a certain time does not exceed the reference deviation (V REF ), the
그런 다음, S270 및 S280 단계에서, 기준편차(VREF)에 기초하여, 대상 차량객체(210_1)를 정상차량으로 진단되는 경우, 진단학습부(400)는 대상 차량객체(210_1)의 방향지시등의 온상태 여부 및 어느 하나의 이격거리(예를 들면, DL)에 기초하여, 대상 차량객체(210_1)에 대한 위험여부를 재진단할 수 있다. Then, in step S270 and S280, based on the reference deviation (V REF ), when the target vehicle object 210_1 is diagnosed as a normal vehicle, the
이후, 대상 차량객체(210_1)가 위험차량으로 재진단된 경우, S250 단계와 동일하게, 차량보조 제어부(530)는 자기차량(1)의 전자장치(ECU)를 통해 자동으로 경적음을 외부로 발생시키고, 자기차량(1)의 조명장치(미도시)를 기설정된 주기로 점멸시킬 수 있다. Thereafter, when the target vehicle object 210_1 is re-diagnosed as a dangerous vehicle, the vehicle
본 출원은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 출원의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present application has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present application will be defined by the technical spirit of the appended claims.
10: 위험차량 경고장치
100: 카메라부
200: 탐지부
300: 추출부
400: 진단학습부
510: 경고알람부
520: 무선통신부
530: 차량보조 제어부
610: GPS 모듈부
620: 고도 센서부
630: 자이로센서부
1000: 위험차량 경고 시스템10: Dangerous Vehicle Warning System
100: camera unit
200: detector
300: extraction unit
400: diagnostic learning department
510: warning alarm
520: wireless communication unit
530: vehicle auxiliary control unit
610: GPS module unit
620: altitude sensor unit
630: gyro sensor
1000: Dangerous Vehicle Warning System
Claims (12)
상기 카메라부를 통해 촬영된 영상으로부터 적어도 하나의 차량객체와 적어도 하나의 차선객체를 탐지하는 탐지부;
상기 적어도 하나의 차량객체와 상기 적어도 하나의 차선객체 중 상기 영상에 기설정된 관심영역에 위치한 대상 차량객체와 한쌍의 차선객체를 추출하는 추출부; 및
상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 이격거리에 기초하여, 상기 대상 차량객체에 대한 위험여부를 진단하는 진단학습부를 포함하고,
상기 관심영역은 상기 카메라부를 통해 촬영된 영상의 화면영역에서 중심에 위치하는 좌표구간정보이고,
상기 추출부는 상기 좌표구간정보에 따라 상기 적어도 하나의 차량객체의 좌표정보를 추출하고, 상기 적어도 하나의 차량객체의 상기 좌표정보가 상기 관심영역에 위치하는지 확인하여 상기 적어도 하나의 차량객체로부터 상기 대상 차량객체를 추출하는, 위험차량 경고장치.A camera unit for photographing a front area of the own vehicle;
A detector for detecting at least one vehicle object and at least one lane object from an image captured by the camera unit;
An extraction unit configured to extract a pair of lane objects and a target vehicle object located in a region of interest preset in the image among the at least one vehicle object and the at least one lane object; And
A diagnosis learning unit for diagnosing whether the target vehicle object is dangerous based on a distance between the target vehicle object and the pair of lane objects;
The ROI is coordinate section information located at the center of the screen region of the image photographed by the camera unit.
The extractor extracts coordinate information of the at least one vehicle object according to the coordinate section information, checks whether the coordinate information of the at least one vehicle object is located in the ROI, and detects the target information from the at least one vehicle object. Dangerous vehicle warning device for extracting vehicle objects.
상기 진단학습부는 상기 이격거리를 일정시간 누적하고, 상기 누적된 이격거리에 기초하여, 기준편차를 학습하는 위험차량 경고장치. The method of claim 1,
The diagnostic learning unit accumulates the separation distance for a predetermined time, based on the accumulated separation distance, dangerous vehicle warning device for learning a reference deviation.
상기 진단학습부는, 상기 이격거리에 대한 단위시간당 길이변화가 상기 기준편차를 초과하는 경우, 상기 대상 차량객체를 위험차량으로 진단하는 위험차량 경고장치. The method of claim 2,
And the diagnostic learning unit diagnoses the target vehicle object as a dangerous vehicle when the change in length per unit time with respect to the separation distance exceeds the reference deviation.
상기 진단학습부는, 상기 이격거리에 대한 단위시간당 길이변화가 상기 기준편차 이하인 경우,
상기 대상 차량객체의 방향지시등의 온오프상태 및 상기 이격거리의 크기에 따라, 상기 대상 차량객체에 대한 위험여부를 재진단하는 위험차량 경고장치. The method of claim 2,
The diagnostic learning unit, when the length change per unit time with respect to the separation distance is less than the reference deviation,
According to the on-off state of the direction indicator light of the target vehicle object and the size of the separation distance, the dangerous vehicle warning device for re-diagnosing the danger to the target vehicle object.
상기 진단학습부는, 상기 자기차량의 속도정보에 기초하여, 나머지 차량객체의 면적감소율의 감소율평균을 학습하고,
상기 대상 차량객체의 면적감소율이 감소율평균보다 일정이상 큰 경우, 상기 대상 차량객체를 위험차량으로 진단하는 위험차량 경고장치. The method of claim 1,
The diagnostic learning unit learns the average of the reduction rate of the area reduction rate of the remaining vehicle objects based on the speed information of the own vehicle,
And a dangerous vehicle warning device for diagnosing the target vehicle object as a dangerous vehicle when the area reduction rate of the target vehicle object is greater than or equal to the reduction rate average.
상기 진단학습부는, 상기 자기차량의 속도정보에 기초하여, 상기 영상에 주행영역과 비주행영역을 설정하고,
상기 비주행영역에 대한 상기 적어도 하나의 차량객체의 진입 및 이탈 횟수에 따라, 상기 전방 영역을 위험영역으로 진단하는 위험차량 경고장치. The method of claim 1,
The diagnostic learning unit sets a driving area and a non-driving area in the image based on the speed information of the own vehicle.
And a vehicle warning device for diagnosing the front area as a danger area according to the number of entry and exit of the at least one vehicle object to the non-driving area.
상기 위험차량에 대한 차량정보를 전송받아, 청각적, 시각적 및 촉각적 정보 중 적어도 하나를 통해 상기 자기차량의 운전자에 경고하는 경고알람부;
상기 차량정보를 네트워크를 통해 송신하는 무선통신부; 및
상기 자기차량의 전자장치(ECU)를 통해 경적음을 발생시키고, 기설정된 점멸주기로 조명장치를 점멸하는 차량보조 제어부를 포함하는 위험차량 경고장치. The method of claim 1,
A warning alarm unit receiving vehicle information on the dangerous vehicle and warning the driver of the vehicle through at least one of audio, visual and tactile information;
A wireless communication unit transmitting the vehicle information through a network; And
And a vehicle auxiliary controller configured to generate a horn sound through the electronic device (ECU) of the own vehicle, and flash the lighting device at a predetermined flashing cycle.
상기 차량보조 제어부는, 자기진단장치를 통해 상기 자기차량의 조향정보를 전송받고,
상기 자기차량의 조향정보에 기초하여, 상기 카메라의 수평촬영각도를 상기 조향정보 방향으로 조절하는 위험차량 경고장치. The method of claim 7, wherein
The vehicle auxiliary control unit receives steering information of the own vehicle through a self-diagnostic apparatus,
And a vehicle warning device for adjusting the horizontal photographing angle of the camera in the direction of the steering information based on the steering information of the own vehicle.
상기 차량보조 제어부는, GPS 모듈부, 고도 센서부 및 자이로센서부를 통해 상기 자기차량의 위치, 고도 및 기울기 정보를 전송받고,
상기 자기차량의 위치, 고도 및 기울기 정보에 기초하여, 상기 카메라의 수직촬영각도를 조절하는 위험차량 경고장치. The method of claim 7, wherein
The vehicle auxiliary control unit receives the position, altitude and inclination information of the vehicle through a GPS module unit, an altitude sensor unit, and a gyro sensor unit.
Dangerous vehicle warning device for adjusting the vertical shooting angle of the camera based on the position, altitude and inclination information of the own vehicle.
자기차량의 전방 영역을 촬영하는 단계;
상기 전방 영역의 영상으로부터 적어도 하나의 차량객체와 적어도 하나의 차선객체를 탐지하는 단계;
상기 적어도 하나의 차량객체와 상기 적어도 하나의 차선객체로부터 상기 영상에 기설정된 관심영역에 위치한 대상 차량객체와 한쌍의 차선객체를 추출하는 단계; 및
상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 이격거리에 기초하여, 상기 대상 차량객체에 대한 위험여부를 진단하는 단계를 포함하고,
상기 관심영역은 카메라부를 통해 촬영된 영상의 화면영역에서 중심에 위치하는 좌표구간정보이고,
추출부는 상기 좌표구간정보에 따라 상기 적어도 하나의 차량객체의 좌표정보를 추출하고, 상기 적어도 하나의 차량객체의 상기 좌표정보가 상기 관심영역에 위치하는지 확인하여 상기 적어도 하나의 차량객체로부터 상기 대상 차량객체를 추출하는, 위험차량 경고장치의 동작방법.As a dangerous vehicle warning device,
Photographing a front area of the subject vehicle;
Detecting at least one vehicle object and at least one lane object from the image of the front region;
Extracting, from the at least one vehicle object and the at least one lane object, a target vehicle object and a pair of lane objects located in a region of interest preset in the image; And
Diagnosing whether the target vehicle object is dangerous based on a separation distance between the target vehicle object and the pair of lane objects;
The ROI is coordinate section information located at the center of the screen region of the image photographed through the camera unit.
An extracting unit extracts coordinate information of the at least one vehicle object according to the coordinate section information, checks whether the coordinate information of the at least one vehicle object is located in the ROI, and detects the target vehicle from the at least one vehicle object. Operation method of dangerous vehicle warning device for extracting objects.
상기 위험여부를 진단하는 단계는,
상기 대상 차량객체와 상기 한쌍의 차선객체 사이의 제1 및 제2 이격거리 중 어느 하나의 이격거리를 일정시간 동안 누적하는 단계;
상기 누적된 이격거리들 중 최대이격거리를 기준으로, 상기 어느 하나의 이격거리에 대한 단위시간당 길이변화를 학습하는 단계;
상기 단위시간당 길이변화를 평균하여 기준편차를 학습하는 단계;
상기 어느 하나의 이격거리에 대한 단위시간당 길이변화가 일정시간 이후 상기 기준편차를 초과하는 지를 판단하는 단계; 및
상기 단위시간당 길이변화가 상기 기준편차를 초과하는 경우, 상기 대상 차량객체를 위험차량으로 진단하는 단계를 포함하는 위험차량 경고장치의 동작방법.The method of claim 10,
Diagnosing whether the risk is,
Accumulating one of the first and second separation distances between the target vehicle object and the pair of lane objects for a predetermined time;
Learning a length change per unit time for any one separation distance based on the maximum separation distance among the accumulated separation distances;
Learning a reference deviation by averaging the change in length per unit time;
Determining whether a change in length per unit time with respect to any one separation distance exceeds the reference deviation after a predetermined time; And
And diagnosing the target vehicle object as a dangerous vehicle when the change in length per unit time exceeds the reference deviation.
상기 단위시간당 길이변화가 상기 기준편차 이하인 경우, 상기 대상 차량객체를 정상차량으로 진단하는 단계; 및
상기 대상 차량객체가 정상차량으로 진단되는 경우, 상기 대상 차량객체의 방향지시등의 온오프상태 및 상기 어느 하나의 이격거리의 크기에 기초하여, 상기 대상 차량객체에 대한 위험여부를 재진단하는 단계를 포함하는 위험차량 경고장치의 동작방법.
The method of claim 11,
Diagnosing the target vehicle object as a normal vehicle when the length change per unit time is less than or equal to the reference deviation; And
If the target vehicle object is diagnosed as a normal vehicle, re-diagnosing whether the target vehicle object is dangerous based on the on-off state of the direction indicator light of the target vehicle object and the size of any one separation distance; Operation method of a dangerous vehicle warning device comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180100674A KR102025354B1 (en) | 2018-08-27 | 2018-08-27 | Danger vehicle warning device and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180100674A KR102025354B1 (en) | 2018-08-27 | 2018-08-27 | Danger vehicle warning device and operation method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102025354B1 true KR102025354B1 (en) | 2019-11-04 |
Family
ID=68578446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180100674A KR102025354B1 (en) | 2018-08-27 | 2018-08-27 | Danger vehicle warning device and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102025354B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102115022B1 (en) * | 2019-11-01 | 2020-05-26 | 심우진 | Apparatus for outputting horn sound of vehicle |
CN111610531A (en) * | 2020-04-21 | 2020-09-01 | 吉利汽车研究院(宁波)有限公司 | Driving early warning method and device for vehicle and storage medium |
CN118770289A (en) * | 2024-09-11 | 2024-10-15 | 张家港长城汽车研发有限公司 | Vehicle assisted driving method, device and vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150050933A (en) * | 2013-11-01 | 2015-05-11 | 현대엠엔소프트 주식회사 | Method for controlling recording angle of blackbox for vehicle |
KR20160090618A (en) * | 2015-01-22 | 2016-08-01 | 엘지전자 주식회사 | Front Vedeo Camera for Vehicles |
KR20170025898A (en) * | 2015-08-31 | 2017-03-08 | 현대자동차주식회사 | Vehicle and control method for the vehicle |
KR20180063524A (en) * | 2016-12-02 | 2018-06-12 | 현대자동차주식회사 | Method and Apparatus for Detecting Risk of Forward Vehicle Using Virtual Lane |
-
2018
- 2018-08-27 KR KR1020180100674A patent/KR102025354B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150050933A (en) * | 2013-11-01 | 2015-05-11 | 현대엠엔소프트 주식회사 | Method for controlling recording angle of blackbox for vehicle |
KR20160090618A (en) * | 2015-01-22 | 2016-08-01 | 엘지전자 주식회사 | Front Vedeo Camera for Vehicles |
KR20170025898A (en) * | 2015-08-31 | 2017-03-08 | 현대자동차주식회사 | Vehicle and control method for the vehicle |
KR20180063524A (en) * | 2016-12-02 | 2018-06-12 | 현대자동차주식회사 | Method and Apparatus for Detecting Risk of Forward Vehicle Using Virtual Lane |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102115022B1 (en) * | 2019-11-01 | 2020-05-26 | 심우진 | Apparatus for outputting horn sound of vehicle |
CN111610531A (en) * | 2020-04-21 | 2020-09-01 | 吉利汽车研究院(宁波)有限公司 | Driving early warning method and device for vehicle and storage medium |
CN118770289A (en) * | 2024-09-11 | 2024-10-15 | 张家港长城汽车研发有限公司 | Vehicle assisted driving method, device and vehicle |
CN118770289B (en) * | 2024-09-11 | 2024-11-29 | 张家港长城汽车研发有限公司 | Vehicle assisted driving method, device and vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11518401B2 (en) | Vehicular driving assist with driver monitoring | |
KR102554643B1 (en) | Multiple operating modes to expand dynamic range | |
US10713502B2 (en) | Providing autonomous vehicle assistance | |
US20200062249A1 (en) | Connected and Autonomous Vehicle (CAV) Behavioral Adaptive Driving | |
US9117371B2 (en) | Mobile autonomous surveillance | |
KR101778624B1 (en) | Surround camera system for autonomous driving | |
JP5171629B2 (en) | Driving information providing device | |
US20150307131A1 (en) | Autonomous Driving in a Hazard Situation | |
DK2940673T3 (en) | System and method for detecting potential accident situations with a car | |
US11170223B2 (en) | System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object | |
US10902267B2 (en) | System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object | |
KR102025354B1 (en) | Danger vehicle warning device and operation method thereof | |
SE541541C2 (en) | Method and system for theft detection in a vehicle | |
CN111369708A (en) | Vehicle driving information recording method and device | |
KR102042050B1 (en) | Apparatus for Inspection and Crackdown Vehicle Using Drone | |
WO2023250290A1 (en) | Post drop-off passenger assistance | |
US11975739B2 (en) | Device and method for validating a public safety agency command issued to a vehicle | |
JP7363838B2 (en) | Abnormal behavior notification device, abnormal behavior notification system, abnormal behavior notification method, and program | |
CN111277956A (en) | Method and device for collecting vehicle blind area information | |
US12096113B2 (en) | Information processing apparatus, information processing method, and program | |
JP7038152B2 (en) | Information processing equipment | |
KR20230105912A (en) | Collision risk notification system and method through warm-blooded animal detection and approach predictive learning | |
WO2023221118A1 (en) | Information processing methods and apparatus, electronic device, and storage medium | |
KR102577751B1 (en) | Smart bus safety management system | |
KR101590510B1 (en) | Black box and method to send and receive emergency information via a network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20180827 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190520 Patent event code: PE09021S01D |
|
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190828 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190919 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190919 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220919 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230919 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20240919 Start annual number: 6 End annual number: 6 |