[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180063734A - Method and Apparatus for acquiring event image of vehicle - Google Patents

Method and Apparatus for acquiring event image of vehicle Download PDF

Info

Publication number
KR20180063734A
KR20180063734A KR1020160163856A KR20160163856A KR20180063734A KR 20180063734 A KR20180063734 A KR 20180063734A KR 1020160163856 A KR1020160163856 A KR 1020160163856A KR 20160163856 A KR20160163856 A KR 20160163856A KR 20180063734 A KR20180063734 A KR 20180063734A
Authority
KR
South Korea
Prior art keywords
vehicle
event
information
image
vehicles
Prior art date
Application number
KR1020160163856A
Other languages
Korean (ko)
Inventor
홍진우
이승학
이태호
김준형
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020160163856A priority Critical patent/KR20180063734A/en
Publication of KR20180063734A publication Critical patent/KR20180063734A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2550/14
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to one embodiment of the present invention, provided is a method for obtaining an event image of a vehicle, which is performed by an event image obtaining apparatus. The method comprises the following steps of: detecting whether or not an event about a vehicle occurs; obtaining driving information on a vehicle in which the event occurs; identifying neighboring vehicles located within a predetermined distance range from the vehicle in which the event occurs based on location information on the vehicle; determining target vehicles to be provided with an image about the event among the neighboring vehicles based on the obtained driving information; and receiving an image about the event from at least one of the predetermined target vehicles to be provided with the image.

Description

차량의 이벤트 영상을 획득하는 방법 및 그 장치{Method and Apparatus for acquiring event image of vehicle}Technical Field [0001] The present invention relates to a method and apparatus for acquiring an event image of a vehicle,

본 발명은 차량의 이벤트 영상을 획득하는 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 이벤트 발생 차량의 주변 차량으로부터 이벤트 발생 차량에 대한 영상을 획득하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for acquiring an event image of a vehicle. More particularly, the present invention relates to a method and apparatus for acquiring an image of an event generating vehicle from a peripheral vehicle of an event generating vehicle.

차량의 주행 환경을 감지하기 위하여 다양한 전자 장비들이 차량에 구비되고 있다. 이러한 전자 장비는 차량의 주행 정보를 측정하고, 차량 또는 주변 차량에서 발생한 사고 상황 등 각종 이벤트를 감지할 수 있다.Various electronic equipments are provided in the vehicle to detect the driving environment of the vehicle. Such electronic equipment can measure driving information of a vehicle and can detect various events such as an accident situation occurring in a vehicle or a nearby vehicle.

이 같이 전자 장비를 이용한 이벤트 감지 기능의 활용 예로써, 차량은 영상 녹화 장치를 이용하여 주행 환경에서 발생하는 사고 영상을 획득하고 있다. 그러나, 전자 장비를 이용하여 차량의 이벤트가 감지되더라도, 사고 차량의 운전자로서는 사고 현장의 영상을 획득한 차량의 식별이 어려우며, 이에 따라 과실 여부 판단에 중요한 자료로 이용되는 사고 영상의 획득이 곤란한 문제가 발생한다.As an example of utilizing the event detection function using the electronic equipment, the vehicle acquires an accident image occurring in the driving environment by using a video recording device. However, even if an event of a vehicle is detected using electronic equipment, it is difficult to identify a vehicle that acquires an image of an accident scene as a driver of the accident vehicle. Accordingly, it is difficult to acquire accident images Lt; / RTI >

이와 같은 문제를 해결하기 위하여, 차량 간 통신 네트워크를 통해 사고 차량이 주변 차량을 식별하고 식별된 주변 차량으로부터 영상을 수신하는 방법이 고려될 수 있다. 그러나, 이 같은 방법을 이용하더라도 사고 차량이 주변 차량으로부터 사고 영상을 수신함에 있어, 사고 차량의 주행 정보 및 사고 장소의 특성을 반영하지 못하므로, 사고와 관련 없는 영상까지 수집하게 되는 문제가 발생한다. 이는, 사고 영상 선별에 많은 자원을 소요하게 되는 문제를 야기한다. 나아가, 사고 차량이 사고로 인한 장비 파손으로 영상 수신이 원활하지 않은 경우, 사고 영상을 수집할 수 없는 경우도 발생한다. In order to solve such a problem, a method of identifying an adjacent vehicle by an accident vehicle through an inter-vehicle communication network and receiving an image from the identified nearby vehicle may be considered. However, even when the above-described method is used, the accident vehicle receives the accident image from the nearby vehicle and does not reflect the driving information of the accident vehicle and the characteristics of the accident place, . This causes a problem of consuming a lot of resources for sorting accident images. Furthermore, when an accident vehicle is not smoothly received due to equipment damage due to an accident, an accident image may not be collected.

그럼에도, 사고 차량과 주변 차량의 주행 정보 및 영상 정보를 별도로 관리하여, 사고 상황을 인지하고, 사고 상황에 관련된 사고 영상을 수집하는 서비스는 제공되지 않고 있다.Nevertheless, there is not provided a service for separately managing driving information and image information of an accident vehicle and a nearby vehicle, recognizing an accident situation, and collecting accident images related to an accident situation.

한국공개특허 제2011-00088012호Korea Patent Publication No. 2011-00088012

본 발명이 해결하고자 하는 기술적 과제는, 차량의 주행 정보를 실시간으로 수집하여 차량의 이벤트 발생 여부를 판단하는 방법 및 그 장치를 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for collecting driving information of a vehicle in real time to determine whether or not an event has occurred in a vehicle.

구체적으로, 본 발명이 해결하고자 하는 기술적 과제는, 차량의 주행 정보를 기초로, 이벤트 발생 차량의 위치를 식별하고, 이벤트 발생 차량의 주변 차량을 탐색하는 방법 및 그 장치를 제공하는 것이다. Specifically, a technical problem to be solved by the present invention is to provide a method and device for identifying the location of an event generating vehicle based on the running information of the vehicle, and searching for a nearby vehicle of the event generating vehicle.

보다 자세하게, 본 발명이 해결하고자 하는 기술적 과제는, 이벤트 발생 차량의 주변 차량 중, 이벤트에 대한 영상을 획득했을 가능성이 높은 차량을 선별하는 방법 및 그 장치를 제공하는 것이다. 또한, 본 발명이 해결하고자 하는 기술적 과제는, 이벤트 발생 차량의 주변 차량 중, 이벤트에 대한 영상을 획득했을 가능성이 높은 차량으로부터만 이벤트 영상을 수집하는 방법 및 그 장치를 제공하는 것이다.In more detail, a technical problem to be solved by the present invention is to provide a method and an apparatus for selecting a vehicle having a high probability of acquiring an image of an event among nearby vehicles of an event generating vehicle. It is another object of the present invention to provide a method and apparatus for collecting an event image only from a vehicle that is likely to acquire an image of an event among peripheral vehicles of the event generating vehicle.

본 발명이 해결하고자 하는 다른 기술적 과제는 차량의 주행 정보를 기초로, 차량의 사고 상황을 판단하고, 차량의 파손 여부와 무관하게 사고와 관련된 조치를 자동으로 수행하는 방법 및 그 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus for automatically determining an accident situation of a vehicle based on driving information of the vehicle and performing an action related to the accident regardless of whether the vehicle is damaged or not .

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 이벤트 영상 수집 범위를 동적으로 변경시킬 수 있는 방법 및 그 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for dynamically changing an event image collection range.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 차량의 주행 정보를 기초로 발생된 복수의 이벤트 간의 인과 관계를 판단할 수 있는 방법 및 그 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for determining causality between a plurality of events generated based on driving information of a vehicle.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한 차량의 이벤트 영상 획득 방법은, 이벤트 영상 획득 장치에 의해 수행되며, 상기 방법은, 차량에 대한 이벤트의 발생 여부를 감지하는 단계와 상기 이벤트가 발생한 차량의 주행 정보를 획득하는 단계와 상기 이벤트가 발생한 차량의 위치 정보를 기초로, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계와 상기 획득된 주행 정보를 기초로, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계와 상기 결정된 영상 제공 대상 차량 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for acquiring an event image of a vehicle, the method comprising: detecting whether an event has occurred to the vehicle; Identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event has occurred based on the information about the location of the vehicle where the event occurred and the location information of the vehicle where the event occurred; And a step of receiving an image of the event from at least one vehicle among the determined vehicles to be provided with a vehicle.

일 실시예에 따르면, 상기 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함할 수 있다.According to one embodiment, the running information includes at least one of a running direction information of a vehicle in which the event received before the occurrence of the event, a running speed information of the vehicle in which the event occurred, a time information at which the event occurred, And at least one of the terrain information of the road on which the vehicle is traveling.

일 실시예에 따르면, 상기 차량을 포함한 복수의 차량 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집하는 단계를 더 포함하고, 상기 이벤트의 발생 여부를 감지하는 단계는, 상기 차량으로부터 이벤트 정보를 수신하거나, 상기 차량으로부터 미리 설정된 시간 동안 상기 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 상기 차량에 이벤트가 발생한 것으로 감지하는 단계를 포함할 수 있다.According to one embodiment, the method further comprises collecting the identifier information and the position information of the vehicle from each of the plurality of vehicles including the vehicle, wherein the step of detecting whether the event is generated includes receiving event information from the vehicle And detecting that an event has occurred in the vehicle if at least one of the identifier information and the position information is not received from the vehicle for a predetermined time.

일 실시예에 따르면, 상기 주변 차량 각각으로부터 주행 정보를 획득하는 단계를 더 포함하고, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계는, 상기 획득된 상기 주변 차량의 주행 정보를 기초로, 상기 영상 제공 대상 차량을 결정하는 단계를 포함하되, 상기 주변 차량의 주행 정보는, 상기 주변 차량의 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the method further includes acquiring travel information from each of the neighboring vehicles, and the step of determining a vehicle to be provided with the image for the event among the neighboring vehicles comprises: The driving information of the surrounding vehicle may include at least one of traveling direction information and traveling speed information of the surrounding vehicle.

일 실시예에 따르면, 상기 주행 정보는 상기 이벤트가 발생한 차량의 이벤트 정보를 포함하고, 상기 차량의 이벤트 영상 획득 방법은, 상기 수신된 이벤트에 대한 영상으로부터 이벤트 정보를 생성하는 단계와 상기 주행 정보 상의 이벤트 정보와 상기 생성된 이벤트 정보를 비교하는 단계와 상기 비교 결과, 상기 생성된 이벤트 정보와 상기 주행 정보 상의 이벤트 정보가 미리 설정된 범위 내에서 매칭되지 않는 경우, 상기 미리 설정된 거리 범위를 변경하거나, 상기 결정된 영상 제공 대상 차량을 재결정하는 단계를 포함할 수 있다.According to one embodiment, the driving information includes event information of the vehicle in which the event occurs, and the method of acquiring an event image of the vehicle includes generating event information from an image of the received event, Comparing the generated event information with the generated event information; and when the generated event information and the event information on the running information do not match within a preset range, And re-determining the determined vehicle to be provided with the image.

일 실시예에 따르면, 상기 이벤트가 발생한 차량은, 제1 이벤트가 발생한 제1 차량 및 제2 이벤트가 발생한 제2 차량을 포함하고, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계는, 상기 제1 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 제2 차량을 식별하는 단계와 상기 획득된 주행 정보를 기초로, 상기 제1 이벤트 및 상기 제2 이벤트의 발생 순서를 결정하는 단계를 포함하고, 상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는, 상기 제1 이벤트 및 상기 제2 이벤트에 대하여 상기 결정된 발생 순서를 기초로, 상기 영상 제공 대상 차량 중, 적어도 하나의 차량으로부터 제공받을 영상의 구간 정보를 결정하는 단계와 상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 중 적어도 하나의 차량 각각으로부터 수신하는 단계를 포함할 수 있다.According to one embodiment, the vehicle in which the event occurs includes a first vehicle in which a first event occurs and a second vehicle in which a second event occurs, and identifies a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred Includes the steps of: identifying the second vehicle among nearby vehicles located within a predetermined distance range from the first vehicle; and determining a generation order of the first event and the second event based on the obtained running information Wherein the step of receiving an image for the event from at least one of the determined vehicles to be provided with the image comprises the steps of: determining, based on the determined generation order for the first event and the second event, Determining a section information of an image to be provided from at least one vehicle among the vehicles to be provided with images, It may comprise the step of receiving from the predetermined region at least one information of the vehicle, each of the image provided for the target vehicle image.

본 발명에 따르면, 이벤트 발생 차량이 주변 차량으로부터 직접 이벤트 영상을 수집하지 않으므로, 이벤트 발생 차량의 이벤트 영상 수신이 불가능한 환경에서도 이벤트 영상을 획득할 수 있는 장점이 있다.According to the present invention, there is an advantage that an event image can be acquired even in an environment in which an event generating vehicle can not receive an event image because the event generating vehicle does not collect the event image directly from the surrounding vehicles.

또한, 본 발명에 따르면, 이벤트 발생 차량의 이벤트 영상 수신 시에, 이벤트 영상 제공 대상 차량을 선별할 수 있으므로, 이벤트 영상 수집의 정확도가 향상되는 효과가 있다. 또한, 이벤트 영상만을 수신하고, 불필요한 영상을 수집하지 않으므로, 이벤트 영상 획득에 있어 자원을 절약할 수 있다. Further, according to the present invention, it is possible to select an event-image-presenting vehicle at the time of receiving an event image of the event-generating vehicle, thereby improving the accuracy of event image collection. In addition, since only an event image is received and unnecessary images are not collected, resources for event image acquisition can be saved.

또한, 본 발명에 따르면, 이벤트 영상의 수집을 위한, 이벤트 발생 차량의 영상 수집 범위를 동적으로 변경시킴으로써 이벤트 영상 수집의 정확도를 향상 시킬 수 있는 장점이 있다.In addition, according to the present invention, there is an advantage that accuracy of event image collection can be improved by dynamically changing an image collection range of an event generation vehicle for collection of an event image.

또한, 본 발명에 따르면, 이벤트 영상 및 주행 정보 중 적어도 하나를 기초로, 이벤트 등급을 결정함으로써, 발생한 이벤트에 적합한 조치를 자동으로 실행할 수 있는 효과가 있다.Further, according to the present invention, an event class is determined based on at least one of the event image and the running information, so that an appropriate action can be automatically executed for the event.

또한, 본 발명에 따르면, 발생된 복수의 이벤트 사이의 시간적 선후 관계를 파악하여, 이벤트 발생의 인과 관계를 판단할 수 있는 효과가 있다. Further, according to the present invention, there is an effect that it is possible to determine the cause-and-effect relationship of occurrence of an event by grasping a temporal relation between a plurality of generated events.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른, 차량의 이벤트 영상 획득 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 차량의 이벤트 영상 획득 장치의 블록도이다.
도 3은 본 발명의 또 다른 실시예에 따른 차량의 이벤트 영상 획득 방법의 순서도이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제1 예시도이다.
도 5는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제2 예시도이다.
도 6은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제3 예시도이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이벤트 발생 차량과 주변 차량의 주행 정보를 나타낸 예시도이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 장치에서 수집된 차량에 주행 정보에 대한 예시이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는, 이벤트의 등급 별 처리 정보에 대한 정보의 예시이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 복수의 이벤트 사이의 인과 관계를 판단하기 위한 정보의 예시이다.
1 is a configuration diagram of an event image acquisition system of a vehicle according to an embodiment of the present invention.
2 is a block diagram of an apparatus for acquiring an event image of a vehicle according to another embodiment of the present invention.
3 is a flowchart of a method of acquiring an event image of a vehicle according to another embodiment of the present invention.
4 is a first exemplary view of a method of acquiring an event image of a vehicle, referred to in some embodiments of the present invention.
5 is a second exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention.
6 is a third exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention.
FIG. 7 is an exemplary view showing travel information of an event generating vehicle and a neighboring vehicle, which is referred to in some embodiments of the present invention. FIG.
Figure 8 is an illustration of driving information for a vehicle collected in an event image acquisition device of a vehicle, which is referenced in some embodiments of the present invention.
Figure 9 is an illustration of information about processing information by class of events, referred to in some embodiments of the present invention.
10 is an illustration of information for determining a causal relationship between a plurality of events, referred to in some embodiments of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

본 명세서에서 이벤트란, 차량의 내부 또는 외부에서 발생한 특별 상태, 즉, 차량의 고장, 파손 발생 및 기타 주행 곤란 상태를 포함한다. 예를 들어, 차량이 주행 중에 다른 차량 또는 시설물과 충돌 사고가 발생한 경우, 이와 같은 충돌 사고는 본 명세서의 이벤트에 포함될 수 있다. 다른 예로, 차량 타이어에 펑크가 나거나, 차량 엔진 문제로 주행의 어려움이 발생한 경우 역시 본 명세서의 이벤트에 포함될 수 있다. 본 명세서의 이벤트는 상기 예로 한정되지 않는다.The term " event " in this specification includes a special condition occurring inside or outside the vehicle, that is, a failure or breakage of the vehicle and other difficulty in running. For example, when a collision accident occurs with another vehicle or a facility while the vehicle is running, such a collision accident may be included in the event of this specification. In another example, a case where a vehicle tire is punctured or a driving difficulty occurs due to a vehicle engine problem may also be included in the event of this specification. The event in this specification is not limited to the above example.

이하, 도면을 참조하여, 본 발명의 실시예에 대하여 자세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, 차량의 이벤트 영상 획득 시스템의 구성도이다. 도 1을 참조하면, 차량의 이벤트 영상 획득 시스템은, 복수의 차량(10, 20, 30, 40) 및 차량의 이벤트 영상 획득 장치(100)를 포함할 수 있다.1 is a configuration diagram of an event image acquisition system of a vehicle according to an embodiment of the present invention. Referring to FIG. 1, an event image acquisition system of a vehicle may include a plurality of vehicles 10, 20, 30, and 40, and an apparatus 100 for acquiring an event image of a vehicle.

상기 복수의 차량(10, 20, 30, 40)은, 통신모듈을 포함하고, 통신모듈을 통해 각종 정보를 송수신하고, 정보에 대하여 연산할 수 있는 컴퓨팅 장치일 수 있다. 구체적으로, 상기 복수의 차량(10, 20, 30, 40)의 통신모듈은, 네트워크(110)를 통해 이벤트 영상 획득 장치(100)와의 통신을 지원할 수 있다.The plurality of vehicles 10, 20, 30, and 40 may be a computing device that includes a communication module, transmits and receives various information through the communication module, and can operate on information. Specifically, the communication modules of the plurality of vehicles 10, 20, 30, and 40 may support communication with the event image acquisition apparatus 100 through the network 110. [

또한, 복수의 차량(10, 20, 30, 40)은 각각 차량의 주행 방향, 주행 상태 및 주변 환경을 측정하기 위한 각종 센서를 구비할 수 있다. 예를 들어, 차량은, 조향 장치의 방향을 감지하는 센서, 속도 센서, 가속도 센서, 타이어 압력 측정 센서, 수광 센서, 온도 센서, 습도 센서, 이미지 센서 등 다양한 센서를 포함할 수 있다. 특히, 이미지 센서는 차량의 적어도 일 면에 부착되어, 차량 주변의 영상을 획득할 수 있다. 복수의 차량(10, 20, 30, 40) 각각은 이와 같이 구비된 센서로부터 각종 정보를 생성하고 연산할 수도 있다. Each of the plurality of vehicles 10, 20, 30, and 40 may include various sensors for measuring the running direction, the running state, and the surrounding environment of the vehicle. For example, the vehicle may include various sensors such as a sensor for sensing the direction of the steering device, a speed sensor, an acceleration sensor, a tire pressure measurement sensor, a light receiving sensor, a temperature sensor, a humidity sensor, and an image sensor. In particular, the image sensor may be attached to at least one side of the vehicle to obtain an image of the surroundings of the vehicle. Each of the plurality of vehicles 10, 20, 30, and 40 may generate and calculate various information from the sensors thus provided.

이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40)과 통신할 수 있는 컴퓨팅 장치일 수 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 데스크탑 컴퓨터, 서버 장치와 같은 고정식 컴퓨팅 장치일 수 있다.The event image acquisition device 100 may be a computing device capable of communicating with a plurality of vehicles 10, 20, 30, For example, the event image acquisition device 100 may be a fixed computing device such as a desktop computer, a server device, or the like.

네트워크(110)는 이동통신 네트워크 및/또는 인터넷 네트워크를 지원하는 통신 장비에 의해 제공될 수 있으며, 이와 같은 통신 장비는 차량과 통신하기 위한, RSU(Road Side Unit)와 같은 통신 장비를 포함할 수도 있다.The network 110 may be provided by communication equipment supporting a mobile communication network and / or an internet network, and such communication equipment may include communication equipment, such as an RSU (Road Side Unit), for communicating with the vehicle have.

이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40) 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집할 수 있다. 식별자 정보는 차량을 다른 차량과 구별하기 위한 고유 정보이며, 식별자 정보는 예를 들어, V2X 표준에 따른 프로토콜에 따른 식별자(ID) 또는 본 발명이 속한 분야에 널리 알려진 차량 식별 코드일 수 있다. 위치 정보는, 차량이 위치한 도로 정보, 지형 정보를 포함할 수 있다.The event image acquiring apparatus 100 can collect the identifier information and the position information of the vehicle from each of the plurality of vehicles 10, 20, 30, and 40. The identifier information is unique information for distinguishing the vehicle from other vehicles, and the identifier information may be, for example, an identifier (ID) according to a protocol according to the V2X standard or a vehicle identification code widely known in the field to which the present invention belongs. The location information may include road information and terrain information on which the vehicle is located.

이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40)에 대한 이벤트 발생 여부를 감지할 수 있다.The event image acquisition apparatus 100 may detect whether or not an event has occurred with respect to the plurality of vehicles 10, 20, 30, and 40.

일 예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 이벤트 정보를 수신함으로써 차량의 이벤트 발생을 감지할 수 있다. 이벤트 정보는, 예를 들어, 이벤트의 종류, 차량의 내부 또는 외부에서 이벤트가 발생한 위치, 이벤트의 등급 정보를 포함할 수 있다. 이벤트의 등급 정보는, 이벤트의 심각한 정도를 나타내는 정보로, 차량의 이벤트 영상 획득 시스템의 관리자 또는 이벤트 영상 획득 장치(100)에 의해 미리 설정될 수 있다.According to an example, the event image acquisition apparatus 100 can detect occurrence of an event of a vehicle by receiving event information from the vehicle. The event information may include, for example, the type of the event, the location where the event occurred inside or outside the vehicle, and the class information of the event. The rating information of the event is information indicating the degree of seriousness of the event and may be set in advance by the manager of the vehicle event image acquisition system or the event image acquisition apparatus 100. [

다른 예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 미리 설정된 시간 동안 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.According to another example, the event image acquisition apparatus 100 may detect that an event has occurred in the vehicle when at least one of the identifier information and the position information is not received from the vehicle for a preset time.

즉, 이벤트 영상 획득 장치(100)는 주행 또는 정지 중인 차량으로부터 식별자 정보 및 위치 정보를 미리 설정된 주기마다, 또는 실시간으로 수신할 수 있다. 이벤트 영상 획득 장치(100)는 차량에 정보를 주기적으로 요청하고, 차량은 이에 대한 응답으로 접속 유지 중임을 나타내는 메시지 및 차량에 대한 식별자 정보 및/또는 위치 정보를 이벤트 영상 획득 장치(100)에 송신한다. 이때, 이벤트 영상 획득 장치(100)는, 상기 정보가 최종 수신된 이후로, 미리 설정된 시간 동안 수신되지 않는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.That is, the event image acquisition apparatus 100 can receive the identifier information and the position information from the vehicle that is running or stopped, at predetermined intervals or in real time. The event image acquisition apparatus 100 periodically requests information on the vehicle, and the vehicle transmits a message indicating that the connection is maintained in response thereto, and transmits the identifier information and / or the position information on the vehicle to the event image acquisition apparatus 100 do. At this time, the event image acquisition apparatus 100 may detect that an event has occurred in the vehicle when the information is not received for a preset time after the final reception.

또 다른 예에 따르면, 이벤트 영상 획득 장치(100)는 차량의 주행 정보를 수신하여, 미리 설정된 시간 동안 미리 설정된 임계 치 이상의 속도 변화가 감지되는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.According to another example, the event image acquisition apparatus 100 may receive driving information of the vehicle, and may detect that an event has occurred in the vehicle when a speed change of a predetermined threshold or more is detected for a predetermined time.

이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40) 각각으로부터 각 차량의 주행 정보를 수신할 수도 있다.The event image acquisition apparatus 100 may receive the running information of each vehicle from each of the plurality of vehicles 10, 20, 30,

예를 들어, 차량의 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함할 수 있다. 또한 주행 정보는 이벤트 정보를 포함할 수도 있다. 즉, 주행 정보는 차량이 받은 충격의 세기, 충경이 발생한 위치 정보를 포함할 수도 있다.For example, the driving information of the vehicle includes driving direction information of the vehicle where the event occurred before the occurrence of the event, driving speed information of the vehicle where the event occurred, time information at which the event occurred, And at least one of the terrain information of the road under running. The running information may also include event information. That is, the driving information may include the intensity of the impact received by the vehicle, and the position information of the impact.

도 1을 참조하면, 복수의 차량(10, 20, 30, 40) 중, 차량(10) 및 차량(20)이 충돌함에 따라, 차량(10, 20)에 이벤트가 발생하였다. 이하, 이벤트가 발생한 차량 중, 차량(10)을 기준으로 본 발명의 실시예를 설명한다.1, an event has occurred in the vehicles 10 and 20 as the vehicle 10 and the vehicle 20 among the plurality of vehicles 10, 20, 30 and 40 collide. Hereinafter, an embodiment of the present invention will be described with reference to the vehicle 10 among vehicles in which an event has occurred.

차량(10)은 구비된 센서로부터 이벤트로 인하여 발생한 충격의 정도, 이벤트가 발생한 차량 상의 위치 등의 정보를 측정하여, 이벤트 정보를 생성할 수 있다. 또한, 차량(10)은 이와 같이 생성된 이벤트 정보를 이벤트 영상 획득 장치(100)에 송신할 수 있다.The vehicle 10 can generate event information by measuring information such as the degree of impact caused by the event from the provided sensor, the position on the vehicle where the event occurs, and the like. In addition, the vehicle 10 can transmit the event information thus generated to the event image acquisition apparatus 100. [

이벤트 영상 획득 장치(100)는 이벤트 정보를 수신하여 차량(10)의 이벤트 발생을 감지하고, 차량(10)으로부터 미리 설정된 거리 범위 내의 주변 차량(20, 30, 40)을 식별할 수 있다. 도 1에서 미리 설정된 거리 범위의 예로 반경(r)이 도시되었다. The event image acquisition apparatus 100 may receive event information to detect occurrence of an event in the vehicle 10 and identify nearby vehicles 20, 30, and 40 within a predetermined distance range from the vehicle 10. In Fig. 1, a radius r is shown as an example of a preset distance range.

이벤트 영상 획득 장치(100)는 식별된 주변 차량 중, 이벤트에 대한 영상 제공 대상 차량을 결정할 수 있으며, 영상 제공 대상 차량으로부터 이벤트에 대한 영상을 수신할 수 있다. 도 1에서, 영상 제공 대상 차량으로 차량(30, 40)이 결정될 수 있다. 이 경우, 차량(30)은 후방에 구비된 이미지 센서로 차량(10)과 차량(20)의 충돌 영상을 획득하고, 이를 이벤트 영상 획득 장치(100)에 제공할 수 있으며, 차량(40)은 전방에 구비된 이미지 센서로 차량(10)과 차량(20)의 충돌 영상을 획득하고, 이를 이벤트 영상 획득 장치(100)에 제공할 수 있다.The event image acquisition apparatus 100 can determine the image providing target vehicle for the event among the identified neighboring vehicles and can receive the image of the event from the image providing target vehicle. In Fig. 1, vehicles 30 and 40 can be determined as vehicles to be provided with images. In this case, the vehicle 30 can acquire the collision image of the vehicle 10 and the vehicle 20 with the image sensor provided at the rear, and provide it to the event image acquisition apparatus 100, It is possible to acquire the collision image of the vehicle 10 and the vehicle 20 with the image sensor provided in the front side and to provide the collision image to the event image acquisition device 100. [

이하, 도 2를 참조하여 이벤트 영상 획득 장치(100)의 구성 및 동작에 대하여 보다 자세히 설명한다. 도 2는 본 발명의 다른 실시예에 따른 차량의 이벤트 영상 획득 장치(100)의 블록도이다.Hereinafter, the configuration and operation of the event image acquisition apparatus 100 will be described in more detail with reference to FIG. 2 is a block diagram of an apparatus 100 for acquiring an event image of a vehicle according to another embodiment of the present invention.

도 2를 참조하면, 이벤트 영상 획득 장치(100)는 하나 이상의 프로세서(101), 네트워크 인터페이스(102), 프로세서(101)에 의하여 수행되는 컴퓨터 프로그램(105)을 로드(load)하는 메모리(103)와, 상기 컴퓨터 프로그램(105)를 저장하는 스토리지(104)를 포함할 수 있다. 2, an event image acquisition apparatus 100 includes at least one processor 101, a network interface 102, a memory 103 for loading a computer program 105 performed by the processor 101, And a storage 104 for storing the computer program 105.

프로세서(101)는 이벤트 영상 획득 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(101)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), ECU(Electronic Control Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(101)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 이벤트 영상 획득 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.The processor 101 controls the overall operation of each configuration of the event image acquiring apparatus 100. The processor 101 may be implemented as a microprocessor including a central processing unit (CPU), a microprocessor unit (MPU), a microcontroller unit (MCU), an electronic control unit (ECU), or any type of processor well known in the art . The processor 101 may also perform operations on at least one application or program to perform the method according to embodiments of the present invention. The event image acquisition apparatus 100 may include one or more processors.

네트워크 인터페이스(102)는 이벤트 영상 획득 장치(100)의 유무선 네트워크 통신을 지원한다. 또한, 네트워크 인터페이스(102)는 하나 이상의 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(102)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 하나 이상 포함하여 구성될 수도 있다.The network interface 102 supports wired / wireless network communication of the event image acquisition apparatus 100. In addition, the network interface 102 may support one or more communication methods. To that end, the network interface 102 may comprise one or more communication modules well known in the art.

네트워크 인터페이스(102)는 네트워크를 통해 차량의 주행 상황을 모니터링하기 모니터링 시스템, GPS 시스템 및/또는 보험 서비스, 차량 수리 서비스, 응급 구조 서비스 기반 시스템과 연결될 수 있다. 네트워크 인터페이스(102)는 네트워크를 통해 차량으로부터 이벤트 정보, 이벤트에 대한 영상을 수신할 수 있으며, 이벤트의 등급 정보에 매칭되는 이벤트 처리 정보에 따라 각종 메시지를 상술한 서비스 기반 시스템에 송신할 수 있다.The network interface 102 may be coupled to a monitoring system, a GPS system and / or an insurance service, a vehicle repair service, and an emergency rescue service based system for monitoring the driving situation of the vehicle through the network. The network interface 102 can receive the event information and the image of the event from the vehicle through the network and transmit various messages to the service based system according to the event processing information matched with the rating information of the event.

메모리(103)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(103)는 본 발명의 실시예들에 따른 차량의 이벤트 영상 획득 방법을 실행하기 위하여 스토리지(104)로부터 하나 이상의 프로그램(105)을 로드할 수 있다. 도 2에서 메모리(103)의 예시로 RAM이 도시되었다.The memory 103 stores various data, commands and / or information. The memory 103 may load one or more programs 105 from the storage 104 to perform the method of acquiring an event image of a vehicle according to embodiments of the present invention. RAM is shown as an example of the memory 103 in Fig.

스토리지(104)는 상기 하나 이상의 프로그램(105)을 비임시적으로 저장할 수 있다. 도 2에서 상기 하나 이상의 프로그램(105)의 예시로 영상 획득 소프트웨어(105)가 도시되었다. 또한, 스토리지(104)는 본 발명의 실시예에 따른 각종 정보, 예를 들어, 차량의 주행 정보 데이터(106), 각종 서비스 시스템에 대한 컨택 데이터베이스(DB)(107)를 저장할 수 있다. 컨택 DB는 각 차량에 대하여 미리 설정된 특정 휴대 단말의 연락처, 보험 서비스, 차량 수리 서비스, 응급 구조 서비스와 관련된 연락처 정보를 포함할 수 있다.The storage 104 may store the one or more programs 105 non-provisionally. In FIG. 2, the image acquisition software 105 is illustrated as an example of the one or more programs 105. The storage 104 may store various kinds of information according to the embodiment of the present invention, for example, driving information data 106 of a vehicle and a contact database (DB) 107 for various service systems. The contact DB may include contact information associated with a specific portable terminal preset for each vehicle, insurance service, vehicle repair service, and emergency rescue service.

스토리지(104)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 104 may be a nonvolatile memory such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an Electrically Erasable Programmable ROM (EEPROM), a flash memory or the like, a hard disk, a removable disk, And any form of computer-readable recording medium known in the art.

영상 획득 소프트웨어(105)는, 프로세서(101)에 의해 실행됨에 따라, 이벤트 영상 획득 장치(100)의 기능 및/또는 동작 수행을 위한 하나 이상의 오퍼레이션을 수행할 수 있다. 이에 대한 설명은 도 3 및 도 4에 대한 설명에서 후술한다.The image acquisition software 105, as executed by the processor 101, may perform one or more operations for performing the functions and / or operations of the event image acquisition apparatus 100. This will be described later with reference to FIGS. 3 and 4. FIG.

한편, 이벤트 영상 획득 장치(100)는 도 2에 도시된 구성 요소 외에 본 발명의 실시예와 관련된 다양한 구성 요소를 추가로 포함할 수도 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 각종 설정 및 정보를 입력하기 위한 입력부 및 차량에 발생한 이벤트 상황을 통보하기 위한 출력부를 포함할 수도 있다.In addition to the components shown in FIG. 2, the event image acquisition apparatus 100 may further include various components related to the embodiments of the present invention. For example, the event image acquisition apparatus 100 may include an input unit for inputting various settings and information, and an output unit for notifying an event occurring in the vehicle.

이하, 상술한 도 1 및 도 2에 대한 설명을 바탕으로, 본 발명의 실시예들을 보다 자세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in more detail based on the description of FIGS. 1 and 2.

도 3은 본 발명의 또 다른 실시예에 따른 차량의 이벤트 영상 획득 방법의 순서도이다. 이하, 도 3의 각 단계는, 도 2에서 설명된 이벤트 영상 획득 장치(100)에 의해 수행될 수 있다. 구체적으로, 상술한 프로세서(101)가 영상 획득 소프트웨어를 실행함에 따라 이하 설명되는 각 단계가 수행된다.3 is a flowchart of a method of acquiring an event image of a vehicle according to another embodiment of the present invention. Hereinafter, each step of FIG. 3 may be performed by the event image acquisition apparatus 100 described in FIG. Specifically, each of the steps described below is performed as the above-described processor 101 executes the image acquisition software.

도 3을 참조하면, 이벤트 영상 획득 장치(100)는 차량에 대한 이벤트의 발생 여부를 감지할 수 있다(S10). 상술한 바와 같이, 차량으로부터 이벤트 정보를 수신하거나, 차량이 미리 설정된 시간 동안 응답이 없는 경우, 이벤트 영상 획득 장치(100)는 차량의 이벤트 발생을 감지할 수 있다. 또는 이벤트 영상 획득 장치(100)는 차량의 주행 정보를 기초로, 급 제동 등의 상황을 감지하여 이벤트 발생을 감지할 수도 있다.Referring to FIG. 3, the event image acquisition apparatus 100 may detect whether an event is generated for the vehicle (S10). As described above, when the event information is received from the vehicle, or when the vehicle does not receive a response for a predetermined time, the event image acquisition apparatus 100 can sense occurrence of an event of the vehicle. Alternatively, the event image acquisition apparatus 100 may detect the occurrence of an event by sensing a situation such as sudden braking based on the running information of the vehicle.

이와 같이 차량에 대한 이벤트의 발생이 감지됨에 따라, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량의 주행 정보를 획득할 수 있다(S20). As the occurrence of the event for the vehicle is detected, the event image acquisition apparatus 100 can acquire the travel information of the vehicle where the event occurred (S20).

주행 정보는, 이벤트 영상 획득 장치(100)와 차량의 통신 과정에서 이벤트 영상 획득 장치(100)가 차량의 식별자 정보 및/또는 위치 정보를 수집하는 주기와 다른 주기로 획득될 수 있다. 또는, 이벤트 영상 획득 장치(100)는 주행 정보를 차량에 이벤트가 발생했을 때에만 수집할 수도 있다. The travel information may be acquired at a period different from the period during which the event image acquisition apparatus 100 collects the identifier information and / or the position information of the vehicle during the communication process between the event image acquisition apparatus 100 and the vehicle. Alternatively, the event image acquisition apparatus 100 may collect the travel information only when an event occurs in the vehicle.

즉, 주행 정보는 차량의 주행 방향, 제동 거리, 속도 변화, 제차 신호 발생 정보 등의 다양한 정보를 포함할 수 있으므로, 이벤트 영상 획득 장치(100)는 네트워크 및 스토리지 자원의 절약을 위해 차량의 식별자 정보 및/또는 위치 정보 대비 적은 빈도로 수집할 수 있다. That is, since the driving information may include various information such as the driving direction of the vehicle, the braking distance, the speed change, the secondary signal generation information, and so on, the event image acquisition apparatus 100 may acquire the identifier information And / or less frequently compared to location information.

이벤트 영상 획득 장치(100)는, 이벤트가 발생한 차량의 위치 정보를 기초로, 이벤트의 발생 시점에 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별할 수 있다(S30). 식별되는 주변 차량은 하나 이상의 차량일 수 있다.The event image acquisition apparatus 100 may identify a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred at the time of occurrence of the event, based on the location information of the vehicle where the event occurred (S30). The identified nearby vehicle may be one or more vehicles.

이벤트 영상 획득 장치(100)는, 획득된 주행 정보를 기초로, 식별된 주변 차량 중, 이벤트에 대한 영상 제공 대상 차량을 결정할 수 있다(S40). 여기에서 영상 제공 대상 차량이란, 주변 차량 중, 이벤트 영상 획득 장치(100)에 영상을 제공하는 차량으로 결정된 차량을 의미한다.Based on the obtained travel information, the event image acquiring apparatus 100 can determine the image providing object vehicle for the event among the identified nearby vehicles (S40). Here, the vehicle to be provided with the image means a vehicle determined as a vehicle that provides the image to the event image acquisition apparatus 100 among peripheral vehicles.

본 발명의 실시예에 따르면, 주변 차량은 기본적으로 이미지 센서를 구비하므로, 이벤트 발생 시점에 각각 차량 주변의 영상을 획득할 수 있다. 그러나, 일부 차량이 획득한 영상은, 차량의 주행 속도, 주행 방향, 기타 주행 환경에 따라 이벤트가 발생한 차량의 이벤트에 대한 영상을 포함하지 않을 수 있다. 이와 같은 영상을 이벤트 영상 획득 장치(100)가 모두 수집하는 경우, 이벤트에 대한 영상을 획득하는데 자원이 낭비되므로, 이벤트 영상 획득 장치(100)는 영상을 선별적으로 수신할 필요가 있다. 따라서, 본 발명의 실시예에 따르면, 주변 차량 중, 영상 제공 대상 차량을 선별하고, 선별된 영상 제공 대상 차량으로부터만 영상을 수집함으로써, 이벤트에 대한 영상의 수집 확률이 증대될 수 있다.According to the embodiment of the present invention, since the neighboring vehicle basically includes the image sensor, it is possible to acquire images of the surroundings of the vehicle at the time of occurrence of the event. However, the image acquired by some vehicles may not include an image of an event of the vehicle in which the event occurred according to the running speed of the vehicle, the running direction, or other traveling circumstances. When the event image acquisition apparatus 100 collects such an image, resources are wasted in acquiring an image for the event, so that the event image acquisition apparatus 100 needs to selectively receive images. Therefore, according to the embodiment of the present invention, the collection probability of an image for an event can be increased by selecting an image providing target vehicle among nearby vehicles and collecting images only from the selected image providing target vehicles.

이벤트 영상 획득 장치(100)는 결정된 영상 제공 대상 차량으로부터 이벤트에 대한 영상을 수신할 수 있다(S50).The event image acquisition apparatus 100 may receive an image of an event from the determined image providing object vehicle (S50).

이하, 영상 제공 대상 차량을 결정하기 위한 본 발명의 실시예들에 대하여, 도 4 내지 도 6을 참조하여 설명하도록 한다.Hereinafter, embodiments of the present invention for determining a vehicle to which an image is to be provided will be described with reference to Figs. 4 to 6. Fig.

도 4는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제1 예시도이다. 특히 도 4에서, 차량(10)이 차량(20)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(10)인 경우를 예로 들어 설명한다.4 is a first exemplary view of a method of acquiring an event image of a vehicle, referred to in some embodiments of the present invention. In particular, in FIG. 4, a case where an event occurs when the vehicle 10 collides with the vehicle 20 has been illustrated. Hereinafter, the case where the vehicle detected as having an event in step S10 is the vehicle 10 will be described as an example.

도 4를 참조하면, 하행선 차선(401)에 차량(20), 차량(40), 차량(60) 및 차량(63)이 주행 중이며, 상행선 차선(402)에 차량(10), 차량(30), 차량(50), 차량(61) 및 차량(62)가 주행 중이다. 4, the vehicle 20, the vehicle 40, the vehicle 60 and the vehicle 63 are running on the downhill lane 401 and the vehicle 10, the vehicle 30, The vehicle 50, the vehicle 61, and the vehicle 62 are running.

이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 차량의 일부만 반경(r) 내에 있는 경우에도, 이벤트 영상 획득 장치(100)는 주변 차량으로 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event image acquisition apparatus 100 can identify a nearby vehicle within a predetermined radius r range as a nearby vehicle of the vehicle 10. [ Even when only a part of the vehicle is within the radius r, the event image acquisition apparatus 100 can identify the vehicle as a nearby vehicle. To this end, the event image acquisition apparatus 100 may receive location information of each vehicle in advance and identify the location of the vehicle in motion.

단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(20), 차량(30), 차량(40), 차량(50), 차량(60) 및 차량(62)를 주변 차량으로 식별할 수 있다. 차량(61) 및 차량(63)은 반경(r) 밖에 위치하므로 주변 차량에서 제외되었다.The event image acquisition apparatus 100 can identify the vehicle 20, the vehicle 30, the vehicle 40, the vehicle 50, the vehicle 60 and the vehicle 62 as nearby vehicles in step S30 . Since the vehicle 61 and the vehicle 63 are located outside the radius r, they are excluded from the surrounding vehicles.

단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(20, 30, 40, 50, 62) 중, 차량(20), 차량(30), 차량(40) 및 차량(50)은 영상 제공 대상 차량으로 결정하고, 차량(62)는 영상 제공 대상 차량에서 제외할 수 있다. 즉, 차량(10)의 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 주변 차량 중, 영상 제공 대상 차량을 선별할 수 있다. 구체적으로, 차량(10)이 주행 중인 차선(402)의 정보를 식별하고, 차량(10)의 위치를 식별할 수 있다. 또한, 수신한 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 차량(10)에서 이벤트가 발생한 위치, 즉, 차량(10)의 좌측 전방 영역에서 이벤트가 발생하였음을 식별할 수 있다.In step S40, the event image acquisition apparatus 100 determines whether the vehicle 20, the vehicle 30, the vehicle 40, and the vehicle 50 among the peripheral vehicles 20, 30, 40, 50, And the vehicle 62 can be excluded from the image providing object vehicle. That is, based on the traveling information of the vehicle 10, the event-image capturing apparatus 100 can select the vehicle to be provided with the image among the surrounding vehicles. Specifically, the information of the lane 402 in which the vehicle 10 is traveling can be identified, and the position of the vehicle 10 can be identified. Also, based on the received travel information, the event image acquisition apparatus 100 can identify that an event has occurred in a location where the event occurred in the vehicle 10, i.e., in the left front area of the vehicle 10. [

이에 따라, 이벤트 영상 획득 장치(100)는 차량(10) 기준으로, 복수의 주변 차량(20, 30, 40, 50, 62) 중, 차량(10)의 좌측 전방의 이벤트 영상 또는 이벤트가 발생하는 과정에 대한 영상을 획득할 수 있는 차량(20, 30, 40, 50)을 영상 제공 대상 차량으로 결정할 수 있다.Accordingly, the event image acquiring device 100 acquires the event image or event of the left front side of the vehicle 10 among the plurality of nearby vehicles 20, 30, 40, 50, 62 on the basis of the vehicle 10 It is possible to determine the vehicle 20, 30, 40, or 50 capable of acquiring the image of the process as the image providing target vehicle.

도 5는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제2 예시도이다. 특히 도 5에서, 차량(10)이 차량(511)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(10)인 경우를 예로 들어 설명한다.5 is a second exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention. In particular, in FIG. 5, a case where an event occurs when the vehicle 10 collides with the vehicle 511 has been illustrated. Hereinafter, the case where the vehicle detected as having an event in step S10 is the vehicle 10 will be described as an example.

도 5를 참조하면, 하행선 차선(501)에 차량(521) 및 차량(522)이 주행 중이며, 상행선 차선(502)에 차량(10), 차량(511), 차량(512), 차량(513) 및 차량(514)가 주행 중이다. 또한, 도 5의 도로는, 중앙 분리대(500)로 하행선 차선(501) 및 상행선 차선(502)는 물리적으로 분리된 공간이라고 가정한다. 5, the vehicle 521 and the vehicle 522 are running on the downhill lane 501 and the vehicle 10, the vehicle 511, the vehicle 512, the vehicle 513, And the vehicle 514 are running. 5, it is assumed that the downline lane 501 and the upcoming lane 502 are physically separated spaces to the median separator 500.

이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event image acquisition apparatus 100 can identify a nearby vehicle within a predetermined radius r range as a nearby vehicle of the vehicle 10. [ To this end, the event image acquisition apparatus 100 may receive location information of each vehicle in advance and identify the location of the vehicle in motion.

단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(511), 차량(512), 차량(513), 차량(514), 차량(521) 및 차량(522)를 주변 차량으로 식별할 수 있다. The event image acquisition apparatus 100 can identify the vehicle 511, the vehicle 512, the vehicle 513, the vehicle 514, the vehicle 521, and the vehicle 522 as nearby vehicles in step S30 .

단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(511, 512, 513, 514, 521, 522) 중, 차량(511), 차량(512), 차량(513) 및 차량(514)는 영상 제공 대상 차량으로 결정하고, 차량(521) 및 차량(522)는 영상 제공 대상 차량에서 제외할 수 있다. 차량(10)의 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 주변 차량 중, 영상 제공 대상 차량을 선별할 수 있다. 구체적으로, 차량(10)이 주행 중인 차선(502)의 정보 및 도로 지형의 정보를 식별하고, 차량(10)의 위치를 식별할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 차선(501)에서 주행 중인 차량(521, 522)은, 이벤트 영상을 획득할 수 없는 차량으로 인지하고, 영상 제공 대상 차량에서 제외할 수 있다. 이를 위해, 영상 제공 대상 차량을 선별하기 위한 도로 지형의 정보가 이벤트 영상 획득 장치(100)에 미리 설정될 수 있다. In step S40, the event image acquisition apparatus 100 determines whether the vehicle 511, the vehicle 512, the vehicle 513, and the vehicle 514 among the peripheral vehicles 511, 512, 513, 514, 521, And the vehicle 521 and the vehicle 522 can be excluded from the image providing object vehicle. Based on the running information of the vehicle 10, the event image capturing apparatus 100 can select the vehicle to be provided with the image among the surrounding vehicles. Specifically, the information of the lane 502 in which the vehicle 10 is traveling and the information of the road topography can be identified, and the position of the vehicle 10 can be identified. Accordingly, the event image capturing apparatus 100 recognizes that the vehicle 521, 522 traveling in the lane 501 can not acquire the event image, and can exclude the vehicle from the image providing object vehicle. For this purpose, the information of the road topography for selecting the vehicle to be provided with the image can be set in advance in the event image acquisition apparatus 100.

이에 따라, 이벤트 영상 획득 장치(100)는 차량(10) 기준으로, 복수의 주변 차량(511, 512, 513, 514, 521, 522) 중, 차량(10)의 이벤트 영상 또는 이벤트가 발생하는 과정에 대한 영상을 획득할 수 있는 차량(511 512, 513, 514)을 영상 제공 대상 차량으로 결정할 수 있다.Accordingly, the event image acquisition apparatus 100 acquires the event image or event of the vehicle 10 among the plurality of peripheral vehicles 511, 512, 513, 514, 521, and 522 on the basis of the vehicle 10 It is possible to determine vehicles 511 512, 513, and 514 capable of acquiring images for the image providing target vehicle.

나아가, 이벤트 영상 획득 장치(100)는 차량(10)으로부터 주행 정보 및 이벤트 정보를 수신하여, 차량(10)의 우측 후방에 이벤트가 발생하였음을 식별하고, 이벤트 영상의 획득에 적합한 주변 차량을 영상 제공 대상 차량으로 결정할 수도 있다.Furthermore, the event image acquisition apparatus 100 receives the travel information and the event information from the vehicle 10, identifies that an event has occurred in the right rear of the vehicle 10, The vehicle to be provided may be determined.

도 4 및 도 5에서, 이벤트가 발생한 차량(10)의 위치 정보 및 주행 정보 그리고 주변 차량의 위치 정보를 기초로 영상 제공 대상 차량이 결정되는 경우를 주로 설명하였으나, 본 발명의 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 주변 차량의 주행 정보를 수신하여, 영상 제공 대상 차량을 결정할 수도 있다. 이에 대하여, 도 6을 참조하여 자세히 설명한다.4 and 5, the case where the image providing target vehicle is determined on the basis of the position information, the running information of the vehicle 10 in which the event has occurred, and the position information of the surrounding vehicles has been mainly described, but according to another embodiment of the present invention , The event image acquisition apparatus 100 may receive the travel information of the nearby vehicle and determine the vehicle to be provided with the image. This will be described in detail with reference to FIG.

도 6은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제3 예시도이다. 특히 도 6에서, 차량(10)이 차량(601)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(611)인 경우를 예로 들어 설명한다.6 is a third exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention. In particular, in FIG. 6, a case where an event occurs when the vehicle 10 collides with the vehicle 601 has been illustrated. Hereinafter, the case where the vehicle detected as having occurred in step S10 is the vehicle 611 will be described as an example.

도 6을 참조하면, 차선(601)에 차량(10), 차량(612) 및 차량(616)이 주행 중이며, 차선(602)에 차량(611), 차량(614) 및 차량(615)가 주행 중이다. 차선(601) 및 차선(602)는 모두 상행선이다.6, the vehicle 10, the vehicle 612, and the vehicle 616 are running on the lane 601 and the vehicle 611, the vehicle 614, and the vehicle 615 are running on the lane 602 It is. The lane 601 and the lane 602 are both upper lines.

이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 차량의 일부만 반경(r) 내에 있는 경우에도, 이벤트 영상 획득 장치(100)는 주변 차량으로 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event image acquisition apparatus 100 can identify a nearby vehicle within a predetermined radius r range as a nearby vehicle of the vehicle 10. [ Even when only a part of the vehicle is within the radius r, the event image acquisition apparatus 100 can identify the vehicle as a nearby vehicle. To this end, the event image acquisition apparatus 100 may receive location information of each vehicle in advance and identify the location of the vehicle in motion.

단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(10), 차량(612), 차량(614) 및 차량(615)를 주변 차량으로 식별할 수 있다. 차량(616)은 반경(r) 밖에 위치하므로 주변 차량에서 제외되었다. 이때, 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615) 각각으로부터 주행 정보를 수신할 수 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615)로부터 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 수신할 수 있다.The event image capturing apparatus 100 may identify the vehicle 10, the vehicle 612, the vehicle 614, and the vehicle 615 as nearby vehicles in step S30. The vehicle 616 is excluded from the surrounding vehicles because it is located outside the radius r. At this time, the event image acquisition apparatus 100 can receive the travel information from the neighboring vehicles 10, 612, 614, and 615, respectively. For example, the event image acquisition apparatus 100 may receive at least one of the traveling direction information and the traveling speed information from the neighboring vehicles 10, 612, 614, and 615.

이벤트 영상 획득 장치(100)는 이와 같은 주변 차량(10, 612, 614, 615)의 주행 정보를 기초로, 주변 차량(10, 612, 614, 615) 중, 영상 제공 대상 차량을 결정할 수 있다.The event image acquisition apparatus 100 can determine the image providing target vehicle among the peripheral vehicles 10, 612, 614, and 615 based on the traveling information of the nearby vehicles 10, 612, 614, and 615.

구체적으로, 단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615) 중, 차량(10), 차량(612), 차량(615)는 영상 제공 대상 차량으로 결정하고, 차량(614)는 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득 장치(100)는 차량(611)의 주행 정보를 기초로, 차량(611)이 차선(602)에서 차선(601)로 진입 중에 이벤트가 발생하였음을 감지할 수 있다. 또는 이벤트 영상 획득 장치(100)는 차량(611)로부터 이벤트 정보를 수신하여 이벤트가 발생하였음을 식별할 수도 있다. More specifically, in step S40, the event image acquisition apparatus 100 determines that the vehicle 10, the vehicle 612, and the vehicle 615 among the peripheral vehicles 10, 612, 614, , And the vehicle 614 can be excluded from the image-presenting vehicle. The event image acquisition apparatus 100 can detect that an event has occurred while the vehicle 611 is entering the lane 601 from the lane 602 based on the travel information of the vehicle 611. [ Alternatively, the event image acquisition apparatus 100 may receive event information from the vehicle 611 and identify that an event has occurred.

또한, 이벤트 영상 획득 장치(100)는 수신된 주변 차량(10, 612, 614, 615)의 주행 정보로부터, 차량(614)가 차선(602)에서 오른쪽 방향으로 진행 중임을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 차량(611) 및 차량(614)의 주행 정보를 기초로, 차량(611)과 차량(614)가 멀어지는 반대 방향으로 주행 중이어서, 차량(614)이 차량(611)의 주변 차량임에도 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득이 어려운 상황이기 때문이다. 즉, 이벤트 영상 획득 장치(100)는 위치 정보로부터 식별된 각 차량의 위치, 수신된 주행 정보로부터 식별된 각 차량의 주행 방향 및 속도 정보를 기초로, 영상 제공 대상 차량을 결정할 수 있다. 또한, 추가적으로, 이벤트 영상 획득 장치(100)는 차량(611)으로부터 이벤트 정보를 수신하고, 수신된 이벤트 정보를 기초로, 차량(611)에서 이벤트가 발생한 위치인 좌측 전방임을 식별할 수도 있다. 이에 따라, 영상 획득 장치(100)는 차량(611)에서 이벤트가 발생한 위치가 좌측 전방임을 고려하여 영상 제공 대상 차량을 결정할 수도 있다.The event image acquisition apparatus 100 can also identify from the travel information of the received nearby vehicles 10, 612, 614, and 615 that the vehicle 614 is traveling in the right direction in the lane 602. [ The event image capturing apparatus 100 is running on the basis of the travel information of the vehicle 611 and the vehicle 614 so that the vehicle 611 and the vehicle 614 are traveling in the opposite directions away from each other, ), It can be excluded from the target vehicle. This is because it is difficult to acquire event images. That is, the event image acquisition apparatus 100 can determine the image providing target vehicle based on the position of each vehicle identified from the position information, the running direction and the speed information of each vehicle identified from the received running information. In addition, in addition, the event image acquisition apparatus 100 may receive event information from the vehicle 611, and may identify the left side that is the location where the event occurred in the vehicle 611, based on the received event information. Accordingly, the image capturing apparatus 100 may determine the image providing target vehicle by considering that the location where the event occurred in the vehicle 611 is the left front.

결과적으로, 차량(611) 방향으로 주행 중인(612), 차량(615)는 영상 제공 대상 차량으로 결정되었으며, 차량(10)의 경우, 차량(10) 및 차량(611)의 위치 정보, 주행 정보 및/또는 차량(611)의 이벤트 정보를 기초로 영상 제공 대상 차량으로 결정될 수 있다.As a result, in the case of the vehicle 10, the position information of the vehicle 10 and the vehicle 611, the driving information 611, And / or the event information of the vehicle (611).

한편, 본 발명의 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 단계(S30)에서, 이벤트가 발생한 차량의 주변 차량을 결정함에 있어서, 미리 설정된 거리 범위를 동적으로 변경할 수도 있다. 또는, 이벤트 영상 획득 장치(100)는 단계(S40)에서 결정된 영상 제공 대상 차량을 재결정할 수도 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 주행 중인 각 차량의 위치 정보를 미리 수신하여, 각 차량의 위치를 식별할 수 있는 것으로 가정한다. 이 경우, 이벤트 영상 획득 장치(100)는 최초의 설정에 따른 반경(r) 내에 위치하는 차량을 주변 차량으로 식별할 수 있다. Meanwhile, according to another embodiment of the present invention, in step S30, the event image acquisition apparatus 100 may dynamically change a predetermined distance range in determining a nearby vehicle of a vehicle in which an event has occurred. Alternatively, the event image acquisition apparatus 100 may re-determine the image-presenting vehicle determined in step S40. To this end, it is assumed that the event image acquisition apparatus 100 can receive the position information of each vehicle in operation and identify the position of each vehicle. In this case, the event-image capturing apparatus 100 can identify the vehicle positioned within the radius r according to the initial setting as a nearby vehicle.

이후, 단계(S40)에서 영상 제공 대상 차량을 결정하여, 도 6에 도시된 바와 같이 주변 차량(10, 612, 614, 615) 중, 영상 제공 대상 차량이 차량(10), 차량(612) 및 차량(615)로 결정될 수 있다. 영상 제공 대상 차량의 결정 과정에서, 이벤트 영상 획득 장치(100)는 이벤트 정보를 수신할 수도 있다. 도 6의 경우, 이벤트 정보를 참고하여, 이벤트 획득 장치(100)는 차량(611)의 좌측 전방에 이벤트가 발생한 것으로 판단할 수 있다.6, it is determined whether the vehicle 10, the vehicle 612, and / or the vehicle 60, among the peripheral vehicles 10, 612, 614, and 615, The vehicle 615 can be determined. In the process of determining a vehicle to be provided with an image, the event image acquisition apparatus 100 may receive event information. In the case of FIG. 6, the event acquiring device 100 can determine that an event has occurred in the left front of the vehicle 611, referring to the event information.

단계(S50)에서, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(10, 612, 615)로부터 이벤트에 대한 영상을 수신할 수 있다. 이벤트 영상 획득 장치(100)는 이벤트에 대한 영상을 분석하여, 이벤트의 발생 과정, 이벤트가 발생한 차량(611)의 영역을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 이를 위해 영상 분석 기술 분야에서 널리 활용되는 적어도 하나의 소프트웨어 모듈을 구비할 수 있다. 또한, 이벤트 영상 획득 장치(100)의 프로세서(101)는 상기 적어도 하나의 소프트웨어 모듈을 실행하여, 수신된 이벤트에 대한 영상으로부터 이벤트를 분류하고, 이벤트 정보를 생성할 수도 있다.In step S50, the event image acquisition apparatus 100 may receive an image of an event from the image providing target vehicle 10, 612, and 615. [ The event image acquisition apparatus 100 may analyze an image of an event to identify an event generation process and an area of the vehicle 611 where the event occurs. The event image acquisition apparatus 100 may include at least one software module widely used in the field of image analysis technology. In addition, the processor 101 of the event image acquisition apparatus 100 may execute the at least one software module to classify an event from an image of a received event, and generate event information.

이벤트 영상 획득 장치(100)는 차량(611)으로부터 수신된 이벤트 정보와 수신된 이벤트에 대한 영상으로부터 생성된 이벤트 정보를 비교할 수 있다. 이와 같은 비교 과정을 통해, 이벤트 영상 획득 장치(100)는 생성된 이벤트 정보와 수신된 이벤트 정보라 미리 설정된 범위 내에서 매칭되는지 판단할 수 있다. 이와 같은 매칭 결과, 미리 설정된 범위 내에서, 생성된 이벤트 정보와 수신된 이벤트 정보가 매칭되는 경우, 이벤트 영상 획득 장치(100)는 단계(S30)의 주변 차량 식별 및 단계(S40)의 영상 제공 대상 차량 결정을 신뢰할 수 있으므로, 단계(S30)의 미리 설정된 거리 범위를 유지하고, 단계(S40)에서 결정된 영상 제공 대상 차량에 대한 정보를 저장한다.The event image acquisition apparatus 100 may compare event information received from the vehicle 611 with event information generated from the image of the received event. Through the comparison process, the event image acquisition apparatus 100 can determine whether the generated event information matches with the received event information within a preset range. If the generated event information matches the received event information within a predetermined range as a result of the matching, the event image acquisition apparatus 100 determines whether the vehicle exists in the vicinity of the vehicle in step S30, Since the vehicle determination can be relied on, the predetermined distance range of the step S30 is maintained, and information on the image providing object vehicle determined in the step S40 is stored.

반면, 미리 설정된 범위 내에서 생성된 이벤트 정보와 수신된 이벤트 정보가 매칭되지 않는 경우, 이벤트 영상 획득 장치(100)는 단계(S30)의 주변 차량 식별 및 단계(S40)의 영상 제공 대상 차량 결정을 신뢰할 수 없으므로, 단계(S30)의 미리 설정된 거리 범위를 변경하거나, 단계(S40)에서 영상 제공 대상 차량 결정 과정을 다시 수행할 수 있다.On the other hand, if the event information generated within the predetermined range does not match the received event information, the event image acquisition device 100 determines the neighboring vehicle in step S30 and determines the vehicle to be provided in step S40 It is possible to change the predetermined distance range of step S30 or to perform the image providing object determination process again in step S40.

한편, 본 발명의 또 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 단계(S40)에서 영상을 제공할 차량을 선별하는 것 외에, 결정된 영상 제공 대상 차량이 송신할 영상의 분량을 결정할 수도 있다. 즉, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량이 송신하는 영상의 프레임을 결정할 수도 있다. 이에 대하여 도 7을 참조하여 설명한다.According to another embodiment of the present invention, in addition to selecting a vehicle to provide an image in step S40, the apparatus 100 for acquiring an event image may determine the amount of an image to be transmitted by the determined image providing vehicle have. That is, the event image acquisition apparatus 100 may determine a frame of an image transmitted by the image-presenting vehicle. This will be described with reference to FIG.

도 7은 본 발명의 몇몇 실시예에서 참조되는, 이벤트 발생 차량과 주변 차량의 주행 정보를 나타낸 예시도이다. FIG. 7 is an exemplary view showing travel information of an event generating vehicle and a neighboring vehicle, which is referred to in some embodiments of the present invention. FIG.

도 7에서, 주행 정보(710)은 이벤트가 발생한 차량의 주행 정보이며, t1 및 t2 사이의 시간 구간(700) 동안, 영역(705)에서 이벤트가 발생한 경우가 예시되었다. 주행 정보(720)은 구간(700) 동안의 주변 차량의 주행 정보이다. 주행 정보(720)의 각 화살표는 각기 다른 차량을 의미하고, 화살표의 방향은 상기 각기 다른 차량의 주행 방향을 의미한다. 주행 정보(710) 및 주행 정보(720)은 동일한 차선에서 측정된 주행 정보이다.7, the running information 710 is running information of the vehicle in which the event occurred, and an event occurred in the area 705 during the time interval 700 between t1 and t2. The travel information 720 is travel information of the nearby vehicle during the interval 700. [ Each arrow in the travel information 720 indicates a different vehicle, and the direction of an arrow indicates the traveling direction of each of the different vehicles. The travel information 710 and the travel information 720 are traveling information measured in the same lane.

주행 정보(710) 및 주행 정보(720)을 참조하면, 이벤트가 발생한 차량에 좌측 차선의 영역(705)에서 시간 구간(700) 내에서 이벤트가 발생한 때에, 이벤트 영상 획득 장치(100)는 차량(721, 722, 723, 724, 725, 726, 727, 728)을 주변 차량으로 식별할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 이벤트가 발생 차량의 주행 정보, 또는 추가적으로, 주변 차량(721, 722, 723, 724, 725, 726, 727, 728)의 주행 정보를 기초로, 영상 제공 대상 차량을 결정할 수 있다.Referring to the driving information 710 and the driving information 720, when an event occurs in the time zone 700 in the left lane area 705 of the vehicle where the event has occurred, 721, 722, 723, 724, 725, 726, 727, 728) can be identified as a nearby vehicle. In addition, the event image acquisition apparatus 100 may be configured to generate the event information based on the running information of the event-generating vehicle or, further, the running information of the nearby vehicles 721, 722, 723, 724, 725, 726, 727, The vehicle can be determined.

도 7을 참조하면, 영상 제공 대상 차량으로, 차량(721), 차량(722), 차량(725), 및 차량(726)이 결정되었다. 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보 및/또는 주행 정보를 기초로 차량(724)의 경우, 차량(721) 및 차량(722)에 의해 이벤트가 발생한 현장이 가리게 되는 것을 감지할 수 있고, 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득 장치(100)는 비슷한 이유로, 차량(727, 728)을 영상 제공 대상 차량에서 제외할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 차량(723)의 경우, 이벤트가 발생한 차량과 차량(723)의 위치 정보 및/또는 주행 정보를 기초로, 이벤트가 발생한 차량이 차량(723)의 이미지 센서로부터 사각 지대에 위치하는 것을 감지하고, 영상 제공 대상 차량에서 제외할 수 있다.7, the vehicle 721, the vehicle 722, the vehicle 725, and the vehicle 726 have been determined as the image-presenting vehicles. The event image capturing apparatus 100 can detect that the scene where the event occurred by the vehicle 721 and the vehicle 722 in the case of the vehicle 724 is blocked based on the positional information and / And can be excluded from the vehicle for which the image is provided. For the same reason, the event image acquisition apparatus 100 can exclude the vehicles 727 and 728 from the image providing object vehicle. In the case of the vehicle 723, the event image acquiring device 100 acquires the vehicle information of the vehicle 723 based on the position information and / or the running information of the vehicle and the vehicle 723, And can be excluded from the video-provision target vehicle.

단계(S50)에서 영상을 수신한 후, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량의 위치 정보 및 영상 제공 대상 차량의 위치 정보를 기초로, 영상 제공 대상 차량 각각으로부터 제공받을 영상에 대한 구간 정보를 결정할 수 있다. After receiving the image in step S50, the event image acquiring device 100 generates an interval for the image to be provided from each of the image providing target vehicles, based on the position information of the vehicle where the event occurred and the position information of the image providing target vehicle Information can be determined.

시간 구간(700)에서 영상 제공 대상 차량(721, 722, 725, 726)의 위치를 고려하면, 차량(721, 722)의 경우, 이벤트가 발생한 차량의 후방에 위치하므로, 차선 방향으로 주행 시에, 이벤트에 대한 영상을 촬영할 시간이 상대적으로 길다.Considering the positions of the video-provision target vehicles 721, 722, 725, and 726 in the time interval 700, the vehicles 721 and 722 are located behind the vehicle in which the event occurred, , It takes a relatively long time to photograph the event.

반면, 차량(725, 726)의 경우, 이벤트가 발생한 차량의 전방에 위치하므로, 이벤트가 발생한 차량으로부터 멀어지며, 이벤트에 대한 영상을 촬영할 시간이 상대적으로 짧다.On the other hand, in the case of the vehicles 725 and 726, since the vehicle is located in front of the vehicle where the event occurred, the vehicle 725 or 726 moves away from the vehicle where the event occurred and the time to take an image of the event is relatively short.

따라서, 이벤트 영상 획득 장치(100)는 차량(721, 722)의 경우, 제공 받을 이벤트에 대한 영상의 구간을 길게 결정하고, 차량(725, 726)의 경우, 제공 받을 이벤트에 대한 영상의 구간을 짧게 결정할 수 있다. 이로써, 불필요한 영상 수신을 방지하고, 수신 영상으로부터 이벤트를 추출하는데 소요되는 시간을 절감할 수 있다.Accordingly, in the case of the vehicles 721 and 722, the event image acquisition apparatus 100 determines the interval of the image for the event to be provided to be long, and in the case of the vehicles 725 and 726, It can be decided shortly. Thus, it is possible to prevent unnecessary video reception and to reduce the time required for extracting an event from the received video.

이벤트 영상 획득 장치(100)는 결정된 구간 정보에 해당하는 영상을 영상 제공 대상 차량 각각으로부터 수신할 수 있다.The event image acquisition apparatus 100 can receive an image corresponding to the determined section information from each of the image providing target vehicles.

이벤트 영상 획득 장치(100)는 추가적으로, 영상 제공 대상 차량(721, 722, 725, 726)으로부터 주행 정보를 획득할 수도 있다. 이 경우, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(721, 722, 725, 726) 각각으로부터 제공받을 영상에 대한 구간 정보를 결정할 때, 영상 제공 대상 차량 각각으로부터 획득된 주행 정보를 기초로 결정할 수 있다.The event image acquisition apparatus 100 may additionally obtain the travel information from the image providing target vehicles 721, 722, 725, and 726. [ In this case, when determining the section information on the image to be provided from each of the image providing target vehicles 721, 722, 725, and 726, the event image obtaining apparatus 100 may determine, based on the traveling information obtained from each of the image providing target vehicles You can decide.

구체적으로, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량 방향으로 주행 중인 영상 제공 대상 차량(721, 722)의 경우, 구간 정보를 제1 시간의 구간 정보로 결정하고, 이벤트가 발생한 차량으로부터 멀어지는 방향으로 주행 중인 영상 제공 대상 차량(725, 726)의 경우, 구간 정보를 제1 시간 보다 짧은 제2 시간의 구간 정보로 결정할 수 있다. 나아가, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(721) 및 영상 제공 대상 차량(722)의 주행 정보를 기초로, 영역(705)의 영상 획득에 유리한 차량을 결정하고, 영상 제공 대상 차량(721) 및 영상 제공 대상 차량(722) 중, 영상 획득에 상대적으로 유리한 차량의 영상 구간 정보를 길게, 영상 획득에 상대적으로 불리한 차량의 영상 구간 정보를 짧게 결정할 수도 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량으로부터 이벤트 정보를 실시간 수신하여, 차량 상에서 이벤트가 발생한 위치, 즉, 차량의 사고 영역을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 식별된 사고 영역에 대한 정보를 기초로, 실시간으로 이벤트에 대한 영상의 획득에 상대적 유리 또는 불리한 차량을 결정할 수 있다.Specifically, in the case of the image-presenting vehicles 721 and 722 running in the direction of the vehicle in which the event occurs, the event-image acquiring apparatus 100 determines the section information as the section information of the first time, In the case of the image-presenting vehicles 725 and 726 running in the direction of the vehicle, the section information can be determined as the section information of the second time shorter than the first time. Furthermore, the event image acquisition apparatus 100 determines a vehicle that is advantageous for image acquisition of the region 705 based on the travel information of the image providing target vehicle 721 and the image providing target vehicle 722, It is possible to shorten the video segment information of the vehicle relatively advantageous to the image acquisition among the video segmentation target vehicle 721 and the video providing target vehicle 722 to be long and to shorten the video segment information of the vehicle which is relatively disadvantageous to the image acquisition. To this end, the event image capturing apparatus 100 can receive the event information in real time from the vehicle where the event occurred, and can identify the location where the event occurred on the vehicle, that is, the accident area of the vehicle. The event image acquisition apparatus 100 can determine a vehicle that is relatively free or unfavorable to acquisition of the image for the event in real time based on the information on the identified incident area.

도 8은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 장치에서 수집된 차량의 주행 정보에 대한 예시이다. 본 발명의 실시예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 수집된 각종 정보를 각 차량의 주행 정보로서 통합적으로 관리할 수 있다.8 is an illustration of driving information of a vehicle collected in an event image acquisition device of a vehicle, which is referred to in some embodiments of the present invention. According to the embodiment of the present invention, the event image acquisition apparatus 100 can collectively manage various information collected from the vehicle as travel information of each vehicle.

도 8을 참조하면, 이벤트 영상 획득 장치(100)는 차량의 식별자 정보 및 이벤트 발생 여부에 대한 정보를 수신할 수 있다. 또한, 이벤트 발생 시간, 이벤트 현장으로부터 차량의 거리, 주행 방향, 각 차량이 영상 제공 대상 차량으로 결정되는 지 여부에 대한 정보를 포함할 수도 있다.Referring to FIG. 8, the event image acquisition apparatus 100 may receive the identifier information of the vehicle and information on whether an event has occurred. It may also include information on the event occurrence time, the distance of the vehicle from the event site, the direction of travel, and whether each vehicle is determined as a vehicle to be provided with images.

도 9는 본 발명의 몇몇 실시예에서 참조되는, 이벤트의 등급 별 처리 정보에 대한 정보의 예시이다. 도 9를 참조하면, 이벤트 영상 획득 장치(100)는 차량에 이벤트가 발생한 경우, 이벤트가 발생한 차량으로부터 이벤트 정보를 수신할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 수신된 이벤트 정보 상의 이벤트 등급 정보를 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량에 이벤트가 발생한 경우에 자동으로 메시지를 송신할 컨택 정보를 미리 저장할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 각 차량의 이벤트 정보에 매칭되는 이벤트 등급 정보 및 이벤트 처리 정보를 미리 저장할 수도 있다.Figure 9 is an illustration of information about processing information by class of events, referred to in some embodiments of the present invention. Referring to FIG. 9, when an event occurs in the vehicle, the event image acquisition apparatus 100 may receive event information from the vehicle where the event occurred. In addition, the event image acquisition apparatus 100 can identify event class information on the received event information. To this end, the event image acquisition apparatus 100 may store contact information to automatically transmit a message when an event occurs in each vehicle. In addition, the event image acquisition apparatus 100 may previously store event class information and event process information matched with event information of each vehicle.

도 9를 참조하면, 차량001 및 차량002가 충돌하는 이벤트가 발생한 경우가 예시되었다. 이벤트 정보 상의 이벤트 발생 위치의 예로써, 차량001의 파손부위인 좌측 전방, 차량002의 파손부위 우측 후방이 예시되었다. 또한, 이벤트 등급의 예로써 파손 정도 A, B가 예시되었다. 파손 정도 A는 파손 정도 B 대비 파손이 심각한 것으로 가정한다.Referring to Fig. 9, a case where an event in which the vehicle 001 and the vehicle 002 collide is illustrated. As an example of an event occurrence position on the event information, a left front side, which is a broken portion of the vehicle 001, and a rear right side, which is a broken portion of the vehicle 002, are illustrated. In addition, the degree of breakage A, B is exemplified as an example of the event class. The degree of damage A is assumed to be severe compared to the degree B of failure.

이벤트 영상 획득 장치(100)는 이벤트 정보 및/또는 수신된 이벤트에 대한 영상을 기초로 이벤트 등급을 식별할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 식별된 이벤트 등급 정보에 매칭된 이벤트 처리 정보를 식별할 수 있으며, 식별된 이벤트 처리 정보를 실행할 수 있다. 도 9를 참조하면, 차량001의 경우, 이벤트 등급 정보가 A이고, 이에 대한 처리 정보로 "응급 연결"로 매칭되어 있으며, 차량002의 경우, 이벤트 등급 정보가 B이고, 이에 대한 처리 정보로 "보험사 자동 연결"이 매칭되어 있는 경우이다.The event image acquisition apparatus 100 can identify an event class based on event information and / or an image of a received event. In addition, the event image acquisition apparatus 100 can identify event processing information matched with the identified event class information, and execute the identified event processing information. 9, in the case of the vehicle 001, the event class information is A, the process information is matched with the "emergency connection ", and in the case of the vehicle 002, the event class information is B, Insurance company automatic connection "is matched.

이벤트 영상 획득 장치(100)는 이벤트가 발생한 각 차량에 대하여, 매칭된 처리 정보를 실행할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 차량001에 대해서는, 이벤트 등급 정보가 A인 것을 식별하여 긴급 상황임을 인지하고, 119 등 구호 시스템에 응급 메시지를 송신할 수 있으며, 차량002에 대해서는, 이벤트 등급 정보가 B인 것을 식별하여 보험 서비스 시스템에 메시지를 송신할 수 있다. 이벤트 영상 획득 장치(100)는 수신한 이벤트 정보 및/또는 수신한 이벤트에 대한 영상을 기초로, 차량0001 또는 차량0002의 이벤트에 대한 과실을 판단할 수 있다.The event image acquisition apparatus 100 can execute matching processing information for each vehicle in which an event has occurred. Accordingly, the event image acquisition apparatus 100 recognizes that the event level information is A for the vehicle 001, recognizes the emergency situation, and can transmit the emergency message to the relief system 119, A message can be transmitted to the insurance service system by identifying the grade information as B. The event image acquisition apparatus 100 can determine an error for the event of the vehicle 0001 or the vehicle 0002 based on the received event information and / or the image of the received event.

한편, 복수의 차량 간에 이벤트가 발생한 경우에 대하여, 도 10을 참조하여 설명한다.On the other hand, a case where an event occurs between a plurality of vehicles will be described with reference to Fig.

도 10은 본 발명의 몇몇 실시예에서 참조되는, 복수의 이벤트 사이의 인과 관계를 판단하기 위한 정보의 예시이다.10 is an illustration of information for determining a causal relationship between a plurality of events, referred to in some embodiments of the present invention.

도 10에서, 차량(1001), 차량(1002), 차량(1003) 및 차량(1004) 사이의 다중 추돌 사고가 이벤트로 예시되었다. 시간 t1, t2, t3 및 t4는 각 이벤트가 발생한 시간 순서이며, 이벤트 a1은 차량(1002)가 차량(1001)의 후방에 충돌한 이벤트, 이벤트 a2는 차량(1004)가 차량(1003)의 후방에 충돌한 이벤트, 이벤트 a3는 차량(1003)이 차량(1002)의 후방에 충돌한 이벤트이며, 이벤트 a4는 차량(1002)가 차량(1001)의 후방에 재차 충돌한 이벤트이다.In Fig. 10, multiple collision accidents between the vehicle 1001, the vehicle 1002, the vehicle 1003, and the vehicle 1004 are illustrated as events. The event a1 is an event in which the vehicle 1002 collides with the rear of the vehicle 1001 and the event a2 is an event in which the vehicle 1004 collides with the rear side of the vehicle 1003. The time t1, t2, t3, The event a3 is an event in which the vehicle 1003 collides with the rear of the vehicle 1002 and the event a4 is an event in which the vehicle 1002 collides with the rear of the vehicle 1001 again.

단계(S30)에서, 이벤트 영상 획득 장치(100)는, 각 차량(1001, 1002, 1003, 1004)으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 각 차량과 다른 나머지 차량을 식별할 수 있으며, 차량(1001)에 발생한 이벤트 a1, a4 및, 차량(1002)의 이벤트 a1, a4, a3, 차량(1003)의 이벤트 a2, a3 차량(1004)의 이벤트 a2를 식별할 수 있다. In step S30, the event image acquisition apparatus 100 can identify each of the vehicles 1001, 1002, 1003, and 1004 among the nearby vehicles located within a predetermined distance range from the vehicle 1001, 1002, 1003, It is possible to identify the events a1 and a4 occurring in the vehicle 1001 and the events a1 and a4 of the vehicle 1002 and the events a2 and a3 of the vehicle 1003 and the event a2 of the vehicle 1004. [

이벤트 획득 장치(100)는 단계(S20)에서 획득된 주행 정보를 기초로, 이벤트 a1, a2, a3, a4의 발생 순서를 결정할 수 있다. 또한, 이벤트 획득 장치(100)는 단계(S50)에서, 결정된 이벤트의 발생 순서를 기초로, 각 차량으로부터 제공 받을 영상의 구간 정보를 결정하고, 결정된 구간 정보에 해당하는 영상을 수신할 수 있다.The event acquisition apparatus 100 can determine the generation order of the events a1, a2, a3, and a4 based on the travel information obtained in step S20. In step S50, the event acquisition apparatus 100 may determine the interval information of the image to be provided from each vehicle based on the order of occurrence of the determined event, and may receive the image corresponding to the determined interval information.

도 10을 참조하면, 예를 들어, 이벤트 획득 장치(100)는 이벤트 발생 순서를, 이벤트 a1, 이벤트 a2, 이벤트 a3, 이벤트 a4 순서로 결정할 수 있다. 즉, 차량(1002)가 차량(1001)에 충돌한 후, 차량(1004)가 차량(1003)에 충돌하였고, 차량(1003)이 이에 따라 차량(1002)에 충돌한 후, 재차 차량(1002)가 차량(1001)에 충돌한 경우이다. 이벤트 영상 획득 장치(100)는 이벤트 발생 순서를 결정한 후, 차량(1001)의 이벤트 a1, a4에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1002)를 결정할 수 있다. 이벤트 영상 획득 장치(100)는 차량(1002)의 이벤트 a1, a3, a4에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1001) 및 차량(1003)을 결정할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 차량(1003)의 이벤트 a2, a3에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1002) 및 차량(1004)를 결정할 수 있다.Referring to FIG. 10, for example, the event acquiring apparatus 100 may determine an event generation order in the order of events a1, a2, a3, and a4. That is, after the vehicle 1002 collides with the vehicle 1001, the vehicle 1004 collides with the vehicle 1003, and after the vehicle 1003 thus collides with the vehicle 1002, Is collided with the vehicle 1001. The event image acquisition apparatus 100 may determine the vehicle 1002 as a vehicle to be provided with the image to provide the images of the events a1 and a4 of the vehicle 1001 after determining the event generation order. The event image acquiring apparatus 100 can determine the vehicle 1001 and the vehicle 1003 as the image providing target vehicles to provide the images of the events a1, a3 and a4 of the vehicle 1002. [ In addition, the event image acquisition apparatus 100 can determine the vehicle 1002 and the vehicle 1004 as images to be provided with the images of the events a2 and a3 of the vehicle 1003.

다음으로, 이벤트 영상 획득 장치(100)는 각 이벤트의 발생 순서에 따라, 영상 제공 대상 차량이 획득한 이벤트 영상의 구간을 결정할 수 있다. 각 차량이 획득한 영상 중, 이벤트에 대한 영상은 이벤트 발생 순서에 대응될 수 있다. 따라서, 이벤트 영상 획득 장치(100)는 각 이벤트가 발생한 시점을 미리 설정된 시간 범위로 포함하는 영상 구간을 각 차량으로부터 제공 받을 영상의 구간 정보로 결정할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 각 이벤트에 대한 정보에 부합하는 이벤트 영상만을 수집할 수 있으며, 이벤트와 관련된 차량을 영상 제공 대상 차량으로 결정하므로, 수집되는 영상을 최소화하면서도 수집되는 이벤트 영상의 정확도를 향상시킬 수 있다. Next, the event image acquisition apparatus 100 can determine the interval of the event image acquired by the image providing target vehicle according to the order of generation of each event. Of the images acquired by the respective vehicles, the images of the events may correspond to the event occurrence order. Accordingly, the event image acquisition apparatus 100 can determine the image section including the time when each event occurs as a predetermined time range as the section information of the image to be provided from each vehicle. Accordingly, the event image acquisition apparatus 100 can collect only the event image corresponding to the information of each event, and the vehicle related to the event is determined as the image providing target vehicle. Therefore, Can be improved.

지금까지 도 1 내지 도 10을 참조하여 설명된 본 발명의 실시예들은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록 된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.Embodiments of the invention described above with reference to Figures 1 to 10 may be embodied in computer readable code on a computer readable medium. The computer readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) . The computer program recorded on the computer-readable recording medium may be transmitted to another computing device via a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

또한, 도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Also, while operations are shown in a particular order in the figures, it should be understood that operations need not necessarily be performed in the particular order shown or in sequential order, or that all of the illustrated operations must be performed to achieve the desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various configurations in the above-described embodiments should not be understood as such a separation being essential, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products .

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (10)

차량에 대한 이벤트의 발생 여부를 감지하는 단계;
상기 이벤트가 발생한 차량의 주행 정보를 획득하는 단계;
상기 이벤트가 발생한 차량의 위치 정보를 기초로, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계;
상기 획득된 주행 정보를 기초로, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계; 및
상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
Detecting whether an event has occurred to the vehicle;
Obtaining driving information of the vehicle in which the event has occurred;
Identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred, based on the location information of the vehicle where the event occurred;
Determining a video-presenting vehicle for the event among the neighboring vehicles based on the obtained running information; And
And receiving an image for the event from at least one of the determined image providing target vehicles.
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
The traveling information includes at least one of traveling direction information of the vehicle in which the event received before the event occurred, traveling speed information of the vehicle in which the event occurred, time information at which the event occurred, And at least one of the terrain information,
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 차량을 포함한 복수의 차량 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집하는 단계를 더 포함하고,
상기 이벤트의 발생 여부를 감지하는 단계는,
상기 차량으로부터 이벤트 정보를 수신하거나, 상기 차량으로부터 미리 설정된 시간 동안 상기 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 상기 차량에 이벤트가 발생한 것으로 감지하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Further comprising collecting identifier information and location information of the vehicle from each of the plurality of vehicles including the vehicle,
Wherein the step of detecting whether the event is generated comprises:
Receiving an event information from the vehicle or detecting that an event has occurred in the vehicle when at least one of the identifier information and the location information is not received from the vehicle for a predetermined time;
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는,
상기 이벤트가 발생한 차량의 위치 정보 및 상기 영상 제공 대상 차량의 위치 정보를 기초로, 상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 제공받을 영상에 대한 구간 정보를 결정하는 단계; 및
상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Wherein the step of receiving an image for the event from at least one of the determined image providing vehicles comprises:
Determining interval information on an image to be provided from at least one of the vehicles to be provided, based on the position information of the vehicle where the event occurred and the position information of the vehicle to be provided with the image; And
And receiving an image corresponding to the determined section information from at least one of the vehicles to be provided with images,
A method of acquiring an event image of a vehicle.
제 4 항에 있어서,
상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 주행 정보를 획득하는 단계를 더 포함하고,
상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 제공받을 영상에 대한 구간 정보를 결정하는 단계는,
상기 획득된 영상 제공 대상 차량 각각의 주행 정보를 기초로, 상기 구간 정보를 결정하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
5. The method of claim 4,
Further comprising the step of acquiring travel information from at least one of the vehicles to be provided with images,
The step of determining the segment information for the image to be provided from at least one of the vehicles,
And determining the section information on the basis of the running information of each of the obtained image-presenting vehicles.
A method of acquiring an event image of a vehicle.
제 4 항 및 제 5 항 중, 어느 한 항에 있어서,
상기 구간 정보를 결정하는 단계는,
상기 이벤트가 발생한 차량 방향으로 주행 중인 영상 제공 대상 차량의 경우, 상기 구간 정보를 제1 시간의 구간 정보로 결정하고, 상기 이벤트가 발생한 차량으로부터 멀어지는 방향으로 주행 중인 영상 제공 대상 차량의 경우, 상기 구간 정보를 제2 시간의 구간 정보로 결정하는 단계를 포함하되,
상기 제1 시간은 상기 제2 시간 보다 긴 시간인,
차량의 이벤트 영상 획득 방법.
6. The method according to any one of claims 4 and 5,
Wherein the step of determining the section information comprises:
In the case of a vehicle to which the image is to be provided while the vehicle is traveling in the direction of the vehicle in which the event has occurred, the section information is determined as the interval information of the first time. In the case of the vehicle to which the image is to be provided, Determining information as interval information of a second time period,
Wherein the first time is longer than the second time,
A method of acquiring an event image of a vehicle.
제 3 항에 있어서,
상기 수신된 이벤트 정보 상의 이벤트 등급 정보 및 상기 수신된 이벤트에 대한 영상 중 적어도 하나를 기초로 상기 이벤트의 등급 정보를 식별하는 단계;
상기 식별된 이벤트 등급 정보에 매칭된 이벤트 처리 정보를 식별하는 단계; 및
상기 식별된 이벤트 처리 정보를 실행하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method of claim 3,
Identifying class information of the event based on at least one of event class information on the received event information and an image of the received event;
Identifying event processing information matched to the identified event class information; And
And executing the identified event processing information.
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 주변 차량 중 적어도 하나의 차량으로부터 각각 주행 정보를 획득하는 단계를 더 포함하고,
상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계는,
상기 획득된 상기 주변 차량의 주행 정보를 기초로, 상기 영상 제공 대상 차량을 결정하는 단계를 포함하되,
상기 주변 차량의 주행 정보는, 상기 주변 차량의 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Further comprising acquiring travel information from at least one of the nearby vehicles,
The step of determining a video-providing target vehicle for the event, among the peripheral vehicles,
And determining the image providing target vehicle based on the obtained running information of the neighboring vehicle,
Wherein the running information of the peripheral vehicle includes at least one of running direction information of the peripheral vehicle and running speed information,
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 주행 정보는 상기 이벤트가 발생한 차량의 이벤트 정보를 포함하고,
상기 차량의 이벤트 영상 획득 방법은,
상기 수신된 이벤트에 대한 영상으로부터 이벤트 정보를 생성하는 단계;
상기 주행 정보 상의 이벤트 정보와 상기 생성된 이벤트 정보를 비교하는 단계; 및
상기 비교 결과, 상기 생성된 이벤트 정보와 상기 주행 정보 상의 이벤트 정보가 미리 설정된 범위 내에서 매칭되지 않는 경우, 상기 미리 설정된 거리 범위를 변경하거나, 상기 결정된 영상 제공 대상 차량을 재결정하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Wherein the running information includes event information of a vehicle in which the event occurred,
A method for acquiring an event image of a vehicle,
Generating event information from an image of the received event;
Comparing the event information on the running information with the generated event information; And
And changing the predetermined distance range or re-determining the determined image providing target vehicle when the generated event information and the event information on the driving information do not match within a predetermined range as a result of the comparison.
A method of acquiring an event image of a vehicle.
제 1 항에 있어서,
상기 이벤트가 발생한 차량은, 제1 이벤트가 발생한 제1 차량 및 제2 이벤트가 발생한 제2 차량을 포함하고,
상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계는,
상기 제1 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 제2 차량을 식별하는 단계; 및
상기 획득된 주행 정보를 기초로, 상기 제1 이벤트 및 상기 제2 이벤트의 발생 순서를 결정하는 단계를 포함하고,
상기 결정된 영상 제공 대상 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는,
상기 제1 이벤트 및 상기 제2 이벤트에 대하여 상기 결정된 발생 순서를 기초로, 상기 영상 제공 대상 차량으로부터 제공받을 영상의 구간 정보를 결정하는 단계; 및
상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 각각으로부터 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Wherein the vehicle in which the event has occurred includes a first vehicle in which a first event has occurred and a second vehicle in which a second event has occurred,
The step of identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred,
Identifying the second vehicle among nearby vehicles located within a predetermined distance range from the first vehicle; And
And determining a generation order of the first event and the second event based on the obtained running information,
Receiving the image for the event from the determined image providing target vehicle,
Determining interval information of an image to be provided from the image providing subject vehicle based on the determined order of occurrence for the first event and the second event; And
And receiving an image corresponding to the determined section information from each of the image providing target vehicles,
A method of acquiring an event image of a vehicle.
KR1020160163856A 2016-12-02 2016-12-02 Method and Apparatus for acquiring event image of vehicle KR20180063734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160163856A KR20180063734A (en) 2016-12-02 2016-12-02 Method and Apparatus for acquiring event image of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160163856A KR20180063734A (en) 2016-12-02 2016-12-02 Method and Apparatus for acquiring event image of vehicle

Publications (1)

Publication Number Publication Date
KR20180063734A true KR20180063734A (en) 2018-06-12

Family

ID=62622119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160163856A KR20180063734A (en) 2016-12-02 2016-12-02 Method and Apparatus for acquiring event image of vehicle

Country Status (1)

Country Link
KR (1) KR20180063734A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210030523A (en) * 2019-09-09 2021-03-18 현대자동차주식회사 Vehicle and method for controlling the vehicle
KR102426233B1 (en) * 2022-03-03 2022-07-29 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for intelligent road information collection based on user terminal

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110088012A (en) 2010-01-28 2011-08-03 한국전자통신연구원 Apparatus for collecting vehicle accident image data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110088012A (en) 2010-01-28 2011-08-03 한국전자통신연구원 Apparatus for collecting vehicle accident image data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210030523A (en) * 2019-09-09 2021-03-18 현대자동차주식회사 Vehicle and method for controlling the vehicle
KR102426233B1 (en) * 2022-03-03 2022-07-29 주식회사 제일엔지니어링종합건축사사무소 Apparatus and method for intelligent road information collection based on user terminal

Similar Documents

Publication Publication Date Title
US11216676B2 (en) Information processing system and information processing method
US10074181B2 (en) Method and device for monitoring a surrounding region of a vehicle, and method for implementing emergency braking
CN108074401B (en) Vehicle jamming behavior judging method and device
EP3140777B1 (en) Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
KR102268032B1 (en) Server device and vehicle
KR20170050433A (en) Vehicle Control System and Method Thereof
US20160379487A1 (en) Methods for identifying a vehicle from captured image data
US9805527B2 (en) Intelligent logging
CN108028017A (en) Method for distinguishing real obstruction and false barrier in the driver assistance system of motor vehicle
CN108369781B (en) Method for evaluating a hazard situation detected by at least one sensor of a vehicle
EP3243671A1 (en) Method and apparatus for classifying a tyre
CN109703456B (en) Warning method and device for preventing automobile collision and automobile controller
EP3035315B1 (en) Information retrieval arrangement
CN113110266A (en) Remote control monitoring and early warning method and system for automatic driving vehicle and storage medium
KR101628547B1 (en) Apparatus and Method for Checking of Driving Load
KR20180063734A (en) Method and Apparatus for acquiring event image of vehicle
KR20220041986A (en) System and method for safety driving control of vehicle
KR20160062259A (en) Method, system and computer readable medium for managing abnormal state of vehicle
CN111800314B (en) Automatic driving fault monitoring system
CN111800508B (en) Automatic driving fault monitoring method based on big data
CN116433988B (en) Multi-source heterogeneous image data classification treatment method
US11364918B2 (en) Notifying device and notifying method
CN110969895B (en) Vehicle distance detection method, device, system and server
KR101391324B1 (en) Method for recognizing traffic condition based on event rule using data detected by a radar and apparatus thereof
KR20220112043A (en) System and method for mobility sharing service