KR20180063734A - Method and Apparatus for acquiring event image of vehicle - Google Patents
Method and Apparatus for acquiring event image of vehicle Download PDFInfo
- Publication number
- KR20180063734A KR20180063734A KR1020160163856A KR20160163856A KR20180063734A KR 20180063734 A KR20180063734 A KR 20180063734A KR 1020160163856 A KR1020160163856 A KR 1020160163856A KR 20160163856 A KR20160163856 A KR 20160163856A KR 20180063734 A KR20180063734 A KR 20180063734A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- event
- information
- image
- vehicles
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/06—Direction of travel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B60W2550/14—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차량의 이벤트 영상을 획득하는 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 이벤트 발생 차량의 주변 차량으로부터 이벤트 발생 차량에 대한 영상을 획득하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for acquiring an event image of a vehicle. More particularly, the present invention relates to a method and apparatus for acquiring an image of an event generating vehicle from a peripheral vehicle of an event generating vehicle.
차량의 주행 환경을 감지하기 위하여 다양한 전자 장비들이 차량에 구비되고 있다. 이러한 전자 장비는 차량의 주행 정보를 측정하고, 차량 또는 주변 차량에서 발생한 사고 상황 등 각종 이벤트를 감지할 수 있다.Various electronic equipments are provided in the vehicle to detect the driving environment of the vehicle. Such electronic equipment can measure driving information of a vehicle and can detect various events such as an accident situation occurring in a vehicle or a nearby vehicle.
이 같이 전자 장비를 이용한 이벤트 감지 기능의 활용 예로써, 차량은 영상 녹화 장치를 이용하여 주행 환경에서 발생하는 사고 영상을 획득하고 있다. 그러나, 전자 장비를 이용하여 차량의 이벤트가 감지되더라도, 사고 차량의 운전자로서는 사고 현장의 영상을 획득한 차량의 식별이 어려우며, 이에 따라 과실 여부 판단에 중요한 자료로 이용되는 사고 영상의 획득이 곤란한 문제가 발생한다.As an example of utilizing the event detection function using the electronic equipment, the vehicle acquires an accident image occurring in the driving environment by using a video recording device. However, even if an event of a vehicle is detected using electronic equipment, it is difficult to identify a vehicle that acquires an image of an accident scene as a driver of the accident vehicle. Accordingly, it is difficult to acquire accident images Lt; / RTI >
이와 같은 문제를 해결하기 위하여, 차량 간 통신 네트워크를 통해 사고 차량이 주변 차량을 식별하고 식별된 주변 차량으로부터 영상을 수신하는 방법이 고려될 수 있다. 그러나, 이 같은 방법을 이용하더라도 사고 차량이 주변 차량으로부터 사고 영상을 수신함에 있어, 사고 차량의 주행 정보 및 사고 장소의 특성을 반영하지 못하므로, 사고와 관련 없는 영상까지 수집하게 되는 문제가 발생한다. 이는, 사고 영상 선별에 많은 자원을 소요하게 되는 문제를 야기한다. 나아가, 사고 차량이 사고로 인한 장비 파손으로 영상 수신이 원활하지 않은 경우, 사고 영상을 수집할 수 없는 경우도 발생한다. In order to solve such a problem, a method of identifying an adjacent vehicle by an accident vehicle through an inter-vehicle communication network and receiving an image from the identified nearby vehicle may be considered. However, even when the above-described method is used, the accident vehicle receives the accident image from the nearby vehicle and does not reflect the driving information of the accident vehicle and the characteristics of the accident place, . This causes a problem of consuming a lot of resources for sorting accident images. Furthermore, when an accident vehicle is not smoothly received due to equipment damage due to an accident, an accident image may not be collected.
그럼에도, 사고 차량과 주변 차량의 주행 정보 및 영상 정보를 별도로 관리하여, 사고 상황을 인지하고, 사고 상황에 관련된 사고 영상을 수집하는 서비스는 제공되지 않고 있다.Nevertheless, there is not provided a service for separately managing driving information and image information of an accident vehicle and a nearby vehicle, recognizing an accident situation, and collecting accident images related to an accident situation.
본 발명이 해결하고자 하는 기술적 과제는, 차량의 주행 정보를 실시간으로 수집하여 차량의 이벤트 발생 여부를 판단하는 방법 및 그 장치를 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for collecting driving information of a vehicle in real time to determine whether or not an event has occurred in a vehicle.
구체적으로, 본 발명이 해결하고자 하는 기술적 과제는, 차량의 주행 정보를 기초로, 이벤트 발생 차량의 위치를 식별하고, 이벤트 발생 차량의 주변 차량을 탐색하는 방법 및 그 장치를 제공하는 것이다. Specifically, a technical problem to be solved by the present invention is to provide a method and device for identifying the location of an event generating vehicle based on the running information of the vehicle, and searching for a nearby vehicle of the event generating vehicle.
보다 자세하게, 본 발명이 해결하고자 하는 기술적 과제는, 이벤트 발생 차량의 주변 차량 중, 이벤트에 대한 영상을 획득했을 가능성이 높은 차량을 선별하는 방법 및 그 장치를 제공하는 것이다. 또한, 본 발명이 해결하고자 하는 기술적 과제는, 이벤트 발생 차량의 주변 차량 중, 이벤트에 대한 영상을 획득했을 가능성이 높은 차량으로부터만 이벤트 영상을 수집하는 방법 및 그 장치를 제공하는 것이다.In more detail, a technical problem to be solved by the present invention is to provide a method and an apparatus for selecting a vehicle having a high probability of acquiring an image of an event among nearby vehicles of an event generating vehicle. It is another object of the present invention to provide a method and apparatus for collecting an event image only from a vehicle that is likely to acquire an image of an event among peripheral vehicles of the event generating vehicle.
본 발명이 해결하고자 하는 다른 기술적 과제는 차량의 주행 정보를 기초로, 차량의 사고 상황을 판단하고, 차량의 파손 여부와 무관하게 사고와 관련된 조치를 자동으로 수행하는 방법 및 그 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus for automatically determining an accident situation of a vehicle based on driving information of the vehicle and performing an action related to the accident regardless of whether the vehicle is damaged or not .
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 이벤트 영상 수집 범위를 동적으로 변경시킬 수 있는 방법 및 그 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for dynamically changing an event image collection range.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 차량의 주행 정보를 기초로 발생된 복수의 이벤트 간의 인과 관계를 판단할 수 있는 방법 및 그 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for determining causality between a plurality of events generated based on driving information of a vehicle.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한 차량의 이벤트 영상 획득 방법은, 이벤트 영상 획득 장치에 의해 수행되며, 상기 방법은, 차량에 대한 이벤트의 발생 여부를 감지하는 단계와 상기 이벤트가 발생한 차량의 주행 정보를 획득하는 단계와 상기 이벤트가 발생한 차량의 위치 정보를 기초로, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계와 상기 획득된 주행 정보를 기초로, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계와 상기 결정된 영상 제공 대상 차량 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for acquiring an event image of a vehicle, the method comprising: detecting whether an event has occurred to the vehicle; Identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event has occurred based on the information about the location of the vehicle where the event occurred and the location information of the vehicle where the event occurred; And a step of receiving an image of the event from at least one vehicle among the determined vehicles to be provided with a vehicle.
일 실시예에 따르면, 상기 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함할 수 있다.According to one embodiment, the running information includes at least one of a running direction information of a vehicle in which the event received before the occurrence of the event, a running speed information of the vehicle in which the event occurred, a time information at which the event occurred, And at least one of the terrain information of the road on which the vehicle is traveling.
일 실시예에 따르면, 상기 차량을 포함한 복수의 차량 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집하는 단계를 더 포함하고, 상기 이벤트의 발생 여부를 감지하는 단계는, 상기 차량으로부터 이벤트 정보를 수신하거나, 상기 차량으로부터 미리 설정된 시간 동안 상기 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 상기 차량에 이벤트가 발생한 것으로 감지하는 단계를 포함할 수 있다.According to one embodiment, the method further comprises collecting the identifier information and the position information of the vehicle from each of the plurality of vehicles including the vehicle, wherein the step of detecting whether the event is generated includes receiving event information from the vehicle And detecting that an event has occurred in the vehicle if at least one of the identifier information and the position information is not received from the vehicle for a predetermined time.
일 실시예에 따르면, 상기 주변 차량 각각으로부터 주행 정보를 획득하는 단계를 더 포함하고, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계는, 상기 획득된 상기 주변 차량의 주행 정보를 기초로, 상기 영상 제공 대상 차량을 결정하는 단계를 포함하되, 상기 주변 차량의 주행 정보는, 상기 주변 차량의 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the method further includes acquiring travel information from each of the neighboring vehicles, and the step of determining a vehicle to be provided with the image for the event among the neighboring vehicles comprises: The driving information of the surrounding vehicle may include at least one of traveling direction information and traveling speed information of the surrounding vehicle.
일 실시예에 따르면, 상기 주행 정보는 상기 이벤트가 발생한 차량의 이벤트 정보를 포함하고, 상기 차량의 이벤트 영상 획득 방법은, 상기 수신된 이벤트에 대한 영상으로부터 이벤트 정보를 생성하는 단계와 상기 주행 정보 상의 이벤트 정보와 상기 생성된 이벤트 정보를 비교하는 단계와 상기 비교 결과, 상기 생성된 이벤트 정보와 상기 주행 정보 상의 이벤트 정보가 미리 설정된 범위 내에서 매칭되지 않는 경우, 상기 미리 설정된 거리 범위를 변경하거나, 상기 결정된 영상 제공 대상 차량을 재결정하는 단계를 포함할 수 있다.According to one embodiment, the driving information includes event information of the vehicle in which the event occurs, and the method of acquiring an event image of the vehicle includes generating event information from an image of the received event, Comparing the generated event information with the generated event information; and when the generated event information and the event information on the running information do not match within a preset range, And re-determining the determined vehicle to be provided with the image.
일 실시예에 따르면, 상기 이벤트가 발생한 차량은, 제1 이벤트가 발생한 제1 차량 및 제2 이벤트가 발생한 제2 차량을 포함하고, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계는, 상기 제1 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 제2 차량을 식별하는 단계와 상기 획득된 주행 정보를 기초로, 상기 제1 이벤트 및 상기 제2 이벤트의 발생 순서를 결정하는 단계를 포함하고, 상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는, 상기 제1 이벤트 및 상기 제2 이벤트에 대하여 상기 결정된 발생 순서를 기초로, 상기 영상 제공 대상 차량 중, 적어도 하나의 차량으로부터 제공받을 영상의 구간 정보를 결정하는 단계와 상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 중 적어도 하나의 차량 각각으로부터 수신하는 단계를 포함할 수 있다.According to one embodiment, the vehicle in which the event occurs includes a first vehicle in which a first event occurs and a second vehicle in which a second event occurs, and identifies a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred Includes the steps of: identifying the second vehicle among nearby vehicles located within a predetermined distance range from the first vehicle; and determining a generation order of the first event and the second event based on the obtained running information Wherein the step of receiving an image for the event from at least one of the determined vehicles to be provided with the image comprises the steps of: determining, based on the determined generation order for the first event and the second event, Determining a section information of an image to be provided from at least one vehicle among the vehicles to be provided with images, It may comprise the step of receiving from the predetermined region at least one information of the vehicle, each of the image provided for the target vehicle image.
본 발명에 따르면, 이벤트 발생 차량이 주변 차량으로부터 직접 이벤트 영상을 수집하지 않으므로, 이벤트 발생 차량의 이벤트 영상 수신이 불가능한 환경에서도 이벤트 영상을 획득할 수 있는 장점이 있다.According to the present invention, there is an advantage that an event image can be acquired even in an environment in which an event generating vehicle can not receive an event image because the event generating vehicle does not collect the event image directly from the surrounding vehicles.
또한, 본 발명에 따르면, 이벤트 발생 차량의 이벤트 영상 수신 시에, 이벤트 영상 제공 대상 차량을 선별할 수 있으므로, 이벤트 영상 수집의 정확도가 향상되는 효과가 있다. 또한, 이벤트 영상만을 수신하고, 불필요한 영상을 수집하지 않으므로, 이벤트 영상 획득에 있어 자원을 절약할 수 있다. Further, according to the present invention, it is possible to select an event-image-presenting vehicle at the time of receiving an event image of the event-generating vehicle, thereby improving the accuracy of event image collection. In addition, since only an event image is received and unnecessary images are not collected, resources for event image acquisition can be saved.
또한, 본 발명에 따르면, 이벤트 영상의 수집을 위한, 이벤트 발생 차량의 영상 수집 범위를 동적으로 변경시킴으로써 이벤트 영상 수집의 정확도를 향상 시킬 수 있는 장점이 있다.In addition, according to the present invention, there is an advantage that accuracy of event image collection can be improved by dynamically changing an image collection range of an event generation vehicle for collection of an event image.
또한, 본 발명에 따르면, 이벤트 영상 및 주행 정보 중 적어도 하나를 기초로, 이벤트 등급을 결정함으로써, 발생한 이벤트에 적합한 조치를 자동으로 실행할 수 있는 효과가 있다.Further, according to the present invention, an event class is determined based on at least one of the event image and the running information, so that an appropriate action can be automatically executed for the event.
또한, 본 발명에 따르면, 발생된 복수의 이벤트 사이의 시간적 선후 관계를 파악하여, 이벤트 발생의 인과 관계를 판단할 수 있는 효과가 있다. Further, according to the present invention, there is an effect that it is possible to determine the cause-and-effect relationship of occurrence of an event by grasping a temporal relation between a plurality of generated events.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른, 차량의 이벤트 영상 획득 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 차량의 이벤트 영상 획득 장치의 블록도이다.
도 3은 본 발명의 또 다른 실시예에 따른 차량의 이벤트 영상 획득 방법의 순서도이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제1 예시도이다.
도 5는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제2 예시도이다.
도 6은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제3 예시도이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이벤트 발생 차량과 주변 차량의 주행 정보를 나타낸 예시도이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 장치에서 수집된 차량에 주행 정보에 대한 예시이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는, 이벤트의 등급 별 처리 정보에 대한 정보의 예시이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 복수의 이벤트 사이의 인과 관계를 판단하기 위한 정보의 예시이다.1 is a configuration diagram of an event image acquisition system of a vehicle according to an embodiment of the present invention.
2 is a block diagram of an apparatus for acquiring an event image of a vehicle according to another embodiment of the present invention.
3 is a flowchart of a method of acquiring an event image of a vehicle according to another embodiment of the present invention.
4 is a first exemplary view of a method of acquiring an event image of a vehicle, referred to in some embodiments of the present invention.
5 is a second exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention.
6 is a third exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention.
FIG. 7 is an exemplary view showing travel information of an event generating vehicle and a neighboring vehicle, which is referred to in some embodiments of the present invention. FIG.
Figure 8 is an illustration of driving information for a vehicle collected in an event image acquisition device of a vehicle, which is referenced in some embodiments of the present invention.
Figure 9 is an illustration of information about processing information by class of events, referred to in some embodiments of the present invention.
10 is an illustration of information for determining a causal relationship between a plurality of events, referred to in some embodiments of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.
본 명세서에서 이벤트란, 차량의 내부 또는 외부에서 발생한 특별 상태, 즉, 차량의 고장, 파손 발생 및 기타 주행 곤란 상태를 포함한다. 예를 들어, 차량이 주행 중에 다른 차량 또는 시설물과 충돌 사고가 발생한 경우, 이와 같은 충돌 사고는 본 명세서의 이벤트에 포함될 수 있다. 다른 예로, 차량 타이어에 펑크가 나거나, 차량 엔진 문제로 주행의 어려움이 발생한 경우 역시 본 명세서의 이벤트에 포함될 수 있다. 본 명세서의 이벤트는 상기 예로 한정되지 않는다.The term " event " in this specification includes a special condition occurring inside or outside the vehicle, that is, a failure or breakage of the vehicle and other difficulty in running. For example, when a collision accident occurs with another vehicle or a facility while the vehicle is running, such a collision accident may be included in the event of this specification. In another example, a case where a vehicle tire is punctured or a driving difficulty occurs due to a vehicle engine problem may also be included in the event of this specification. The event in this specification is not limited to the above example.
이하, 도면을 참조하여, 본 발명의 실시예에 대하여 자세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른, 차량의 이벤트 영상 획득 시스템의 구성도이다. 도 1을 참조하면, 차량의 이벤트 영상 획득 시스템은, 복수의 차량(10, 20, 30, 40) 및 차량의 이벤트 영상 획득 장치(100)를 포함할 수 있다.1 is a configuration diagram of an event image acquisition system of a vehicle according to an embodiment of the present invention. Referring to FIG. 1, an event image acquisition system of a vehicle may include a plurality of
상기 복수의 차량(10, 20, 30, 40)은, 통신모듈을 포함하고, 통신모듈을 통해 각종 정보를 송수신하고, 정보에 대하여 연산할 수 있는 컴퓨팅 장치일 수 있다. 구체적으로, 상기 복수의 차량(10, 20, 30, 40)의 통신모듈은, 네트워크(110)를 통해 이벤트 영상 획득 장치(100)와의 통신을 지원할 수 있다.The plurality of
또한, 복수의 차량(10, 20, 30, 40)은 각각 차량의 주행 방향, 주행 상태 및 주변 환경을 측정하기 위한 각종 센서를 구비할 수 있다. 예를 들어, 차량은, 조향 장치의 방향을 감지하는 센서, 속도 센서, 가속도 센서, 타이어 압력 측정 센서, 수광 센서, 온도 센서, 습도 센서, 이미지 센서 등 다양한 센서를 포함할 수 있다. 특히, 이미지 센서는 차량의 적어도 일 면에 부착되어, 차량 주변의 영상을 획득할 수 있다. 복수의 차량(10, 20, 30, 40) 각각은 이와 같이 구비된 센서로부터 각종 정보를 생성하고 연산할 수도 있다. Each of the plurality of
이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40)과 통신할 수 있는 컴퓨팅 장치일 수 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 데스크탑 컴퓨터, 서버 장치와 같은 고정식 컴퓨팅 장치일 수 있다.The event
네트워크(110)는 이동통신 네트워크 및/또는 인터넷 네트워크를 지원하는 통신 장비에 의해 제공될 수 있으며, 이와 같은 통신 장비는 차량과 통신하기 위한, RSU(Road Side Unit)와 같은 통신 장비를 포함할 수도 있다.The
이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40) 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집할 수 있다. 식별자 정보는 차량을 다른 차량과 구별하기 위한 고유 정보이며, 식별자 정보는 예를 들어, V2X 표준에 따른 프로토콜에 따른 식별자(ID) 또는 본 발명이 속한 분야에 널리 알려진 차량 식별 코드일 수 있다. 위치 정보는, 차량이 위치한 도로 정보, 지형 정보를 포함할 수 있다.The event
이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40)에 대한 이벤트 발생 여부를 감지할 수 있다.The event
일 예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 이벤트 정보를 수신함으로써 차량의 이벤트 발생을 감지할 수 있다. 이벤트 정보는, 예를 들어, 이벤트의 종류, 차량의 내부 또는 외부에서 이벤트가 발생한 위치, 이벤트의 등급 정보를 포함할 수 있다. 이벤트의 등급 정보는, 이벤트의 심각한 정도를 나타내는 정보로, 차량의 이벤트 영상 획득 시스템의 관리자 또는 이벤트 영상 획득 장치(100)에 의해 미리 설정될 수 있다.According to an example, the event
다른 예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 미리 설정된 시간 동안 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.According to another example, the event
즉, 이벤트 영상 획득 장치(100)는 주행 또는 정지 중인 차량으로부터 식별자 정보 및 위치 정보를 미리 설정된 주기마다, 또는 실시간으로 수신할 수 있다. 이벤트 영상 획득 장치(100)는 차량에 정보를 주기적으로 요청하고, 차량은 이에 대한 응답으로 접속 유지 중임을 나타내는 메시지 및 차량에 대한 식별자 정보 및/또는 위치 정보를 이벤트 영상 획득 장치(100)에 송신한다. 이때, 이벤트 영상 획득 장치(100)는, 상기 정보가 최종 수신된 이후로, 미리 설정된 시간 동안 수신되지 않는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.That is, the event
또 다른 예에 따르면, 이벤트 영상 획득 장치(100)는 차량의 주행 정보를 수신하여, 미리 설정된 시간 동안 미리 설정된 임계 치 이상의 속도 변화가 감지되는 경우, 차량에 이벤트가 발생한 것으로 감지할 수도 있다.According to another example, the event
이벤트 영상 획득 장치(100)는 복수의 차량(10, 20, 30, 40) 각각으로부터 각 차량의 주행 정보를 수신할 수도 있다.The event
예를 들어, 차량의 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함할 수 있다. 또한 주행 정보는 이벤트 정보를 포함할 수도 있다. 즉, 주행 정보는 차량이 받은 충격의 세기, 충경이 발생한 위치 정보를 포함할 수도 있다.For example, the driving information of the vehicle includes driving direction information of the vehicle where the event occurred before the occurrence of the event, driving speed information of the vehicle where the event occurred, time information at which the event occurred, And at least one of the terrain information of the road under running. The running information may also include event information. That is, the driving information may include the intensity of the impact received by the vehicle, and the position information of the impact.
도 1을 참조하면, 복수의 차량(10, 20, 30, 40) 중, 차량(10) 및 차량(20)이 충돌함에 따라, 차량(10, 20)에 이벤트가 발생하였다. 이하, 이벤트가 발생한 차량 중, 차량(10)을 기준으로 본 발명의 실시예를 설명한다.1, an event has occurred in the
차량(10)은 구비된 센서로부터 이벤트로 인하여 발생한 충격의 정도, 이벤트가 발생한 차량 상의 위치 등의 정보를 측정하여, 이벤트 정보를 생성할 수 있다. 또한, 차량(10)은 이와 같이 생성된 이벤트 정보를 이벤트 영상 획득 장치(100)에 송신할 수 있다.The
이벤트 영상 획득 장치(100)는 이벤트 정보를 수신하여 차량(10)의 이벤트 발생을 감지하고, 차량(10)으로부터 미리 설정된 거리 범위 내의 주변 차량(20, 30, 40)을 식별할 수 있다. 도 1에서 미리 설정된 거리 범위의 예로 반경(r)이 도시되었다. The event
이벤트 영상 획득 장치(100)는 식별된 주변 차량 중, 이벤트에 대한 영상 제공 대상 차량을 결정할 수 있으며, 영상 제공 대상 차량으로부터 이벤트에 대한 영상을 수신할 수 있다. 도 1에서, 영상 제공 대상 차량으로 차량(30, 40)이 결정될 수 있다. 이 경우, 차량(30)은 후방에 구비된 이미지 센서로 차량(10)과 차량(20)의 충돌 영상을 획득하고, 이를 이벤트 영상 획득 장치(100)에 제공할 수 있으며, 차량(40)은 전방에 구비된 이미지 센서로 차량(10)과 차량(20)의 충돌 영상을 획득하고, 이를 이벤트 영상 획득 장치(100)에 제공할 수 있다.The event
이하, 도 2를 참조하여 이벤트 영상 획득 장치(100)의 구성 및 동작에 대하여 보다 자세히 설명한다. 도 2는 본 발명의 다른 실시예에 따른 차량의 이벤트 영상 획득 장치(100)의 블록도이다.Hereinafter, the configuration and operation of the event
도 2를 참조하면, 이벤트 영상 획득 장치(100)는 하나 이상의 프로세서(101), 네트워크 인터페이스(102), 프로세서(101)에 의하여 수행되는 컴퓨터 프로그램(105)을 로드(load)하는 메모리(103)와, 상기 컴퓨터 프로그램(105)를 저장하는 스토리지(104)를 포함할 수 있다. 2, an event
프로세서(101)는 이벤트 영상 획득 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(101)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), ECU(Electronic Control Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(101)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 이벤트 영상 획득 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.The
네트워크 인터페이스(102)는 이벤트 영상 획득 장치(100)의 유무선 네트워크 통신을 지원한다. 또한, 네트워크 인터페이스(102)는 하나 이상의 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(102)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 하나 이상 포함하여 구성될 수도 있다.The
네트워크 인터페이스(102)는 네트워크를 통해 차량의 주행 상황을 모니터링하기 모니터링 시스템, GPS 시스템 및/또는 보험 서비스, 차량 수리 서비스, 응급 구조 서비스 기반 시스템과 연결될 수 있다. 네트워크 인터페이스(102)는 네트워크를 통해 차량으로부터 이벤트 정보, 이벤트에 대한 영상을 수신할 수 있으며, 이벤트의 등급 정보에 매칭되는 이벤트 처리 정보에 따라 각종 메시지를 상술한 서비스 기반 시스템에 송신할 수 있다.The
메모리(103)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(103)는 본 발명의 실시예들에 따른 차량의 이벤트 영상 획득 방법을 실행하기 위하여 스토리지(104)로부터 하나 이상의 프로그램(105)을 로드할 수 있다. 도 2에서 메모리(103)의 예시로 RAM이 도시되었다.The memory 103 stores various data, commands and / or information. The memory 103 may load one or
스토리지(104)는 상기 하나 이상의 프로그램(105)을 비임시적으로 저장할 수 있다. 도 2에서 상기 하나 이상의 프로그램(105)의 예시로 영상 획득 소프트웨어(105)가 도시되었다. 또한, 스토리지(104)는 본 발명의 실시예에 따른 각종 정보, 예를 들어, 차량의 주행 정보 데이터(106), 각종 서비스 시스템에 대한 컨택 데이터베이스(DB)(107)를 저장할 수 있다. 컨택 DB는 각 차량에 대하여 미리 설정된 특정 휴대 단말의 연락처, 보험 서비스, 차량 수리 서비스, 응급 구조 서비스와 관련된 연락처 정보를 포함할 수 있다.The
스토리지(104)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The
영상 획득 소프트웨어(105)는, 프로세서(101)에 의해 실행됨에 따라, 이벤트 영상 획득 장치(100)의 기능 및/또는 동작 수행을 위한 하나 이상의 오퍼레이션을 수행할 수 있다. 이에 대한 설명은 도 3 및 도 4에 대한 설명에서 후술한다.The
한편, 이벤트 영상 획득 장치(100)는 도 2에 도시된 구성 요소 외에 본 발명의 실시예와 관련된 다양한 구성 요소를 추가로 포함할 수도 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 각종 설정 및 정보를 입력하기 위한 입력부 및 차량에 발생한 이벤트 상황을 통보하기 위한 출력부를 포함할 수도 있다.In addition to the components shown in FIG. 2, the event
이하, 상술한 도 1 및 도 2에 대한 설명을 바탕으로, 본 발명의 실시예들을 보다 자세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in more detail based on the description of FIGS. 1 and 2.
도 3은 본 발명의 또 다른 실시예에 따른 차량의 이벤트 영상 획득 방법의 순서도이다. 이하, 도 3의 각 단계는, 도 2에서 설명된 이벤트 영상 획득 장치(100)에 의해 수행될 수 있다. 구체적으로, 상술한 프로세서(101)가 영상 획득 소프트웨어를 실행함에 따라 이하 설명되는 각 단계가 수행된다.3 is a flowchart of a method of acquiring an event image of a vehicle according to another embodiment of the present invention. Hereinafter, each step of FIG. 3 may be performed by the event
도 3을 참조하면, 이벤트 영상 획득 장치(100)는 차량에 대한 이벤트의 발생 여부를 감지할 수 있다(S10). 상술한 바와 같이, 차량으로부터 이벤트 정보를 수신하거나, 차량이 미리 설정된 시간 동안 응답이 없는 경우, 이벤트 영상 획득 장치(100)는 차량의 이벤트 발생을 감지할 수 있다. 또는 이벤트 영상 획득 장치(100)는 차량의 주행 정보를 기초로, 급 제동 등의 상황을 감지하여 이벤트 발생을 감지할 수도 있다.Referring to FIG. 3, the event
이와 같이 차량에 대한 이벤트의 발생이 감지됨에 따라, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량의 주행 정보를 획득할 수 있다(S20). As the occurrence of the event for the vehicle is detected, the event
주행 정보는, 이벤트 영상 획득 장치(100)와 차량의 통신 과정에서 이벤트 영상 획득 장치(100)가 차량의 식별자 정보 및/또는 위치 정보를 수집하는 주기와 다른 주기로 획득될 수 있다. 또는, 이벤트 영상 획득 장치(100)는 주행 정보를 차량에 이벤트가 발생했을 때에만 수집할 수도 있다. The travel information may be acquired at a period different from the period during which the event
즉, 주행 정보는 차량의 주행 방향, 제동 거리, 속도 변화, 제차 신호 발생 정보 등의 다양한 정보를 포함할 수 있으므로, 이벤트 영상 획득 장치(100)는 네트워크 및 스토리지 자원의 절약을 위해 차량의 식별자 정보 및/또는 위치 정보 대비 적은 빈도로 수집할 수 있다. That is, since the driving information may include various information such as the driving direction of the vehicle, the braking distance, the speed change, the secondary signal generation information, and so on, the event
이벤트 영상 획득 장치(100)는, 이벤트가 발생한 차량의 위치 정보를 기초로, 이벤트의 발생 시점에 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별할 수 있다(S30). 식별되는 주변 차량은 하나 이상의 차량일 수 있다.The event
이벤트 영상 획득 장치(100)는, 획득된 주행 정보를 기초로, 식별된 주변 차량 중, 이벤트에 대한 영상 제공 대상 차량을 결정할 수 있다(S40). 여기에서 영상 제공 대상 차량이란, 주변 차량 중, 이벤트 영상 획득 장치(100)에 영상을 제공하는 차량으로 결정된 차량을 의미한다.Based on the obtained travel information, the event
본 발명의 실시예에 따르면, 주변 차량은 기본적으로 이미지 센서를 구비하므로, 이벤트 발생 시점에 각각 차량 주변의 영상을 획득할 수 있다. 그러나, 일부 차량이 획득한 영상은, 차량의 주행 속도, 주행 방향, 기타 주행 환경에 따라 이벤트가 발생한 차량의 이벤트에 대한 영상을 포함하지 않을 수 있다. 이와 같은 영상을 이벤트 영상 획득 장치(100)가 모두 수집하는 경우, 이벤트에 대한 영상을 획득하는데 자원이 낭비되므로, 이벤트 영상 획득 장치(100)는 영상을 선별적으로 수신할 필요가 있다. 따라서, 본 발명의 실시예에 따르면, 주변 차량 중, 영상 제공 대상 차량을 선별하고, 선별된 영상 제공 대상 차량으로부터만 영상을 수집함으로써, 이벤트에 대한 영상의 수집 확률이 증대될 수 있다.According to the embodiment of the present invention, since the neighboring vehicle basically includes the image sensor, it is possible to acquire images of the surroundings of the vehicle at the time of occurrence of the event. However, the image acquired by some vehicles may not include an image of an event of the vehicle in which the event occurred according to the running speed of the vehicle, the running direction, or other traveling circumstances. When the event
이벤트 영상 획득 장치(100)는 결정된 영상 제공 대상 차량으로부터 이벤트에 대한 영상을 수신할 수 있다(S50).The event
이하, 영상 제공 대상 차량을 결정하기 위한 본 발명의 실시예들에 대하여, 도 4 내지 도 6을 참조하여 설명하도록 한다.Hereinafter, embodiments of the present invention for determining a vehicle to which an image is to be provided will be described with reference to Figs. 4 to 6. Fig.
도 4는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제1 예시도이다. 특히 도 4에서, 차량(10)이 차량(20)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(10)인 경우를 예로 들어 설명한다.4 is a first exemplary view of a method of acquiring an event image of a vehicle, referred to in some embodiments of the present invention. In particular, in FIG. 4, a case where an event occurs when the
도 4를 참조하면, 하행선 차선(401)에 차량(20), 차량(40), 차량(60) 및 차량(63)이 주행 중이며, 상행선 차선(402)에 차량(10), 차량(30), 차량(50), 차량(61) 및 차량(62)가 주행 중이다. 4, the
이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 차량의 일부만 반경(r) 내에 있는 경우에도, 이벤트 영상 획득 장치(100)는 주변 차량으로 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event
단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(20), 차량(30), 차량(40), 차량(50), 차량(60) 및 차량(62)를 주변 차량으로 식별할 수 있다. 차량(61) 및 차량(63)은 반경(r) 밖에 위치하므로 주변 차량에서 제외되었다.The event
단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(20, 30, 40, 50, 62) 중, 차량(20), 차량(30), 차량(40) 및 차량(50)은 영상 제공 대상 차량으로 결정하고, 차량(62)는 영상 제공 대상 차량에서 제외할 수 있다. 즉, 차량(10)의 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 주변 차량 중, 영상 제공 대상 차량을 선별할 수 있다. 구체적으로, 차량(10)이 주행 중인 차선(402)의 정보를 식별하고, 차량(10)의 위치를 식별할 수 있다. 또한, 수신한 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 차량(10)에서 이벤트가 발생한 위치, 즉, 차량(10)의 좌측 전방 영역에서 이벤트가 발생하였음을 식별할 수 있다.In step S40, the event
이에 따라, 이벤트 영상 획득 장치(100)는 차량(10) 기준으로, 복수의 주변 차량(20, 30, 40, 50, 62) 중, 차량(10)의 좌측 전방의 이벤트 영상 또는 이벤트가 발생하는 과정에 대한 영상을 획득할 수 있는 차량(20, 30, 40, 50)을 영상 제공 대상 차량으로 결정할 수 있다.Accordingly, the event
도 5는 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제2 예시도이다. 특히 도 5에서, 차량(10)이 차량(511)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(10)인 경우를 예로 들어 설명한다.5 is a second exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention. In particular, in FIG. 5, a case where an event occurs when the
도 5를 참조하면, 하행선 차선(501)에 차량(521) 및 차량(522)이 주행 중이며, 상행선 차선(502)에 차량(10), 차량(511), 차량(512), 차량(513) 및 차량(514)가 주행 중이다. 또한, 도 5의 도로는, 중앙 분리대(500)로 하행선 차선(501) 및 상행선 차선(502)는 물리적으로 분리된 공간이라고 가정한다. 5, the
이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event
단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(511), 차량(512), 차량(513), 차량(514), 차량(521) 및 차량(522)를 주변 차량으로 식별할 수 있다. The event
단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(511, 512, 513, 514, 521, 522) 중, 차량(511), 차량(512), 차량(513) 및 차량(514)는 영상 제공 대상 차량으로 결정하고, 차량(521) 및 차량(522)는 영상 제공 대상 차량에서 제외할 수 있다. 차량(10)의 주행 정보를 기초로, 이벤트 영상 획득 장치(100)는 주변 차량 중, 영상 제공 대상 차량을 선별할 수 있다. 구체적으로, 차량(10)이 주행 중인 차선(502)의 정보 및 도로 지형의 정보를 식별하고, 차량(10)의 위치를 식별할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 차선(501)에서 주행 중인 차량(521, 522)은, 이벤트 영상을 획득할 수 없는 차량으로 인지하고, 영상 제공 대상 차량에서 제외할 수 있다. 이를 위해, 영상 제공 대상 차량을 선별하기 위한 도로 지형의 정보가 이벤트 영상 획득 장치(100)에 미리 설정될 수 있다. In step S40, the event
이에 따라, 이벤트 영상 획득 장치(100)는 차량(10) 기준으로, 복수의 주변 차량(511, 512, 513, 514, 521, 522) 중, 차량(10)의 이벤트 영상 또는 이벤트가 발생하는 과정에 대한 영상을 획득할 수 있는 차량(511 512, 513, 514)을 영상 제공 대상 차량으로 결정할 수 있다.Accordingly, the event
나아가, 이벤트 영상 획득 장치(100)는 차량(10)으로부터 주행 정보 및 이벤트 정보를 수신하여, 차량(10)의 우측 후방에 이벤트가 발생하였음을 식별하고, 이벤트 영상의 획득에 적합한 주변 차량을 영상 제공 대상 차량으로 결정할 수도 있다.Furthermore, the event
도 4 및 도 5에서, 이벤트가 발생한 차량(10)의 위치 정보 및 주행 정보 그리고 주변 차량의 위치 정보를 기초로 영상 제공 대상 차량이 결정되는 경우를 주로 설명하였으나, 본 발명의 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 주변 차량의 주행 정보를 수신하여, 영상 제공 대상 차량을 결정할 수도 있다. 이에 대하여, 도 6을 참조하여 자세히 설명한다.4 and 5, the case where the image providing target vehicle is determined on the basis of the position information, the running information of the
도 6은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 방법의 제3 예시도이다. 특히 도 6에서, 차량(10)이 차량(601)과 충돌하여 이벤트가 발생한 경우가 예시되었다. 이하, 단계(S10)에서 이벤트가 발생한 것으로 감지된 차량이 차량(611)인 경우를 예로 들어 설명한다.6 is a third exemplary view of a method of acquiring an event image of a vehicle, which is referred to in some embodiments of the present invention. In particular, in FIG. 6, a case where an event occurs when the
도 6을 참조하면, 차선(601)에 차량(10), 차량(612) 및 차량(616)이 주행 중이며, 차선(602)에 차량(611), 차량(614) 및 차량(615)가 주행 중이다. 차선(601) 및 차선(602)는 모두 상행선이다.6, the
이벤트 영상 획득 장치(100)는 차량(10)의 주변 차량으로, 미리 설정된 반경(r) 범위 내의 주변 차량을 식별할 수 있다. 차량의 일부만 반경(r) 내에 있는 경우에도, 이벤트 영상 획득 장치(100)는 주변 차량으로 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보를 미리 수신하며 주행 중인 차량의 위치를 식별할 수 있다.The event
단계(S30)에서 이벤트 영상 획득 장치(100)는 차량(10), 차량(612), 차량(614) 및 차량(615)를 주변 차량으로 식별할 수 있다. 차량(616)은 반경(r) 밖에 위치하므로 주변 차량에서 제외되었다. 이때, 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615) 각각으로부터 주행 정보를 수신할 수 있다. 예를 들어, 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615)로부터 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 수신할 수 있다.The event
이벤트 영상 획득 장치(100)는 이와 같은 주변 차량(10, 612, 614, 615)의 주행 정보를 기초로, 주변 차량(10, 612, 614, 615) 중, 영상 제공 대상 차량을 결정할 수 있다.The event
구체적으로, 단계(S40)에서 이벤트 영상 획득 장치(100)는 주변 차량(10, 612, 614, 615) 중, 차량(10), 차량(612), 차량(615)는 영상 제공 대상 차량으로 결정하고, 차량(614)는 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득 장치(100)는 차량(611)의 주행 정보를 기초로, 차량(611)이 차선(602)에서 차선(601)로 진입 중에 이벤트가 발생하였음을 감지할 수 있다. 또는 이벤트 영상 획득 장치(100)는 차량(611)로부터 이벤트 정보를 수신하여 이벤트가 발생하였음을 식별할 수도 있다. More specifically, in step S40, the event
또한, 이벤트 영상 획득 장치(100)는 수신된 주변 차량(10, 612, 614, 615)의 주행 정보로부터, 차량(614)가 차선(602)에서 오른쪽 방향으로 진행 중임을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 차량(611) 및 차량(614)의 주행 정보를 기초로, 차량(611)과 차량(614)가 멀어지는 반대 방향으로 주행 중이어서, 차량(614)이 차량(611)의 주변 차량임에도 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득이 어려운 상황이기 때문이다. 즉, 이벤트 영상 획득 장치(100)는 위치 정보로부터 식별된 각 차량의 위치, 수신된 주행 정보로부터 식별된 각 차량의 주행 방향 및 속도 정보를 기초로, 영상 제공 대상 차량을 결정할 수 있다. 또한, 추가적으로, 이벤트 영상 획득 장치(100)는 차량(611)으로부터 이벤트 정보를 수신하고, 수신된 이벤트 정보를 기초로, 차량(611)에서 이벤트가 발생한 위치인 좌측 전방임을 식별할 수도 있다. 이에 따라, 영상 획득 장치(100)는 차량(611)에서 이벤트가 발생한 위치가 좌측 전방임을 고려하여 영상 제공 대상 차량을 결정할 수도 있다.The event
결과적으로, 차량(611) 방향으로 주행 중인(612), 차량(615)는 영상 제공 대상 차량으로 결정되었으며, 차량(10)의 경우, 차량(10) 및 차량(611)의 위치 정보, 주행 정보 및/또는 차량(611)의 이벤트 정보를 기초로 영상 제공 대상 차량으로 결정될 수 있다.As a result, in the case of the
한편, 본 발명의 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 단계(S30)에서, 이벤트가 발생한 차량의 주변 차량을 결정함에 있어서, 미리 설정된 거리 범위를 동적으로 변경할 수도 있다. 또는, 이벤트 영상 획득 장치(100)는 단계(S40)에서 결정된 영상 제공 대상 차량을 재결정할 수도 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 주행 중인 각 차량의 위치 정보를 미리 수신하여, 각 차량의 위치를 식별할 수 있는 것으로 가정한다. 이 경우, 이벤트 영상 획득 장치(100)는 최초의 설정에 따른 반경(r) 내에 위치하는 차량을 주변 차량으로 식별할 수 있다. Meanwhile, according to another embodiment of the present invention, in step S30, the event
이후, 단계(S40)에서 영상 제공 대상 차량을 결정하여, 도 6에 도시된 바와 같이 주변 차량(10, 612, 614, 615) 중, 영상 제공 대상 차량이 차량(10), 차량(612) 및 차량(615)로 결정될 수 있다. 영상 제공 대상 차량의 결정 과정에서, 이벤트 영상 획득 장치(100)는 이벤트 정보를 수신할 수도 있다. 도 6의 경우, 이벤트 정보를 참고하여, 이벤트 획득 장치(100)는 차량(611)의 좌측 전방에 이벤트가 발생한 것으로 판단할 수 있다.6, it is determined whether the
단계(S50)에서, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(10, 612, 615)로부터 이벤트에 대한 영상을 수신할 수 있다. 이벤트 영상 획득 장치(100)는 이벤트에 대한 영상을 분석하여, 이벤트의 발생 과정, 이벤트가 발생한 차량(611)의 영역을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 이를 위해 영상 분석 기술 분야에서 널리 활용되는 적어도 하나의 소프트웨어 모듈을 구비할 수 있다. 또한, 이벤트 영상 획득 장치(100)의 프로세서(101)는 상기 적어도 하나의 소프트웨어 모듈을 실행하여, 수신된 이벤트에 대한 영상으로부터 이벤트를 분류하고, 이벤트 정보를 생성할 수도 있다.In step S50, the event
이벤트 영상 획득 장치(100)는 차량(611)으로부터 수신된 이벤트 정보와 수신된 이벤트에 대한 영상으로부터 생성된 이벤트 정보를 비교할 수 있다. 이와 같은 비교 과정을 통해, 이벤트 영상 획득 장치(100)는 생성된 이벤트 정보와 수신된 이벤트 정보라 미리 설정된 범위 내에서 매칭되는지 판단할 수 있다. 이와 같은 매칭 결과, 미리 설정된 범위 내에서, 생성된 이벤트 정보와 수신된 이벤트 정보가 매칭되는 경우, 이벤트 영상 획득 장치(100)는 단계(S30)의 주변 차량 식별 및 단계(S40)의 영상 제공 대상 차량 결정을 신뢰할 수 있으므로, 단계(S30)의 미리 설정된 거리 범위를 유지하고, 단계(S40)에서 결정된 영상 제공 대상 차량에 대한 정보를 저장한다.The event
반면, 미리 설정된 범위 내에서 생성된 이벤트 정보와 수신된 이벤트 정보가 매칭되지 않는 경우, 이벤트 영상 획득 장치(100)는 단계(S30)의 주변 차량 식별 및 단계(S40)의 영상 제공 대상 차량 결정을 신뢰할 수 없으므로, 단계(S30)의 미리 설정된 거리 범위를 변경하거나, 단계(S40)에서 영상 제공 대상 차량 결정 과정을 다시 수행할 수 있다.On the other hand, if the event information generated within the predetermined range does not match the received event information, the event
한편, 본 발명의 또 다른 실시예에 따르면, 이벤트 영상 획득 장치(100)는 단계(S40)에서 영상을 제공할 차량을 선별하는 것 외에, 결정된 영상 제공 대상 차량이 송신할 영상의 분량을 결정할 수도 있다. 즉, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량이 송신하는 영상의 프레임을 결정할 수도 있다. 이에 대하여 도 7을 참조하여 설명한다.According to another embodiment of the present invention, in addition to selecting a vehicle to provide an image in step S40, the
도 7은 본 발명의 몇몇 실시예에서 참조되는, 이벤트 발생 차량과 주변 차량의 주행 정보를 나타낸 예시도이다. FIG. 7 is an exemplary view showing travel information of an event generating vehicle and a neighboring vehicle, which is referred to in some embodiments of the present invention. FIG.
도 7에서, 주행 정보(710)은 이벤트가 발생한 차량의 주행 정보이며, t1 및 t2 사이의 시간 구간(700) 동안, 영역(705)에서 이벤트가 발생한 경우가 예시되었다. 주행 정보(720)은 구간(700) 동안의 주변 차량의 주행 정보이다. 주행 정보(720)의 각 화살표는 각기 다른 차량을 의미하고, 화살표의 방향은 상기 각기 다른 차량의 주행 방향을 의미한다. 주행 정보(710) 및 주행 정보(720)은 동일한 차선에서 측정된 주행 정보이다.7, the running
주행 정보(710) 및 주행 정보(720)을 참조하면, 이벤트가 발생한 차량에 좌측 차선의 영역(705)에서 시간 구간(700) 내에서 이벤트가 발생한 때에, 이벤트 영상 획득 장치(100)는 차량(721, 722, 723, 724, 725, 726, 727, 728)을 주변 차량으로 식별할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 이벤트가 발생 차량의 주행 정보, 또는 추가적으로, 주변 차량(721, 722, 723, 724, 725, 726, 727, 728)의 주행 정보를 기초로, 영상 제공 대상 차량을 결정할 수 있다.Referring to the driving
도 7을 참조하면, 영상 제공 대상 차량으로, 차량(721), 차량(722), 차량(725), 및 차량(726)이 결정되었다. 이벤트 영상 획득 장치(100)는 각 차량의 위치 정보 및/또는 주행 정보를 기초로 차량(724)의 경우, 차량(721) 및 차량(722)에 의해 이벤트가 발생한 현장이 가리게 되는 것을 감지할 수 있고, 영상 제공 대상 차량에서 제외할 수 있다. 이벤트 영상 획득 장치(100)는 비슷한 이유로, 차량(727, 728)을 영상 제공 대상 차량에서 제외할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 차량(723)의 경우, 이벤트가 발생한 차량과 차량(723)의 위치 정보 및/또는 주행 정보를 기초로, 이벤트가 발생한 차량이 차량(723)의 이미지 센서로부터 사각 지대에 위치하는 것을 감지하고, 영상 제공 대상 차량에서 제외할 수 있다.7, the
단계(S50)에서 영상을 수신한 후, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량의 위치 정보 및 영상 제공 대상 차량의 위치 정보를 기초로, 영상 제공 대상 차량 각각으로부터 제공받을 영상에 대한 구간 정보를 결정할 수 있다. After receiving the image in step S50, the event
시간 구간(700)에서 영상 제공 대상 차량(721, 722, 725, 726)의 위치를 고려하면, 차량(721, 722)의 경우, 이벤트가 발생한 차량의 후방에 위치하므로, 차선 방향으로 주행 시에, 이벤트에 대한 영상을 촬영할 시간이 상대적으로 길다.Considering the positions of the video-
반면, 차량(725, 726)의 경우, 이벤트가 발생한 차량의 전방에 위치하므로, 이벤트가 발생한 차량으로부터 멀어지며, 이벤트에 대한 영상을 촬영할 시간이 상대적으로 짧다.On the other hand, in the case of the
따라서, 이벤트 영상 획득 장치(100)는 차량(721, 722)의 경우, 제공 받을 이벤트에 대한 영상의 구간을 길게 결정하고, 차량(725, 726)의 경우, 제공 받을 이벤트에 대한 영상의 구간을 짧게 결정할 수 있다. 이로써, 불필요한 영상 수신을 방지하고, 수신 영상으로부터 이벤트를 추출하는데 소요되는 시간을 절감할 수 있다.Accordingly, in the case of the
이벤트 영상 획득 장치(100)는 결정된 구간 정보에 해당하는 영상을 영상 제공 대상 차량 각각으로부터 수신할 수 있다.The event
이벤트 영상 획득 장치(100)는 추가적으로, 영상 제공 대상 차량(721, 722, 725, 726)으로부터 주행 정보를 획득할 수도 있다. 이 경우, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(721, 722, 725, 726) 각각으로부터 제공받을 영상에 대한 구간 정보를 결정할 때, 영상 제공 대상 차량 각각으로부터 획득된 주행 정보를 기초로 결정할 수 있다.The event
구체적으로, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량 방향으로 주행 중인 영상 제공 대상 차량(721, 722)의 경우, 구간 정보를 제1 시간의 구간 정보로 결정하고, 이벤트가 발생한 차량으로부터 멀어지는 방향으로 주행 중인 영상 제공 대상 차량(725, 726)의 경우, 구간 정보를 제1 시간 보다 짧은 제2 시간의 구간 정보로 결정할 수 있다. 나아가, 이벤트 영상 획득 장치(100)는 영상 제공 대상 차량(721) 및 영상 제공 대상 차량(722)의 주행 정보를 기초로, 영역(705)의 영상 획득에 유리한 차량을 결정하고, 영상 제공 대상 차량(721) 및 영상 제공 대상 차량(722) 중, 영상 획득에 상대적으로 유리한 차량의 영상 구간 정보를 길게, 영상 획득에 상대적으로 불리한 차량의 영상 구간 정보를 짧게 결정할 수도 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 이벤트가 발생한 차량으로부터 이벤트 정보를 실시간 수신하여, 차량 상에서 이벤트가 발생한 위치, 즉, 차량의 사고 영역을 식별할 수 있다. 이벤트 영상 획득 장치(100)는 식별된 사고 영역에 대한 정보를 기초로, 실시간으로 이벤트에 대한 영상의 획득에 상대적 유리 또는 불리한 차량을 결정할 수 있다.Specifically, in the case of the image-presenting
도 8은 본 발명의 몇몇 실시예에서 참조되는, 차량의 이벤트 영상 획득 장치에서 수집된 차량의 주행 정보에 대한 예시이다. 본 발명의 실시예에 따르면, 이벤트 영상 획득 장치(100)는 차량으로부터 수집된 각종 정보를 각 차량의 주행 정보로서 통합적으로 관리할 수 있다.8 is an illustration of driving information of a vehicle collected in an event image acquisition device of a vehicle, which is referred to in some embodiments of the present invention. According to the embodiment of the present invention, the event
도 8을 참조하면, 이벤트 영상 획득 장치(100)는 차량의 식별자 정보 및 이벤트 발생 여부에 대한 정보를 수신할 수 있다. 또한, 이벤트 발생 시간, 이벤트 현장으로부터 차량의 거리, 주행 방향, 각 차량이 영상 제공 대상 차량으로 결정되는 지 여부에 대한 정보를 포함할 수도 있다.Referring to FIG. 8, the event
도 9는 본 발명의 몇몇 실시예에서 참조되는, 이벤트의 등급 별 처리 정보에 대한 정보의 예시이다. 도 9를 참조하면, 이벤트 영상 획득 장치(100)는 차량에 이벤트가 발생한 경우, 이벤트가 발생한 차량으로부터 이벤트 정보를 수신할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 수신된 이벤트 정보 상의 이벤트 등급 정보를 식별할 수 있다. 이를 위해, 이벤트 영상 획득 장치(100)는 각 차량에 이벤트가 발생한 경우에 자동으로 메시지를 송신할 컨택 정보를 미리 저장할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 각 차량의 이벤트 정보에 매칭되는 이벤트 등급 정보 및 이벤트 처리 정보를 미리 저장할 수도 있다.Figure 9 is an illustration of information about processing information by class of events, referred to in some embodiments of the present invention. Referring to FIG. 9, when an event occurs in the vehicle, the event
도 9를 참조하면, 차량001 및 차량002가 충돌하는 이벤트가 발생한 경우가 예시되었다. 이벤트 정보 상의 이벤트 발생 위치의 예로써, 차량001의 파손부위인 좌측 전방, 차량002의 파손부위 우측 후방이 예시되었다. 또한, 이벤트 등급의 예로써 파손 정도 A, B가 예시되었다. 파손 정도 A는 파손 정도 B 대비 파손이 심각한 것으로 가정한다.Referring to Fig. 9, a case where an event in which the
이벤트 영상 획득 장치(100)는 이벤트 정보 및/또는 수신된 이벤트에 대한 영상을 기초로 이벤트 등급을 식별할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 식별된 이벤트 등급 정보에 매칭된 이벤트 처리 정보를 식별할 수 있으며, 식별된 이벤트 처리 정보를 실행할 수 있다. 도 9를 참조하면, 차량001의 경우, 이벤트 등급 정보가 A이고, 이에 대한 처리 정보로 "응급 연결"로 매칭되어 있으며, 차량002의 경우, 이벤트 등급 정보가 B이고, 이에 대한 처리 정보로 "보험사 자동 연결"이 매칭되어 있는 경우이다.The event
이벤트 영상 획득 장치(100)는 이벤트가 발생한 각 차량에 대하여, 매칭된 처리 정보를 실행할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 차량001에 대해서는, 이벤트 등급 정보가 A인 것을 식별하여 긴급 상황임을 인지하고, 119 등 구호 시스템에 응급 메시지를 송신할 수 있으며, 차량002에 대해서는, 이벤트 등급 정보가 B인 것을 식별하여 보험 서비스 시스템에 메시지를 송신할 수 있다. 이벤트 영상 획득 장치(100)는 수신한 이벤트 정보 및/또는 수신한 이벤트에 대한 영상을 기초로, 차량0001 또는 차량0002의 이벤트에 대한 과실을 판단할 수 있다.The event
한편, 복수의 차량 간에 이벤트가 발생한 경우에 대하여, 도 10을 참조하여 설명한다.On the other hand, a case where an event occurs between a plurality of vehicles will be described with reference to Fig.
도 10은 본 발명의 몇몇 실시예에서 참조되는, 복수의 이벤트 사이의 인과 관계를 판단하기 위한 정보의 예시이다.10 is an illustration of information for determining a causal relationship between a plurality of events, referred to in some embodiments of the present invention.
도 10에서, 차량(1001), 차량(1002), 차량(1003) 및 차량(1004) 사이의 다중 추돌 사고가 이벤트로 예시되었다. 시간 t1, t2, t3 및 t4는 각 이벤트가 발생한 시간 순서이며, 이벤트 a1은 차량(1002)가 차량(1001)의 후방에 충돌한 이벤트, 이벤트 a2는 차량(1004)가 차량(1003)의 후방에 충돌한 이벤트, 이벤트 a3는 차량(1003)이 차량(1002)의 후방에 충돌한 이벤트이며, 이벤트 a4는 차량(1002)가 차량(1001)의 후방에 재차 충돌한 이벤트이다.In Fig. 10, multiple collision accidents between the
단계(S30)에서, 이벤트 영상 획득 장치(100)는, 각 차량(1001, 1002, 1003, 1004)으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 각 차량과 다른 나머지 차량을 식별할 수 있으며, 차량(1001)에 발생한 이벤트 a1, a4 및, 차량(1002)의 이벤트 a1, a4, a3, 차량(1003)의 이벤트 a2, a3 차량(1004)의 이벤트 a2를 식별할 수 있다. In step S30, the event
이벤트 획득 장치(100)는 단계(S20)에서 획득된 주행 정보를 기초로, 이벤트 a1, a2, a3, a4의 발생 순서를 결정할 수 있다. 또한, 이벤트 획득 장치(100)는 단계(S50)에서, 결정된 이벤트의 발생 순서를 기초로, 각 차량으로부터 제공 받을 영상의 구간 정보를 결정하고, 결정된 구간 정보에 해당하는 영상을 수신할 수 있다.The
도 10을 참조하면, 예를 들어, 이벤트 획득 장치(100)는 이벤트 발생 순서를, 이벤트 a1, 이벤트 a2, 이벤트 a3, 이벤트 a4 순서로 결정할 수 있다. 즉, 차량(1002)가 차량(1001)에 충돌한 후, 차량(1004)가 차량(1003)에 충돌하였고, 차량(1003)이 이에 따라 차량(1002)에 충돌한 후, 재차 차량(1002)가 차량(1001)에 충돌한 경우이다. 이벤트 영상 획득 장치(100)는 이벤트 발생 순서를 결정한 후, 차량(1001)의 이벤트 a1, a4에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1002)를 결정할 수 있다. 이벤트 영상 획득 장치(100)는 차량(1002)의 이벤트 a1, a3, a4에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1001) 및 차량(1003)을 결정할 수 있다. 또한, 이벤트 영상 획득 장치(100)는 차량(1003)의 이벤트 a2, a3에 대한 영상을 제공할 영상 제공 대상 차량으로 차량(1002) 및 차량(1004)를 결정할 수 있다.Referring to FIG. 10, for example, the
다음으로, 이벤트 영상 획득 장치(100)는 각 이벤트의 발생 순서에 따라, 영상 제공 대상 차량이 획득한 이벤트 영상의 구간을 결정할 수 있다. 각 차량이 획득한 영상 중, 이벤트에 대한 영상은 이벤트 발생 순서에 대응될 수 있다. 따라서, 이벤트 영상 획득 장치(100)는 각 이벤트가 발생한 시점을 미리 설정된 시간 범위로 포함하는 영상 구간을 각 차량으로부터 제공 받을 영상의 구간 정보로 결정할 수 있다. 이에 따라, 이벤트 영상 획득 장치(100)는 각 이벤트에 대한 정보에 부합하는 이벤트 영상만을 수집할 수 있으며, 이벤트와 관련된 차량을 영상 제공 대상 차량으로 결정하므로, 수집되는 영상을 최소화하면서도 수집되는 이벤트 영상의 정확도를 향상시킬 수 있다. Next, the event
지금까지 도 1 내지 도 10을 참조하여 설명된 본 발명의 실시예들은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록 된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.Embodiments of the invention described above with reference to Figures 1 to 10 may be embodied in computer readable code on a computer readable medium. The computer readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) . The computer program recorded on the computer-readable recording medium may be transmitted to another computing device via a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.
또한, 도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Also, while operations are shown in a particular order in the figures, it should be understood that operations need not necessarily be performed in the particular order shown or in sequential order, or that all of the illustrated operations must be performed to achieve the desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various configurations in the above-described embodiments should not be understood as such a separation being essential, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products .
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
Claims (10)
상기 이벤트가 발생한 차량의 주행 정보를 획득하는 단계;
상기 이벤트가 발생한 차량의 위치 정보를 기초로, 상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계;
상기 획득된 주행 정보를 기초로, 상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계; 및
상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.Detecting whether an event has occurred to the vehicle;
Obtaining driving information of the vehicle in which the event has occurred;
Identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred, based on the location information of the vehicle where the event occurred;
Determining a video-presenting vehicle for the event among the neighboring vehicles based on the obtained running information; And
And receiving an image for the event from at least one of the determined image providing target vehicles.
A method of acquiring an event image of a vehicle.
상기 주행 정보는, 상기 이벤트가 발생하기 전에 수신된 상기 이벤트가 발생한 차량의 주행 방향 정보, 상기 이벤트가 발생한 차량의 주행 속도 정보, 상기 이벤트가 발생한 시간 정보 및 상기 이벤트가 발생한 차량이 주행 중인 도로의 지형 정보 중, 적어도 하나를 포함하는,
차량의 이벤트 영상 획득 방법.The method according to claim 1,
The traveling information includes at least one of traveling direction information of the vehicle in which the event received before the event occurred, traveling speed information of the vehicle in which the event occurred, time information at which the event occurred, And at least one of the terrain information,
A method of acquiring an event image of a vehicle.
상기 차량을 포함한 복수의 차량 각각으로부터 차량의 식별자 정보 및 위치 정보를 수집하는 단계를 더 포함하고,
상기 이벤트의 발생 여부를 감지하는 단계는,
상기 차량으로부터 이벤트 정보를 수신하거나, 상기 차량으로부터 미리 설정된 시간 동안 상기 식별자 정보 및 상기 위치 정보 중 적어도 하나가 수신되지 않는 경우, 상기 차량에 이벤트가 발생한 것으로 감지하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.The method according to claim 1,
Further comprising collecting identifier information and location information of the vehicle from each of the plurality of vehicles including the vehicle,
Wherein the step of detecting whether the event is generated comprises:
Receiving an event information from the vehicle or detecting that an event has occurred in the vehicle when at least one of the identifier information and the location information is not received from the vehicle for a predetermined time;
A method of acquiring an event image of a vehicle.
상기 결정된 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는,
상기 이벤트가 발생한 차량의 위치 정보 및 상기 영상 제공 대상 차량의 위치 정보를 기초로, 상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 제공받을 영상에 대한 구간 정보를 결정하는 단계; 및
상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.The method according to claim 1,
Wherein the step of receiving an image for the event from at least one of the determined image providing vehicles comprises:
Determining interval information on an image to be provided from at least one of the vehicles to be provided, based on the position information of the vehicle where the event occurred and the position information of the vehicle to be provided with the image; And
And receiving an image corresponding to the determined section information from at least one of the vehicles to be provided with images,
A method of acquiring an event image of a vehicle.
상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 주행 정보를 획득하는 단계를 더 포함하고,
상기 영상 제공 대상 차량 중 적어도 하나의 차량으로부터 각각 제공받을 영상에 대한 구간 정보를 결정하는 단계는,
상기 획득된 영상 제공 대상 차량 각각의 주행 정보를 기초로, 상기 구간 정보를 결정하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.5. The method of claim 4,
Further comprising the step of acquiring travel information from at least one of the vehicles to be provided with images,
The step of determining the segment information for the image to be provided from at least one of the vehicles,
And determining the section information on the basis of the running information of each of the obtained image-presenting vehicles.
A method of acquiring an event image of a vehicle.
상기 구간 정보를 결정하는 단계는,
상기 이벤트가 발생한 차량 방향으로 주행 중인 영상 제공 대상 차량의 경우, 상기 구간 정보를 제1 시간의 구간 정보로 결정하고, 상기 이벤트가 발생한 차량으로부터 멀어지는 방향으로 주행 중인 영상 제공 대상 차량의 경우, 상기 구간 정보를 제2 시간의 구간 정보로 결정하는 단계를 포함하되,
상기 제1 시간은 상기 제2 시간 보다 긴 시간인,
차량의 이벤트 영상 획득 방법.6. The method according to any one of claims 4 and 5,
Wherein the step of determining the section information comprises:
In the case of a vehicle to which the image is to be provided while the vehicle is traveling in the direction of the vehicle in which the event has occurred, the section information is determined as the interval information of the first time. In the case of the vehicle to which the image is to be provided, Determining information as interval information of a second time period,
Wherein the first time is longer than the second time,
A method of acquiring an event image of a vehicle.
상기 수신된 이벤트 정보 상의 이벤트 등급 정보 및 상기 수신된 이벤트에 대한 영상 중 적어도 하나를 기초로 상기 이벤트의 등급 정보를 식별하는 단계;
상기 식별된 이벤트 등급 정보에 매칭된 이벤트 처리 정보를 식별하는 단계; 및
상기 식별된 이벤트 처리 정보를 실행하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.The method of claim 3,
Identifying class information of the event based on at least one of event class information on the received event information and an image of the received event;
Identifying event processing information matched to the identified event class information; And
And executing the identified event processing information.
A method of acquiring an event image of a vehicle.
상기 주변 차량 중 적어도 하나의 차량으로부터 각각 주행 정보를 획득하는 단계를 더 포함하고,
상기 주변 차량 중, 상기 이벤트에 대한 영상 제공 대상 차량을 결정하는 단계는,
상기 획득된 상기 주변 차량의 주행 정보를 기초로, 상기 영상 제공 대상 차량을 결정하는 단계를 포함하되,
상기 주변 차량의 주행 정보는, 상기 주변 차량의 주행 방향 정보 및 주행 속도 정보 중 적어도 하나를 포함하는,
차량의 이벤트 영상 획득 방법.The method according to claim 1,
Further comprising acquiring travel information from at least one of the nearby vehicles,
The step of determining a video-providing target vehicle for the event, among the peripheral vehicles,
And determining the image providing target vehicle based on the obtained running information of the neighboring vehicle,
Wherein the running information of the peripheral vehicle includes at least one of running direction information of the peripheral vehicle and running speed information,
A method of acquiring an event image of a vehicle.
상기 주행 정보는 상기 이벤트가 발생한 차량의 이벤트 정보를 포함하고,
상기 차량의 이벤트 영상 획득 방법은,
상기 수신된 이벤트에 대한 영상으로부터 이벤트 정보를 생성하는 단계;
상기 주행 정보 상의 이벤트 정보와 상기 생성된 이벤트 정보를 비교하는 단계; 및
상기 비교 결과, 상기 생성된 이벤트 정보와 상기 주행 정보 상의 이벤트 정보가 미리 설정된 범위 내에서 매칭되지 않는 경우, 상기 미리 설정된 거리 범위를 변경하거나, 상기 결정된 영상 제공 대상 차량을 재결정하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.The method according to claim 1,
Wherein the running information includes event information of a vehicle in which the event occurred,
A method for acquiring an event image of a vehicle,
Generating event information from an image of the received event;
Comparing the event information on the running information with the generated event information; And
And changing the predetermined distance range or re-determining the determined image providing target vehicle when the generated event information and the event information on the driving information do not match within a predetermined range as a result of the comparison.
A method of acquiring an event image of a vehicle.
상기 이벤트가 발생한 차량은, 제1 이벤트가 발생한 제1 차량 및 제2 이벤트가 발생한 제2 차량을 포함하고,
상기 이벤트가 발생한 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량을 식별하는 단계는,
상기 제1 차량으로부터 미리 설정된 거리 범위 내에 위치한 주변 차량 중, 상기 제2 차량을 식별하는 단계; 및
상기 획득된 주행 정보를 기초로, 상기 제1 이벤트 및 상기 제2 이벤트의 발생 순서를 결정하는 단계를 포함하고,
상기 결정된 영상 제공 대상 차량으로부터 상기 이벤트에 대한 영상을 수신하는 단계는,
상기 제1 이벤트 및 상기 제2 이벤트에 대하여 상기 결정된 발생 순서를 기초로, 상기 영상 제공 대상 차량으로부터 제공받을 영상의 구간 정보를 결정하는 단계; 및
상기 결정된 구간 정보에 해당하는 영상을 상기 영상 제공 대상 차량 각각으로부터 수신하는 단계를 포함하는,
차량의 이벤트 영상 획득 방법.
The method according to claim 1,
Wherein the vehicle in which the event has occurred includes a first vehicle in which a first event has occurred and a second vehicle in which a second event has occurred,
The step of identifying a nearby vehicle located within a predetermined distance range from the vehicle where the event occurred,
Identifying the second vehicle among nearby vehicles located within a predetermined distance range from the first vehicle; And
And determining a generation order of the first event and the second event based on the obtained running information,
Receiving the image for the event from the determined image providing target vehicle,
Determining interval information of an image to be provided from the image providing subject vehicle based on the determined order of occurrence for the first event and the second event; And
And receiving an image corresponding to the determined section information from each of the image providing target vehicles,
A method of acquiring an event image of a vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160163856A KR20180063734A (en) | 2016-12-02 | 2016-12-02 | Method and Apparatus for acquiring event image of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160163856A KR20180063734A (en) | 2016-12-02 | 2016-12-02 | Method and Apparatus for acquiring event image of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180063734A true KR20180063734A (en) | 2018-06-12 |
Family
ID=62622119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160163856A KR20180063734A (en) | 2016-12-02 | 2016-12-02 | Method and Apparatus for acquiring event image of vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180063734A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210030523A (en) * | 2019-09-09 | 2021-03-18 | 현대자동차주식회사 | Vehicle and method for controlling the vehicle |
KR102426233B1 (en) * | 2022-03-03 | 2022-07-29 | 주식회사 제일엔지니어링종합건축사사무소 | Apparatus and method for intelligent road information collection based on user terminal |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110088012A (en) | 2010-01-28 | 2011-08-03 | 한국전자통신연구원 | Apparatus for collecting vehicle accident image data |
-
2016
- 2016-12-02 KR KR1020160163856A patent/KR20180063734A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110088012A (en) | 2010-01-28 | 2011-08-03 | 한국전자통신연구원 | Apparatus for collecting vehicle accident image data |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210030523A (en) * | 2019-09-09 | 2021-03-18 | 현대자동차주식회사 | Vehicle and method for controlling the vehicle |
KR102426233B1 (en) * | 2022-03-03 | 2022-07-29 | 주식회사 제일엔지니어링종합건축사사무소 | Apparatus and method for intelligent road information collection based on user terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216676B2 (en) | Information processing system and information processing method | |
US10074181B2 (en) | Method and device for monitoring a surrounding region of a vehicle, and method for implementing emergency braking | |
CN108074401B (en) | Vehicle jamming behavior judging method and device | |
EP3140777B1 (en) | Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
KR102268032B1 (en) | Server device and vehicle | |
KR20170050433A (en) | Vehicle Control System and Method Thereof | |
US20160379487A1 (en) | Methods for identifying a vehicle from captured image data | |
US9805527B2 (en) | Intelligent logging | |
CN108028017A (en) | Method for distinguishing real obstruction and false barrier in the driver assistance system of motor vehicle | |
CN108369781B (en) | Method for evaluating a hazard situation detected by at least one sensor of a vehicle | |
EP3243671A1 (en) | Method and apparatus for classifying a tyre | |
CN109703456B (en) | Warning method and device for preventing automobile collision and automobile controller | |
EP3035315B1 (en) | Information retrieval arrangement | |
CN113110266A (en) | Remote control monitoring and early warning method and system for automatic driving vehicle and storage medium | |
KR101628547B1 (en) | Apparatus and Method for Checking of Driving Load | |
KR20180063734A (en) | Method and Apparatus for acquiring event image of vehicle | |
KR20220041986A (en) | System and method for safety driving control of vehicle | |
KR20160062259A (en) | Method, system and computer readable medium for managing abnormal state of vehicle | |
CN111800314B (en) | Automatic driving fault monitoring system | |
CN111800508B (en) | Automatic driving fault monitoring method based on big data | |
CN116433988B (en) | Multi-source heterogeneous image data classification treatment method | |
US11364918B2 (en) | Notifying device and notifying method | |
CN110969895B (en) | Vehicle distance detection method, device, system and server | |
KR101391324B1 (en) | Method for recognizing traffic condition based on event rule using data detected by a radar and apparatus thereof | |
KR20220112043A (en) | System and method for mobility sharing service |