[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102321754B1 - System for detecting accident in road based on edge computing - Google Patents

System for detecting accident in road based on edge computing Download PDF

Info

Publication number
KR102321754B1
KR102321754B1 KR1020200103383A KR20200103383A KR102321754B1 KR 102321754 B1 KR102321754 B1 KR 102321754B1 KR 1020200103383 A KR1020200103383 A KR 1020200103383A KR 20200103383 A KR20200103383 A KR 20200103383A KR 102321754 B1 KR102321754 B1 KR 102321754B1
Authority
KR
South Korea
Prior art keywords
situation
camera
accident
image
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200103383A
Other languages
Korean (ko)
Inventor
이재현
김덕현
정진형
이준호
Original Assignee
주식회사에스에이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사에스에이티 filed Critical 주식회사에스에이티
Priority to KR1020200103383A priority Critical patent/KR102321754B1/en
Application granted granted Critical
Publication of KR102321754B1 publication Critical patent/KR102321754B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 영상 유고 감지 시스템에 관한 것으로서, 엣지 컴퓨팅 기반의 각 노드로 기능하는 카메라로서, 도로변에 소정 간격으로 설치되어 도로 상에 미리 설정된 유고 검지 영역을 촬영하고, 촬영된 영상을 수집하고, 수집된 영상을 분석하여 유고 상황의 발생 여부를 확인하고, 유고상황이 발생하면, 해당 차로의 유고상황과 관련된 정보를 수집하고, 수집된 정보를 상황실 단말로 전송하기 위한 엣지 카메라 및 상황실에 설치된 단말로서, 상기 엣지 카메라로부터 전송된 정보를 표출하기 위한 상황실 단말을 포함한다.
본 발명에 의하면, 멀티홉 기능이 제공되는 엣지 노드 카메라를 사용함으로써, 경제적이며 정확도가 높은 유고 검지 시스템 운영이 가능하며, 넓은 범위를 대상으로 시스템을 연속적으로 설치할 수 있다는 효과가 있다.
The present invention relates to an image loss detection system, which is a camera functioning as each node based on edge computing, which is installed at a predetermined interval on the roadside to photograph a preset loss detection area on the road, collects the captured images, and collects It is an edge camera and terminal installed in the situation room to analyze the recorded video to check whether an accident situation has occurred, to collect information related to the accident situation in the corresponding lane when an accident situation occurs, and to transmit the collected information to the situation room terminal. , and a situation room terminal for displaying information transmitted from the edge camera.
According to the present invention, by using an edge node camera provided with a multi-hop function, it is possible to operate an economical and high-accuracy error detection system, and there is an effect that the system can be continuously installed over a wide range.

Description

엣지 컴퓨팅 기반 영상 유고 감지 시스템 {System for detecting accident in road based on edge computing}Edge computing-based image detection system {System for detecting accident in road based on edge computing}

본 발명은 도로에서 발생하는 비정상적인 상황인 유고 상황을 감지하는 기술에 관한 것으로서, 더욱 상세하게는 도로를 촬영한 영상을 분석하여 유고 상황을 감지하는 기술에 관한 것이다. The present invention relates to a technology for detecting an abnormal situation occurring on a road, and more particularly, to a technology for detecting an accident situation by analyzing an image taken of a road.

영상 유고감지 시스템은 도로상에 비정상적인 상황인 유고상황이 발생했을 때, 영상을 분석하여 유고상황을 상황실에 전달하여 신속하게 사후처리를 하기 위한 시스템이다. The video error detection system is a system for prompt post-processing by analyzing the video and delivering the accidental situation to the situation room when an abnormal situation occurs on the road.

대표적인 유고상황을 예시하면, 차량에서 떨어진 낙하물이 도로에 방치되어 있는 상황, 차량이 비정상적으로 도로에 정차하여 있는 상황, 차량이 역주행 하는 상황, 도로에 사람 또는 산짐승 등 도로에 있으면 안되는 이동 물체가 존재하는 상황 등이 있다. Examples of typical disaster situations include a situation in which a falling object that has fallen from a vehicle is left on the road, a situation in which the vehicle is abnormally stopped on the road, a situation in which the vehicle is traveling in the opposite direction, and a moving object that should not be on the road, such as a person or a mountain animal, exists on the road. situations, etc.

유고감시 시스템은 유고상황이 발생했을 경우 이를 신속히 처리하여 2차 사고를 미연에 방지할 수 있도록 하는데 목적이 있다.The purpose of the accident monitoring system is to prevent a secondary accident in advance by promptly handling an accident situation when it occurs.

한편, 엣지 컴퓨팅(edge computing)은 중앙 클라우드 서버가 아니라 이용자의 단말기 주변(edge)이나 단말기 자체에서 데이터를 처리하는 기술로서, 기존 클라우드 컴퓨팅에 비해 데이터 처리 시간이 짧고 보안성이 뛰어나다. 특히, 데이터 양이 많고 실시간 처리가 필요한 자율주행자동차, 스마트 공장, 사물인터넷(IOT) 등에서 대거 활용될 전망이다.On the other hand, edge computing is a technology that processes data around the user's terminal or in the terminal itself rather than a central cloud server, and has a shorter data processing time and superior security compared to existing cloud computing. In particular, it is expected to be widely used in autonomous vehicles, smart factories, and the Internet of Things (IOT), where there is a large amount of data and requires real-time processing.

엣지 컴퓨팅은 네트워크 가장자리(에지)에서 먼저 데이터를 처리한다는 의미를 담고 있으며, 중앙 서버가 모든 데이터를 처리하는 클라우드 컴퓨팅(cloud computing)과 대비된다.Edge computing implies processing data first at the edge of the network, as opposed to cloud computing where a central server processes all data.

클라우드 컴퓨팅은 쉽게 말해 고성능 컴퓨터가 업무를 대신 처리하는 기술인데, 최근 IoT 기기가 본격 보급되면서 클라우드 컴퓨팅은 한계에 부딪혔다. 즉, IoT 기기가 제공하는 데이터가 폭증하면서 중앙 컴퓨터가 이를 모두 처리하기 버거워졌으며, 데이터를 처리하는 데 걸리는 시간도 문제점으로 떠올랐다.In simple terms, cloud computing is a technology in which a high-performance computer performs work instead of a task. In other words, as the data provided by IoT devices exploded, it became difficult for the central computer to process all of them, and the time it took to process the data also emerged as a problem.

에지 컴퓨팅은 이런 한계를 분산처리 기술로 보완하는 기술로서, 각 IoT 기기에서 분석할 수 있는 데이터는 현장에서 바로 처리한다는 개념이다. Edge computing is a technology that supplements this limitation with distributed processing technology, and the concept is that the data that can be analyzed by each IoT device is processed directly on the spot.

유고검지 시스템은 도로의 안전을 위해서 매우 필요한 기술이나, 기존 유고검지 시스템은 단위 시스템 지점별 검지범위가 제한적인 문제가 있다. 실제로 거리가 가장 긴 레이더의 경우, 약 1km가 가능하며, 추가로 검지가 필요하면 별도의 추가 시스템이 증가되어야 한다. 또한 레이더의 경우, 운영자가 최종 판단을 하기 위해 영상시스템이 추가로 설치되어야 하는데. 시스템 확장 시 영상도 확장되어 네트워크 용량 문제를 유발할 수 있다. 그리고, 영상시스템의 경우도 단위 시스템 거리범위가 약 200m이지만, 원거리의 영상처리 시 정확도의 문제가 있으며, 또한 여러 대의 카메라를 운영할 경우 유고상황이 아닐 경우에도 영상을 센터로 전송하기 때문에 불필요한 영상으로 인한 고성능 센서 시스템 구축 및 전송층 네트워크 설비 증가로 경제성 측면에서 단점을 가지게 된다.The maintenance detection system is a very necessary technology for road safety, but the existing maintenance detection system has a problem in that the detection range for each point of the unit system is limited. In fact, in the case of the longest radar, about 1 km is possible, and if additional detection is required, a separate additional system must be increased. In addition, in the case of radar, an image system must be additionally installed for the operator to make a final decision. When the system is expanded, the video is also expanded, which may cause network capacity problems. Also, in the case of an image system, the unit system distance range is about 200m, but there is a problem of accuracy when processing images from a long distance. As a result, it has disadvantages in terms of economic feasibility due to the construction of high-performance sensor systems and the increase in transport layer network facilities.

대한민국 등록특허 10-0435003Republic of Korea Patent Registration 10-0435003

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 수집한 영상을 엣지 컴퓨터 기반의 노드카메라에서 처리함으로써 정상적인 상황에서는 상황실에 영상전송을 안하고, 도로상에 비정상적인 상황인 유고상황이 발생했을 때, 영상을 분석하여 유고상황을 상황실에 전달하여 신속하게 사후처리가 이루어지도록 하는 영상 유고 감지 시스템을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and by processing the collected images in the edge computer-based node camera, the image is not transmitted to the control room under normal circumstances, and when an abnormal situation occurs on the road. The purpose of this is to provide an image loss detection system that analyzes the image and delivers the incidental situation to the control room so that post-processing is carried out quickly.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명은 영상 유고 감지 시스템에 관한 것으로서, 엣지 컴퓨팅 기반의 각 노드로 기능하는 카메라로서, 도로변에 소정 간격으로 설치되어 도로 상에 미리 설정된 유고 검지 영역을 촬영하고, 촬영된 영상을 수집하고, 수집된 영상을 분석하여 유고 상황의 발생 여부를 확인하고, 유고상황이 발생하면, 해당 차로의 유고상황과 관련된 정보를 수집하고, 수집된 정보를 상황실 단말로 전송하기 위한 엣지 카메라 및 상황실에 설치된 단말로서, 상기 엣지 카메라로부터 전송된 정보를 표출하기 위한 상황실 단말을 포함한다. The present invention for achieving the above object relates to an image loss detection system, which is a camera functioning as each node based on edge computing, which is installed at a predetermined interval on the roadside to photograph a preset loss detection area on the road, and photographing Edge for collecting images collected, analyzing the collected images to check whether an accident situation occurs, and when an accident situation occurs, collects information related to the accident situation of the corresponding lane, and transmits the collected information to the terminal in the control room As a terminal installed in the camera and the control room, it includes a control room terminal for displaying information transmitted from the edge camera.

상기 엣지 카메라는 유고 상항이 발생하면, 유고 발생 위치, 카메라 ID, 차로 정보, 유고 상황별 유형, 유고 상황 발생 시의 현장 사진을 포함하는 정보를 상기 상황실 단말로 전송하고, 상기 상황실 단말은 상기 정보를 수신하면, 유고 상황 알람을 표출하고, 수신한 정보를 화면에 표출할 수 있다. When an accident occurs, the edge camera transmits information including the location of occurrence of an accident, camera ID, lane information, type by accident situation, and a scene photo when an accident situation occurs to the situation room terminal, and the situation room terminal sends the information When receiving, it is possible to display an alarm for an emergency situation and display the received information on the screen.

상기 영상 유고감지 시스템은, 전체 유고 검지 영역을 촬영하기 위한 CCTV 카메라를 더 포함하고, 상기 상황실 단말은 평상 시에 상기 CCTV 카메라에서 촬영된 영상을 표출할 수 있다. The image failure detection system may further include a CCTV camera for photographing the entire failure detection area, and the situation room terminal may normally display the image captured by the CCTV camera.

상기 엣지 카메라로부터 유고상황 발생 정보를 수신하면, 해당 유고 발생 위치를 촬영하는 CCTV 카메라의 영상이 상기 상황실 단말에 확대하여 표출되도록 하는 제어기를 더 포함할 수 있다. Upon receiving the accident situation occurrence information from the edge camera, the controller may further include a controller that enlarges and displays the image of the CCTV camera for photographing the corresponding accident occurrence location on the situation room terminal.

상기 제어기는 상기 상황실 단말에 유고 발생 위치가 표시된 지도가 함께 표출되도록 제어할 수 있다. The controller may control the situation room terminal to display a map on which the location of occurrence of an accident is displayed together.

상기 엣지 카메라는 상기 상황실 단말로부터 전송된 유고상황 설정 정보에 따라 유고상황의 발생 여부를 확인하고, 유고상황에 해당하는 경우에 한하여 해당 유고상황과 관련된 정보를 상기 상황실 단말로 전송할 수 있다. The edge camera may check whether an emergency situation has occurred according to the emergency situation setting information transmitted from the situation room terminal, and transmit information related to the emergency situation to the situation room terminal only in the case of the emergency situation.

상기 엣지 카메라는 수집한 영상에 대해 AI를 이용한 영상 분석을 수행하고, 영상 분석에 의해 도출된 객체 속성값을 이용하여 상기 유고상황에 해당하는지 여부를 판단할 수 있다. The edge camera may perform image analysis using AI on the collected image, and determine whether it corresponds to the accidental situation by using the object attribute value derived by the image analysis.

본 발명에 의하면, 멀티홉 기능이 제공되는 엣지 노드 카메라는 영상을 수집하여 인코딩하는 영상처리 모듈에 딥러닝 처리엔진을 하드웨어 방식으로 처리하는 로직이 추가되는 IoT 기반의 통신·영상처리·인공지능 모듈의 통합 단말로 고속 영상분석이 가능한 장점을 가지고 있다. 또한 경제적이며 정확도가 높은 유고 검지 시스템 운영이 가능하며, 넓은 범위를 대상으로 시스템을 연속적으로 설치할 수 있다는 효과가 있다. According to the present invention, the edge node camera provided with the multi-hop function is an IoT-based communication/image processing/artificial intelligence module in which logic for processing a deep learning processing engine in a hardware manner is added to an image processing module that collects and encodes images. It has the advantage of high-speed image analysis as an integrated terminal of In addition, it is possible to operate an economical and high-accuracy oil leak detection system, and has the effect that the system can be continuously installed over a wide range.

또한, 본 발명에 의하면, 엣지 노드 카메라를 사용하여 자체 처리를 통한 영상전송을 현저히 줄임으로써, 네트워크 용량의 한계를 극복하여 연속적인 카메라 및 레이더를 설치할 수 있는 효과가 있다. In addition, according to the present invention, by significantly reducing the image transmission through self-processing using the edge node camera, there is an effect that can overcome the limitation of the network capacity and install continuous cameras and radars.

도 1은 본 발명의 일 실시예에 따른 영상 유고 감지 시스템의 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상 유고 감지 시스템의 설치예를 도시한 것이다.
도 3은 종래 유고 감지 시스템에서의 카메라와 영상처리 제어기의 내부구조를 보여주는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 영상 유고 감지 시스템에서의 엣지 카메라의 내부구조를 보여주는 블록도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 영상 유고 감지 시스템에서의 처리 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 유고상황 사전 설정 과증을 보여주는 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 엣지 카메라에서의 유고상황 검지 방법을 보여주는 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 도로 상에서의 유고상황 검지를 위한 AI 영상 분석 기술을 설명하기 위한 예시도이다.
1 is a diagram showing the configuration of an image loss detection system according to an embodiment of the present invention.
2 is a diagram illustrating an installation example of an image loss detection system according to an embodiment of the present invention.
3 is a block diagram showing the internal structures of a camera and an image processing controller in a conventional accident detection system.
4 is a block diagram showing an internal structure of an edge camera in an image absence detection system according to an embodiment of the present invention.
5 to 7 are flowcharts of processing in an image loss detection system according to an embodiment of the present invention.
8 is a flowchart showing an excessive amount of pre-setting of an emergency situation according to an embodiment of the present invention.
9 is a flowchart illustrating a method for detecting an accidental situation in an edge camera according to an embodiment of the present invention.
10 is an exemplary diagram for explaining an AI image analysis technology for detecting an emergency situation on a road according to an embodiment of the present invention.

본 명세서에서 개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시에서 제안하고자 하는 실시예는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 당해 기술분야에서 통상의 지식을 가진 자에게 실시예들의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the embodiments disclosed herein, and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the embodiments to be proposed in the present disclosure are not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments are provided to those of ordinary skill in the art. They are only provided to fully indicate their categories.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail.

본 명세서에서 사용되는 용어는 개시된 실시예들의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 상세한 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in this specification have been selected as widely used general terms as possible while considering the functions of the disclosed embodiments, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the detailed description part of the corresponding specification. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the content throughout the present specification, rather than the simple name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.References in the singular herein include plural expressions unless the context clearly dictates that the singular is singular.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 영상 유고 감지 시스템의 구성을 보여주는 도면이고, 도 2는 본 발명의 일 실시예에 따른 영상 유고 감지 시스템의 설치예를 도시한 것이다. FIG. 1 is a diagram showing the configuration of an image loss detection system according to an embodiment of the present invention, and FIG. 2 shows an installation example of the image loss detection system according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 영상 유고 감지 시스템은 엣지 카메라(100), CCTV(Closed Circuit Television) 카메라(200), 제어기(300), 상황실 단말(400)을 포함한다. 1 and 2 , the image loss detection system of the present invention includes an edge camera 100 , a Closed Circuit Television (CCTV) camera 200 , a controller 300 , and a situation room terminal 400 .

엣지 카메라(100)는 엣지 컴퓨팅 기반의 각 노드로 기능하는 카메라로서, 도로변에 소정 간격으로 설치되어 도로 상에 미리 설정된 유고 검지 영역을 촬영하고, 촬영된 영상을 수집하고, 수집된 영상을 분석하여 유고 상황의 발생 여부를 확인하고, 유고상황이 발생하면, 해당 차로의 유고상황과 관련된 정보를 수집하고, 수집된 정보를 상황실 단말(400)로 전송한다.The edge camera 100 is a camera that functions as each node based on edge computing. It is installed on the roadside at a predetermined interval to photograph a preset detection area on the road, collects the captured image, and analyzes the collected image. It is checked whether an oil condition has occurred, and when an oil condition occurs, information related to the oil condition of the corresponding lane is collected, and the collected information is transmitted to the situation room terminal 400 .

엣지 카메라(100)는 도로상의 차량, 오토바이, 사람, 들짐승 및 낙하물 등을 검출하여 유고상황 여부를 판단하고, 유고상황이 발생한 지점과 유고내용을 상황실 단말(400)로 전송하여 운영자가 적절한 대응을 할 수 있도록 한다. The edge camera 100 detects vehicles, motorcycles, people, wild animals, and falling objects on the road to determine whether there is an accident, and transmits the point where the accident occurred and the contents of the accident to the situation room terminal 400 so that the operator can respond appropriately. make it possible

그리고, 엣지 카메라(100)는 엣지 카메라 간의 무선통신이 가능하며, 또한 라우팅 기능을 제공하여 먼 거리에 떨어진 곳에도 정보 제공이 가능하다.In addition, the edge camera 100 enables wireless communication between the edge cameras, and also provides a routing function to provide information even at a distant place.

CCTV 카메라(200)는 전체 유고 검지 영역을 촬영하도록 설치된다. The CCTV camera 200 is installed to photograph the entire accident detection area.

제어기(300)는 엣지 카메라(100)로부터 유고상황 발생 정보를 수신하면, 해당 유고 발생 위치를 촬영하는 CCTV 카메라(200)의 영상이 상황실 단말(400)에 확대하여 표출되도록 한다. When the controller 300 receives the accident situation occurrence information from the edge camera 100 , the image of the CCTV camera 200 photographing the corresponding accident occurrence location is enlarged and displayed on the situation room terminal 400 .

상황실 단말(400)은 상황실에 설치된 단말로서, 엣지 카메라(100)로부터 전송된 정보를 표출하는 역할을 한다. The situation room terminal 400 is a terminal installed in the control room, and serves to display information transmitted from the edge camera 100 .

본 발명에서 엣지 카메라(100)는 유고 상항이 발생하면, 유고 발생 위치, 카메라 ID, 차로 정보, 유고 상황별 유형, 유고 상황 발생 시의 현장 사진을 포함하는 정보를 상황실 단말(400)로 전송한다. In the present invention, when an emergency occurs, the edge camera 100 transmits information including the location of the accident, camera ID, lane information, type by accident situation, and a scene photo when an accident situation occurs to the situation room terminal 400 . .

그리고, 상황실 단말(400)은 엣지 카메라(100)로부터 정보를 수신하면, 유고 상황 알람을 표출하고, 수신한 정보를 화면에 표출한다. And, when the situation room terminal 400 receives information from the edge camera 100 , it displays an alarm of an emergency situation, and displays the received information on the screen.

상황실 단말(400)은 평상 시에 CCTV 카메라(300)에서 촬영된 영상을 표출할 수 있다. The situation room terminal 400 may display an image captured by the CCTV camera 300 in normal times.

본 발명에서 제어기(300)는 상황실 단말(400)에 유고 발생 위치가 표시된 지도가 함께 표출되도록 제어할 수 있다. In the present invention, the controller 300 may control the situation room terminal 400 to display a map on which the location of the occurrence of the accident is displayed together.

본 발명에서 엣지 카메라(100)는 상황실 단말(400)로부터 전송된 유고상황 설정 정보에 따라 유고상황의 발생 여부를 확인하고, 유고상황에 해당하는 경우에 한하여 해당 유고상황과 관련된 정보를 상황실 단말(400)로 전송할 수 있다.In the present invention, the edge camera 100 checks whether an emergency situation has occurred according to the emergency situation setting information transmitted from the control room terminal 400, and, only in the case of the emergency situation, transmits information related to the emergency situation to the control room terminal ( 400) can be transmitted.

본 발명에서 엣지 카메라(100)는 자체 유고검지 제어부가 내장되어 있으며, 또한 무선 네트워크(라우팅) 기능을 포함하고 있으므로 유고검지 범위에 있어서 별도의 제한을 가지지 않고 넓은 범위로 자유로운 확장이 가능하다. 만약, 현장 시스템이 운영자와 독립된 네트워크에 존재할 경우 게이트웨이(Gateway) 제어기를 통하여 운영자에게 정보를 전송할 수 있도록 구성할 수 있다. 이러한 구성은 MANET(Mobile Adhoc Network), 인터넷망 및 사설망에 상관없이 네트워크를 구성할 수 있다. In the present invention, the edge camera 100 has its own error detection control unit built-in, and also includes a wireless network (routing) function, so that it can be freely expanded to a wide range without a separate limitation in the error detection range. If the field system exists in a network independent of the operator, it may be configured to transmit information to the operator through a gateway controller. This configuration can configure the network regardless of MANET (Mobile Adhoc Network), Internet network, and private network.

본 발명의 엣지 카메라(100)의 주요 기능은 다음과 같다. The main functions of the edge camera 100 of the present invention are as follows.

먼저, 차량, 사람, 오토바이, 짐승, 낙하물 등 도로상의 독립된 객체를 검출하여 분류한다. First, independent objects on the road, such as vehicles, people, motorcycles, animals, and falling objects, are detected and classified.

그리고, 각 객체의 움직임을 추적(tracking)하여 역주행 및 사고로 정체되는지 등의 유고 상황을 상황을 검지한다. 예를 들어, 유고 상황은 차량 역주행, 사람 및 짐승 등장, 낙하물 발생, 차량정지 등이 있을 수 있다. And, by tracking the movement of each object, the situation is detected, such as whether it is stagnant due to reverse driving or an accident. For example, the accident situation may include reverse driving of a vehicle, appearance of people and animals, occurrence of falling objects, and vehicle stop.

그리고, 도로상에 각각의 객체 위치를 차로단위로 분류할 수 있다.In addition, the location of each object on the road may be classified into lane units.

도 3은 종래 유고 감지 시스템에서의 카메라와 영상처리 제어기의 내부구조를 보여주는 블록도이다. 3 is a block diagram showing the internal structures of a camera and an image processing controller in a conventional accident detection system.

도 3을 참조하면, 종래 유고 감지 시스템에서는 카메라(10)와 영상처리제어기(20)가 별도의 장치로 구현되어 있다. Referring to FIG. 3 , in the conventional accident detection system, the camera 10 and the image processing controller 20 are implemented as separate devices.

카메라(10)에서 이미지 센서(11)를 통해 영상을 입력받고, 영상수집보드(12)의 인코딩부(130)에서 이미지를 파일 또는 동영상으로 인코딩 한다. The camera 10 receives an image through the image sensor 11 , and the encoding unit 130 of the image collection board 12 encodes the image into a file or video.

그리고, 인코딩(Encoding)된 영상은 전송부(14)를 통해 영상처리 제어기(20)로 전송되고, 이를 수신한 영상처리제어기(20)는 유고검지를 위한 영상 처리를 위해 영상처리보드(21)의 디코딩부(22)에서 디코딩(Decoding)과정을 수행하게 된다. Then, the encoded image is transmitted to the image processing controller 20 through the transmission unit 14, and the image processing controller 20 receiving the image processing board 21 for image processing for detection of errors. The decoding unit 22 performs a decoding process.

그리고, 유고검지가 끝나면 해당 영상을 자료화 하기 위해 다시 인코딩부(24)에서 인코딩하여 자료를 보관한다. And, after the detection of the false information, the encoding unit 24 stores the data by encoding the image again in order to make the video data.

이렇게 유고검지가 발생하면 유고정보를 운영자 단말로 전송하고, 그렇지 않으면 영상만 운영자에게 전송하고 다음 영상처리를 이어간다.In this way, when error detection occurs, the error information is transmitted to the operator terminal, otherwise only the image is transmitted to the operator and the next image processing is continued.

도 4는 본 발명의 일 실시예에 따른 영상 유고 감지 시스템에서의 엣지 카메라의 내부구조를 보여주는 블록도이다. 4 is a block diagram showing an internal structure of an edge camera in an image absence detection system according to an embodiment of the present invention.

도 4를 참조하면, 엣지 카메라(100)가 이미지 센서(110)를 통해 영상을 입력받고, 인코딩 전에 자체 영상처리 소프트웨어(130)를 통해 유고검지를 위한 영상처리를 진행한다. Referring to FIG. 4 , the edge camera 100 receives an image through the image sensor 110 , and performs image processing for error detection through its own image processing software 130 before encoding.

그리고, 영상처리 후, 영상수집 및 처리 보드(120)의 인코딩부(140)에서 And, after image processing, in the encoding unit 140 of the image collection and processing board 120

인코딩을 하여 자료를 보관한다. 이때, 유고상황이 검지되면 자료를 상황실 단말(400)에 전송하고, 그렇치 않으면 자료를 폐기한 후 다음 영상처리를 이어간다. Encoding and storing data. At this time, if an error condition is detected, the data is transmitted to the control room terminal 400. Otherwise, the data is discarded and the next image processing is continued.

이처럼 본 발명에서 엣지 카메라(100)의 경우 불필요한 전송, 인코딩, 디코딩이 반복되는 것을 줄일 수 있다. As such, in the case of the edge camera 100 in the present invention, unnecessary repetition of transmission, encoding, and decoding can be reduced.

본 발명은 이와 함께 무선 멀티 홉 네트워크를 지원하여 서비스 영역의 확장을 가능하도록 한다. The present invention also supports a wireless multi-hop network to enable expansion of a service area.

또한, 본 발명에서는 고성능으로 원거리를 촬영하는 CCTV 카메라(200)를 추가함으로써, 엣지 카메라(100)의 유지관리 모니터링 및 유고상황 실시간 모니터링 기능에 부가하여 운영자의 운영 효과를 높일 수 있다. 엣지 카메라의 특성 상 Zoom In/Out 기능과 고해상도를 지원하는데 한계가 있기 때문에 별도의 고해상도 CCTV 카메라를 추가할 수 있도록 구성할 수 있다. In addition, in the present invention, by adding a CCTV camera 200 that shoots a long distance with high performance, it is possible to increase the operating effect of the operator in addition to the maintenance monitoring and real-time monitoring functions of the edge camera 100 . Due to the characteristics of edge cameras, there is a limit to support the zoom in/out function and high resolution, so it can be configured to add a separate high-resolution CCTV camera.

본 발명에서는 CCTV 카메라를 이용하여 엣지 카메라로부터 유고상황이 전달되면 자동으로 해당 엣지 카메라 영역을 확대하여 운영자가 즉시 관찰할 수 있도록 하는 유고상황 프리셋 기능을 제공한다.In the present invention, when an emergency situation is transmitted from an edge camera using a CCTV camera, the edge camera area is automatically enlarged to provide an emergency situation preset function so that the operator can observe immediately.

도 5 내지 도 7은 본 발명의 일 실시예에 따른 영상 유고 감지 시스템에서의 처리 흐름도이다. 5 to 7 are flowcharts of processing in an image loss detection system according to an embodiment of the present invention.

도 5를 참조하면, 엣지 카메라(100)는 촬영한 영상을 수집한다(S501). Referring to FIG. 5 , the edge camera 100 collects captured images ( S501 ).

그리고, 엣지 카메라(100)는 주기적으로 각 노드간 무선네트워크 상태를 점검한다(S503).Then, the edge camera 100 periodically checks the state of the wireless network between each node (S503).

그리고, 수집된 영상을 분석하여 유고상황이 발생했는지 확인한다(S505, S507). Then, by analyzing the collected images, it is checked whether an emergency situation has occurred (S505, S507).

유고상황이 발생하면 해당 차로의 유고상황과 관련된 정보를 수집한다(S509). 예를 들어, 유고 발생 위치, 카메라 ID, 차로 정보, 유고 유형, 유고 상황 스틸 영상 등의 정보를 수집한다. 여기서, 유고 발생 위치는 지도(Map) 표출을 위한 정보로 사용되며, 카메라 ID는 유고발생위치를 카메라 단위로 확인하기 위하여 사용되며, 특히 CCTV가 운영되는 경우 사전에 각 카메라 프리셋을 설정하는데 사용된다. 그리고, 유고 유형은 유고상황별 유형을 의미하고, 스틸 영상은 유고발견 시의 현장 사진이다. When an oil condition occurs, information related to the oil condition of the corresponding lane is collected (S509). For example, information such as the location where the accident occurred, camera ID, lane information, the type of accident, and still image of the accident situation is collected. Here, the location where the accident occurred is used as information for displaying the map, and the camera ID is used to check the location where the accident occurred by camera, and in particular, when the CCTV is operated, it is used to set each camera preset in advance. . And, the type of remains means the type for each situation, and the still image is a photo of the site when the remains are found.

그리고, 수집된 정보를 상황실 단말(400)에 전송한다(S511).Then, the collected information is transmitted to the control room terminal 400 (S511).

CCTV 카메라(200)가 설치된 경우(S513), 해당 CCTV 카메라의 ID, 유고발생 위치 등의 정보를 상황실 단말(400)에 전송한다(S511). When the CCTV camera 200 is installed (S513), information such as the ID of the CCTV camera and the location of the accident is transmitted to the situation room terminal 400 (S511).

도 6은 본 발명에서 전체 유고검지 영역을 모니터링 할 수 있도록 고성능 CCTV 시스템을 설정하여 운영하는 경우의 실시예이다. Figure 6 is an embodiment of the present invention in the case of setting and operating a high-performance CCTV system to monitor the entire accident detection area.

도 6을 참조하면, 고성능 CCTV 시스템은 주기적으로 상황실 단말(400) 및 엣지 카메라(100)와의 네트워크 상태를 점검한다(S601). Referring to FIG. 6 , the high-performance CCTV system periodically checks the network status with the situation room terminal 400 and the edge camera 100 ( S601 ).

유고상황이 없으면, CCTV 카메라(200)에서 기본 설정된 화면이 상황실 단말(400)로 전송된다(S603). If there is no emergency situation, the screen set by default in the CCTV camera 200 is transmitted to the situation room terminal 400 (S603).

주기적으로 유고발생여부를 검사하고, 유고상황이 발생하면(S605), 유고상황이 발생한 카메라 ID를 통해 미리 설정된 프리셋 설정값을 적용하여 유고상황 모니터링을 위한 최적의 CCTV 영상을 수집한다(S607). Periodically inspect whether an accident occurs, and when a failure situation occurs (S605), an optimal CCTV image for monitoring the failure situation is collected by applying a preset value set in advance through the camera ID where the failure situation occurred (S607).

그리고, 이렇게 변경된 영상을 상황실 단말(400)로 전송한다(S609).Then, the changed image is transmitted to the situation room terminal 400 (S609).

도 7을 참조하면, CCTV가 없을 경우, 상황실 단말(400)은 시설물 모니터링에 대한 기본 화면을 표출한다(S701). Referring to FIG. 7 , if there is no CCTV, the situation room terminal 400 displays a basic screen for facility monitoring (S701).

엣지 카메라(100)에서 유고상황 알람이 전송되면(S703), 유고상황 스틸사진과 수집된 정보를 표출한다(S705). 지도를 운영할 경우, 제어기(300)는 지도를 상황실 단말(400)에 표출하도록 하여 유고상황 발생지점을 위치정보를 통해 표출하도록 한다. When an emergency situation alarm is transmitted from the edge camera 100 (S703), a still picture and the collected information are displayed (S705). In the case of operating the map, the controller 300 displays the map on the situation room terminal 400 so that the point of occurrence of the accidental situation is expressed through the location information.

CCTV를 운영할 경우, 유고상황 현장의 실시간 CCTV 영상을 상황실 단말(400)의 화면에 표출하도록 한다(S707).When the CCTV is operated, the real-time CCTV image of the accident site is displayed on the screen of the situation room terminal 400 (S707).

도 8은 본 발명의 일 실시예에 따른 유고상황 사전 설정 과증을 보여주는 흐름도이다. 8 is a flowchart showing an excessive amount of pre-setting of an emergency situation according to an embodiment of the present invention.

도 8을 참조하면, 엣지 카메라(100)는 상황실 단말(400)과 네트워크 연결을 시도하고(S801), 상황실 단말(400)과 네트워크가 연결되면(S803), 사전에 유고상황을 설정하는 기능을 위하여 상황실 단말(400)에 유고상황 설정을 요청한다(S805).Referring to FIG. 8 , the edge camera 100 attempts to connect to the network with the control room terminal 400 (S801), and when the control room terminal 400 and the network are connected (S803), the function of setting an emergency situation in advance In order to do this, it requests the setting of an emergency situation to the situation room terminal 400 (S805).

그리고, 상황실 단말(400)에서 유고상황 설정 정보가 수신되면(S807), 이에 따라 엣지 카메라(100)의 운영이 시작된다(S809). 즉, 본 발명에서 엣지 카메라(100)는 상황실 단말(400)로부터 전송된 유고상황 설정 정보에 따라 유고상황의 발생 여부를 확인하고, 유고상황에 해당하는 경우에 한하여 해당 유고상황과 관련된 정보를 상황실 단말(400)로 전송할 수 있다.Then, when the emergency situation setting information is received from the situation room terminal 400 (S807), the operation of the edge camera 100 is started accordingly (S809). That is, in the present invention, the edge camera 100 checks whether an emergency situation has occurred according to the emergency situation setting information transmitted from the control room terminal 400, and, only in the case of an emergency situation, transmits information related to the emergency situation to the control room. It can be transmitted to the terminal 400 .

기존의 영상분석 또는 레이더 처리를 통해 유고 검지를 할 때는 방대한 양의 영상 및 레이더 자료처리를 별도의 제어부에서 처리해야 하지만, 본 발명에서 제안하는 본 발명의 영상 유고 감지 시스템은 엣지 컴퓨팅 기반의 엣지 카메라(100)가 일종의 유고 검지 센서로서의 역할을 수행하여 자체적으로 영상 처리를 수행한다. 즉, 본 발명의 엣지 카메라(100)는 내부적으로 영상처리를 수행하는 동시에 유고상황을 검지하는 센서장비로서의 역할을 수행한다. In case of detection of loss through conventional image analysis or radar processing, a large amount of image and radar data processing must be processed by a separate control unit. (100) performs the role of a kind of loss detection sensor to perform image processing by itself. That is, the edge camera 100 of the present invention performs an image processing internally and at the same time performs a role as a sensor device for detecting an emergency situation.

따라서, 사용자가 상황실 단말(400)을 통해 유고검지센서의 기능을 수행하는 엣지 카메라(100)에 유고상황을 설정하면, 엣지 카메라(100)는 해당 유고상황이 발생할 때에만 사용자에게 알람 및 추가 정보(지점, 시간, 스틸영상 등)를 제공할 수 있다. Therefore, when a user sets an emergency situation in the edge camera 100 that performs the function of the accident detection sensor through the situation room terminal 400, the edge camera 100 provides an alarm and additional information to the user only when a corresponding emergency situation occurs. (point, time, still image, etc.) can be provided.

본 발명에서 유고상황 설정은 환경에 따라 다양하게 설정할 수 있다. In the present invention, the setting of the emergency situation can be variously set according to the environment.

예를 들어, 도로의 경우, 역주행, 정차, 낙하물, 사람 등장, 동물 등장 등으로 유고상황을 설정할 수 있다. 등산로의 경우, 입산통제구역 사람 등장, 일정시간 동안 사람이 미동 없음, 산불 발생 등으로 유고상황을 설정할 수 있다. 자동차 전용도로의 경우, 오토바이 등장, 사람 등장 등으로 유고상황을 설정할 수 있다. For example, in the case of a road, the emergency situation may be set as reverse running, stopping, falling objects, people appearing, animals appearing, and the like. In the case of hiking trails, it is possible to set the situation of an accident such as the appearance of a person in the entry control zone, no movement of the person for a certain period of time, or the occurrence of a forest fire. In the case of an exclusive road for automobiles, it is possible to set the accidental situation by the appearance of a motorcycle or the appearance of a person.

도 9는 본 발명의 일 실시예에 따른 엣지 카메라에서의 유고상황 검지 방법을 보여주는 흐름도이다. 9 is a flowchart illustrating a method for detecting an accidental situation in an edge camera according to an embodiment of the present invention.

도 9를 참조하면, 엣지 카메라(100)는 실시간으로 촬영한 영상을 수집하고(S901), 수집한 영상에 대해 AI(Artificial Intelligence)를 이용한 영상 분석을 수행한다(S903).Referring to FIG. 9 , the edge camera 100 collects images captured in real time (S901), and performs image analysis using AI (Artificial Intelligence) on the collected images (S903).

그리고, 영상 분석에 의해 도출된 객체 속성값을 수집한다(S905).Then, object attribute values derived by image analysis are collected (S905).

그리고, 객체 속성값을 이용하여 유고상황 여부를 판단한다(S907). Then, it is determined whether there is an emergency situation using the object attribute value (S907).

유고상황이 발생한 것으로 판단되면(S909), 인접한 엣지 카메라에 유고상황 정보를 전파한다(S911). 또는 인접한 엣지 카메라로부터 유고상황 발생 정보를 수신하면, 이를 다시 인접한 엣지 카메라에 전파한다(S911).If it is determined that an emergency situation has occurred (S909), the information on the emergency situation is propagated to the adjacent edge camera (S911). Alternatively, upon receiving information on occurrence of an emergency situation from an adjacent edge camera, it is propagated to the adjacent edge camera again (S911).

본 발명에서 엣지 카메라(100)의 유고상황 감지 기술은 딥러닝(deep learning) 알고리즘을 이용한 영상 이미지 분류 기법을 기반으로 한다. 즉, 도로에 설치된 각각의 엣지 카메라(100)는 감시영역에서 변화가 발생하는 물체(object)를 검지하여 객체화(ID를 부여)하고, 각각의 객체이동을 추적하는 기능을 수행한다. In the present invention, the emergency detection technology of the edge camera 100 is based on a video image classification technique using a deep learning algorithm. That is, each edge camera 100 installed on the road detects an object that changes in the monitoring area, makes it an object (given an ID), and tracks the movement of each object.

이러한 객체 검지를 통해 하나의 엣지 카메라에서 인접한 엣지 카메라로 이동하는 객체를 연속적으로 검지 추적할 수 있다. Through such object detection, it is possible to continuously detect and track an object moving from one edge camera to an adjacent edge camera.

이러한 기능을 기반으로 하는 엣지 카메라에서의 유고상황 검지 기술은 각 객체의 위치, 형태(크기 및 색상), 이동속도, 존재유무 등의 정보를 통해 각각의 유고상황을 정의하고, 사용자 맞춤형 서비스를 제공할 수 있다. Based on these functions, the edge camera's emergency detection technology defines each emergency situation through information such as the location, shape (size and color), movement speed, and presence of each object, and provides customized services can do.

가장 대표적이라고 할 수 있는 도로에서의 유고상황을 예시하고, 본 발명의 엣지 카메라가 유고상황 검지를 위해 작동하는 알고리즘을 설명하기로 한다.The most representative oil condition on the road will be exemplified, and the algorithm that the edge camera of the present invention operates to detect the oil condition will be described.

도로에서의 유고상황으로는 다음과 같은 네 상황을 예시할 수 있다. The following four situations can be exemplified as a disaster situation on the road.

1. 차량정지 : 도로에서 사고 발생 또는 운전자 이상으로 차량이 정지하는 상황 검지1. Vehicle stop: Detecting a situation in which an accident occurs on the road or the vehicle stops due to an abnormality in the driver

2. 역주행: 도로의 역방향으로 주행하는 차량 검지2. Reverse Driving: Detecting a vehicle traveling in the reverse direction of the road

3. 사람 또는 동물 출연: 도로에 사람 및 산짐승 출연 검지3. Appearance of people or animals: the index finger of the appearance of people and animals on the road

4. 낙하물 검지: 도로에 떨어진 낙하물 검지4. Falling object detection: Detecting falling objects on the road

본 발명에서 객체검출에 사용되는 AI 영상 기술은 영상 학습을 기반으로 하는 객체검지 기술과, 영상 처리 기술을 이용한 객체검지 기술이다. The AI image technology used for object detection in the present invention is an object detection technology based on image learning and an object detection technology using an image processing technology.

영상학습을 기반으로 하는 객체검지 기술은 클래스(Class)로 분류된 다양한 객체 영상들에 대해 딥러닝 알고리즘을 통해 사전 학습을 진행하고, 학습 결과로 얻어진 알고리즘을 통해 차로에서 수집한 영상 중 대상 객체를 찾아내는 것이다. The object detection technology based on image learning conducts pre-learning through a deep learning algorithm for various object images classified into classes, and uses the algorithm obtained as a result of learning to detect the target object among the images collected from the road. will find it

본 발명에서 영상처리 기술을 이용한 객체검지 기술을 통해 각 객체의 크기, 형태, 색상, 위치 속성값을 검출해 낼 수 있다. 이 중에서 낙하물에 대한 범위는 너무 방대하기 때문에, 영상 후처리 기술을 이용하여 시간차이로 수집되는 영상의 차영상 이미지 추출 기법을 통해 낙하물 검지를 수행할 수 있다. In the present invention, it is possible to detect the size, shape, color, and position attribute values of each object through the object detection technology using the image processing technology. Among them, since the range for the falling object is too vast, it is possible to detect the falling object by using the image post-processing technique to extract the difference image of the image collected with the time difference.

도 10은 본 발명의 일 실시예에 따른 도로 상에서의 유고상황 검지를 위한 AI 영상 분석 기술을 설명하기 위한 예시도이다.10 is an exemplary diagram for explaining an AI image analysis technology for detecting an emergency situation on a road according to an embodiment of the present invention.

도 10을 참조하면, 엣지 카메라(100)는 사전에 수집한 영상 내에서 각 차로에 대한 영역을 설정하여, 객체가 검출되는 지점의 차로정보를 확보한다. Referring to FIG. 10 , the edge camera 100 secures lane information of a point at which an object is detected by setting an area for each lane in a previously collected image.

그리고, 수집된 실시간 영상에 대해 AI 영상분석기술을 통해 객체를 검출하고, 그 결과 각 속성값을 도출한다.Then, for the collected real-time image, an object is detected through AI image analysis technology, and as a result, each attribute value is derived.

속성값은 차로 번호를 나타내는 'Position_ID', 객체 구분을 나타내는 'Class_ID', 객체속도를 나타내는 '속도' 등으로 정의할 수 있다. Attribute values can be defined as 'Position_ID' indicating a lane number, 'Class_ID' indicating object classification, and 'speed' indicating object speed.

Position_ID는 1~n 차로 값이 설정될 수 있다. 예를 들어, 2차로의 경우, Position_ID의 값은 2이다.Position_ID may be set to a value in the range of 1 to n. For example, in the case of a secondary road, the value of Position_ID is 2.

Class_ID의 경우, 대형 차량은 BC, 중형 차량은 MC, 소형 차량은 SC, 오토바이는 MV, 사람은 HO, 짐승은 AO, 낙하물은 EO 등으로 분류하여 객체 속성값이 정의될 수 있다. In the case of Class_ID, object attribute values can be defined by classifying large vehicles into BC, medium vehicles as MC, small vehicles as SC, motorcycles as MV, humans as HO, animals as AO, and falling objects as EO.

속도의 경우, -m ~ +n (km/h)으로 객체 속성값이 정의될 수 있다. 예를 들어, 객체속도가 60km/h이면, 속도는 60으로 객체 속성값이 정의될 수 있다. 역주행의 경우 속도의 객체 속성값이 마이너스가 될 수 있다. In the case of speed, an object attribute value can be defined as -m ~ +n (km/h). For example, if the object speed is 60 km/h, the object property value may be defined as the speed 60. In the case of reverse driving, the object property value of speed may become negative.

도 10의 예시에서, 객체의 검출좌표를 통해 차로 정보를 확보한 후, 추적(tracking)하다가, 객체가 A~F 블록과 겹치면 해당 블록의 차로정보를 확정하여, Postion_ID의 객체 속성값을 도출할 수 있다. In the example of FIG. 10, after securing the vehicle information through the detection coordinates of the object and tracking, if the object overlaps blocks A to F, the lane information of the corresponding block is determined, and the object attribute value of Postion_ID is derived. can

예를 들어, 객체가 C블록과 D블록에 겹치면, 해당 객체가 2차로에 있는 것으로 판단하고, Position_ID의 객체 속성값을 2로 도출할 수 있다. For example, if an object overlaps block C and block D, it is determined that the object is in the second lane, and the object attribute value of Position_ID can be derived as 2.

그리고, 검출된 객체에 대해 AI 영상 분석을 실시하여 객체의 종류를 구분하고, 이를 통해 Class_ID의 객체 속성값을 도출할 수 있다. In addition, AI image analysis is performed on the detected object to classify the object type, and through this, an object attribute value of Class_ID can be derived.

예를 들어, 객체의 종류가 중형 차량인 경우, Class_ID의 객체 속성값을 MC로 도출할 수 있다. For example, when the type of object is a medium-sized vehicle, the object attribute value of Class_ID may be derived as MC.

그리고, 차로별 각 블록간 거리(AB, CD, EF)와 블록에서 검지된 시간을 통해 해당 객체의 속도를 산출하여, 속도의 객체 속성값을 도출할 수 있다. And, by calculating the speed of the object through the distance (AB, CD, EF) between blocks for each lane and the time detected in the block, it is possible to derive the object attribute value of the speed.

예를 들어, A블록과 B블록 간의 거리가 20.0m이고, 객체가 A블록에서 B블록으로 이동하는 경우, A블록에서 객체가 검지된 시간이 16시 10분 10초이고, B블록에서 객체가 검지된 시간이 16시 10분 12초라고 하면, 속도(m/s)는 20/2=10(m/s)이다. 이를 속도(km/h)로 변환하면, 속도는 36(km/h)이다. 따라서, 속도의 객체 속성값은 36이 도출된다. For example, if the distance between block A and block B is 20.0 m and an object moves from block A to block B, the time the object is detected in block A is 16:10:10, and the object in block B If the detected time is 16:10:12, the speed (m/s) is 20/2 = 10 (m/s). Converting this to speed (km/h), the speed is 36 (km/h). Accordingly, the object attribute value of velocity is 36 derived.

본 발명에서 엣지 카메라(100)는 이러한 객체 속성값을 도출하고, 도출된 객체 속성값을 통해 유고상황을 판단할 수 있다. In the present invention, the edge camera 100 may derive such an object property value, and determine the existence of an object through the derived object property value.

예를 들어, 엣지 카메라(100)는 객체 속성값을 통해 객체가 소형 차량임을 인지하고, 해당 객체가 1차로에 있음을 인지하고, 소형 차량의 속도가 0인 것을 인지할 수 있으며, 이를 통해 '차량 정지'의 유고상황이 발생한 것으로 검지할 수 있다. For example, the edge camera 100 may recognize that the object is a small vehicle through the object property value, recognize that the object is in the first lane, and recognize that the speed of the small vehicle is 0, through which ' It can be detected that an accidental situation of 'vehicle stop' has occurred.

또한, 엣지 카메라(100)는 객체 속성값을 통해 차량의 객체속도가 -이면 '역주행' 유고상황이 발생한 것으로 검지할 수 있다. Also, the edge camera 100 may detect that a 'reverse running' accident situation has occurred when the object speed of the vehicle is - through the object attribute value.

또한, 엣지 카메라(100)는 객체 속성값을 통해 객체가 사람 또는 동물인 것을 인지하고, 사람 또는 동물이 도로에 출연한 유고 상황을 검지할 수 있다. In addition, the edge camera 100 may recognize that the object is a person or an animal through the object attribute value, and detect a situation in which the person or the animal appears on the road.

또한, 엣지 카메라(100)는 객체 속성값을 통해 영상 후처리 기술을 이용하여 낙하물의 유고상황을 검지할 수 있다. In addition, the edge camera 100 may detect the presence or absence of a falling object using an image post-processing technology through an object attribute value.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.Although the present invention has been described above using several preferred embodiments, these examples are illustrative and not restrictive. Those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of the appended claims.

100 엣지 카메라 200 CCTV 카메라
300 제어기 400 상황실 단말
110 이미지 센서 120 영상수집 및 처리 보드
130 영상처리부 140 인코딩부
100 Edge Camera 200 CCTV Camera
300 Controller 400 Control Room Terminal
110 Image sensor 120 Image acquisition and processing board
130 Image processing unit 140 Encoding unit

Claims (7)

엣지 컴퓨팅 기반의 각 노드로 기능하는 카메라로서, 도로변에 소정 간격으로 설치되어 도로 상에 미리 설정된 유고 검지 영역을 촬영하고, 촬영된 영상을 수집하고, 수집된 영상을 분석하여 유고 상황의 발생 여부를 확인하고, 유고상황이 발생하면, 해당 차로의 유고상황과 관련된 정보를 수집하고, 수집된 정보를 상황실 단말로 전송하기 위한 엣지 카메라;
전체 유고 검지 영역을 촬영하기 위한 CCTV 카메라; 및
상황실에 설치된 단말로서, 상기 엣지 카메라로부터 전송된 정보를 표출하기 위한 상황실 단말을 포함하며,
상기 엣지 카메라는 상기 상황실 단말로부터 전송된 유고상황 설정 정보에 따라 유고상황의 발생 여부를 확인하고, 유고상황에 해당하는 경우에 한하여 해당 유고상황과 관련된 정보를 상기 상황실 단말로 전송하고,
상기 엣지 카메라는 유고 상항이 발생하면, 유고 발생 위치, 카메라 ID, 차로 정보, 유고 상황별 유형, 유고 상황 발생 시의 현장 사진을 포함하는 정보를 상기 상황실 단말로 전송하고,
상기 상황실 단말은 상기 정보를 수신하면, 유고 상황 알람을 표출하고, 수신한 정보를 화면에 표출하고,
상기 상황실 단말은 평상 시에 상기 CCTV 카메라에서 촬영된 영상을 표출하고,
상기 엣지 카메라로부터 유고상황 발생 정보를 수신하면, 해당 유고 발생 위치를 촬영하는 CCTV 카메라의 영상이 상기 상황실 단말에 확대하여 표출되도록 하는 제어기를 더 포함하고,
상기 제어기는 상기 상황실 단말에 유고 발생 위치가 표시된 지도가 함께 표출되도록 하고,
상기 제어기는 주기적으로 유고발생 여부를 검사하고, 유고상황이 발생하면, 유고상황이 발생한 카메라 ID에 해당하는 미리 설정된 프리셋 설정값을 적용하여 유고상황 모니터링을 위한 최적의 CCTV 영상을 수집하고,
상기 엣지 카메라는 멀티홉 라우팅 기능이 탑재되어 엣지 카메라 간에 무선통신이 가능하며, 유고 상황이 발생한 것으로 판단되면, 인접한 엣지 카메라에 유고상황 정보를 전파하고, 인접한 엣지 카메라로부터 유고상황 정보를 수신하면 이를 다시 다른 인접한 엣지 카메라에 전파하고,
상기 엣지 카메라는 수집한 영상에 대해 AI를 이용한 영상 분석을 수행하고, 영상 분석에 의해 객체 속성값을 도출하고, 도출된 객체 속성값을 이용하여 유고상황에 해당하는지 여부를 판단하되, 객체 속성값을 통해 객체가 차량임을 인지하고, 해당 차량의 속도가 0인 것을 인지하면, '차량 정지'의 유고상황이 발생한 것으로 검지하고, 객체 속성값을 통해 차량의 객체속도가 -이면 '역주행' 유고상황이 발생한 것으로 검지하고, 객체 속성값을 통해 객체가 사람 또는 동물인 것을 인지하면 사람 또는 동물이 도로에 출연한 유고 상황을 검지하고, 객체 속성값을 통해 영상 후처리 기술을 이용하여 낙하물의 유고상황을 검지하는 것을 특징으로 하는 영상 유고 감지 시스템.
As a camera that functions as each node based on edge computing, it is installed at a predetermined interval on the roadside to photograph a preset detection area on the road, collects the captured image, and analyzes the collected image to determine whether an accidental situation occurs. an edge camera for checking and collecting information related to the accident situation of the corresponding lane when an accident situation occurs, and transmitting the collected information to the situation room terminal;
CCTV camera for filming the entire oil and gas detection area; and
A terminal installed in a control room, comprising a control room terminal for displaying information transmitted from the edge camera,
The edge camera checks whether an emergency situation has occurred according to the emergency situation setting information transmitted from the situation room terminal, and transmits information related to the emergency situation to the situation room terminal only if it corresponds to the emergency situation,
When an accident occurs, the edge camera transmits information including the location of the accident, camera ID, lane information, type by accident situation, and a scene photo when an accident situation occurs to the situation room terminal,
When the situation room terminal receives the information, it displays an alarm of an emergency situation, and displays the received information on the screen,
The situation room terminal normally expresses the image captured by the CCTV camera,
Further comprising a controller that, when receiving the occurrence information of the occurrence of an accident from the edge camera, enlarges the image of the CCTV camera that captures the location of the occurrence of the accident and expands it to the terminal of the situation room,
The controller causes the situation room terminal to display a map showing the location of the occurrence of an accident,
The controller periodically inspects whether an accident occurs, and when an emergency situation occurs, a preset preset value corresponding to the camera ID in which the failure situation occurs is applied to collect the optimal CCTV image for monitoring the emergency situation,
The edge camera is equipped with a multi-hop routing function so that wireless communication between edge cameras is possible. propagate back to other adjacent edge cameras,
The edge camera performs image analysis using AI on the collected image, derives an object attribute value by image analysis, and determines whether it corresponds to an emergency situation using the derived object attribute value, but the object attribute value If it recognizes that the object is a vehicle through It is detected that this has occurred, and when it is recognized that the object is a person or an animal through the object property value, the status of the person or animal appearing on the road is detected, and the status of the falling object is detected using the image post-processing technology through the object property value. Image loss detection system, characterized in that for detecting the.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200103383A 2020-08-18 2020-08-18 System for detecting accident in road based on edge computing Active KR102321754B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200103383A KR102321754B1 (en) 2020-08-18 2020-08-18 System for detecting accident in road based on edge computing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200103383A KR102321754B1 (en) 2020-08-18 2020-08-18 System for detecting accident in road based on edge computing

Publications (1)

Publication Number Publication Date
KR102321754B1 true KR102321754B1 (en) 2021-11-04

Family

ID=78521492

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200103383A Active KR102321754B1 (en) 2020-08-18 2020-08-18 System for detecting accident in road based on edge computing

Country Status (1)

Country Link
KR (1) KR102321754B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114928714A (en) * 2022-04-06 2022-08-19 复旦大学 Security monitoring system based on edge calculation and multi-sensor combination and working method
KR102720236B1 (en) * 2024-02-26 2024-10-22 주식회사 건인티엔에스 Toad disaster management system based on digital twin using edge ai camera and method thereof
WO2025032367A1 (en) * 2023-08-10 2025-02-13 More Vinit Shamkant A road accident management system and method thereof
WO2025135550A1 (en) * 2023-12-21 2025-06-26 주식회사 아이나비시스템즈 Electronic device, and road event information processing method therefor

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100435003B1 (en) 2001-05-03 2004-06-09 주식회사 세인시스템 Method and apparatus for detecting traffic jams on the road
KR20050114916A (en) * 2004-06-02 2005-12-07 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
KR20060029250A (en) * 2006-02-13 2006-04-05 시우넷주식회사 Traffic accident and accident detection system in tunnel
KR100970503B1 (en) * 2010-01-12 2010-07-16 파워테크주식회사 Control method for facility by using a/v record device
KR101095528B1 (en) * 2009-04-30 2011-12-20 (주) 서돌 전자통신 Continuous flow detection and accident detection system and method
KR101944048B1 (en) * 2018-07-11 2019-01-30 메타빌드(주) Intelligence transport service system and method of the same
KR102008503B1 (en) * 2017-11-06 2019-10-21 전자부품연구원 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof
KR102045222B1 (en) * 2019-03-05 2019-12-02 사단법인 꿈드래장애인협회 System for sensing and control unexpected situation using data fusion

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100435003B1 (en) 2001-05-03 2004-06-09 주식회사 세인시스템 Method and apparatus for detecting traffic jams on the road
KR20050114916A (en) * 2004-06-02 2005-12-07 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
KR20060029250A (en) * 2006-02-13 2006-04-05 시우넷주식회사 Traffic accident and accident detection system in tunnel
KR101095528B1 (en) * 2009-04-30 2011-12-20 (주) 서돌 전자통신 Continuous flow detection and accident detection system and method
KR100970503B1 (en) * 2010-01-12 2010-07-16 파워테크주식회사 Control method for facility by using a/v record device
KR102008503B1 (en) * 2017-11-06 2019-10-21 전자부품연구원 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof
KR101944048B1 (en) * 2018-07-11 2019-01-30 메타빌드(주) Intelligence transport service system and method of the same
KR102045222B1 (en) * 2019-03-05 2019-12-02 사단법인 꿈드래장애인협회 System for sensing and control unexpected situation using data fusion

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114928714A (en) * 2022-04-06 2022-08-19 复旦大学 Security monitoring system based on edge calculation and multi-sensor combination and working method
WO2025032367A1 (en) * 2023-08-10 2025-02-13 More Vinit Shamkant A road accident management system and method thereof
WO2025135550A1 (en) * 2023-12-21 2025-06-26 주식회사 아이나비시스템즈 Electronic device, and road event information processing method therefor
KR102720236B1 (en) * 2024-02-26 2024-10-22 주식회사 건인티엔에스 Toad disaster management system based on digital twin using edge ai camera and method thereof

Similar Documents

Publication Publication Date Title
KR102321754B1 (en) System for detecting accident in road based on edge computing
KR101850286B1 (en) A deep learning based image recognition method for CCTV
KR102356666B1 (en) Method and apparatus for risk detection, prediction, and its correspondence for public safety based on multiple complex information
CN109345829B (en) Unmanned vehicle monitoring method, device, equipment and storage medium
KR101382873B1 (en) Forward Collision Warning System and Forward Collision Warning Method
US10922826B1 (en) Digital twin monitoring systems and methods
CN109960735A (en) people search system
KR101101860B1 (en) Real time traffic detection system
EP3523155A1 (en) Unexpected impulse change collision detector
US12166960B2 (en) Sensing performance evaluation and diagnosis system and sensing performance evaluation and diagnosis method for external-environment recognition sensor
KR101900237B1 (en) On-site judgment method using situation judgment data on acquired images
KR20200103194A (en) Method and system for abnormal situation monitoring based on video
CN113936465A (en) Traffic incident detection method and device
KR102111363B1 (en) Accident monitoring system in tunnel using camera grouping of IoT based
KR102456869B1 (en) System for smart managing traffic
Gasparini et al. Anomaly detection for vision-based railway inspection
KR20190078688A (en) Artificial intelligence-based parking recognition system
CN112257683A (en) Cross-mirror tracking method for vehicle running track monitoring
KR20100010734A (en) Monitoring system in railway station stereo camera and thermal camera and method thereof
KR20230112038A (en) A device that detects specific patterns in traffic conditions using artificial neural network
KR101814040B1 (en) An integrated surveillance device using 3D depth information focus control
KR101736431B1 (en) System and Method for Smart Traffic Monitoring Using Multiple Image
Choi et al. State Machine and Downhill Simplex Approach for Vision‐Based Nighttime Vehicle Detection
KR20150125266A (en) Incident monitoring system and method based on incident vehicle information
Malbog et al. PED-AI: pedestrian detection for autonomous vehicles using YOLOv5

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200818

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20200917

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20200818

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210113

Patent event code: PE09021S01D

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210525

Patent event code: PE09021S01D

PN2301 Change of applicant

Patent event date: 20210727

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20211007

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20211029

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20211029

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240930

Start annual number: 4

End annual number: 4