[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102340902B1 - Apparatus and method for monitoring school zone - Google Patents

Apparatus and method for monitoring school zone Download PDF

Info

Publication number
KR102340902B1
KR102340902B1 KR1020200181513A KR20200181513A KR102340902B1 KR 102340902 B1 KR102340902 B1 KR 102340902B1 KR 1020200181513 A KR1020200181513 A KR 1020200181513A KR 20200181513 A KR20200181513 A KR 20200181513A KR 102340902 B1 KR102340902 B1 KR 102340902B1
Authority
KR
South Korea
Prior art keywords
information
input image
school zone
vehicle
speed
Prior art date
Application number
KR1020200181513A
Other languages
Korean (ko)
Inventor
홍윤국
이기영
Original Assignee
주식회사 글로벌브릿지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 글로벌브릿지 filed Critical 주식회사 글로벌브릿지
Priority to KR1020200181513A priority Critical patent/KR102340902B1/en
Application granted granted Critical
Publication of KR102340902B1 publication Critical patent/KR102340902B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • G06K9/00369
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • G06K2209/15

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided is an edge computing device capable of accurately and quickly detecting dangerous situations in a school zone, and the edge computing device includes: an input interface configured to receive an input image captured by at least one camera for capturing the school zone; a video buffer configured to store the input image; at least one first processor configured to input the input image captured by the at least one camera to a first machine learning model to acquire, from the first machine learning model, vehicle information and speed information detected from the input image and to detect an over-speed event in which the detected speed information exceeds a speed reference value; and a first communication unit configured to communicate with a first remote device installed in a school and a second remote device installed to be spaced apart from an installation point of the camera by a first reference distance in a direction opposite to a vehicle traveling direction, wherein the at least one first processor controls the first communication unit to transmit at least one of the vehicle information, the speed information, over-speed information on the over-speed event, or the input image or a combination thereof to the first and second remote devices.

Description

스쿨존을 모니터링하는 장치 및 방법 {Apparatus and method for monitoring school zone}Apparatus and method for monitoring school zone}

본 개시의 실시예들은, 스쿨존을 모니터링하는 장치 및 방법에 관한 것이다. 본 개시의 실시예들은 엣지 컴퓨팅 장치, 스쿨존 모니터링 방법, 및 스쿨존을 모니터링하는 원격 장치를 개시한다.Embodiments of the present disclosure relate to an apparatus and method for monitoring a school zone. Embodiments of the present disclosure disclose an edge computing device, a school zone monitoring method, and a remote device for monitoring the school zone.

현재의 교통 상황 측정 관련 기술은 노면에 설치된 센서를 이용하여 구간 속도를 측정하는 방법, CCTV(closed-circuit television) 영상을 이용하는 방법 등을 이용하고 있다. 그런데 노면에 설치된 센서를 이용하여 구간 속도를 측정하는 경우, 센서의 설치 및 관리 비용이 높고, 차량 자체의 속도가 아닌 구간 속도를 제공하는 단점이 있다. CCTV 영상을 이용한 방식은, 관제 시스템에서 사람이 직접 영상을 보고 교통법규 위반 여부를 판단해야 하는 불편함이 있다. 또한, 드론을 활용한 무인 단속 시스템도 시행되고 있다. 드론을 이용하는 시스템의 경우, 드론을 고속도로 상공에 띄워, 드론을 이용한 교통법규 위반 행위 단속이 시행되었다. 드론을 이용한 방식에서는 드론을 통해 촬영된 영상을 보고 경찰관이 직접 교통 법규 위반 여부를 판단하여, 근처에 있는 동료 경찰관 순찰차에 연락하여 단속하는 방식으로 시행되었다. 드론을 활용한 방식은 경찰관이 직접 영상을 판독해야 하는 불편함이 있다. Current traffic condition measurement-related technologies use a method of measuring section speed using a sensor installed on the road surface, a method of using a closed-circuit television (CCTV) image, and the like. However, when measuring the section speed using a sensor installed on the road surface, there are disadvantages in that the installation and management cost of the sensor is high, and the section speed is provided rather than the speed of the vehicle itself. The method using CCTV images is inconvenient in that a person has to directly view the image in the control system and determine whether or not traffic laws are violated. In addition, an unmanned enforcement system using drones is being implemented. In the case of a system using drones, drones were floated over highways to crack down on traffic violations using drones. In the drone-based method, a police officer directly judges whether a traffic law is violated by looking at the video filmed by the drone, and then contacts a nearby fellow police officer's patrol car to crack down on it. The method using drones is inconvenient because police officers have to read the video themselves.

한편, 최근 스쿨존의 사고 방지를 위한 교통 시스템에 대한 요구가 있다. 스쿨존은 어린이 보호 구역으로 지정되어, 어린이들이 빈번하게 통행하는 구역으로, 운전자에게 스쿨존의 현재 상황에 대한 정보를 제공하는 것이 중요하다. 또한, 학교 등의 기관에서 스쿨존을 모니터링하기 위한 기술도 요구되고 있다.Meanwhile, there is a recent demand for a transportation system for preventing accidents in school zones. The school zone has been designated as a child protection zone, and it is an area frequented by children, so it is important to provide drivers with information about the current situation in the school zone. In addition, a technology for monitoring a school zone in an institution such as a school is also required.

본 개시의 실시예들은 스쿨존에서 정확하고 신속하게 위험 상황을 검출할 수 있는 엣지 컴퓨팅 장치, 스쿨존 모니터링 방법, 및 원격 장치를 제공하기 위한 것이다. SUMMARY Embodiments of the present disclosure provide an edge computing device capable of accurately and quickly detecting a dangerous situation in a school zone, a school zone monitoring method, and a remote device.

본 개시의 일 실시에의 일 측면에 따르면, 스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신하는 입력 인터페이스; 상기 입력 영상을 저장하는 비디오 버퍼; 상기 적어도 하나의 카메라에서 촬영된 입력 영상을 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델로부터 상기 입력 영상에서 검출된 차량 정보 및 속도 정보를 획득하고, 상기 검출된 속도 정보가 속도 기준 값을 초과하는 과속 이벤트를 검출하는 적어도 하나의 제1 프로세서; 및 학교에 설치된 제1 원격 장치, 및 상기 카메라의 설치 지점으로부터 제1 기준 거리만큼 차량 진행 방향의 반대 방향으로 이격되어 설치된 제2 원격 장치와 통신하는 제1 통신부를 포함하고, 상기 적어도 하나의 제1 프로세서는, 상기 제1 원격 장치 및 상기 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트에 대한 과속 이벤트 정보, 또는 상기 입력 영상 중 적어도 하나 또는 이들의 조합을 전송하도록 상기 제1 통신부를 제어하는, 엣지 컴퓨팅 장치가 제공된다.According to an aspect of an embodiment of the present disclosure, an input interface for receiving an input image photographed from at least one camera for photographing a school zone; a video buffer for storing the input image; The input image captured by the at least one camera is input to a first machine learning model, and vehicle information and speed information detected from the input image are obtained from the first machine learning model, and the detected speed information is a speed reference. at least one first processor to detect a speeding event exceeding a value; and a first communication unit configured to communicate with a first remote device installed in a school, and a second remote device installed to be spaced apart from the installation point of the camera in a direction opposite to the vehicle traveling direction by a first reference distance, wherein the at least one second 1 The processor is configured to transmit, to the first remote device and the second remote device, at least one or a combination of the vehicle information, the speed information, the speeding event information for the speeding event, or the input image. 1 An edge computing device for controlling a communication unit is provided.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 제1 프로세서는, 상기 제1 원격 장치로, 상기 입력 영상, 상기 차량 정보, 및 상기 속도 정보를 전송하고, 상기 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 및 상기 과속 이벤트 정보를 전송하도록 상기 제1 통신부를 제어할 수 있다.In addition, according to an embodiment of the present disclosure, the at least one first processor transmits the input image, the vehicle information, and the speed information to the first remote device, and to the second remote device, The first communication unit may be controlled to transmit the vehicle information, the speed information, and the speeding event information.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 제1 프로세서는, 상기 제1 기계학습 모델로부터, 상기 스쿨존의 보행자 수 정보를 획득하고, 상기 제1 원격 장치 및 상기 제2 원격 장치 중 적어도 하나로 상기 보행자 수 정보를 전송하도록 상기 제1 통신부를 제어할 수 있다.In addition, according to an embodiment of the present disclosure, the at least one first processor obtains, from the first machine learning model, information on the number of pedestrians in the school zone, and the first remote device and the second remote device It is possible to control the first communication unit to transmit the information on the number of pedestrians to at least one of them.

또한, 본 개시의 일 실시예에 따르면, 상기 제1 통신부는, 보행자 정보를 제공하는 제3 원격 장치와 통신하고, 상기 적어도 하나의 제1 프로세서는, 상기 제3 원격 장치로, 상기 보행자 정보를 전송할 수 있다.In addition, according to an embodiment of the present disclosure, the first communication unit communicates with a third remote device that provides pedestrian information, and the at least one first processor transmits the pedestrian information to the third remote device. can be transmitted

또한, 본 개시의 일 실시예에 따르면, 상기 제1 통신부는, BCDMA 통신 모듈을 포함하고, 상기 BCDMA 통신 모듈의 시리얼 포터를 통해, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트 정보를 전송하고, 이더넷 포터를 통해 상기 입력 영상을 전송할 수 있다.In addition, according to an embodiment of the present disclosure, the first communication unit includes a BCDMA communication module, and transmits the vehicle information, the speed information, and the speeding event information through the serial port of the BCDMA communication module, The input image may be transmitted through an Ethernet port.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 제1 프로세서는, 상기 입력 영상에서 검출된 차량의 번호판 영역 및 운전자 영역을 검출하고, 상기 번호판 영역 및 운전자 영역의 가시성을 감소시키는 영상 처리를 수행하여 개인 정보가 제거된 수정 입력 영상을 생성하고, 상기 제1 통신부를 통해 상기 수정 입력 영상을 전송할 수 있다.Also, according to an embodiment of the present disclosure, the at least one first processor detects a license plate area and a driver area of the vehicle detected from the input image, and image processing for reducing visibility of the license plate area and the driver area to generate a corrected input image from which personal information is removed, and transmit the corrected input image through the first communication unit.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 제1 프로세서는, 상기 제1 기계학습 모델로부터 획득된 상기 차량 정보 및 상기 속도 정보에 기초하여, 상기 스쿨존의 통행량 정보를 산출하고, 상기 제1 통신부를 통해 상기 통행량 정보를 상기 제1 원격 장치 또는 상기 제2 원격 장치로 전송할 수 있다.In addition, according to an embodiment of the present disclosure, the at least one first processor calculates the traffic amount information of the school zone based on the vehicle information and the speed information obtained from the first machine learning model, The traffic amount information may be transmitted to the first remote device or the second remote device through the first communication unit.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 카메라는, 상기 스쿨존의 각 차선마다 설치되고, 상기 적어도 하나의 제1 프로세서는, 상기 적어도 하나의 카메라로부터 획득된 각 차선 별 입력 영상에 기초하여, 차선 별 차량 정보 및 속도 정보를 획득할 수 있다.Also, according to an embodiment of the present disclosure, the at least one camera is installed for each lane of the school zone, and the at least one first processor includes an input image for each lane obtained from the at least one camera. Based on the , vehicle information and speed information for each lane may be acquired.

또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 제1 프로세서는, 상기 제1 통신부를 통해, 과속 이벤트가 검출된 경우, 검출된 과속 이벤트에 대응하는 상기 과속 이벤트 정보 및 상기 입력 영상을 원격 서버로 전송하고, 상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 차량 정보, 및 과속 이벤트 정보를 수신하고, 상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고, 상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델일 수 있다.In addition, according to an embodiment of the present disclosure, when a speeding event is detected through the first communication unit, the at least one first processor transmits the speeding event information and the input image corresponding to the detected speeding event. transmit to a remote server, and receive speed information, vehicle information, and speeding event information detected for the input image from the remote server, and the remote server uses a second machine learning model to obtain the speed information from the input image and acquiring the vehicle information, and the first machine learning model may be a machine learning model to which a bypass path is applied to at least one layer of the second machine learning model.

본 개시의 일 실시에의 다른 측면에 따르면, 스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신하는 단계; 상기 입력 영상을 저장하는 단계; 상기 적어도 하나의 카메라에서 촬영된 입력 영상을 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델로부터 상기 입력 영상에서 검출된 차량 정보 및 속도 정보를 획득하는 단계; 상기 검출된 속도 정보가 속도 기준 값을 초과하는 과속 이벤트를 검출하는 단계; 및 상기 적어도 하나의 제1 프로세서는, 학교에 설치된 제1 원격 장치 및 상기 카메라의 설치 지점으로부터 제1 기준 거리만큼 차량 진행 방향의 반대 방향으로 이격되어 설치된 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트에 대한 과속 이벤트 정보, 또는 상기 휴컴퓨팅 장치 제어 방법이 제공된다.According to another aspect of an embodiment of the present disclosure, receiving an input image photographed from at least one camera for photographing a school zone; storing the input image; inputting the input image captured by the at least one camera into a first machine learning model, and obtaining vehicle information and speed information detected from the input image from the first machine learning model; detecting a speeding event in which the detected speed information exceeds a speed reference value; and the at least one first processor is a first remote device installed in a school and a second remote device installed to be spaced apart from the installation point of the camera by a first reference distance in a direction opposite to the vehicle travel direction, the vehicle information, the Provided are speed information, speeding event information for the overspeeding event, or a method for controlling the Hue computing device.

본 개시의 일 실시에의 또 다른 측면에 따르면, 스쿨존에 설치된 적어도 하나의 카메라에서 촬영된 입력 영상을 수신하는 단계; 상기 입력 영상으로부터 검출된 차량 정보, 속도 정보, 및 보행자 정보를 원격의 엣지 컴퓨팅 장치로부터 수신하는 단계; 상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 및 상기 보행자 정보에 기초하여, 상기 스쿨존에 대한 모니터링 정보를 생성하는 단계; 상기 모니터링 정보를 적어도 하나의 클라이언트 장치로 전송하는 단계; 및 상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 상기 보행자 정보, 및 상기 모니터링 정보 중 적어도 하나를 원격 서버로 전송하는 단계를 포함하는, 스쿨존 모니터링 방법이 제공된다.According to another aspect of an embodiment of the present disclosure, receiving an input image photographed by at least one camera installed in the school zone; receiving vehicle information, speed information, and pedestrian information detected from the input image from a remote edge computing device; generating monitoring information for the school zone based on the input image, the vehicle information, the speed information, and the pedestrian information; transmitting the monitoring information to at least one client device; and transmitting at least one of the input image, the vehicle information, the speed information, the pedestrian information, and the monitoring information to a remote server.

또한, 본 개시의 일 실시예에 따르면, 상기 모니터링 정보는, 스쿨존 위험도 정보를 포함하고, 상기 보행자 정보는 보행자 수 정보를 포함하고, 상기 방법은, 상기 스쿨존의 차량 수를 산출하는 단계; 상기 스쿨존의 차량 수가 차량 수 기준 값을 초과하는지 여부 및 상기 스쿨존의 보행자 수가 보행자 수 기준 값을 초과하는지 여부에 기초하여, 스쿨존 위험도 정보를 산출하는 단계; 및 상기 스쿨존 위험도 정보에 기초하여, 교통 지도 가이드를 생성하여 출력하는 단계를 더 포함할 수 있다.Further, according to an embodiment of the present disclosure, the monitoring information includes school zone risk information, the pedestrian information includes information on the number of pedestrians, and the method includes: calculating the number of vehicles in the school zone; calculating school zone risk information based on whether the number of vehicles in the school zone exceeds a reference value for the number of vehicles and whether the number of pedestrians in the school zone exceeds a reference value for the number of pedestrians; and generating and outputting a traffic map guide based on the school zone risk information.

또한, 본 개시의 일 실시예에 따르면, 상기 교통 지도 가이드는, 지도 교사의 등하교 지도를 요청하는 제1 레벨 가이드, 및 교통 경찰의 교통 지도를 요청하는 제2 레벨 가이드를 포함할 수 있다.Also, according to an embodiment of the present disclosure, the traffic guidance guide may include a first-level guide that requests a teacher's guidance to and from school, and a second-level guide that requests a traffic map from a traffic police.

또한, 본 개시의 일 실시예에 따르면, 상기 방법은, 날씨 정보를 수집하는 단계; 및 시간 정보를 수집하는 단계를 더 포함하고, 상기 스쿨존 위험도 정보를 산출하는 단계는, 상기 날씨 정보 및 상기 시간 정보에 더 기초하여, 상기 스쿨존 위험도 정보를 산출할 수 있다.Further, according to an embodiment of the present disclosure, the method includes: collecting weather information; and collecting time information, wherein the calculating of the school zone risk information may further include calculating the school zone risk information based on the weather information and the time information.

또한, 본 개시의 일 실시예에 따르면, 상기 방법은, 최외곽 차선의 주정차 차량 수를 검출하는 단계; 및 상기 주정차 차량 수가 주정차 기준 값을 초과하는지 여부에 더 기초하여, 상기 스쿨존 위험도 정보를 산출하는 단계를 더 포함할 수 있다.Further, according to an embodiment of the present disclosure, the method may include: detecting the number of parked and stopped vehicles in an outermost lane; and calculating the school zone risk level information further based on whether the number of parked and stopped vehicles exceeds a parked and stopped reference value.

또한, 본 개시의 일 실시예에 따르면, 상기 엣지 컴퓨팅 장치는 상기 입력 영상으로부터 상기 차량 정보 및 상기 속도 정보를 생성하는 제1 기계학습 모델을 포함하고, 상기 방법은, 상기 엣지 컴퓨팅 장치로부터, 속도 기준 값을 초과하는 속도를 갖는 차량을 검출한 과속 이벤트 정보를 수신하는 단계; 상기 과속 이벤트 정보가 검출된 적어도 하나의 입력 영상을, 상기 원격 서버로 전송하는 단계; 상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 차량 정보, 및 과속 이벤트 정보를 수신하는 단계; 및 상기 원격 서버로부터 수신된 상기 속도 정보, 상기 차량 정보, 및 상기 과속 이벤트 정보로 상기 모니터링 정보를 업데이트하는 단계를 더 포함하고, 상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고, 상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델일 수 있다.Also, according to an embodiment of the present disclosure, the edge computing device includes a first machine learning model for generating the vehicle information and the speed information from the input image, and the method includes: receiving speeding event information in which a vehicle having a speed exceeding a reference value is detected; transmitting at least one input image in which the speeding event information is detected to the remote server; receiving speed information, vehicle information, and speeding event information detected with respect to the input image from the remote server; and updating the monitoring information with the speed information, the vehicle information, and the speeding event information received from the remote server, wherein the remote server receives the information from the input image using a second machine learning model. Acquire speed information and the vehicle information, and the first machine learning model may be a machine learning model to which a bypass path is applied to at least one layer of the second machine learning model.

본 개시의 일 실시에의 또 다른 측면에 따르면, 스쿨존에 설치된 적어도 하나의 카메라로부터 입력 영상을 수신하고, 상기 입력 영상으로부터 검출된 차량 정보, 속도 정보, 및 보행자 정보를 원격의 엣지 컴퓨팅 장치로부터 수신하는 통신부; 및 상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 및 상기 보행자 정보에 기초하여, 상기 스쿨존에 대한 모니터링 정보를 생성하고, 상기 통신부를 통해 상기 모니터링 정보를 적어도 하나의 클라이언트 단말로 전송하고, 상기 통신부를 통해, 상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 상기 보행자 정보, 및 상기 모니터링 정보 중 적어도 하나를 원격 서버로 전송하는 프로세서를 포함하는 스쿨존 모니터링 장치가 제공된다.According to another aspect of an embodiment of the present disclosure, receiving an input image from at least one camera installed in a school zone, and receiving vehicle information, speed information, and pedestrian information detected from the input image from a remote edge computing device a communication unit for receiving; and generating monitoring information for the school zone based on the input image, the vehicle information, the speed information, and the pedestrian information, and transmitting the monitoring information to at least one client terminal through the communication unit, A school zone monitoring apparatus including a processor for transmitting at least one of the input image, the vehicle information, the speed information, the pedestrian information, and the monitoring information to a remote server through a communication unit is provided.

또한, 본 개시의 일 실시예에 따르면, 상기 엣지 컴퓨팅 장치는 상기 입력 영상으로부터 상기 차량 정보 및 상기 속도 정보를 생성하는 제1 기계학습 모델을 포함하고, 상기 제2 프로세서는, 상기 엣지 컴퓨팅 장치로부터, 속도 기준 값을 초과하는 속도를 갖는 차량을 검출한 과속 이벤트 정보를 수신하고, 상기 과속 이벤트 정보가 검출된 적어도 하나의 입력 영상을, 상기 원격 서버로 전송하고, 상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 보행자 정보, 및 과속 이벤트 정보를 수신하고, 상기 원격 서버로부터 수신된 상기 속도 정보, 상기 차량 정보, 및 상기 과속 이벤트 정보로 상기 모니터링 정보를 업데이트하고, 상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고, 상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델일 수 있다.Also, according to an embodiment of the present disclosure, the edge computing device includes a first machine learning model that generates the vehicle information and the speed information from the input image, and the second processor is , Receives overspeed event information for detecting a vehicle having a speed exceeding a speed reference value, transmits at least one input image in which the speeding event information is detected, to the remote server, and from the remote server to the input image Receives the detected speed information, pedestrian information, and speeding event information, and updates the monitoring information with the speed information, the vehicle information, and the speeding event information received from the remote server, and the remote server includes a second Obtaining the speed information and the vehicle information from the input image by using a machine learning model, and the first machine learning model is a machine learning model in which a bypass path is applied to at least one layer of the second machine learning model can

본 개시의 실시예들에 따르면, 스쿨존에서 정확하고 신속하게 위험 상황을 검출할 수 있는 엣지 컴퓨팅 장치, 스쿨존 모니터링 방법, 및 원격 장치를 제공하기 위할 수 있는 효과가 있다.According to embodiments of the present disclosure, there is an effect that can provide an edge computing device, a school zone monitoring method, and a remote device capable of accurately and quickly detecting a dangerous situation in a school zone.

도 1은 본 개시의 일 실시예에 따른 스쿨존 모니터링 시스템을 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치, 제1 원격 장치, 제2 원격 장치, 및 제3 원격 장치의 구조를 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 BCDMA 모듈의 구조를 나타낸 도면이다.
도 4는 본 개시의 일 실시예에 따라 엣지 컴퓨팅 장치에서 입력 영상을 처리하는 과정을 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치, 카메라, 및 원격 장치를 나타낸 도면이다.
도 6은 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치의 제어 방법을 나타낸 도면이다.
도 7는 본 개시의 일 실시 예에 따른 엣지 컴퓨팅 장치의 구조를 나타낸 도면이다.
도 8는 본 개시의 일 실시 예에 따른 제1 프로세서의 구조를 나타낸 도면이다.
도 9는 본 개시의 일 실시 예에 따른 영상 처리 과정을 나타낸 도면이다.
도 10은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 처리를 나타낸 도면이다.
도 11은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 처리 과정을 나타낸 도면이다.
도 12은 본 개시의 일 실시 예에 따른 객체 검출 처리를 설명하기 위한 도면이다.
도 13는 본 개시의 일 실시 예에 따른 객체 검출 처리(914)를 나타낸 도면이다.
도 14는 본 개시의 일 실시 예에 따른 트래클렛 정보 생성 처리를 설명하기 위한 도면이다.
도 15은 본 개시의 일 실시 예에 따른 트래클렛 네트워크의 구조를 나타낸 도면이다.
도 16은 본 개시의 일 실시 예에 따른 그래프 모델을 나타낸 도면이다.
도 17는 본 개시의 일 실시 예에 따라 객체 간의 관련성을 산출하는 처리를 나타낸 도면이다.
도 18은 본 개시의 일 실시 예에 따른 그래프 모델 생성 처리 및 클러스터링 처리를 나타낸 도면이다.
도 19는 본 개시의 일 실시 예에 따른 결과 영상을 나타낸 도면이다.
도 20은 본 개시의 일 실시예에 따른 스쿨존 모니터링 시스템의 구조를 나타낸 도면이다.
도 21은 본 개시의 일 실시예에 따른 스쿨존 모니터링 방법을 나타낸 흐름도이다.
도 22는 본 개시의 일 실시예에 따른 스쿨존 위험도 정보 및 교통 지도 가이드의 생성 과정을 나타낸 도면이다.
도 23은 본 개시의 일 실시예에 따라, 스쿨존 환경 정보로부터 스쿨존 위험도 정보 및 교통 지도 가이드를 생성하는 과정을 설명하는 도면이다.
1 is a view showing a school zone monitoring system according to an embodiment of the present disclosure.
2 is a diagram illustrating structures of an edge computing device, a first remote device, a second remote device, and a third remote device according to an embodiment of the present disclosure.
3 is a diagram showing the structure of a BCDMA module according to an embodiment of the present disclosure.
4 is a diagram illustrating a process of processing an input image in an edge computing device according to an embodiment of the present disclosure.
5 is a diagram illustrating an edge computing device, a camera, and a remote device according to an embodiment of the present disclosure.
6 is a diagram illustrating a control method of an edge computing device according to an embodiment of the present disclosure.
7 is a diagram illustrating a structure of an edge computing device according to an embodiment of the present disclosure.
8 is a diagram illustrating a structure of a first processor according to an embodiment of the present disclosure.
9 is a diagram illustrating an image processing process according to an embodiment of the present disclosure.
10 is a diagram illustrating a camera calibration process according to an embodiment of the present disclosure.
11 is a diagram illustrating a camera calibration process according to an embodiment of the present disclosure.
12 is a diagram for describing an object detection process according to an embodiment of the present disclosure.
13 is a diagram illustrating an object detection process 914 according to an embodiment of the present disclosure.
14 is a diagram for describing a tracklet information generation process according to an embodiment of the present disclosure.
15 is a diagram illustrating the structure of a tracklet network according to an embodiment of the present disclosure.
16 is a diagram illustrating a graph model according to an embodiment of the present disclosure.
17 is a diagram illustrating a process of calculating a relation between objects according to an embodiment of the present disclosure.
18 is a diagram illustrating a graph model generation process and a clustering process according to an embodiment of the present disclosure.
19 is a diagram illustrating a result image according to an embodiment of the present disclosure.
20 is a diagram showing the structure of a school zone monitoring system according to an embodiment of the present disclosure.
21 is a flowchart illustrating a school zone monitoring method according to an embodiment of the present disclosure.
22 is a diagram illustrating a process of generating school zone risk information and a traffic map guide according to an embodiment of the present disclosure.
23 is a view for explaining a process of generating school zone risk information and a traffic map guide from school zone environment information, according to an embodiment of the present disclosure.

본 명세서는 본 개시의 청구항의 권리범위를 명확히 하고, 본 개시의 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자가 본 개시의 실시 예들을 실시할 수 있도록, 본 개시의 실시 예들의 원리를 설명하고, 실시 예들을 개시한다. 개시된 실시 예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the claims of the present disclosure, and describes the principles of the embodiments of the present disclosure so that those of ordinary skill in the art to which the embodiments of the present disclosure pertain can practice the embodiments of the present disclosure and discloses embodiments. The disclosed embodiments may be implemented in various forms.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 개시의 실시 예들이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 개시의 실시 예들, 및 실시 예들의 작용 원리에 대해 설명한다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the embodiments of the present disclosure pertain or overlapping between the embodiments will be omitted. As used herein, the term 'part' (part, portion) may be implemented in software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or one 'part' It is also possible that ' includes a plurality of elements. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure, and the principle of operation of the embodiments will be described.

도 1은 본 개시의 일 실시예에 따른 스쿨존 모니터링 시스템을 나타낸 도면이다.1 is a view showing a school zone monitoring system according to an embodiment of the present disclosure.

스쿨존은 유치원이나 초등학교 주변에 설치한 어린이 보호 구역으로, 학교 정문에서 300미터 이내의 통학로를 의미한다. 스쿨존에서는 어린이들을 보호하고 교통사고로 인한 피해를 줄이기 위해 안전 표지와 도로 반사경, 과속 방지턱 등이 설치된다. 또한, 자동차는 스쿨존 안에서 주차나 정차를 할 수 없고, 시속 30킬로미터 이하로 속도가 제한된다. A school zone is a children's protection area installed around a kindergarten or elementary school, and it means a commuter path within 300 meters from the school's main gate. Safety signs, road reflectors, and speed bumps are installed in school zones to protect children and reduce damage from traffic accidents. Also, vehicles cannot be parked or stopped within the school zone, and the speed is limited to 30 km/h or less.

스쿨존에서는 학교, 경찰, 운전자 등 다양한 주체에 의해 스쿨존 안전을 위한 조치가 취해진다. 학교는 스쿨존에서의 어린이 안전을 위해, 녹색 어머니회를 운영하고, 교직원 또는 교사에 의해 어린이 안전을 위한 지도 활동을 한다. 경찰은 스쿨존 안전을 위해 통학 시간대에 교통 경찰을 스쿨존에 파견하여, 스쿨존에서의 교통 정리를 수행하고, 어린이 안전을 위한 지도 활동을 한다. 운전자는 어린이 보호 구역에 적용되는 속도 제한, 주정차 금지 등의 교통 법규를 준수하고, 어린이 보호를 위해 전방 주시 등의 주의 의무를 기울인다. In school zones, measures are taken for school zone safety by various entities such as schools, police, and drivers. For the safety of children in the school zone, the school operates the Green Mothers Association, and conducts guidance activities for child safety by faculty or teachers. For the safety of the school zone, the police dispatch traffic police to the school zone during commuting hours to organize traffic in the school zone and provide guidance for children's safety. Drivers must comply with traffic laws such as speed limits and parking bans applied to child protection zones, and pay attention to forward attention to protect children.

본 개시의 실시예들은 스쿨존 모니터링 시스템(100)을 개시한다. 스쿨존 모니터링 시스템(100)은 엣지 컴퓨팅 장치(110), 제1 원격 장치(120), 원격 서버(130), 제2 원격 장치(140), 및 제3 원격 장치(150)를 포함한다. Embodiments of the present disclosure disclose a school zone monitoring system (100). The school zone monitoring system 100 includes an edge computing device 110 , a first remote device 120 , a remote server 130 , a second remote device 140 , and a third remote device 150 .

엣지 컴퓨팅 장치(110), 제2 원격 장치(140), 및 제3 원격 장치(150)는 스쿨존 내에 배치된다. 엣지 컴퓨팅 장치(110)는 카메라를 포함하거나, 카메라와 인접하게 배치된다. 제2 원격 장치(140)와 제3 원격 장치(150)는 엣지 컴퓨팅 장치(110)로부터 소정 거리만큼 이격되어 배치된다. The edge computing device 110 , the second remote device 140 , and the third remote device 150 are disposed within the school zone. The edge computing device 110 includes a camera or is disposed adjacent to the camera. The second remote device 140 and the third remote device 150 are disposed to be spaced apart from the edge computing device 110 by a predetermined distance.

엣지 컴퓨팅 장치(110)는 입력 영상을 처리하는 전자 장치에 대응된다. 엣지 컴퓨팅 장치(110)는 스쿨존의 소정의 구조물 내에 배치될 수 있다.The edge computing device 110 corresponds to an electronic device that processes an input image. The edge computing device 110 may be disposed in a predetermined structure of the school zone.

제2 원격 장치(140)는 차량 진행 방향의 반대 방향으로 엣지 컴퓨팅 장치(110)로부터 이격되어 배치된다. 제2 원격 장치(140)는 제한 속도, 검출된 차량의 속도, 차량 번호 등의 정보를 표시한다. 제2 원격 장치(140)는 교통 표지판의 형태로 구현될 수 있고, 교통 표지판 내에 내장된 회로 박스의 형태로 구현될 수 있다. 제2 원격 장치(140)는 차량의 안전 거리를 고려하여 엣지 컴퓨팅 장치(110)로부터 이격되어 배치되며, 예를 들면, 엣지 컴퓨팅 장치(110)로부터 20m 이격되어 배치될 수 있다. The second remote device 140 is disposed to be spaced apart from the edge computing device 110 in a direction opposite to the vehicle traveling direction. The second remote device 140 displays information such as a speed limit, a detected speed of a vehicle, and a vehicle number. The second remote device 140 may be implemented in the form of a traffic sign, or may be implemented in the form of a circuit box embedded in the traffic sign. The second remote device 140 is disposed to be spaced apart from the edge computing device 110 in consideration of the safety distance of the vehicle, for example, may be disposed to be spaced apart from the edge computing device 110 by 20 m.

제3 원격 장치(150)는 차량 진행 방향의 반대 방향으로 엣지 컴퓨팅 장치(110)로부터 이격되어 배치된다. 제3 원격 장치(150)는 교통 표시판의 형태로 구현될 수 있고, 교통 표지판 내에 내장된 회로 박스의 형태로 구현될 수 있다. 제3 원격 장치(140)는 엣지 컴퓨팅 장치(110)에 의해 검출된 보행자 정보를 디스플레이한다. 제3 원격 장치(140)는 차량의 안전 거리를 고려하여 엣지 컴퓨팅 장치(110)로부터 이격되어 배치되며, 예를 들면, 엣지 컴퓨팅 장치(110)로부터 20m 이격되어 배치될 수 있다. The third remote device 150 is disposed to be spaced apart from the edge computing device 110 in a direction opposite to the vehicle traveling direction. The third remote device 150 may be implemented in the form of a traffic sign board, or may be implemented in the form of a circuit box embedded in the traffic sign. The third remote device 140 displays the pedestrian information detected by the edge computing device 110 . The third remote device 140 is disposed to be spaced apart from the edge computing device 110 in consideration of the safety distance of the vehicle, for example, may be disposed to be spaced apart from the edge computing device 110 by 20 m.

제1 원격 장치(120)는 학교(20)에 배치되고, 클라이언트 장치(122)와 통신한다. 클라이언트 장치(122)는 교사, 교직원, 보안관 등 학교에 관련된 주체에 의해 소지되는 장치로서, 휴대 전화, 태블릿 PC, 데스크톱 PC, 랩톱 PC 등의 다양한 전자 장치의 형태로 구현될 수 있다. 제1 원격 장치(120)는 엣지 컴퓨팅 장치(110)와 통신하고, 엣지 컴퓨팅 장치(110)로부터 입력 영상, 차량 정보, 속도 정보, 및 차선 정보 중 적어도 하나 또는 이들의 조합을 수신한다. 제1 원격 장치(120)는 스쿨존에 대한 모니터링 정보를 생성하여, 모니터링 정보를 클라이언트 장치(122)로 전송한다.A first remote device 120 is deployed at the school 20 and communicates with a client device 122 . The client device 122 is a device possessed by a school-related entity, such as a teacher, school staff, or sheriff, and may be implemented in the form of various electronic devices, such as a mobile phone, a tablet PC, a desktop PC, and a laptop PC. The first remote device 120 communicates with the edge computing device 110 and receives at least one or a combination of an input image, vehicle information, speed information, and lane information from the edge computing device 110 . The first remote device 120 generates monitoring information for the school zone and transmits the monitoring information to the client device 122 .

원격 서버(130)는 스쿨존에 대한 정보를 수집하는 서버로 제1 원격 장치(120)와 네트워크(160)를 통해 연결된다. 원격 서버(130)는 소정의 서버 장치 또는 클라우드 서버에 대응될 수 있다. 원격 서버(130)는 제1 원격 장치(120)로부터 입력 영상, 속도 정보, 차량 정보, 또는 이벤트 정보 중 적어도 하나 또는 이들의 조합을 수신할 수 있다.The remote server 130 is a server that collects school zone information and is connected to the first remote device 120 through the network 160 . The remote server 130 may correspond to a predetermined server device or a cloud server. The remote server 130 may receive at least one of an input image, speed information, vehicle information, and event information or a combination thereof from the first remote device 120 .

일 실시예에 따르면, 원격 서버(130)는 엣지 컴퓨팅 장치(110)와 통신할 수 있다. 원격 서버(130)는 엣지 컴퓨팅 장치(110)로부터 이벤트 정보, 입력 영상, 속도 정보, 및 차량 정보를 수신하고, 이벤트 정보에 대한 검증을 수행할 수 있다. 이벤트 정보에 대한 검증에 대한 구성은 아래에서 상세히 설명한다. According to an embodiment, the remote server 130 may communicate with the edge computing device 110 . The remote server 130 may receive event information, an input image, speed information, and vehicle information from the edge computing device 110 , and may verify the event information. The configuration for verification of event information will be described in detail below.

도 2는 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치, 제1 원격 장치, 제2 원격 장치, 및 제3 원격 장치의 구조를 나타낸 도면이다.2 is a diagram illustrating structures of an edge computing device, a first remote device, a second remote device, and a third remote device according to an embodiment of the present disclosure.

엣지 컴퓨팅 장치(110)는 제1 프로세서(210), 입력 인터페이스(214), 비디오 버퍼(216), 및 제1 통신부(218)를 포함한다. 제1 프로세서(210)는 제1 기계학습 모델(212)을 실행하여 제1 기계학습 모델(212)의 동작을 수행한다. The edge computing device 110 includes a first processor 210 , an input interface 214 , a video buffer 216 , and a first communication unit 218 . The first processor 210 executes the first machine learning model 212 to perform the operation of the first machine learning model 212 .

제1 프로세서(210)는 엣지 컴퓨팅 장치(110) 전반의 동작을 제어한다. 제1 프로세서(210)는 하나 또는 그 이상의 프로세서로 구현될 수 있다. 제1 프로세서(210)는 메모리에 저장된 인스트럭션 또는 커맨드를 실행하여 소정의 동작을 수행할 수 있다.The first processor 210 controls the overall operation of the edge computing device 110 . The first processor 210 may be implemented as one or more processors. The first processor 210 may execute an instruction or a command stored in the memory to perform a predetermined operation.

제1 기계학습 모델(212)은 심층 신경망(Deep neural network) 모델을 포함한다. 일 실시예에 따르면, 심층 신경망 모델은 메모리에 저장된 컴퓨터 프로그램을 실행하여 제1 프로세서(210) 내에서 동작할 수 있다. 예를 들면, 심층 신경망 모델은 제1 프로세서(210) 내의 소프트웨어 모듈로 구현될 수 있다. 다른 실시예에 따르면, 제1 프로세서(210)는 심층 신경망 모델을 실행시키는 별도의 전용 프로세서를 구비할 수 있다. The first machine learning model 212 includes a deep neural network model. According to an embodiment, the deep neural network model may be operated in the first processor 210 by executing a computer program stored in the memory. For example, the deep neural network model may be implemented as a software module in the first processor 210 . According to another embodiment, the first processor 210 may include a separate dedicated processor for executing the deep neural network model.

다른 실시예에 따르면, 제1 프로세서(210)는 서버 등의 외부 장치에서 동작하는 심층 신경망 모델을 이용할 수 있다. 이러한 경우, 제1 프로세서(210)는 심층 신경망 모델로 입력될 입력 영상을 외부 장치로 전송하고, 외부 장치로부터 심층 신경망 모델의 출력을 수신할 수 있다. 이를 위해, 제1 프로세서(210)는 영상 엣지 컴퓨팅 장치(110)에 구비된 제1 통신부(218)를 이용하여 외부 장치와 통신할 수 있다.According to another embodiment, the first processor 210 may use a deep neural network model operating in an external device such as a server. In this case, the first processor 210 may transmit an input image to be input to the deep neural network model to an external device and receive an output of the deep neural network model from the external device. To this end, the first processor 210 may communicate with an external device using the first communication unit 218 provided in the image edge computing device 110 .

제1 기계학습 모델(212)은 하나 이상의 노드 및 노드들 간의 연산 규칙에 기초하여 트레이닝 데이터를 이용하여 학습될 수 있다. 노드의 구조, 레이어의 구조, 및 노드들 간의 연산 규칙은 실시예에 따라 다양하게 결정될 수 있다. 제1 기계학습 모델(212)은 하나 이상의 프로세서, 메모리, 레지스터, 합산 처리부, 또는 곱셈 처리부 등의 하드웨어 리소스를 포함하고, 각 하드웨어 리소스에 적용되는 파라미터 세트에 기초하여 하드웨어 리소스를 동작시킨다. 이를 위해, 제1 기계학습 모델(212)을 동작시키는 제1 프로세서(210)는 제1 기계학습 모델(212)의 각 동작에 대해 하드웨어 리소스를 할당하는 태스크 또는 리소스 관리 처리를 수행할 수 있다. 제1 기계학습 모델(212)은 예를 들면, RNN(Recurrent Neural Network), LSTM(Long Short-Term Memory) 등의 구조를 가질 수 있다. The first machine learning model 212 may be learned using training data based on one or more nodes and an operation rule between nodes. A node structure, a layer structure, and an operation rule between nodes may be variously determined according to an embodiment. The first machine learning model 212 includes hardware resources such as one or more processors, memories, registers, summation processing units, or multiplication processing units, and operates the hardware resources based on a parameter set applied to each hardware resource. To this end, the first processor 210 operating the first machine learning model 212 may perform a task of allocating hardware resources or resource management processing for each operation of the first machine learning model 212 . The first machine learning model 212 may have, for example, a structure such as a recurrent neural network (RNN), a long short-term memory (LSTM), or the like.

제1 프로세서(210)는 입력 영상을 입력 받아, 입력 영상의 적어도 일부의 프레임으로부터 차량에 대응하는 객체를 검출하고, 검출된 차량의 속도 정보를 생성한다. 제1 프로세서(210)는 제1 기계학습 모델(212)을 실행하여, 객체의 식별 정보 및 객체의 속도 정보를 생성한다. 일 실시예에 따르면, 제1 프로세서(210)는 입력 영상의 제1 프레임 레이트보다 낮은 제2 프레임 레이트로 입력 동영상의 프레임을 샘플링하여, 제1 기계학습 모델에 입력할 수 있다. 또한, 제1 프로세서(210)는 객체의 속도가 제1 기준 값을 초과하는 이벤트를 검출하여, 과속 이벤트 정보를 생성한다. The first processor 210 receives the input image, detects an object corresponding to the vehicle from at least some frames of the input image, and generates detected vehicle speed information. The first processor 210 executes the first machine learning model 212 to generate object identification information and object speed information. According to an embodiment, the first processor 210 may sample the frame of the input video at a second frame rate lower than the first frame rate of the input image, and input it to the first machine learning model. Also, the first processor 210 detects an event in which the speed of the object exceeds the first reference value, and generates overspeed event information.

과속 이벤트 정보는 객체의 속도가 제1 기준 값 또는 제2 기준 값을 초과하는 객체를 검출하였는지 여부를 나타내는 정보이다. 과속 이벤트 정보는 객체에 대한 정보, 과속 이벤트가 발생한 프레임에 대한 정보, 및 검출된 속도 정보를 포함할 수 있다. 과속 이벤트 정보는 과속 이벤트를 검출하였음을 나타내는 이벤트 검출 정보, 및 과속 이벤트가 검출되지 않았음을 나타내는 이벤트 미검출 정보를 포함할 수 있다. 과속 이벤트 정보는 각 프레임마다 생성될 수 있다. 객체에 대한 정보는 예를 들면, 프레임 내에서 객체에 대응하는 영역의 좌표, 가로 길이, 및 세로 길이에 대한 정보를 포함할 수 있다. 과속 이벤트가 발생한 프레임에 대한 정보는 프레임 번호, 또는 프레임에 대응하는 시간 등의 정보를 포함할 수 있다. The overspeed event information is information indicating whether an object having a speed exceeding a first reference value or a second reference value is detected. The speeding event information may include information on an object, information on a frame in which a speeding event occurs, and detected speed information. The speeding event information may include event detection information indicating that a speeding event is detected and event non-detection information indicating that a speeding event is not detected. The speeding event information may be generated for each frame. The information about the object may include, for example, information about coordinates, a horizontal length, and a vertical length of a region corresponding to the object in the frame. The information on the frame in which the speeding event occurs may include information such as a frame number or a time corresponding to the frame.

일 실시예에 따르면, 제1 프로세서(210)는 입력 영상으로부터 차량 정보를 생성한다. 제1 프로세서(210)는 객체 인식 알고리즘 또는 문자 인식 알고리즘을 이용하여 입력 영상으로부터 차량 정보를 획득한다. 차량 정보는 예를 들면, 차종, 번호판, 또는 차량 모델 중 적어도 하나 또는 이들의 조합을 포함한다.According to an embodiment, the first processor 210 generates vehicle information from an input image. The first processor 210 obtains vehicle information from the input image using an object recognition algorithm or a text recognition algorithm. The vehicle information includes, for example, at least one of a vehicle model, a license plate, and a vehicle model, or a combination thereof.

일 실시예에 따르면, 제1 프로세서(210)는 입력 영상으로부터 보행자 정보를 생성한다. 제1 프로세서(210)는 입력 영상을 제1 기계학습 모델(212)에 입력하여 보행자 정보를 획득할 수 있다. 보행자 정보는 입력 영상 내에서 검출된 보행자에 대응하는 영역 정보를 나타낸다. 제1 프로세서(210)는 제1 기계학습 모델(212)에서 출력된 보행자 정보에 기초하여 보행자 수, 보행자 밀집도 등의 추가 정보를 생성할 수 있다.According to an embodiment, the first processor 210 generates pedestrian information from the input image. The first processor 210 may obtain pedestrian information by inputting the input image to the first machine learning model 212 . The pedestrian information represents area information corresponding to the pedestrian detected in the input image. The first processor 210 may generate additional information such as the number of pedestrians and the density of pedestrians based on the pedestrian information output from the first machine learning model 212 .

입력 인터페이스(214)는 스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신한다. 일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 엣지 컴퓨팅 장치(110) 내에 카메라를 구비할 수 있다. 이러한 경우, 입력 인터페이스(214)는 엣지 컴퓨팅 장치(110)에 내장된 카메라로부터 입력 영상을 수신한다. 다른 실시예에 따르면, 엣지 컴퓨팅 장치(110) 외부에 배치된 카메라와 연결되어, 입력 인터페이스(214)를 통해 입력 영상을 수신할 수 있다. 이러한 경우, The input interface 214 receives an input image photographed from at least one camera for photographing the school zone. According to an embodiment, the edge computing device 110 may include a camera in the edge computing device 110 . In this case, the input interface 214 receives an input image from a camera built into the edge computing device 110 . According to another embodiment, it may be connected to a camera disposed outside the edge computing device 110 to receive an input image through the input interface 214 . In this case,

카메라는 스쿨존을 촬영하여, 촬영된 영상 데이터를 엣지 컴퓨팅 장치(110)로 전송한다. 카메라는 스쿨존을 촬영하도록 FOV(Field of View)가 설정되어 배치된다. 일 실시예에 따르면, 카메라는 기존의 CCTV 카메라에 대응될 수 있다. The camera captures the school zone and transmits the captured image data to the edge computing device 110 . The camera is placed with a Field of View (FOV) set to take pictures of the school zone. According to an embodiment, the camera may correspond to an existing CCTV camera.

스쿨존 모니터링 시스템(100)은 하나 또는 복수의 카메라를 포함할 수 있다. 일 실시예에 따르면, 스쿨존 모니터링 시스템(100)은 스쿨존의 차도의 주행 중인 차량을 촬영하는 제1 카메라와, 횡단보도를 향해 주행 중인 차량의 정면을 횡단보도 주변에서 촬영하는 제2 카메라를 포함할 수 있다. 제2 카메라의 FOV는 횡단보도를 포함하여 횡단보도를 향해 주행 중인 차량을 촬영하도록 설정될 수 있다. 다른 예로서, 제2 카메라의 FOV는 횡단보도를 포함하지 않고, 횡단보도 앞의 정지선까지를 촬영하도록 설정될 수 있다.The school zone monitoring system 100 may include one or a plurality of cameras. According to one embodiment, the school zone monitoring system 100 is a first camera for photographing a vehicle driving in the roadway of the school zone, and a second camera for photographing the front of the vehicle driving toward the crosswalk around the crosswalk. may include The FOV of the second camera may be set to photograph a vehicle driving toward the crosswalk, including the crosswalk. As another example, the FOV of the second camera may be set to photograph up to a stop line in front of the crosswalk without including the crosswalk.

입력 인터페이스(214)는 외부로부터 영상 데이터를 수신 가능한 카메라로부터 영상 데이터를 수신하기 위한 소정 규격이 입력 장치, 또는 통신부에 대응될 수 있다. 입력 인터페이스(214)는 입력된 영상 데이터를 제1 프로세서(210) 및 비디오 버퍼(216)로 전달한다. 입력된 영상 데이터는 입력 영상에 대응된다.The input interface 214 may correspond to an input device or a communication unit having a predetermined standard for receiving image data from a camera capable of receiving image data from the outside. The input interface 214 transmits the input image data to the first processor 210 and the video buffer 216 . The input image data corresponds to the input image.

비디오 버퍼(216)는 입력 영상을 저장한다. 비디오 버퍼(116)는 동영상을 저장할 수 있는 소정의 저장 매체를 포함할 수 있다. 비디오 버퍼(216)는 예를 들면, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The video buffer 216 stores an input image. The video buffer 116 may include a storage medium capable of storing a moving picture. The video buffer 216 is, for example, a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD). memory, etc.), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), It may include at least one type of storage medium among a magnetic memory, a magnetic disk, and an optical disk.

제1 통신부(218)는 유선 또는 무선으로 외부 장치와 통신할 수 있다. 제1 통신부(218)는 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150)와 통신한다. 또한, 일 실시예에 따르면, 제1 통신부(218)는 원격 서버와 통신할 수 있다.The first communication unit 218 may communicate with an external device by wire or wirelessly. The first communication unit 218 communicates with the first remote device 120 , the second remote device 140 , and the third remote device 150 . Also, according to an embodiment, the first communication unit 218 may communicate with a remote server.

제1 통신부(218)는 유선 또는 무선으로 외부 장치와 통신한다. 일 실시예에 따르면, 제1 통신부(218)는 근거리 통신을 수행할 수 있으며, 예를 들면, BCDMA, LoRa(Long Range), 와이선(Wi-SUN), 블루투스, BLE(Bluetooth Low Energy), 근거리 무선 통신 (Near Field Communication), WLAN(와이파이), 지그비(Zigbee), 적외선(IrDA, infrared Data Association) 통신, WFD(Wi-Fi Direct), UWB(ultra wideband), Ant+ 통신 등을 이용할 수 있다. 다른 예로서, 제1 통신부(218)는 이동 통신망, 광통신, 이더넷 등의 광역 통신을 수행할 수 있다. 제1 통신부(218)는 적어도 하나의 근거리 통신 모듈과 적어도 하나의 광역 통신 모듈 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.The first communication unit 218 communicates with an external device by wire or wirelessly. According to an embodiment, the first communication unit 218 may perform short-range communication, for example, BCDMA, LoRa (Long Range), Wi-Sun (Wi-SUN), Bluetooth, BLE (Bluetooth Low Energy), Near Field Communication, WLAN (Wi-Fi), Zigbee, Infrared Data Association (IrDA) communication, WFD (Wi-Fi Direct), UWB (ultra wideband), Ant+ communication, etc. are available. . As another example, the first communication unit 218 may perform wide area communication such as a mobile communication network, optical communication, or Ethernet. The first communication unit 218 may include at least one of at least one short-range communication module and at least one wide area communication module, or a combination thereof.

일 실시예에 따르면, 제1 통신부(218)는 BCDMA(Binary Code Division multiple access) 모듈을 포함할 수 있다. 제1 통신부(218)는 마스터 BCDMA 모듈을 포함하고, 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150)는 슬레이브 BCDMA 모듈을 포함할 수 있다. 제1 통신부(218)와 제1 원격 장치(120), 제1 통신부(218)와 제2 원격 장치(140), 및 제1 통신부(218)와 제3 원격 장치(150)는 BCDMA 모듈을 통해 통신할 수 있다.According to an embodiment, the first communication unit 218 may include a binary code division multiple access (BCDMA) module. The first communication unit 218 may include a master BCDMA module, and the first remote device 120 , the second remote device 140 , and the third remote device 150 may include a slave BCDMA module. The first communication unit 218 and the first remote device 120 , the first communication unit 218 and the second remote device 140 , and the first communication unit 218 and the third remote device 150 are connected via a BCDMA module. can communicate

일 실시예에 따르면, 제1 프로세서(210)는 제1 원격 장치(120)로, 입력 영상, 차량 정보, 및 속도 정보를 전송하고, 제2 원격 장치(140)로, 차량 정보, 속도 정보, 및 과속 이벤트 정보를 전송하도록 상기 제1 통신부(218)를 제어한다. According to an embodiment, the first processor 210 transmits an input image, vehicle information, and speed information to the first remote device 120 , and transmits vehicle information, speed information, and/or information to the second remote device 140 , to the second remote device 140 . and controls the first communication unit 218 to transmit speeding event information.

제1 원격 장치(120)는 제2 프로세서(220), 제2 통신부(222), 및 NVR(Network video recorder, 224)를 포함한다.The first remote device 120 includes a second processor 220 , a second communication unit 222 , and a network video recorder (NVR) 224 .

제2 프로세서(220)는 제1 원격 장치(120) 전반의 동작을 제어한다. 제2 프로세서(220)는 하나 또는 그 이상의 프로세서로 구현될 수 있다. 제2 프로세서(220)는 메모리에 저장된 인스트럭션 또는 커맨드를 실행하여 소정의 동작을 수행할 수 있다.The second processor 220 controls the overall operation of the first remote device 120 . The second processor 220 may be implemented as one or more processors. The second processor 220 may execute an instruction or a command stored in the memory to perform a predetermined operation.

일 실시예에 따르면, 제2 프로세서(220)는 엣지 컴퓨팅 장치(110)로부터 수신된 입력 영상, 차량 정보, 속도 정보, 또는 보행자 정보 중 적어도 하나 또는 이들의 조합에 기초하여 스쿨존에 대한 모니터링 정보를 생성한다. 제2 프로세서(220)는 제2 통신부(222)를 통해 엣지 컴퓨팅 장치(110)로부터 입력 영상, 차량 정보, 속도 정보, 또는 보행자 정보 중 적어도 하나 또는 이들의 조합을 수신하고, 수신된 정보에 기초하여 모니터링 정보를 생성한다. 모니터링 정보는 스쿨존의 현재 상황 및 위험도를 나타내는 정보이다. 모니터링 정보는 예를 들면, 차량 혼잡도, 보행자 정보, 주정차 차량 수, 과속 차량 정보 등을 포함할 수 있다. 또한, 모니터링 정보는 스쿨존 위험도 정보를 포함할 수 있다. 스쿨존 위험도 정보는 스쿨존의 위험도를 나타내는 정보로, 차량 수, 보행자 수, 날씨, 시간 정보, 또는 주정차 차량 수 중 적어도 하나에 기초하여 결정된다. According to an embodiment, the second processor 220 may monitor information for the school zone based on at least one of an input image received from the edge computing device 110 , vehicle information, speed information, and pedestrian information, or a combination thereof. to create The second processor 220 receives at least one or a combination of an input image, vehicle information, speed information, and pedestrian information from the edge computing device 110 through the second communication unit 222 , and based on the received information to create monitoring information. Monitoring information is information indicating the current situation and risk of the school zone. The monitoring information may include, for example, vehicle congestion, pedestrian information, the number of parked and stopped vehicles, speeding vehicle information, and the like. In addition, the monitoring information may include school zone risk information. The school zone risk information is information indicating the risk of the school zone, and is determined based on at least one of the number of vehicles, the number of pedestrians, weather, time information, and the number of parked and stopped vehicles.

또한, 일 실시예에 따르면, 제2 프로세서(220)는 스쿨존 위험도 정보에 기초하여, 교통 지도 가이드를 생성하여 출력할 수 있다. 교통 지도 가이드는 스쿨존 위험도 정보에 기초하여 학교의 지도 교사 또는 교통 경찰 등에게 교통 지도를 요청한다. 교통 지도 가이드는 예를 들면, 지도 교사의 등하교 지도를 요청하는 제1 레벨 가이드, 및 교통 경찰의 교통 지도를 요청하는 제2 레벨 가이드를 포함한다. 제2 프로세서(220)는 스쿨존 위험도 정보에 기초하여 제1 레벨 가이드 또는 제2 레벨 가이드를 클라이언트 장치(122)로 출력한다. 일 실시예에 다르면, 제2 프로세서(220)는 스쿨존 위험도 정보에 기초하여, 어느 클라이언트 장치(122)로 교통 지도 가이드를 전송할지 결정할 수 있다. 예를 들면, 제1 레벨 가이드가 생성된 경우, 지도 교사의 클라이언트 장치(122)로 교통 지도 가이드를 전송하고, 제2 레벨 가이드가 생성된 경우, 경찰의 클라이언트 장치(122)로 교통 지도 가이드를 전송할 수 있다.Also, according to an embodiment, the second processor 220 may generate and output a traffic map guide based on the school zone risk information. The traffic map guide requests traffic guidance from the school's supervising teacher or traffic police based on the school zone risk information. The traffic guidance guide includes, for example, a first-level guide that requests guidance from a tutor to provide guidance to and from school, and a second-level guide that requests a traffic guidance from a traffic police. The second processor 220 outputs the first level guide or the second level guide to the client device 122 based on the school zone risk information. According to an embodiment, the second processor 220 may determine to which client device 122 to transmit the traffic map guide based on the school zone risk information. For example, when the first level guide is generated, the traffic map guide is transmitted to the teacher's client device 122, and when the second level guide is generated, the traffic map guide is transmitted to the police's client device 122 can be transmitted

또한, 일 실시예에 따르면, 제1 원격 장치(120)는 표시부 등의 출력 인터페이스를 포함하고, 출력 인터페이스를 통해 스쿨존 위험도 정보 또는 교통 지도 가이드를 출력한다.In addition, according to an embodiment, the first remote device 120 includes an output interface such as a display unit, and outputs school zone risk information or a traffic map guide through the output interface.

제2 통신부(222)는 유선 또는 무선으로 외부 장치와 통신한다. 일 실시예에 따르면, 제2 통신부(222)는 근거리 통신을 수행할 수 있으며, 예를 들면, BCDMA, LoRa(Long Range), 와이선(Wi-SUN), 블루투스, BLE(Bluetooth Low Energy), 근거리 무선 통신 (Near Field Communication), WLAN(와이파이), 지그비(Zigbee), 적외선(IrDA, infrared Data Association) 통신, WFD(Wi-Fi Direct), UWB(ultra wideband), Ant+ 통신 등을 이용할 수 있다. 다른 예로서, 제2 통신부(222)는 이동 통신망, 광통신, 이더넷 등의 광역 통신을 수행할 수 있다. 제2 통신부(222)는 적어도 하나의 근거리 통신 모듈과 적어도 하나의 광역 통신 모듈 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.The second communication unit 222 communicates with an external device by wire or wirelessly. According to one embodiment, the second communication unit 222 may perform short-range communication, for example, BCDMA, LoRa (Long Range), Wi-Sun (Wi-SUN), Bluetooth, BLE (Bluetooth Low Energy), Near Field Communication, WLAN (Wi-Fi), Zigbee, Infrared Data Association (IrDA) communication, WFD (Wi-Fi Direct), UWB (ultra wideband), Ant+ communication, etc. are available. . As another example, the second communication unit 222 may perform wide area communication such as a mobile communication network, optical communication, or Ethernet. The second communication unit 222 may include at least one of at least one short-range communication module and at least one wide area communication module, or a combination thereof.

일 실시예에 따르면, 제2 통신부(222)는 BCDMA 모듈을 포함할 수 있다. 앞서 설명한 바와 같이, 제2 통신부(222)의 BCDMA 모듈은 제1 통신부(218)의 BCDMA 모듈의 슬레이브 BCDMA 모듈에 대응될 수 있다.According to an embodiment, the second communication unit 222 may include a BCDMA module. As described above, the BCDMA module of the second communication unit 222 may correspond to the slave BCDMA module of the BCDMA module of the first communication unit 218 .

NVR(224)은 엣지 컴퓨팅 장치(110)로부터 수신된 입력 영상을 기록한다. 엣지 컴퓨팅 장치(110)는 제2 통신부(222)를 통해 입력 영상에 대응하는 비디오 스트림을 수신하고, 비디오 스트림을 NVR(224)에 저장한다. 제2 프로세서(220)는 NVR(224)에 저장된 입력 영상을 원격 서버(130)로 전송할 수 있다. The NVR 224 records the input image received from the edge computing device 110 . The edge computing device 110 receives a video stream corresponding to the input image through the second communication unit 222 , and stores the video stream in the NVR 224 . The second processor 220 may transmit the input image stored in the NVR 224 to the remote server 130 .

제2 원격 장치(140)는 제3 통신부(230) 및 디스플레이(232)를 포함한다. The second remote device 140 includes a third communication unit 230 and a display 232 .

제3 통신부(230)는 유선 또는 무선으로 외부 장치와 통신한다. 일 실시예에 따르면, 제3 통신부(230)는 근거리 통신을 수행할 수 있으며, 예를 들면, BCDMA, LoRa(Long Range), 와이선(Wi-SUN), 블루투스, BLE(Bluetooth Low Energy), 근거리 무선 통신 (Near Field Communication), WLAN(와이파이), 지그비(Zigbee), 적외선(IrDA, infrared Data Association) 통신, WFD(Wi-Fi Direct), UWB(ultra wideband), Ant+ 통신 등을 이용할 수 있다. 다른 예로서, 제3 통신부(230)는 이동 통신망, 광통신, 이더넷 등의 광역 통신을 수행할 수 있다. 제3 통신부(230)는 적어도 하나의 근거리 통신 모듈과 적어도 하나의 광역 통신 모듈 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.The third communication unit 230 communicates with an external device by wire or wirelessly. According to an embodiment, the third communication unit 230 may perform short-range communication, for example, BCDMA, LoRa (Long Range), Wi-Sun (Wi-SUN), Bluetooth, BLE (Bluetooth Low Energy), Near Field Communication, WLAN (Wi-Fi), Zigbee, Infrared Data Association (IrDA) communication, WFD (Wi-Fi Direct), UWB (ultra wideband), Ant+ communication, etc. are available. . As another example, the third communication unit 230 may perform wide area communication such as a mobile communication network, optical communication, or Ethernet. The third communication unit 230 may include at least one of at least one short-range communication module and at least one wide area communication module, or a combination thereof.

일 실시예에 따르면, 제3 통신부(230)는 BCDMA 모듈을 포함할 수 있다. 앞서 설명한 바와 같이, 제3 통신부(230)의 BCDMA 모듈은 제1 통신부(218)의 BCDMA 모듈의 슬레이브 BCDMA 모듈에 대응될 수 있다.According to an embodiment, the third communication unit 230 may include a BCDMA module. As described above, the BCDMA module of the third communication unit 230 may correspond to the slave BCDMA module of the BCDMA module of the first communication unit 218 .

디스플레이(232)는 다양한 종류의 디스플레이 장치에 대응될 수 있다. 일 실시예에 따르면, 디스플레이(232)는 LED(light emitting diode) 디스플레이, 또는 액정 표시 장치 등을 포함할 수 있다. 일 실시예에 다르면, 디스플레이(232)는 7 세그먼트(segment) 디스플레이를 포함한다.The display 232 may correspond to various types of display devices. According to an embodiment, the display 232 may include a light emitting diode (LED) display, a liquid crystal display, or the like. According to one embodiment, display 232 comprises a 7 segment display.

일 실시예에 따르면, 제2 원격 장치(140)는 제2 원격 장치(140)의 동작을 제어하는 프로세서, 및 수신된 데이터 및 소정의 정보를 저장하는 메모리를 더 포함할 수 있다.According to an embodiment, the second remote device 140 may further include a processor for controlling the operation of the second remote device 140 , and a memory for storing received data and predetermined information.

제2 원격 장치(140)는 엣지 컴퓨팅 장치(110)로부터 입력 영상, 차량 정보, 속도 정보, 과속 이벤트 정보, 및 보행자 정보 중 적어도 하나 또는 이들의 조합을 수신한다. 제2 원격 장치(140)는 수신된 차량 정보, 속도 정보, 과속 이벤트 정보, 또는 보행자 정보 중 적어도 하나를 소정의 영역에 디스플레이한다. 예를 들면, 제2 원격 장치(140)는 수신된 차량 정보, 해당 차량 정보에 대응하는 속도 정보, 해당 차량 정보에 대응하는 과속 이벤트 정보를 디스플레이(232)에 동시에 표시할 수 있다. 또한, 제2 원격 장치(140)는 보행자 정보를 디스플레이(232)에 디스플레이할 수 있다. 예를 들면, 제2 원격 장치(140)는 보행자 수 정보, 보행자가 많음을 나타내는 보행자 주의 정보 등을 디스플레이할 수 있다.The second remote device 140 receives at least one or a combination of an input image, vehicle information, speed information, speeding event information, and pedestrian information from the edge computing device 110 . The second remote device 140 displays at least one of the received vehicle information, speed information, speeding event information, and pedestrian information on a predetermined area. For example, the second remote device 140 may simultaneously display the received vehicle information, speed information corresponding to the corresponding vehicle information, and speeding event information corresponding to the corresponding vehicle information on the display 232 . Also, the second remote device 140 may display pedestrian information on the display 232 . For example, the second remote device 140 may display information on the number of pedestrians, information on pedestrian attention indicating that there are many pedestrians, and the like.

일 실시예에 따르면, 제2 원격 장치(140)의 디스플레이(232)는 VMS(Variable Message Sign)을 포함하고, VMS를 통해 엣지 컴퓨팅 장치(110)로부터 수신된 보행자 정보를 디스플레이한다. 제2 원격 장치(140)는 VMS를 통해 보행자 수 정보, 보행자가 많음을 나타내는 보행자 주의 정보를 디스플레이할 수 있다.According to an embodiment, the display 232 of the second remote device 140 includes a Variable Message Sign (VMS) and displays the pedestrian information received from the edge computing device 110 through the VMS. The second remote device 140 may display information on the number of pedestrians and information on pedestrian attention indicating that there are many pedestrians through the VMS.

일 실시예에 따르면, 제2 원격 장치(140)는 과속 이벤트가 검출된 차량에 대응되는 입력 영상을 디스플레이한다. 이 때, 제2 원격 장치(140)는 과속 이벤트가 검출된 차량의 입력 영상, 차량 정보, 속도 정보를 함께 디스플레이할 수 있다.According to an embodiment, the second remote device 140 displays an input image corresponding to the vehicle in which the speeding event is detected. In this case, the second remote device 140 may display the input image of the vehicle in which the speeding event is detected, vehicle information, and speed information together.

제3 원격 장치(150)는 제4 통신부(240) 및 보행자 사전 경보등(242)을 포함한다. The third remote device 150 includes a fourth communication unit 240 and a pedestrian advance warning light 242 .

제4 통신부(240)는 유선 또는 무선으로 외부 장치와 통신한다. 일 실시예에 따르면, 제4 통신부(240)는 근거리 통신을 수행할 수 있으며, 예를 들면, BCDMA, LoRa(Long Range), 와이선(Wi-SUN), 블루투스, BLE(Bluetooth Low Energy), 근거리 무선 통신 (Near Field Communication), WLAN(와이파이), 지그비(Zigbee), 적외선(IrDA, infrared Data Association) 통신, WFD(Wi-Fi Direct), UWB(ultra wideband), Ant+ 통신 등을 이용할 수 있다. 다른 예로서, 제3 통신부(230)는 이동 통신망, 광통신, 이더넷 등의 광역 통신을 수행할 수 있다. 제3 통신부(230)는 적어도 하나의 근거리 통신 모듈과 적어도 하나의 광역 통신 모듈 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.The fourth communication unit 240 communicates with an external device by wire or wirelessly. According to an embodiment, the fourth communication unit 240 may perform short-range communication, for example, BCDMA, LoRa (Long Range), Wi-Sun (Wi-SUN), Bluetooth, BLE (Bluetooth Low Energy), Near Field Communication, WLAN (Wi-Fi), Zigbee, Infrared Data Association (IrDA) communication, WFD (Wi-Fi Direct), UWB (ultra wideband), Ant+ communication, etc. are available. . As another example, the third communication unit 230 may perform wide area communication such as a mobile communication network, optical communication, or Ethernet. The third communication unit 230 may include at least one of at least one short-range communication module and at least one wide area communication module, or a combination thereof.

일 실시예에 따르면, 제4 통신부(240)는 BCDMA 모듈을 포함할 수 있다. 앞서 설명한 바와 같이, 제4 통신부(240)의 BCDMA 모듈은 제1 통신부(218)의 BCDMA 모듈의 슬레이브 BCDMA 모듈에 대응될 수 있다.According to an embodiment, the fourth communication unit 240 may include a BCDMA module. As described above, the BCDMA module of the fourth communication unit 240 may correspond to the slave BCDMA module of the BCDMA module of the first communication unit 218 .

보행자 사전 경보등(242)는 보행자 정보를 나타내는 경보등이다. 보행자 사전 경보등(242)은 소정의 조건에서 점멸하는 점멸등 또는 LED 디스플레이에 대응될 수 있다. 보행자 사전 경보등(242)은 보행자 유무, 보행자 수, 또는 보행자 밀집도 등의 정보를 표시할 수 있다. The pedestrian advance warning light 242 is a warning light indicating pedestrian information. The pedestrian advance warning light 242 may correspond to a blinking lamp or an LED display that blinks under a predetermined condition. The pedestrian advance warning light 242 may display information such as presence of pedestrians, the number of pedestrians, or the density of pedestrians.

일 실시예에 따르면, 제3 원격 장치(150)는 제3 원격 장치(150)의 동작을 제어하는 프로세서, 및 수신된 데이터 및 소정의 정보를 저장하는 메모리를 더 포함할 수 있다.According to an embodiment, the third remote device 150 may further include a processor for controlling the operation of the third remote device 150 and a memory for storing received data and predetermined information.

제3 원격 장치(150)는 엣지 컴퓨팅 장치(110)로부터 보행자 정보를 수신한다. 보행자 정보는 보행자 유무, 보행자 수, 또는 보행자 밀집도 등의 정보를 포함한다. 제3 원격 장치(150)는 수신된 보행자 정보를 소정의 영역에 디스플레이한다. 예를 들면, 제3 원격 장치(150)는 수신된 보행자 정보를 보행자 사전 경보등(242)에 표시할 수 있다. The third remote device 150 receives pedestrian information from the edge computing device 110 . Pedestrian information includes information such as presence of pedestrians, the number of pedestrians, or pedestrian density. The third remote device 150 displays the received pedestrian information in a predetermined area. For example, the third remote device 150 may display the received pedestrian information on the pedestrian advance warning light 242 .

일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 입력 영상으로부터, 스쿨존의 자동차 주행 도로, 즉 차도에 존재하는 사람의 수를 검출하고, 차도 내에서 검출된 사람 수를 보행자 정보로 출력한다. 차도에 존재하는 사람의 수는 횡단보도 내의 사람 수와, 횡단보다 바깥의 사람 수를 포함할 수 있다. 엣지 컴퓨팅 장치(110)는 차도 내의 사람 수를 포함하는 보행자 정보를 제3 원격 장치(150)로 출력하고, 차도 내의 사람 수를 보행자 수로 출력할 수 있다.According to an embodiment, the edge computing device 110 detects, from the input image, the number of people on the driving road of the school zone, that is, on the road, and outputs the detected number of people in the road as pedestrian information. The number of people present on the roadway may include the number of people in the crosswalk and the number of people outside the crossing. The edge computing device 110 may output pedestrian information including the number of people in the road to the third remote device 150 and output the number of people in the road as the number of pedestrians.

도 3은 본 개시의 일 실시예에 따른 BCDMA 모듈의 구조를 나타낸 도면이다.3 is a diagram showing the structure of a BCDMA module according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 제1 통신부(218), 제2 통신부(222), 제3 통신부(230), 및 제4 통신부(240)는 BCDMA 모듈을 포함할 수 있다. 여기서 제1 통신부(218)는 마스터 BCDMA 모듈(310)에 대응되고, 제2 통신부(222), 제3 통신부(230), 및 제4 통신부(240)는 슬레이브 BCDMA 모듈(320)에 대응될 수 있다. 엣지 컴퓨팅 장치(110)는 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150)에 대해 마스터 권한을 갖고, 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150)는 엣지 컴퓨팅 장치(110)의 슬레이브 장치에 대응될 수 있다. 엣지 컴퓨팅 장치(110)는 마스터 BCDMA 모듈(310)을 통해 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150) 각각으로 제어 신호를 전송하고, 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150) 각각은 엣지 컴퓨팅 장치(110)로부터 수신된 제어 신호에 따라 제어될 수 있다. 이러한 구성에 의해, 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150)의 처리 부담 및 필요 리소스가 현저하게 감소하여, 스쿨존 모니터링 시스템(100)의 구축 비용이 감소하고, 원격 장치의 수를 증가시키는 부담을 감소시킬 수 있다.According to an embodiment of the present disclosure, the first communication unit 218 , the second communication unit 222 , the third communication unit 230 , and the fourth communication unit 240 may include a BCDMA module. Here, the first communication unit 218 may correspond to the master BCDMA module 310 , and the second communication unit 222 , the third communication unit 230 , and the fourth communication unit 240 may correspond to the slave BCDMA module 320 . have. The edge computing device 110 has master authority over the first remote device 120 , the second remote device 140 , and the third remote device 150 , and the first remote device 120 , the second remote device 140 and the third remote device 150 may correspond to a slave device of the edge computing device 110 . The edge computing device 110 transmits a control signal to each of the first remote device 120 , the second remote device 140 , and the third remote device 150 through the master BCDMA module 310 , and the first remote device Each of the device 120 , the second remote device 140 , and the third remote device 150 may be controlled according to a control signal received from the edge computing device 110 . With this configuration, the processing burden and required resources of the first remote device 120 , the second remote device 140 , and the third remote device 150 are remarkably reduced, and the school zone monitoring system 100 is constructed. The cost can be reduced, and the burden of increasing the number of remote devices can be reduced.

엣지 컴퓨팅 장치(110)는 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150) 각각에 대한 제어 신호를 생성하고, 제1 원격 장치(120), 제2 원격 장치(140), 및 제3 원격 장치(150) 각각에 대한 제어 신호를 마스터 BCDMA 모듈(310)을 통해 각 원격 장치로 전송한다. The edge computing device 110 generates control signals for each of the first remote device 120 , the second remote device 140 , and the third remote device 150 , and the first remote device 120 , the second Control signals for each of the remote device 140 and the third remote device 150 are transmitted to each remote device via the master BCDMA module 310 .

엣지 컴퓨팅 장치(110)는 제1 원격 장치(120)로 입력 영상, 차량 정보, 속도 정보, 보행자 정보를 전송하고, 제1 원격 장치(120)에서 입력 영상이 NVR(224)에 기록되고, 입력 영상에 차량 정보, 속도 정보가 표시되도록 제1 원격 장치(120)를 제어하는 제어 신호를 전송할 수 있다. 제1 원격 장치(120)는 적어도 일부 동작에 있어서, 엣지 컴퓨팅 장치(110)로부터 수신된 제어 신호에 기반하여 동작한다. The edge computing device 110 transmits an input image, vehicle information, speed information, and pedestrian information to the first remote device 120 , and the input image from the first remote device 120 is recorded in the NVR 224 , and input A control signal for controlling the first remote device 120 may be transmitted so that vehicle information and speed information are displayed on the image. The first remote device 120 operates based on a control signal received from the edge computing device 110 in at least some operations.

엣지 컴퓨팅 장치(110)는 제2 원격 장치(140)로 차량 정보, 속도 정보, 과속 이벤트 정보, 및 보행자 정보를 전송하고, 제2 원격 장치(140)에서 미리 정의된 방식으로 차량 정보, 속도 정보, 과속 이벤트 정보, 및 보행자 정보가 디스플레이되도록 제2 원격 장치(140)를 제어하는 제어 신호를 전송할 수 있다. 제2 원격 장치(140)는 적어도 일부 동작에 있어서, 엣지 컴퓨팅 장치(110)로부터 수신된 제어 신호에 기반하여 동작한다.The edge computing device 110 transmits vehicle information, speed information, speeding event information, and pedestrian information to the second remote device 140 , and the second remote device 140 uses a predefined method for vehicle information and speed information. , a control signal for controlling the second remote device 140 to display the speeding event information, and the pedestrian information. The second remote device 140 operates based on a control signal received from the edge computing device 110 in at least some operations.

엣지 컴퓨팅 장치(110)는 제3 원격 장치(150)로 보행자 정보를 전송하고, 제3 원격 장치(150)에서 미리 정의된 방식으로 보행자 정보가 디스플레이되도록 제3 원격 장치(150)를 제어하는 제어 신호를 전송할 수 있다. 제3 원격 장치(150)는 적어도 일부 동작에 있어서, 엣지 컴퓨팅 장치(110)로부터 수신된 제어 신호에 기반하여 동작한다.The edge computing device 110 transmits pedestrian information to the third remote device 150 , and controls the third remote device 150 to display the pedestrian information in a predefined manner in the third remote device 150 . signal can be transmitted. The third remote device 150 operates based on a control signal received from the edge computing device 110 in at least some operations.

일 실시예에 따르면, 마스터 BCDMA 모듈(310)은 제1 시리얼 포터(312) 및 제1 이더넷 포터(314)를 포함한다. 슬레이브 BCDMA 모듈(320)은 제2 시리얼 포터(322) 및 제2 이더넷 포터(324)를 포함한다. 마스터 BCDMA 모듈(310)은 제1 시리얼 포터(312)를 통해 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보를 전송하고, 제1 이더넷 포터(314)를 통해 입력 영상을 전송한다. BCDMA 모듈의 시리얼 포터는 설정 및 동작 상태 로그를 확인하기 위한 정보를 전송하기 위해 이용되는 포터인데, 본 개시의 일 실시예에 따르면, 데이터 크기가 크지 않은 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보는 제1 시리얼 포터(312)를 이용하여 제2 시리얼 포터(322)로 전송하고, 데이터 크기가 큰 입력 영상은 제1 이더넷 포터(314)로부터 제2 이더넷 포터(324)로 전송함에 의해, 데이터 처리를 단순화시킬 수 있는 효과가 있다. 입력 영상의 경우, NVR(224)의 입력이 제2 이더넷 포터(324)를 이용함으로써, 여타의 데이터 처리 없이 기존의 NVR(224)과 바로 엣지 컴퓨터 장치(110)의 연결이 가능하다. 또한, 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보 등의 검출 데이터의 경우, 제1 시리얼 포터(312) 및 제2 시리얼 포터(324)를 통해 데이터를 전송함으로써, 수신 측에서 시리얼 데이터를 저가의 MCU(Micro control unit)를 이용하여 파싱과 같은 데이터 처리를 통하여 데이터를 획득할 수 있는 효과가 있다. 예를 들면, 제2 원격 장치(140)의 경우, MCU에서 7 세그먼트 디스플레이를 직접 제어하여, 디스플레이에 데이터를 표시할 수 있어, 요구되는 하드웨어 리소스를 현저하게 감소시킬 수 있다.According to an embodiment, the master BCDMA module 310 includes a first serial port 312 and a first Ethernet port 314 . The slave BCDMA module 320 includes a second serial port 322 and a second Ethernet port 324 . The master BCDMA module 310 transmits vehicle information, speed information, pedestrian information, or speeding event information through the first serial porter 312 and transmits an input image through the first Ethernet porter 314 . The serial port of the BCDMA module is a port used to transmit information for checking the setting and operation status log. According to an embodiment of the present disclosure, vehicle information, speed information, pedestrian information, or speeding information, which is not large in data size, Event information is transmitted to the second serial port 322 using the first serial port 312, and an input image having a large data size is transmitted from the first Ethernet port 314 to the second Ethernet port 324. , which has the effect of simplifying data processing. In the case of an input image, since the input of the NVR 224 uses the second Ethernet port 324 , it is possible to directly connect the existing NVR 224 and the edge computer device 110 without any other data processing. In addition, in the case of detection data such as vehicle information, speed information, pedestrian information, or speeding event information, by transmitting the data through the first serial port 312 and the second serial port 324, the receiving side receives the serial data. There is an effect that data can be acquired through data processing such as parsing using a low-cost micro control unit (MCU). For example, in the case of the second remote device 140 , the MCU can directly control the 7-segment display to display data on the display, thereby remarkably reducing required hardware resources.

도 4는 본 개시의 일 실시예에 따라 엣지 컴퓨팅 장치에서 입력 영상을 처리하는 과정을 나타낸 도면이다.4 is a diagram illustrating a process of processing an input image in an edge computing device according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 입력 영상에서 검출된 차량(410)의 번호판 영역(420) 및 운전자 영역(430)을 검출한다. 엣지 컴퓨팅 장치(110)의 제1 프로세서(210)는 입력 영상으로부터 차량(410)을 검출한다. 제1 프로세서(210)는 입력 영상으로부터 차량의 정면에 대응하는 영역을 검출한다. 제1 프로세서(210)는 차량(410)의 정면에 대응하는 영상 데이터로부터 번호판 영역(320) 및 운전자 영역(430)을 검출한다. 제1 프로세서(210)는 차량의 구조에 대한 정보에 기반하여, 차량 영역의 중앙 하부 영역의 직사각형 번호판 영역(420)을 검출하고, 차량 영역의 상부의 차량 전면 유리의 우측 영역의 운전자 영역(430)을 검출한다. According to an embodiment of the present disclosure, the edge computing device 110 detects the license plate area 420 and the driver area 430 of the vehicle 410 detected from the input image. The first processor 210 of the edge computing device 110 detects the vehicle 410 from the input image. The first processor 210 detects a region corresponding to the front of the vehicle from the input image. The first processor 210 detects the license plate area 320 and the driver area 430 from the image data corresponding to the front of the vehicle 410 . The first processor 210 detects the rectangular license plate area 420 of the central lower area of the vehicle area based on the information on the structure of the vehicle, and the driver area 430 of the right area of the vehicle windshield above the vehicle area. ) is detected.

제1 프로세서(210)는 입력 영상으로부터 검출한 번호판 영역(420) 및 운전자 영역(430)에 대해 가시성을 감소시키는 영상 처리를 수행한다. 예를 들면, 제1 프로세서(210)는 번호판 영역(420) 및 운전자 영역(430)의 데이터 값을 소정의 디폴트 값으로 수정하거나, 모자이크 처리, 블러링 처리 등을 수행하여 가시성을 감소시킨다. 실시예에 따라, 제1 프로세서(210)는 운전자 영역(430)의 가시성을 감소시키거나, 번호판 영역(420)의 가시성을 감소시키거나, 운전자 영역(430)과 번호판 영역(420)의 가시성을 함께 감소시킬 수 있다.The first processor 210 performs image processing for reducing visibility on the license plate area 420 and the driver area 430 detected from the input image. For example, the first processor 210 reduces visibility by modifying the data values of the license plate area 420 and the driver area 430 to predetermined default values or performing mosaic processing, blurring processing, and the like. According to an embodiment, the first processor 210 reduces the visibility of the driver area 430 , reduces the visibility of the license plate area 420 , or reduces the visibility of the driver area 430 and the license plate area 420 . can be reduced together.

제1 프로세서(210)는 번호판 영역(420) 및 운전자 영역(430) 중 적어도 하나의 가시성을 감소시킨 입력 영상을 제1 원격 장치(120) 또는 제2 원격 장치(140)로 전송한다. The first processor 210 transmits an input image with reduced visibility of at least one of the license plate area 420 and the driver area 430 to the first remote device 120 or the second remote device 140 .

도 5는 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치, 카메라, 및 원격 장치를 나타낸 도면이다.5 is a diagram illustrating an edge computing device, a camera, and a remote device according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 스쿨존 모니터링 시스템(100)은, 스쿨존의 각 차선 마다 카메라를 설치하고, 각 차선에 대응하는 원격 장치에서 각 차선에 대응하는 차량 정보, 속도 정보, 및 과속 이벤트 정보를 출력한다. 스쿨존 모니터링 시스템(100)은 각 차선에 대응되는 제1 차선 카메라(510), 제2 차선 카메라(520), 및 제3 차선 카메라(530)를 포함한다. 각 차선 카메라는 차선의 개수에 대응되도록 구비되고, 각 차선의 주행 차량의 전면을 촬영하도록 FOV가 설정되어 설치될 수 있다. 일 실시예에 따르면, 카메라의 FOV에 따라 하나의 카메라가 복수의 차선(예를 들면, 2개 차선, 3개 차선 등)을 촬영하도록 카메라가 배치되고, 엣지 컴퓨팅 장치(110)는 각 카메라에서 각 차선 영역을 정의하여 각 차선으로부터 차량을 검출할 수 있다. According to an embodiment of the present disclosure, the school zone monitoring system 100 installs a camera in each lane of the school zone, and vehicle information corresponding to each lane, speed information, and overspeed in a remote device corresponding to each lane Output event information. The school zone monitoring system 100 includes a first lane camera 510 , a second lane camera 520 , and a third lane camera 530 corresponding to each lane. Each lane camera may be provided to correspond to the number of lanes, and an FOV may be set and installed to photograph the front of the driving vehicle in each lane. According to an embodiment, the camera is arranged such that one camera captures a plurality of lanes (eg, two lanes, three lanes, etc.) according to the FOV of the camera, and the edge computing device 110 is configured in each camera. By defining each lane area, a vehicle may be detected from each lane.

원격 장치는 각 차선에 대응되도록 각각 구비되어 배치되고, 예를 들면 제1 차선 원격 장치(520), 제2 차선 원격 장치(522), 및 제3 차선 원격 장치(524)를 포함한다. 여기서 각 차선에 배치되는 제1 차선 원격 장치(520), 제2 차선 원격 장치(522), 및 제3 차선 원격 장치(524)는 도 2의 제2 원격 장치(140)에 대응된다. 따라서 제1 차선 원격 장치(520), 제2 차선 원격 장치(522), 및 제3 차선 원격 장치(524)는 각각 제3 통신부(230) 및 디스플레이(232)를 포함한다. 제1 차선 원격 장치(520), 제2 차선 원격 장치(522), 및 제3 차선 원격 장치(524)는 각 차선의 상부에 배치되고, 각 차선에서 주행하는 차량의 정면을 향하도록 배치되어, 각 차선의 주행 차량에게 속도 정보, 과속 이벤트 정보 등을 제공할 수 있다.The remote devices are provided and arranged to correspond to each lane, and include, for example, a first lane remote device 520 , a second lane remote device 522 , and a third lane remote device 524 . Here, the first lane remote device 520 , the second lane remote device 522 , and the third lane remote device 524 disposed in each lane correspond to the second remote device 140 of FIG. 2 . Accordingly, the first lane remote device 520 , the second lane remote device 522 , and the third lane remote device 524 each include a third communication unit 230 and a display 232 . The first lane remote device 520, the second lane remote device 522, and the third lane remote device 524 are disposed on top of each lane and are disposed to face the front of a vehicle traveling in each lane, Speed information, speeding event information, and the like may be provided to vehicles traveling in each lane.

엣지 컴퓨팅 장치(110)는 제1 차선 카메라(510), 제2 차선 카메라(512), 및 제3 차선 카메라(514)로부터 입력 영상을 수신하여, 각 차선에 대한 차량 정보, 속도 정보, 및 과속 이벤트 정보를 검출한다. 엣지 컴퓨팅 장치(110)는 각 차선마다의 차량 정보, 속도 정보, 및 과속 이벤트 정보를 각각 생성하여, 각 차선에 대응하는 원격 장치로 전송한다. The edge computing device 110 receives input images from the first lane camera 510 , the second lane camera 512 , and the third lane camera 514 , vehicle information for each lane, speed information, and overspeed Detect event information. The edge computing device 110 generates vehicle information, speed information, and speeding event information for each lane, respectively, and transmits the generated information to a remote device corresponding to each lane.

일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 입력 영상을 전송한 카메라의 식별 정보로부터 해당 입력 영상에 대응하는 차선 정보를 정의하고, 각 차선의 입력 영상으로부터 차량 정보, 속도 정보, 및 과속 이벤트 정보를 생성한다. 엣지 컴퓨팅 장치(110)는 해당 차량 정보, 속도 정보, 및 과속 이벤트 정보에 대응하는 차선의 원격 장치(520, 522, 524)로 차량 정보, 속도 정보, 및 과속 이벤트 정보를 전송한다. According to an embodiment, the edge computing device 110 defines lane information corresponding to the input image from identification information of a camera that has transmitted the input image, and vehicle information, speed information, and speeding event from the input image of each lane. create information The edge computing device 110 transmits the vehicle information, the speed information, and the speeding event information to the remote devices 520 , 522 , and 524 of the lane corresponding to the corresponding vehicle information, the speed information, and the speeding event information.

다른 실시예에 따르면, 복수의 차선을 커버하는 적어도 하나의 카메라가 배치되고, 엣지 컴퓨팅 장치(110)는 입력 영상으로부터 차선을 검출하고, 각 차선으로부터 차량을 검출하고, 검출된 차량의 차선 정보, 차량 정보, 속도 정보, 및 과속 이벤트 정보를 생성한다. 엣지 컴퓨팅 장치(110)는 각 차선에 대응하는 원격 장치(520, 522, 524)로 차량 정보, 속도 정보, 및 과속 이벤트 정보를 전송한다. According to another embodiment, at least one camera covering a plurality of lanes is disposed, the edge computing device 110 detects a lane from an input image, detects a vehicle from each lane, and information on the detected vehicle lane; Generate vehicle information, speed information, and speeding event information. The edge computing device 110 transmits vehicle information, speed information, and speeding event information to the remote devices 520 , 522 , and 524 corresponding to each lane.

도 6은 본 개시의 일 실시예에 따른 엣지 컴퓨팅 장치의 제어 방법을 나타낸 도면이다.6 is a diagram illustrating a control method of an edge computing device according to an embodiment of the present disclosure.

본 개시의 엣지 컴퓨팅 장치 제어 방법의 각 단계들은 프로세서 및 통신부를 구비하고, 기계학습 모델을 이용하는 다양한 형태의 전자 장치에 의해 수행될 수 있다. 본 개시는 본 개시의 실시예들에 따른 엣지 컴퓨팅 장치(110)가 엣지 컴퓨팅 장치 제어 방법을 수행하는 실시예를 중심으로 설명한다. 따라서 엣지 컴퓨팅 장치(110)에 대해 설명된 실시예들은 엣지 컴퓨팅 장치 제어 방법에 대한 실시예들에 적용 가능하고, 반대로 엣지 컴퓨팅 장치 제어 방법에 대해 설명된 실시예들은 엣지 컴퓨팅 장치(110)에 대한 실시예들에 적용 가능하다. 개시된 실시예들에 따른 엣지 컴퓨팅 장치 제어 방법은 본 개시에 개시된 엣지 컴퓨팅 장치(110)에 의해 수행되는 것으로 그 실시예가 한정되지 않고, 다양한 형태의 전자 장치에 의해 수행될 수 있다.Each step of the edge computing device control method of the present disclosure may be performed by various types of electronic devices having a processor and a communication unit and using a machine learning model. The present disclosure will focus on an embodiment in which the edge computing device 110 according to embodiments of the present disclosure performs an edge computing device control method. Accordingly, the embodiments described for the edge computing device 110 are applicable to embodiments for the edge computing device control method, and on the contrary, the embodiments described for the edge computing device control method are for the edge computing device 110 . Applicable to the embodiments. The edge computing device control method according to the disclosed embodiments is not limited to being performed by the edge computing device 110 disclosed in the present disclosure, and may be performed by various types of electronic devices.

엣지 컴퓨팅 장치(110)는 스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신한다(S602). 카메라는 엣지 컴퓨팅 장치(110)에 내장되어 있거나, 엣지 컴퓨팅 장치(110)에 인접하게 배치될 수 있다. 엣지 컴퓨팅 장치(110)는 소정의 입력 인터페이스를 통해 입력 영상을 카메라로부터 수신한다.The edge computing device 110 receives an input image photographed from at least one camera for photographing the school zone (S602). The camera may be embedded in the edge computing device 110 or disposed adjacent to the edge computing device 110 . The edge computing device 110 receives an input image from a camera through a predetermined input interface.

다음으로, 엣지 컴퓨팅 장치(110)는 수신된 입력 영상을 저장한다. 엣지 컴퓨팅 장치(110)는 소정의 비디오 버퍼를 구비하고, 비디오 버퍼에 수신된 입력 영상을 저장할 수 있다.Next, the edge computing device 110 stores the received input image. The edge computing device 110 may include a predetermined video buffer and store the received input image in the video buffer.

다음으로, 엣지 컴퓨팅 장치(110)는 입력 영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델로부터 입력 영상에서 검출된 차량 정보 및 속도 정보를 획득하고, 검출된 속도 정보가 속도 기준 값을 초과하는 과속 이벤트를 검출하여 과속 이벤트 정보를 생성한다(S606). Next, the edge computing device 110 inputs the input image to the first machine learning model, obtains vehicle information and speed information detected from the input image from the first machine learning model, and the detected speed information is a speed reference value Detecting a speeding event exceeding , generates speeding event information (S606).

제1 기계학습 모델은 입력 영상으로부터 차량 정보 및 속도 정보를 획득하도록 학습된 기계학습 모델이다. 제1 기계학습 모델은 엣지 컴퓨팅 장치(110)의 제1 프로세서에 의해 실행되거나, 클라우드 서버에 구비되고 엣지 컴퓨팅 장치(110)와 통신하여 입력 영상으로부터 차량 정보 및 속도 정보를 엣지 컴퓨팅 장치(110)로 출력할 수 있다.The first machine learning model is a machine learning model trained to obtain vehicle information and speed information from an input image. The first machine learning model is executed by the first processor of the edge computing device 110 or is provided in the cloud server and communicates with the edge computing device 110 to obtain vehicle information and speed information from the input image. can be output as

엣지 컴퓨팅 장치(110)는 제1 기계학습 모델로부터 획득된 차량 정보 및 속도 정보에 기초하여, 과속 이벤트 정보를 생성한다. 엣지 컴퓨팅 장치(110)는 제1 기계학습 모델로부터 획득된 속도 정보의 속도 값이 소정의 속도 기준 값을 초과하는 경우, 과속 이벤트가 발생한 것으로 판단하고, 과속 이벤트 정보를 생성한다.The edge computing device 110 generates speeding event information based on vehicle information and speed information obtained from the first machine learning model. When the speed value of speed information obtained from the first machine learning model exceeds a predetermined speed reference value, the edge computing device 110 determines that a speeding event has occurred and generates overspeed event information.

또한, 일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 입력 영상으로부터 보행자 정보를 생성한다. 엣지 컴퓨팅 장치(110)는 입력 영상으로부터 보행자 정보를 생성한다. 엣지 컴퓨팅 장치(110)는 입력 영상을 제1 기계학습 모델에 입력하여 보행자 정보를 획득할 수 있다. 보행자 정보는 입력 영상 내에서 검출된 보행자에 대응하는 영역 정보를 나타낸다. 엣지 컴퓨팅 장치(110)는 제1 기계학습 모델에서 출력된 보행자 정보에 기초하여 보행자 수, 보행자 밀집도 등의 추가 정보를 생성할 수 있다.Also, according to an embodiment, the edge computing device 110 generates pedestrian information from the input image. The edge computing device 110 generates pedestrian information from the input image. The edge computing device 110 may obtain pedestrian information by inputting the input image to the first machine learning model. The pedestrian information represents area information corresponding to the pedestrian detected in the input image. The edge computing device 110 may generate additional information such as the number of pedestrians and the density of pedestrians based on the pedestrian information output from the first machine learning model.

다음으로, 엣지 컴퓨팅 장치(110)는 제1 원격 장치(120) 및 제2 원격 장치(140)로 입력 영상, 차량 정보, 속도 정보, 과속 이벤트 정보, 또는 보행자 정보 중 적어도 하나 또는 이들의 조합을 전송한다(S608). Next, the edge computing device 110 receives at least one or a combination of an input image, vehicle information, speed information, speeding event information, and pedestrian information to the first remote device 120 and the second remote device 140 . It is transmitted (S608).

이외에도, 도 1 내지 23를 참고하여 설명한 본 개시의 실시예들이 엣지 컴퓨팅 장치 제어 방법에 적용될 수 있다. 또한, 도 1 내지 23을 참고하여 설명한 엣지 컴퓨팅 장치(110)의 동작들이 엣지 컴퓨팅 장치 제어 방법의 단계들로 추가될 수 있다. In addition, the embodiments of the present disclosure described with reference to FIGS. 1 to 23 may be applied to an edge computing device control method. Also, operations of the edge computing device 110 described with reference to FIGS. 1 to 23 may be added as steps of the edge computing device control method.

도 7는 본 개시의 일 실시 예에 따른 엣지 컴퓨팅 장치의 구조를 나타낸 도면이다. 도 7에서는 엣지 컴퓨팅 장치(110a)의 카메라(710), 제1 프로세서(210a), 비디오 버퍼(216)를 중심으로 설명하고, 기타 구성은 생략한다.7 is a diagram illustrating a structure of an edge computing device according to an embodiment of the present disclosure. In FIG. 7 , the camera 710 , the first processor 210a , and the video buffer 216 of the edge computing device 110a will be mainly described, and other configurations will be omitted.

본 개시에서 제1 프로세서(210a)내에 정의한 블록들은 본 개시의 실시예들을 수행하기 위한 하드웨어 블록 또는 소프트웨어 처리 단위의 일례일 뿐이고, 본 개시에서 개시된 처리 단위 이외에도 다양한 방식으로 본 개시의 실시예들을 수행하는 처리 단위가 정의될 수 있다.The blocks defined in the first processor 210a in the present disclosure are only examples of hardware blocks or software processing units for performing the embodiments of the present disclosure, and embodiments of the present disclosure are performed in various ways other than the processing units disclosed in the present disclosure. A processing unit may be defined.

엣지 컴퓨팅 장치(110a)의 제1 프로세서(210a)는 코덱(720), 샘플러(730), 제1 기계학습 모델(226), 및 제1 속도 분석부(740)를 포함할 수 있다. 제1 프로세서(210a)의 각 블록은 하드웨어 블록 또는 소프트웨어 블록에 대응될 수 있다. 예를 들면, 제1 프로세서(210a)는 코덱(720)에 대응하는 전용 프로세서, 또는 제1 기계학습 모델(226)에 대응하는 전용 프로세서를 포함할 수 있다.The first processor 210a of the edge computing device 110a may include a codec 720 , a sampler 730 , a first machine learning model 226 , and a first speed analyzer 740 . Each block of the first processor 210a may correspond to a hardware block or a software block. For example, the first processor 210a may include a dedicated processor corresponding to the codec 720 or a dedicated processor corresponding to the first machine learning model 226 .

코덱(720)은 카메라(710)로부터 입력된 입력 동영상을 소정의 규격으로 디코딩한다. 코덱(720)은 예를 들면, AVI, MPEG(Moving Picture Experts Group), MOV, WMV(Window Media Video) 등의 규격을 지원할 수 있다. 코덱(720)은 입력 동영상을 디코딩하여 복수의 입력 프레임을 생성한다.The codec 720 decodes an input video input from the camera 710 into a predetermined standard. The codec 720 may support standards such as, for example, AVI, Moving Picture Experts Group (MPEG), MOV, and Window Media Video (WMV). The codec 720 generates a plurality of input frames by decoding the input video.

샘플러(730)는 코덱(720)으로부터 복수의 입력 프레임을 입력 받아, 복수의 입력 프레임에 대한 샘플링 처리를 수행한다. 예를 들면, 샘플러(730)는 30fps로 입력 프레임을 입력 받아, 3fps로 샘플링할 수 있다. 샘플러(730)의 샘플링 레이트는 실시 예에 따라 달라질 수 있다.The sampler 730 receives a plurality of input frames from the codec 720 and performs sampling processing on the plurality of input frames. For example, the sampler 730 may receive an input frame at 30 fps and sample at 3 fps. A sampling rate of the sampler 730 may vary according to an embodiment.

제1 기계학습 모델(226)은 샘플러(730)로부터 입력된 복수의 입력 프레임으로부터, 각각의 입력 프레임 내의 객체의 식별 정보 및 속도 정보를 생성하여 출력한다. 복수의 입력 프레임은 소정의 전 처리를 거쳐, 제1 기계학습 모델(226)에서 요구되는 입력 벡터로 변환되고, 입력 벡터가 제1 기계학습 모델(226)로 입력될 수 있다. 예를 들면, 전 처리에서 입력 프레임으로부터 차량에 대응하는 적어도 하나의 객체가 검출되고, 적어도 하나의 객체에 대한 정보가 제1 기계학습 모델(226)로 입력될 수 있다. 제1 기계학습 모델(226)에서 생성된 객체의 식별 정보 및 속도 정보는 입력 프레임에 삽입되어 출력된다. 예를 들면, 입력 프레임의 영상 데이터에, 객체의 영역을 나타내는 박스, 객체의 식별 정보를 나타내는 정보(예를 들면 박스의 컬러), 및 각 객체의 속도가 함께 표시될 수 있다. 제1 프로세서(210a)는 제1 기계학습 모델(226)의 출력에 대한 후 처리를 통해, 객체의 식별 정보 및 속도 정보를 영상 데이터에 삽입할 수 있다.The first machine learning model 226 generates and outputs identification information and speed information of an object in each input frame from a plurality of input frames input from the sampler 730 . The plurality of input frames may be converted into input vectors required by the first machine learning model 226 through predetermined pre-processing, and the input vectors may be input to the first machine learning model 226 . For example, in the pre-processing, at least one object corresponding to a vehicle may be detected from an input frame, and information on the at least one object may be input to the first machine learning model 226 . The identification information and speed information of the object generated by the first machine learning model 226 are inserted into the input frame and output. For example, in the image data of the input frame, a box indicating an area of an object, information indicating identification information of an object (eg, a color of a box), and a speed of each object may be displayed together. The first processor 210a may insert object identification information and speed information into the image data through post-processing of the output of the first machine learning model 226 .

제1 속도 분석부(740)는 제1 기계학습 모델(226)로부터 생성된 객체의 식별 정보 및 속도 정보를 입력 받아, 각 객체의 속도가 속도 기준 값을 초과하는지 여부를 판단하고, 과속 이벤트 정보를 생성한다. 속도 기준 값은 어린이 보호 구역의 규정 속도(예를 들면, 30km/h)에 기초하여 결정될 수 있다. 예를 들면, 속도 기준 값은 어린이 보호 구역의 규정 속도의 110%에 해당하는 값으로 결정될 수 있다. 제1 속도 분석부(740)는 입력 프레임 내의 각 객체의 속도가 속도 기준 값을 초과하는 이벤트를 검출한다. 제1 속도 분석부(740)는 처리 결과에 따라 과속 이벤트가 검출되었다는 이벤트 검출 정보 또는 이벤트가 검출되지 않았다는 이벤트 미검출 정보를 생성할 수 있다. 이벤트 검출 정보는, 과속 이벤트가 검출된 객체의 식별 정보 및 프레임 정보(또는 시간 정보)를 포함할 수 있다. The first speed analyzer 740 receives the identification information and speed information of the object generated from the first machine learning model 226, determines whether the speed of each object exceeds a speed reference value, and information about the speeding event to create The speed reference value may be determined based on a prescribed speed (eg, 30 km/h) of the child protection zone. For example, the speed reference value may be determined as a value corresponding to 110% of the prescribed speed of the child protection zone. The first speed analyzer 740 detects an event in which the speed of each object in the input frame exceeds a speed reference value. The first speed analyzer 740 may generate event detection information indicating that a speeding event is detected or event non-detection information indicating that an event is not detected according to the processing result. The event detection information may include identification information and frame information (or time information) of an object in which a speeding event is detected.

엣지 컴퓨팅 장치(110a)의 비디오 버퍼(116)는 코덱(720)으로부터 복호화되어 생성된 복수의 입력 프레임을 포함하는 입력 영상을 저장한다. 비디오 버퍼(116)는 입력 영상을 제1 원격 장치(120), 제2 원격 장치(140), 또는 원격 서버(130) 중 적어도 하나 또는 이들의 조합으로 출력한다.The video buffer 116 of the edge computing device 110a stores an input image including a plurality of input frames decoded and generated by the codec 720 . The video buffer 116 outputs the input image to at least one of the first remote device 120 , the second remote device 140 , and the remote server 130 , or a combination thereof.

도 8는 본 개시의 일 실시 예에 따른 제1 프로세서의 구조를 나타낸 도면이다.8 is a diagram illustrating a structure of a first processor according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 제1 프로세서(210b)는 샘플러(730), 전처리부(810), 제1 기계학습 모델(212), 후처리부(820), 및 제1 속도 분석부(740)를 포함할 수 있다. 도 8의 샘플러(730), 제1 기계학습 모델(212), 및 제1 속도 분석부(740)는 앞서 도 7에서 설명한 것과 동일하므로, 도 8에서는 전처리부(810) 및 후처리부(820)를 중심으로 설명한다.The first processor 210b according to an embodiment of the present disclosure includes a sampler 730 , a preprocessor 810 , a first machine learning model 212 , a postprocessor 820 , and a first speed analyzer 740 . may include Since the sampler 730 , the first machine learning model 212 , and the first speed analyzer 740 of FIG. 8 are the same as those described in FIG. 7 , in FIG. 8 , the preprocessor 810 and the postprocessor 820 . will be explained based on

전처리부(810)는 샘플러(730)로부터 출력된 입력 프레임을 입력 받아, 객체를 검출하고, 객체 정보를 포함하는 입력 벡터를 생성한다. 전처리부(810)는 입력 프레임으로부터 차량에 대응하는 객체를 생성할 수 있다. 전처리부(810)는 입력 프레임으로부터 객체의 위치 정보, 객체 영역의 폭 및 높이 정보, 및 외관 정보를 추출하고, 위치 정보, 폭, 높이, 외관 정보를 포함하는 입력 벡터를 생성할 수 있다. 입력 프레임으로부터 복수의 객체가 검출되는 경우, 각 객체에 대해 위치 정보, 폭, 높이, 외관 정보가 생성된다.The preprocessor 810 receives the input frame output from the sampler 730 , detects an object, and generates an input vector including object information. The preprocessor 810 may generate an object corresponding to the vehicle from the input frame. The preprocessor 810 may extract location information of an object, information about width and height of an object region, and appearance information from an input frame, and generate an input vector including location information, width, height, and appearance information. When a plurality of objects are detected from the input frame, location information, width, height, and appearance information are generated for each object.

일 실시예에 따르면, 전처리부(810)는 기계학습 모델로 구현될 수 있다. 다른 실시 예에 따르면, 전처리부(810)는 소정의 객체 검출 알고리즘을 수행하는 소프트웨어 모듈로 구현될 수 있다.According to an embodiment, the preprocessor 810 may be implemented as a machine learning model. According to another embodiment, the preprocessor 810 may be implemented as a software module that performs a predetermined object detection algorithm.

제1 기계학습 모델(212)은 전처리부(810)에서 생성된 입력 벡터 및 입력 프레임을 입력 받아, 객체의 식별 정보 및 객체의 속도 정보를 생성한다. The first machine learning model 212 receives the input vector and the input frame generated by the preprocessor 810, and generates object identification information and object speed information.

후처리부(820)는 제1 기계학습 모델(212)로부터 출력된 객체의 식별 정보 및 객체의 속도 정보에 기초하여, 각 객체에 대응하는 객체 영역의 영상 데이터를 누적한 복수의 연결선을 생성하고, 복수의 연결선 간의 경로 유사성을 나타내는 관련성 정보를 포함하는 출력 데이터 구조를 생성한다. 각 노드는 각각의 객체에 대응하고, 각 노드에는 객체 영역의 영상 데이터를 잘라서 생성한 영상 데이터가 누적될 수 있다. 출력 데이터 구조는 각 노드를 정의하고, 각 노드 간의 관련성 정보에 따라 각 노드 간의 연결선의 속성을 변경한 모델에 대응될 수 있다.The post-processing unit 820 generates a plurality of connecting lines accumulating image data of an object region corresponding to each object based on the object identification information and the object velocity information output from the first machine learning model 212, Generates an output data structure including relevance information indicating path similarity between a plurality of connecting lines. Each node corresponds to each object, and image data generated by cutting image data of an object region may be accumulated in each node. The output data structure may correspond to a model in which each node is defined and a property of a connection line between each node is changed according to relation information between each node.

후처리부(820)는 그래프 모델에 기초하여, 각 객체의 경로 정보를 추가로 생성할 수 있다. 각 객체의 경로 정보는, 각 객체가 과거의 소정 시간 동안 이동한 궤적을 보여주는 정보이다. 후처리부(820)는 경로 정보의 유사성에 기초하여 관련성 정보를 생성한다.The post-processing unit 820 may additionally generate path information of each object based on the graph model. The path information of each object is information showing a trajectory of each object moving for a predetermined time in the past. The post-processing unit 820 generates relevance information based on the similarity of the path information.

제1 속도 분석부(740)는 제1 기계학습 모델(212)에서 생성된 객체의 식별 정보 및 객체의 속도 정보에 기초하여 이벤트를 검출한다. 제1 속도 분석부(740)는 후처리부(820)에서 생성된 그래프 모델에 기초하여, 객체의 속도가 속도 기준 값을 초과하는 이벤트를 검출할 수 있다. 제1 속도 분석부(740)는 그래프 모델의 각 노드에 누적된 각 객체의 속도 정보에 기초하여 이벤트를 검출할 수 있다.The first speed analyzer 740 detects an event based on the object identification information and the object speed information generated by the first machine learning model 212 . The first speed analyzer 740 may detect an event in which the speed of the object exceeds the speed reference value based on the graph model generated by the post-processing unit 820 . The first speed analyzer 740 may detect an event based on speed information of each object accumulated in each node of the graph model.

도 9는 본 개시의 일 실시 예에 따른 영상 처리 과정을 나타낸 도면이다.9 is a diagram illustrating an image processing process according to an embodiment of the present disclosure.

제1 프로세서(210b)는 전처리, 기계학습 모델 처리, 및 후처리 과정을 거쳐 입력 프레임을 처리한다. 도 9에서는 제1 프로세서(210b)에 의해 수행되는, 전처리(910), 기계학습 모델 처리(920), 및 후처리(930) 과정을 설명한다. The first processor 210b processes the input frame through pre-processing, machine learning model processing, and post-processing. In FIG. 9 , the pre-processing 910 , the machine learning model processing 920 , and the post-processing 930 performed by the first processor 210b will be described.

본 개시의 일 실시 예에 따르면, 전처리(910)는 카메라 캘리브레이션(912), 객체 검출(914), 및 임베딩 처리(916)를 포함한다. 기계학습 모델 처리(920)는 제1 기계학습 모델에 의한 처리를 포함한다. 후처리(930)는 그래프 모델 생성 처리(932) 및 클러스터링 처리(934)를 포함한다.According to an embodiment of the present disclosure, the pre-processing 910 includes a camera calibration 912 , an object detection 914 , and an embedding process 916 . Machine learning model processing 920 includes processing by the first machine learning model. Post-processing 930 includes graph model generation processing 932 and clustering processing 934 .

도 10은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 처리를 나타낸 도면이다.10 is a diagram illustrating a camera calibration process according to an embodiment of the present disclosure.

카메라 캘리브레이션 처리(912)는 입력 프레임에 대해 실제 도로 상에서의 거리를 직사각형 형태로 변환하는 처리이다. 카메라 캘리브레이션 처리(912)는 입력 프레임(1010)에서 도로 상의 동일 거리를 나타내는 기준선(1012a, 1012c) 및 도로 상의 차선 진행 방향을 나타내는 기준선(1012b)를 생성할 수 있다. 일 실시 예에 따르면, 기준선(1012a, 1012b, 및 1012c)은 입력 프레임(1010)에서 검출되는 차선 정보에 기초하여 결정될 수 있다. The camera calibration process 912 is a process for converting the actual distance on the road into a rectangular form with respect to the input frame. The camera calibration process 912 may generate reference lines 1012a and 1012c indicating the same distance on a road and a reference line 1012b indicating a lane traveling direction on the road in the input frame 1010 . According to an embodiment, the reference lines 1012a , 1012b , and 1012c may be determined based on lane information detected in the input frame 1010 .

다음으로 카메라 캘리브레이션 처리(912)는 도로 상의 거리를 차선 진행 방향을 기준으로 나타낸 거리 기준 점(1022)들을 생성할 수 있다. 카메라 캘리브레이션 처리(912)가 수행된 조정 입력 프레임(1020)에 기초하면, 입력 프레임으로부터 객체의 프레임 간 이동 거리를 정확하게 측정할 수 있는 효과가 있다. Next, the camera calibration process 912 may generate distance reference points 1022 indicating the distance on the road based on the lane travel direction. Based on the adjustment input frame 1020 on which the camera calibration process 912 has been performed, there is an effect of accurately measuring the inter-frame movement distance of the object from the input frame.

도 11은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 처리 과정을 나타낸 도면이다. 11 is a diagram illustrating a camera calibration process according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면, 카메라 캘리브레이션 처리(912)는 입력 동영상의 영상 타입 또는 도로 표시 선에 기초하여 카메라 캘리브레이션 처리를 수행할 수 있다. 이를 위해, 카메라 캘리브레이션 처리(912)는 우선 입력 영상(1110)에 기초하여, 영상 타입 또는 도로 표시 선을 식별한다(1112). 영상 타입은 카메라 장비의 종류 및 촬영 구도에 대한 정보를 포함할 수 있다. 도로 표시 선은 차선, 횡단보도, 또는 정지선을 포함할 수 있다. 다음으로, 카메라 캘리브레이션 처리(912)는 영상 타입 또는 도로 표시 선에 기초하여 카메라 캘리브레이션을 수행한다(1114).According to an embodiment of the present disclosure, the camera calibration process 912 may perform a camera calibration process based on an image type of an input video or a road marking line. To this end, the camera calibration process 912 first identifies an image type or a road marking line based on the input image 1110 (operation 1112 ). The image type may include information on a type of camera equipment and a photographing composition. Road marking lines may include lanes, crosswalks, or stop lines. Next, the camera calibration process 912 performs camera calibration based on the image type or road marking line ( 1114 ).

입력 영상(1110)은 다양한 카메라 장비에 이해 촬영되어 획득될 수 있다. 또한, 입력 영상의 촬영 시, 카메라 장비의 촬영 구도도 다양하게 결정될 수 있다. 카메라 캘리브레이션 처리(912)는 입력 영상을 촬영한 카메라 장비의 종류 또는 촬영 구도 중 적어도 하나 또는 이들의 조합에 대한 정보를 나타내는 영상 타입 정보에 기초하여 카메라 캘리브레이션 처리(912)를 수행한다. The input image 1110 may be acquired by being photographed by various camera equipment. In addition, when capturing the input image, the composition of the camera equipment may be variously determined. The camera calibration process 912 performs the camera calibration process 912 based on image type information indicating information on at least one of a type of camera equipment or a shooting composition for capturing an input image, or a combination thereof.

카메라 장비의 종류는 예를 들면, 고정형 CCTV 카메라, 회전형 CCTV 카메라, 또는 드론 카메라 등을 포함할 수 있다. 촬영 구도는 사선 구도, 정면 구도, 또는 상공 촬영 구도 등을 포함할 수 있다. 카메라 캘리브레이션 처리(912)는 카메라 장비가 고정형인지, 회전형인지, 이동형(예를 들면, 드론)인지 여부에 따라, 달라질 수 있다. 카메라 장비가 고정형인 경우, 초기의 카메라 캘리브레이션 처리(912) 이후에 추가적인 카메라 캘리브레이션 처리(912)가 수행되지 않거나, 소정의 주기(예를 들면, 1시간)로 카메라 캘리브레이션 처리(912)가 수행될 수 있다. 카메라 장비가 회전형인 경우, 카메라 장비의 회전(예를 들면, 팬, 틸드 등의 동작)이 발생한 경우, 카메라 캘리브레이션 처리(912)가 수행될 수 있다. 회전형 카메라 장비의 경우, 회전이 발생한 경우 이외에도, 마지막 카메라 캘리브레이션 처리(912) 이후에 소정의 주기로 카메라 캘리브레이션 처리(912)가 수행될 수 있다. 드론 카메라와 같은 이동형 카메라 장비의 경우, 실시간으로 카메라 캘리브레이션 처리(912)가 수행될 수 있고, 예를 들면, 샘플링 처리 이후의 매 입력 프레임마다 카메라 캘리브레이션 처리(912)가 수행될 수 있다.The type of camera equipment may include, for example, a fixed CCTV camera, a rotational CCTV camera, or a drone camera. The photographing composition may include an oblique composition, a front composition, or an overhead photographing composition. The camera calibration process 912 may vary depending on whether the camera equipment is a stationary type, a rotation type, or a mobile type (eg, a drone). When the camera equipment is a fixed type, additional camera calibration processing 912 is not performed after the initial camera calibration processing 912, or the camera calibration processing 912 is performed at a predetermined period (eg, 1 hour). can When the camera equipment is a rotation type, when the camera equipment is rotated (eg, an operation such as pan or tilt) occurs, a camera calibration process 912 may be performed. In the case of rotating camera equipment, in addition to the case in which rotation occurs, the camera calibration process 912 may be performed at a predetermined cycle after the last camera calibration process 912 . In the case of mobile camera equipment such as a drone camera, the camera calibration process 912 may be performed in real time, for example, the camera calibration process 912 may be performed for every input frame after the sampling process.

또한, 카메라 캘리브레이션 처리(912)는 촬영 구도에 따라 달라진다. 카메라 캘리브레이션 처리(912)는 사선 구도, 정면 구도, 또는 상공 촬영 구도인지 여부에 따라 카메라 캘리브레이션 처리(912)의 기준선(1012a, 1012b, 1012c)에 의해 생성되는 사각형의 형태를 다르게 정의한다.In addition, the camera calibration process 912 varies depending on the shooting composition. The camera calibration process 912 defines the shape of a quadrangle generated by the reference lines 1012a, 1012b, and 1012c of the camera calibration process 912 differently depending on whether it is an oblique composition, a front composition, or an overhead composition.

또한, 카메라 캘리브레이션 처리(912)는 차선 등의 도로 표시 선에 기초하여 기준선(1012a, 1012b, 1012c)의 방향 및 거리 기준 점(1022)의 배치를 바탕으로 결정할 수 있다. In addition, the camera calibration process 912 may be determined based on the directions of the reference lines 1012a , 1012b , and 1012c based on road marking lines such as lanes and the arrangement of the distance reference points 1022 .

다시 도 9를 참조하면, 전처리(910)는 객체 검출 처리(914)를 포함한다. 객체 검출 처리(914)는 입력 프레임으로부터 차량에 대응하는 객체를 검출한다. Referring again to FIG. 9 , preprocessing 910 includes object detection processing 914 . The object detection processing 914 detects an object corresponding to the vehicle from the input frame.

도 12은 본 개시의 일 실시 예에 따른 객체 검출 처리를 설명하기 위한 도면이다. 12 is a diagram for describing an object detection process according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면, 객체 검출 처리(914)는 입력 프레임(1210)으로부터 차량에 대응하는 적어도 하나의 객체(1222)를 검출한다. 객체 검출 처리(914)는 입력 프레임(1210)에서 검출된 객체에 대해, 객체 영역에 대응하는 블록(1220)을 정의하고, 블록의 기준 점(1224)의 좌표(x, y), 블록(1220)의 폭(w) 및 블록의 높이(h)를 정의한다. 기준 점(1224)은 예를 들면, 블록(1220)의 좌측 상단의 좌표로 정의될 수 있다. 좌표(x, y)는 입력 프레임(1210) 내에서 가로 축 및 세로 축을 기준으로 한 좌표를 나타낸다. According to an embodiment of the present disclosure, the object detection process 914 detects at least one object 1222 corresponding to the vehicle from the input frame 1210 . The object detection processing 914 defines a block 1220 corresponding to an object region for an object detected in the input frame 1210, coordinates (x, y) of a reference point 1224 of the block, and a block 1220 ) defines the width (w) and the height (h) of the block. The reference point 1224 may be defined, for example, by the coordinates of the upper left corner of the block 1220 . Coordinates (x, y) indicate coordinates based on a horizontal axis and a vertical axis within the input frame 1210 .

또한, 객체 검출 처리(914)는 검출된 객체로부터 외관 정보를 생성할 수 있다. 외관 정보는 예를 들면, 객체의 차종(예를 들면, 승용차, 버스, 트럭, SUV(sport utility vehicle) 등), 색상 등의 정보를 포함할 수 있다. Also, the object detection processing 914 may generate appearance information from the detected object. The appearance information may include, for example, information such as a vehicle type (eg, a passenger car, a bus, a truck, a sport utility vehicle (SUV), etc.) of the object, and a color.

도 13는 본 개시의 일 실시 예에 따른 객체 검출 처리(914)를 나타낸 도면이다. 13 is a diagram illustrating an object detection process 914 according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면, 객체 검출 처리(914)는 순차적으로 입력되는 복수의 입력 프레임으로부터, 프레임 간 중첩 영역 처리(1330) 및 검출된 객체의 외관 유사도 산출 처리(1340)를 수행한다. According to an embodiment of the present disclosure, the object detection processing 914 performs an inter-frame overlap region processing 1330 and an appearance similarity calculation processing 1340 of the detected object from a plurality of sequentially inputted input frames.

프레임 간 중첩 영역 처리(1330)는 시간적으로 인접한 프레임 간의 중첩 영역을 검출하여, 중첩 영역에 대해서 이전 프레임의 처리 결과를 이용한다. 프레임 간 중첩 영역 처리(1330)는 제1 프레임(1332)과, 제1 프레임(1332)의 다음 프레임인 제2 프레임(1334)에서 중첩되는 중첩 영역(1336)을 검출하고, 중첩 영역(1336)에 대해, 제1 프레임(1332)에 대한 객체 검출 처리 결과에 기초하여 제2 프레임(1334)에 대한 객체 검출 처리를 수행한다. 중첩 영역(1336)은 검출된 객체에 기초하여 정의되거나, 영상 유사도에 기초하여 정의될 수 있다.The inter-frame overlap region processing 1330 detects an overlap region between temporally adjacent frames, and uses a processing result of a previous frame for the overlap region. The inter-frame overlap region processing 1330 detects an overlap region 1336 overlapping the first frame 1332 and the second frame 1334 that is a frame following the first frame 1332 , and the overlap region 1336 . , object detection processing is performed on the second frame 1334 based on the object detection processing result of the first frame 1332 . The overlapping region 1336 may be defined based on the detected object or may be defined based on image similarity.

외관 유사도 산출 처리(1340)는 복수의 입력 프레임으로부터 유사한 외관 정보를 갖는 객체들을 검출한다. 예를 들면, 외관 유사도 산출 처리(1340)는 제1 프레임에서 검출한 객체와 제2 프레임에서 검출한 객체 간의 외관 유사도를 산출한다. 일 실시 예에 따르면, 외관 유사도는 입력 프레임으로부터 CNN을 이용하여 생성된 피처 맵에 기초하여 생성될 수 있다. 다른 실시 예에 따르면, 외관 유사도는 제1 프레임의 객체의 외관 정보 및 제2 프레임의 객체의 외관 정보에 기초하여 산출될 수 있다.The appearance similarity calculation processing 1340 detects objects having similar appearance information from a plurality of input frames. For example, the appearance similarity calculation processing 1340 calculates the appearance similarity between the object detected in the first frame and the object detected in the second frame. According to an embodiment, the appearance similarity may be generated based on a feature map generated using a CNN from an input frame. According to another embodiment, the appearance similarity may be calculated based on appearance information of the object of the first frame and appearance information of the object of the second frame.

프레임간 중첩 영역 처리(1330) 및 외관 유사도 산출 처리(1340)에 기초하여 생성된 객체 검출 처리 결과에 기초하여, 트래클렛 정보(V)가 생성된다.Based on the object detection processing result generated based on the inter-frame overlap region processing 1330 and the appearance similarity calculation processing 1340 , the tracklet information V is generated.

다시 도 9를 참조하면, 전처리(910)는 객체 검출 처리(914)의 결과 및 카메라 캘리브레이션 처리(912)가 수행된 입력 프레임에 기초하여 트래클렛 정보 생성 처리(916)를 수행한다. 트래클렛 정보 생성 처리(916)는 객체 검출 처리(914)의 결과 및 입력 프레임으로부터 제1 기계학습 모델에 입력되는 입력 벡터에 대응하는 트래클렛 정보(918)를 생성한다. Referring back to FIG. 9 , the preprocessing 910 performs a tracklet information generation process 916 based on the result of the object detection process 914 and the input frame on which the camera calibration process 912 is performed. The tracklet information generation processing 916 generates tracklet information 918 corresponding to an input vector input to the first machine learning model from the result of the object detection processing 914 and the input frame.

도 14는 본 개시의 일 실시 예에 따른 트래클렛 정보 생성 처리를 설명하기 위한 도면이다. 14 is a diagram for describing a tracklet information generation process according to an embodiment of the present disclosure.

트래클렛 정보 생성 처리(916)는 객체 검출 결과 및 입력 프레임을 입력 받아, 피처 임베딩 처리(1410)를 수행한다. 피처 임베딩 처리(1410)는 객체 검출 결과 및 입력 프레임으로부터 트래클렛 정보(1418)를 생성한다. 트래클렛 정보(1418)는 제1 기계학습 모델에 대응하는 트래클렛 네트워크(1430)로 입력되는 입력 벡터에 대응하는 정보이다. 트래클렛은 트레클렛 네트워크(1430)에서 요구되는 형식으로 검출된 객체의 영역에 대한 영역 정보(1424) 및 외관 정보(1426)를 포함한다. 영역 정보(1424)는 객체 영역에 대응하는 블록의 좌표(x, y), 폭(w), 및 높이(h)를 포함한다. 외관 정보(1426)는 앞서 객체 검출 처리(1414)에서 생성된 외관 정보를 포함한다. 트래클렛 정보(1418)는 한 프레임 내의 각 객체에 대한 정보(1422)를 포함할 수 있다. 트래클렛 정보(1418)는 복수의 객체에 대한 정보를 소정의 형식으로 포함할 수 있다. The tracklet information generation process 916 receives an object detection result and an input frame, and performs a feature embedding process 1410 . The feature embedding process 1410 generates tracklet information 1418 from the object detection result and the input frame. The tracklet information 1418 is information corresponding to an input vector input to the tracklet network 1430 corresponding to the first machine learning model. The tracklet includes area information 1424 and appearance information 1426 about the area of the detected object in a format required by the tracklet network 1430 . The area information 1424 includes coordinates (x, y), a width (w), and a height (h) of a block corresponding to the object area. Appearance information 1426 includes appearance information previously generated in object detection processing 1414 . The tracklet information 1418 may include information 1422 about each object in one frame. The tracklet information 1418 may include information on a plurality of objects in a predetermined format.

다시 도 9를 참조하면, 트래클렛 정보 생성 처리(916)에 의해 생성된 트래클렛 정보(918)는 입력 프레임과 함께 기계학습 모델 처리(920)로 입력된다. 기계학습 모델 처리(920)는 앞서 설명한 제1 기계학습 모델에 의해 트래클렛 정보 및 입력 프레임을 처리한다. Referring back to FIG. 9 , the tracklet information 918 generated by the tracklet information generation processing 916 is input to the machine learning model processing 920 together with the input frame. The machine learning model processing 920 processes the tracklet information and the input frame by the first machine learning model described above.

도 15은 본 개시의 일 실시 예에 따른 트래클렛 네트워크의 구조를 나타낸 도면이다. 15 is a diagram illustrating the structure of a tracklet network according to an embodiment of the present disclosure.

트래클렛 네트워크(1500)는 복수의 레이어를 포함하는 DNN 구조를 갖는다. 트래클렛 네트워크(1500)는 CNN 구조와 RNN 구조의 조합을 포함할 수 있다. 트래클렛 네트워크(1500)는 입력 레이어(1510), 복수의 히든 레이어(1520), 및 출력 레이어(1530)를 포함한다. The tracklet network 1500 has a DNN structure including a plurality of layers. The tracklet network 1500 may include a combination of a CNN structure and an RNN structure. The tracklet network 1500 includes an input layer 1510 , a plurality of hidden layers 1520 , and an output layer 1530 .

입력 레이어(1510)는 적어도 하나의 레이어(1514)를 포함한다. 입력 레이어(1510)는 입력 벡터(1512) 및 입력 프레임을 입력 받아, 적어도 하나의 입력 피처 맵(1522)을 생성한다. The input layer 1510 includes at least one layer 1514 . The input layer 1510 receives an input vector 1512 and an input frame, and generates at least one input feature map 1522 .

적어도 하나의 피처 맵(1522)은 히든 레이어(1520)로 입력되어 처리된다. 히든 레이어(1520)는 소정의 기계학습 알고리즘에 의해 미리 학습되어 생성된다. 히든 레이어(1520)는 적어도 하나의 입력 피처 맵(1522)을 입력 받아, 소정의 액티베이션 처리, 풀링 처리, 선형 처리, 컨벌루션 처리 등을 수행하여, 적어도 하나의 출력 피처 맵(1526)을 생성한다. 일 실시 예에 따르면, 히든 레이어(1520)는 각각의 입력 피처 맵(1522)에 대응하는 처리 레이어를 포함할 수 있다. 피처 맵(1526)은 추가적인 처리를 통해 출력 벡터(1528)의 형태로 변환된다. At least one feature map 1522 is input to the hidden layer 1520 and processed. The hidden layer 1520 is previously learned and generated by a predetermined machine learning algorithm. The hidden layer 1520 receives at least one input feature map 1522 and performs predetermined activation processing, pooling processing, linear processing, convolution processing, etc. to generate at least one output feature map 1526 . According to an embodiment, the hidden layer 1520 may include a processing layer corresponding to each input feature map 1522 . The feature map 1526 is converted into the form of an output vector 1528 through further processing.

출력 벡터(1528)는 출력 레이어(1530)를 통해 트래클렛 네트워크로부터 출력된다. The output vector 1528 is output from the tracklet network through the output layer 1530 .

일 실시예에 따르면, 원격 서버(130)는 제2 기계학습 모델을 포함한다. 원격 서버(130)에 포함되는 제2 기계학습 모델은 트래클렛 네트워크(1500)를 포함한다. 제1 기계학습 모델은 트래클렛 네트워크(1500) 구조에 적어도 하나의 바이패스 경로(1540)가 추가된 구조를 포함한다. 바이패스 경로(1540)의 시작 점과 끝점, 바이패스 경로(1540)의 개수는 실시 예에 따라 달라질 수 있다. 바이패스 경로(1540)가 배치되면, 바이패스 경로의 시작 점에 대응하는 레이어의 출력 값이 바이패스 경로의 끝 점에 대응하는 레이어로 전달되고, 바이패스 경로(1540) 중간의 레이어들에 의한 처리는 수행되지 않고 바이패스 된다. 제1 기계학습 모델은 제2 기계학습 모델의 트래클렛 네트워크(1500)에 바이패스 경로(1540)를 적용하여, 처리량을 줄이고 처리 속도를 현저하게 향상시킬 수 있는 효과가 있다. According to one embodiment, the remote server 130 includes a second machine learning model. The second machine learning model included in the remote server 130 includes a tracklet network 1500 . The first machine learning model includes a structure in which at least one bypass path 1540 is added to the structure of the tracklet network 1500 . The start and end points of the bypass path 1540 and the number of bypass paths 1540 may vary according to embodiments. When the bypass path 1540 is disposed, the output value of the layer corresponding to the start point of the bypass path is transmitted to the layer corresponding to the end point of the bypass path, Processing is not performed and is bypassed. The first machine learning model has the effect of reducing the throughput and remarkably improving the processing speed by applying the bypass path 1540 to the tracklet network 1500 of the second machine learning model.

원격 서버(130)는 엣지 컴퓨팅 장치(110)로부터 입력 영상을 수신하여, 제2 기계학습 모델을 이용하여 차량 정보 및 속도 정보를 생성한다. 일 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 과속 이벤트가 검출된 입력 영상의 입력 프레임 구간을 원격 서버(130)로 전송하고, 원격 서버(130)는 엣지 컴퓨팅 장치(110)로부터 수신된 입력 프레임 구간을 제2 기계학습 모델에 입력하고, 차량 정보 및 속도 정보를 생성하여, 엣지 컴퓨팅 장치(110)로 전송한다. 다른 실시예에 따르면, 엣지 컴퓨팅 장치(110)는 입력 영상 및 과속 이벤트 정보를 원격 서버(130)로 함께 전달하고, 원격 서버(130)는 과속 이벤트가 검출된 입력 프레임 구간에 대해 차량 정보 및 속도 정보를 생성하여, 엣지 컴퓨팅 장치(110)로 전송한다. 엣지 컴퓨팅 장치(110)는 원격 서버(130)로부터 차량 정보 및 속도 정보를 수신하면, 수신된 차량 정보 및 속도 정보로 엣지 컴퓨팅 장치(110)에서 생성된 차량 정보 및 속도 정보를 업데이트한다.The remote server 130 receives an input image from the edge computing device 110 and generates vehicle information and speed information using the second machine learning model. According to an embodiment, the edge computing device 110 transmits the input frame section of the input image in which the speeding event is detected to the remote server 130 , and the remote server 130 receives the input received from the edge computing device 110 . The frame section is input to the second machine learning model, vehicle information and speed information are generated and transmitted to the edge computing device 110 . According to another embodiment, the edge computing device 110 transmits the input image and the speeding event information together to the remote server 130 , and the remote server 130 provides vehicle information and speed for an input frame section in which the speeding event is detected. Information is generated and transmitted to the edge computing device 110 . When the edge computing device 110 receives vehicle information and speed information from the remote server 130 , the edge computing device 110 updates vehicle information and speed information generated by the edge computing device 110 with the received vehicle information and speed information.

다시 도 9를 참조하면, 기계학습 모델 처리(920)에 의해 생성된 각 입력 프레임의 객체의 식별 정보, 속도 정보, 및 트래클렛 정보(918)는 후처리(930)된다. 후처리(930)는 그래프 모델 생성 처리(932) 및 클러스터링 처리(936)를 포함한다. Referring back to FIG. 9 , the object identification information, speed information, and tracklet information 918 of each input frame generated by the machine learning model processing 920 are post-processed 930 . Post-processing 930 includes graph model generation processing 932 and clustering processing 936 .

도 16은 본 개시의 일 실시 예에 따른 그래프 모델을 나타낸 도면이다.16 is a diagram illustrating a graph model according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면, 그래프 모델 생성 처리(932)는 객체의 식별 정보, 속도 정보, 및 트래클렛 정보로부터 그래프 모델(1600)을 생성한다. 그래프 모델(1600)은 적어도 하나의 노드(1610) 및 노드(1610) 사이를 연결하는 적어도 하나의 연결선(1620)를 포함한다. 각 노드(1610)에는 동일 객체에 대한 각 프레임에서의 정보가 저장된다. 그래프 모델 생성 처리(932)는 기계학습 모델에 의해 생성된 객체의 식별 정보에 기초하여 각 노드에 동일 객체에 대한 정보를 식별하여 저장할 수 있다. 예를 들면, 각 노드(1610)는 동일 객체에 대해, 각 프레임에서의 객체 영역 정보, 속도 정보, 또는 영상 데이터(1612) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.According to an embodiment of the present disclosure, the graph model generation process 932 generates the graph model 1600 from identification information of an object, velocity information, and tracklet information. The graph model 1600 includes at least one node 1610 and at least one connection line 1620 connecting the nodes 1610 . In each node 1610, information in each frame of the same object is stored. The graph model generation process 932 may identify and store information about the same object in each node based on the identification information of the object generated by the machine learning model. For example, each node 1610 may include at least one or a combination of object region information, speed information, and image data 1612 in each frame for the same object.

각 노드(1610) 사이에 배치된 연결선(1620)는 각 객체 간의 관련성을 나타낸다. 관련성은 각 객체 간의 경로의 유사성을 나타내는 정보이다. 그래프 모델(1600)은 트래클렛 정보(V)와 관련성 정보(E)의 함수인 g(V,E)로 나타낼 수 있다.A connection line 1620 disposed between each node 1610 indicates a relationship between each object. Relevance is information indicating the similarity of paths between objects. The graph model 1600 may be expressed as g(V,E) which is a function of the tracklet information (V) and the relevance information (E).

도 17는 본 개시의 일 실시 예에 따라 객체 간의 관련성을 산출하는 처리를 나타낸 도면이다.17 is a diagram illustrating a process of calculating a relation between objects according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면, 후처리(930)는 관련성 산출 처리(1700)를 포함한다. 관련성 산출 처리(1700)는 트래클렛 정보로부터 서로 다른 두 객체의 트래클렛 정보를 선택하여, 트래클렛 네트워크(1720)로 입력한다. 선택된 서로 다른 두 객체의 트래클렛 정보는 각 객체에 대해 복수의 프레임으로부터 추출한 트래클렛 정보를 포함할 수 있다.According to an embodiment of the present disclosure, post-processing 930 includes relevance calculation processing 1700 . The relevance calculation processing 1700 selects the tracklet information of two different objects from the tracklet information and inputs it to the tracklet network 1720 . The tracklet information of the two different selected objects may include tracklet information extracted from a plurality of frames for each object.

트래클렛 네트워크(1720)는 서로 다른 두 객체에 대해, 경로의 유사도를 산출하여, 관련성 정보(E)를 생성한다. 관련성 정보(E)가 높으면 두 객체의 경로의 유사도가 높고, 관련성 정보(E)가 낮으면 두 객체의 경로의 유사도가 낮다고 판단할 수 있다. 관련성 정보(E)는 0 이상 1 이하의 값으로 정의될 수 있다. 만약 동일 객체에 대한 트래클렛 정보가 트래클렛 네트워크로 입력되면, 관련성 정보(E)는 1이 나오고, 서로 다른 객체의 트래클렛 정보가 트래클렛 네트워크(1720)로 입력되면, 관련성 정보(E)는 1보다 작은 값은 값으로 나올 수 있다.The tracklet network 1720 generates relevance information (E) by calculating the similarity of paths for two different objects. When the relevance information E is high, it can be determined that the similarity of the paths of two objects is high, and when the relevance information E is low, it can be determined that the similarity of the paths of the two objects is low. The relevance information E may be defined as a value of 0 or more and 1 or less. If tracklet information for the same object is input to the tracklet network, the relevance information (E) is 1, and if tracklet information of different objects is input to the tracklet network 1720, the relevance information (E) is A value less than 1 can be returned as a value.

도 18은 본 개시의 일 실시 예에 따른 그래프 모델 생성 처리 및 클러스터링 처리를 나타낸 도면이다. 18 is a diagram illustrating a graph model generation process and a clustering process according to an embodiment of the present disclosure.

그래프 모델 생성 처리(932)는 앞서 설명한 바와 같이 트래클렛 정보 및 관련성 정보(E)에 기초하여 그래프 모델 생성 처리를 수행한다. 그래프 모델 생성 처리(932)는 관련성 정보(E)에 기초하여 각 노드 사이의 연결선의 속성을 변경할 수 있다. 예를 들면, 그래프 모델 생성 처리(932)는 연결선의 두께를 변경하거나 연결선의 색깔을 변경하여 관련성 정보(E)를 연결선에 나타낼 수 있다. 또한, 그래프 모델 생성 처리(932)는 관련성이 있는 노드를 인접하게 배치하여 관련성 정보(E)에 의해 각 노드를 연결하고, 관련성이 없는 노드는 멀리 배치하여 관련성이 없는 노드 사이에는 연결선을 배치하지 않을 수 있다.The graph model generation processing 932 performs a graph model generation processing based on the tracklet information and the relevance information E as described above. The graph model generation process 932 may change the property of the connection line between each node based on the relevance information E. For example, the graph model generation process 932 may change the thickness of the connecting line or change the color of the connecting line to display the relevance information E on the connecting line. In addition, the graph model generation process 932 arranges related nodes adjacent to each other and connects each node by the relevance information E, and disposes non-relevant nodes away from each other so that no connecting lines are placed between unrelated nodes. it may not be

클러스터링 처리(934)는 관련성 정보(E)에 기초하여 객체들을 클러스터링할 수 있다. 예를 들면, 클러스터링 처리(934)는 관련성이 높은 객체들을 하나의 클러스터(1310a, 1310b, 1310c)로 정의할 수 있다. The clustering process 934 may cluster the objects based on the relevance information E. For example, the clustering process 934 may define highly related objects as one cluster 1310a, 1310b, and 1310c.

도 19는 본 개시의 일 실시 예에 따른 결과 영상을 나타낸 도면이다. 19 is a diagram illustrating a result image according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따르면 입력 프레임에 객체의 식별 정보 및 속도 정보를 삽입할 수 있다. 결과 영상(1900)은 객체 영역을 나타내는 블록(1910), 속도 정보(1920), 및 경로 정보(1930)를 포함할 수 있다. 객체의 식별 정보는 블록(1910)의 색깔에 의해 나타낼 수 있다. 결과 영상(1900)은 검출된 적어도 하나의 객체들 각각에 대해 블록(1910), 속도 정보(1920), 및 경로 정보(1930)를 나타낼 수 있다. 경로 정보(1930)는 미리 설정된 소정의 시간 구간 동안 추적된 경로 정보를 나타낼 수 있다.According to an embodiment of the present disclosure, identification information and speed information of an object may be inserted into an input frame. The result image 1900 may include a block 1910 indicating an object region, speed information 1920 , and path information 1930 . The object identification information may be indicated by the color of the block 1910 . The result image 1900 may indicate a block 1910 , speed information 1920 , and path information 1930 for each of the at least one detected object. The route information 1930 may indicate route information tracked for a preset time period.

결과 영상(1900)은 입력 동영상의 모든 프레임에 대해 생성되거나, 과속 이벤트가 검출된 관심 프레임에 대해서만 생성될 수 있다. 제1 프로세서(210)는 결과 영상(1900)을 생성하여 출력 인터페이스를 통해 출력하거나, 제1 원격 장치(120)로 전송할 수 있다.The resulting image 1900 may be generated for all frames of the input video or only for a frame of interest in which a speeding event is detected. The first processor 210 may generate the result image 1900 and output it through an output interface or transmit it to the first remote device 120 .

도 20은 본 개시의 일 실시예에 따른 스쿨존 모니터링 시스템의 구조를 나타낸 도면이다.20 is a diagram showing the structure of a school zone monitoring system according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 스쿨존 모니터링 시스템(100a)은 엣지 컴퓨팅 장치(110), 스쿨존 모니터링 장치(2010), 클라이언트 장치(122), 및 원격 서버(130)를 포함한다. 일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 앞서 설명한 제1 원격 장치(120)에 대응된다. 다른 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 제1 원격 장치(120) 이외의 별도의 장치에 대응될 수 있다. 예를 들면, 스쿨존 모니터링 장치(2010)는 경찰서, 동사무소 등의 공공 기관에 배치된 전자 장치에 대응되거나, 소정의 권한을 가진 전자 장치에 대응될 수 있다. 본 개시에서는 스쿨존 모니터링 장치(2010)가 앞서 설명된 제1 원격 장치(120)에 대응되는 실시예를 중심으로 설명한다. 그러나 본 개시의 실시예는 스쿨존 모니터링 장치(2010)가 제1 원격 장치(120)에 대응되는 것으로 한정되는 것은 아니며, 실시예에 따라 스쿨존 모니터링 장치(2010)는 다양하게 변경될 수 있다.According to an embodiment of the present disclosure, the school zone monitoring system 100a includes an edge computing device 110 , a school zone monitoring device 2010 , a client device 122 , and a remote server 130 . According to an embodiment, the school zone monitoring device 2010 corresponds to the first remote device 120 described above. According to another embodiment, the school zone monitoring device 2010 may correspond to a device other than the first remote device 120 . For example, the school zone monitoring device 2010 may correspond to an electronic device disposed in a public institution such as a police station or a district office, or may correspond to an electronic device having a predetermined authority. In the present disclosure, an embodiment in which the school zone monitoring device 2010 corresponds to the first remote device 120 described above will be mainly described. However, the exemplary embodiment of the present disclosure is not limited to that the school zone monitoring device 2010 corresponds to the first remote device 120 , and the school zone monitoring device 2010 may be variously changed according to the exemplary embodiment.

스쿨존 모니터링 장치(2010)는 제2 통신부(2012) 및 제2 프로세서(2014)를 포함한다. 제2 통신부(2012)는 앞서 도 2에서 설명한 제1 원격 장치(120)의 제2 통신부(222)에 대응되고, 제2 프로세서(2014)는 앞서 도 2에서 설명한 제1 원격 장치(120)의 제2 프로세서(220)에 대응된다. 따라서 도 20에 대한 설명에서는 앞서 설명된 내용과 중복되는 설명은 생략한다.The school zone monitoring device 2010 includes a second communication unit 2012 and a second processor 2014 . The second communication unit 2012 corresponds to the second communication unit 222 of the first remote device 120 described with reference to FIG. 2 , and the second processor 2014 is the first remote device 120 described with reference to FIG. 2 . It corresponds to the second processor 220 . Therefore, in the description of FIG. 20, a description overlapping with the previously described content will be omitted.

제2 통신부(2012)는 엣지 컴퓨팅 장치(110)로부터 입력 영상, 차량 정보, 속도 정보, 보행자 정보, 과속 이벤트 정보 중 적어도 하나 또는 이들의 조합을 수신한다. 제2 프로세서(2014)는 엣지 컴퓨팅 장치(110)로부터 수신된 입력 영상, 차량 정보, 속도 정보, 및 보행자 정보 중 적어도 하나 또는 이들의 조합을 이용하여 모니터링 정보를 생성한다. 또한, 제2 프로세서(2014)는 모니터링 정보로부터 교통 지도 가이드를 생성한다. The second communication unit 2012 receives at least one of an input image, vehicle information, speed information, pedestrian information, and speeding event information or a combination thereof from the edge computing device 110 . The second processor 2014 generates monitoring information by using at least one of an input image received from the edge computing device 110 , vehicle information, speed information, and pedestrian information, or a combination thereof. In addition, the second processor 2014 generates a traffic map guide from the monitoring information.

제2 프로세서(2014)는 제2 통신부(2012)를 통해 원격 서버(130)로 입력 영상, 차량 정보, 속도 정보, 보행자 정보, 모니터링 정보, 교통 지도 가이드, 및 과속 이벤트 정보 중 적어도 하나 또는 이들의 조합을 전송한다. 또한, 제2 프로세서(2014)는 제2 통신부(2012)를 통해 클라이언트 장치(122)로 모니터링 정보 및 교통 지도 가이드 중 적어도 하나 또는 이들의 조합을 전송한다. The second processor 2014 receives at least one of input image, vehicle information, speed information, pedestrian information, monitoring information, traffic map guide, and speeding event information to the remote server 130 through the second communication unit 2012 or these Send the combination. In addition, the second processor 2014 transmits at least one of the monitoring information and the traffic map guide or a combination thereof to the client device 122 through the second communication unit 2012 .

일 실시예에 따르면, 원격 서버(130)는 제2 기계학습 모델을 포함한다. 엣지 컴퓨팅 장치(110)의 제1 기계학습 모델은, 앞서 도 15에서 설명한 바와 같이, 제2 기계학습 모델의 트래클렛 네트워크(1500)에 바이패스 경로(1540)를 적용한 구조이다. 스쿨존 모니터링 장치(2010)는 수신된 과속 이벤트 정보가 과속 이벤트가 검출됨을 의미하는 이벤트 검출 정보를 포함하는 경우, 과속 이벤트에 대응되는 구간의 입력 영상과 과속 이벤트 정보를 원격 서버(130)로 전송한다. According to one embodiment, the remote server 130 includes a second machine learning model. The first machine learning model of the edge computing device 110 has a structure in which the bypass path 1540 is applied to the tracklet network 1500 of the second machine learning model, as described above with reference to FIG. 15 . When the received speeding event information includes event detection information indicating that a speeding event is detected, the school zone monitoring device 2010 transmits an input image of a section corresponding to the speeding event and speeding event information to the remote server 130 . do.

원격 서버(130)는 스쿨존 모니터링 장치(2010)로부터 입력 영상을 수신하여, 제2 기계학습 모델을 이용하여 차량 정보 및 속도 정보를 생성한다. 일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 과속 이벤트가 검출된 입력 영상의 입력 프레임 구간을 원격 서버(130)로 전송하고, 원격 서버(130)는 스쿨존 모니터링 장치(2010)로부터 수신된 입력 프레임 구간을 제2 기계학습 모델에 입력하고, 차량 정보 및 속도 정보를 생성하여, 스쿨존 모니터링 장치(2010)로 전송한다. 다른 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 입력 영상 및 과속 이벤트 정보를 원격 서버(130)로 함께 전달하고, 원격 서버(130)는 과속 이벤트가 검출된 입력 프레임 구간에 대해 차량 정보 및 속도 정보를 생성하여, 스쿨존 모니터링 장치(2010)로 전송한다. 스쿨존 모니터링 장치(2010)는 원격 서버(130)로부터 차량 정보 및 속도 정보를 수신하면, 수신된 차량 정보 및 속도 정보로 엣지 컴퓨팅 장치(110)에서 생성되어 수신된 차량 정보 및 속도 정보를 업데이트한다.The remote server 130 receives an input image from the school zone monitoring device 2010 and generates vehicle information and speed information using the second machine learning model. According to an embodiment, the school zone monitoring device 2010 transmits the input frame section of the input image in which the speeding event is detected to the remote server 130 , and the remote server 130 receives it from the school zone monitoring device 2010 . The input frame section is input to the second machine learning model, vehicle information and speed information are generated and transmitted to the school zone monitoring device 2010 . According to another embodiment, the school zone monitoring device 2010 transmits the input image and speeding event information together to the remote server 130, and the remote server 130 provides vehicle information and Speed information is generated and transmitted to the school zone monitoring device 2010 . When the school zone monitoring device 2010 receives vehicle information and speed information from the remote server 130, it is generated in the edge computing device 110 with the received vehicle information and speed information and updates the received vehicle information and speed information. .

도 21은 본 개시의 일 실시예에 따른 스쿨존 모니터링 방법을 나타낸 흐름도이다.21 is a flowchart illustrating a school zone monitoring method according to an embodiment of the present disclosure.

본 개시의 일 실시예에 다른 스쿨존 모니터링 방법의 각 단계들은 프로세서 및 통신부를 구비하는 다양한 형태의 전자 장치에 의해 수행될 수 있다. 본 개시는 본 개시의 실시예들에 따른 스쿨존 모니터링 장치(2010)가 스쿨존 모니터링 방법을 수행하는 실시예를 중심으로 설명한다. 따라서 스쿨존 모니터링 장치(2010)에 대해 설명된 실시예들은 스쿨존 모니터링 방법에 대한 실시예들에 적용 가능하고, 반대로 엣지 컴퓨팅 장치 제어 방법에 대해 설명된 실시예들은 스쿨존 모니터링 장치(2010)에 대한 실시예들에 적용 가능하다. 개시된 실시예들에 따른 스쿨존 모니터링 방법은 본 개시에 개시된 스쿨존 모니터링 장치(2010)에 의해 수행되는 것으로 그 실시예가 한정되지 않고, 다양한 형태의 전자 장치에 의해 수행될 수 있다.Each step of the school zone monitoring method according to an embodiment of the present disclosure may be performed by various types of electronic devices including a processor and a communication unit. The present disclosure will focus on an embodiment in which the school zone monitoring apparatus 2010 according to embodiments of the present disclosure performs a school zone monitoring method. Therefore, the embodiments described for the school zone monitoring device 2010 are applicable to the embodiments for the school zone monitoring method, on the contrary, the embodiments described for the edge computing device control method is the school zone monitoring device (2010) Applicable to the embodiments. The school zone monitoring method according to the disclosed embodiments is not limited to being performed by the school zone monitoring device 2010 disclosed in the present disclosure, and may be performed by various types of electronic devices.

우선, 엣지 컴퓨팅 장치(110)는 입력 영상을 수집하고, 수집된 입력 영상을 스쿨존 모니터링 장치(2010)로 전송한다(S2102). 스쿨존 모니터링 장치(2010)는 엣지 컴퓨팅 장치(110)로부터 입력 영상을 수신한다. 또한, 엣지 컴퓨팅 장치(110)는 입력 영상으로부터 제1 기계학습 모델을 이용하여 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보 중 적어도 하나 또는 이들의 조합을 생성하여 스쿨존 모니터링 장치(2010)로 전송한다(S2104). 스쿨존 모니터링 장치(2010)는 엣지 컴퓨팅 장치(110)로부터 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보 중 적어도 하나 또는 이들의 조합을 수신한다. First, the edge computing device 110 collects an input image, and transmits the collected input image to the school zone monitoring device 2010 (S2102). The school zone monitoring device 2010 receives an input image from the edge computing device 110 . In addition, the edge computing device 110 uses the first machine learning model from the input image to generate at least one or a combination of vehicle information, speed information, pedestrian information, and speeding event information, and a school zone monitoring device (2010) to (S2104). The school zone monitoring device 2010 receives at least one or a combination of vehicle information, speed information, pedestrian information, and speeding event information from the edge computing device 110 .

스쿨존 모니터링 장치(2010)는 수신된 차량 정보, 속도 정보, 보행자 정보, 또는 과속 이벤트 정보 중 적어도 하나 또는 이들의 조합에 기초하여, 모니터링 정보를 생성한다(S2106). 또한, 스쿨존 모니터링 장치(2010)는 모니터링 정보에 기초하여 교통 지도 가이드를 생성할 수 있다.The school zone monitoring device 2010 generates monitoring information based on at least one or a combination of the received vehicle information, speed information, pedestrian information, and speeding event information (S2106). Also, the school zone monitoring device 2010 may generate a traffic map guide based on the monitoring information.

스쿨존 모니터링 장치(2010)는 생성된 모니터링 정보를 클라이언트 장치로 전송한다(S2108). 또한, 스쿨존 모니터링 장치(2010)는 교통 지도 가이드를 클라이언트 장치(122)로 전송한다. The school zone monitoring device 2010 transmits the generated monitoring information to the client device (S2108). In addition, the school zone monitoring device 2010 transmits a traffic map guide to the client device 122 .

또한, 스쿨존 모니터링 장치(2010)는 원격 서버(130)로 수집된 입력 영상, 차량 정보, 속도 정보, 또는 보행자 정보 중 적어도 하나 또는 이들의 조합을 원격 서버(130)로 전송한다(S2110). 스쿨존 모니터링 장치(2010)는 생성된 모니터링 정보, 교통 지도 가이드 등의 정보도 원격 서버(130)로 전송할 수 있다.In addition, the school zone monitoring device 2010 transmits at least one or a combination of the input image, vehicle information, speed information, and pedestrian information collected to the remote server 130 to the remote server 130 ( S2110 ). The school zone monitoring device 2010 may also transmit information such as generated monitoring information and a traffic map guide to the remote server 130 .

일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 과속 이벤트가 검출된 경우, 과속 이벤트가 검출된 구간의 입력 영상 및 과속 이벤트 정보를 원격 서버(130)로 전송한다. 원격 서버(130)는 과속 이벤트가 검출된 구간의 입력 영상에 대해, 엣지 컴퓨팅 장치(110)의 제1 기계학습 모델에서 일부 바이패스 경로가 제거된 제2 기계학습 모델을 이용하여, 차량 정보, 속도, 정보, 및 보행자 정보를 생성하여, 스쿨존 모니터링 장치(2010)로 전송한다(S2112).According to an embodiment, when a speeding event is detected, the school zone monitoring apparatus 2010 transmits an input image of a section in which the speeding event is detected and speeding event information to the remote server 130 . The remote server 130 uses the second machine learning model in which some bypass paths are removed from the first machine learning model of the edge computing device 110 for the input image of the section in which the speeding event is detected, vehicle information, The speed, information, and pedestrian information are generated and transmitted to the school zone monitoring device 2010 (S2112).

도 22는 본 개시의 일 실시예에 따른 스쿨존 위험도 정보 및 교통 지도 가이드의 생성 과정을 나타낸 도면이다.22 is a diagram illustrating a process of generating school zone risk information and a traffic map guide according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 입력 영상(2220)으로부터 스쿨존 위험도 정보 및 교통 지도 가이드를 생성한다. 우선 스쿨존 모니터링 장치(2010)는 엣지 컴퓨팅 장치(110)로부터 수신된 차량 정보 및 보행자 정보로부터, 입력 영상(2220)에 포함된 차량 수 및 보행자 수를 산출한다(S2202). 차량 정보는 입력 영상(2220)에서 차량에 대응하는 영역의 정보를 포함하는데, 스쿨존 모니터링 장치(2010)는 이러한 차량 정보로부터 차량에 대응하는 영역의 개수를 카운팅하여 차량 수를 산출할 수 있다. 보행자 정보는 입력 영상(2220)에서 보행자에 대응하는 영역의 정보를 포함하는데, 스쿨존 모니터링 장치(2010)는 이러한 보행자 정보로부터 보행자에 대응하는 영역의 개수를 카운팅하여 차량 수를 산출할 수 있다.According to an embodiment of the present disclosure, the school zone monitoring apparatus 2010 generates school zone risk information and a traffic map guide from the input image 2220 . First, the school zone monitoring device 2010 calculates the number of vehicles and pedestrians included in the input image 2220 from the vehicle information and pedestrian information received from the edge computing device 110 (S2202). The vehicle information includes information on an area corresponding to a vehicle in the input image 2220, and the school zone monitoring apparatus 2010 may calculate the number of vehicles by counting the number of areas corresponding to the vehicle from the vehicle information. The pedestrian information includes information on areas corresponding to pedestrians in the input image 2220, and the school zone monitoring apparatus 2010 may calculate the number of vehicles by counting the number of areas corresponding to pedestrians from the pedestrian information.

다음으로, 스쿨존 모니터링 장치(2010)는 차량 수가 차량 수 기준 값을 초과하는지 판단한다(S2204). 또한, 스쿨존 모니터링 장치(2010)는 보행자 수가 보행자 수 기준 값을 초과하는지 판단한다(S2206). 스쿨존 모니터링 장치(2010)는 차량 수 및 보행자 수에 대한 기준 값 초과 여부 판단 결과에 기초하여, 스쿨존 위험도 정보를 산출한다(S2208). 스쿨존 모니터링 장치(2010)는 차량 수가 차량 수 기준 값을 초과하면 위험도 레벨을 상승시키고, 보행자 수가 보행자 수 기준 값을 초과하면 위험도 레벨을 상승시킨다. Next, the school zone monitoring apparatus 2010 determines whether the number of vehicles exceeds a vehicle number reference value (S2204). In addition, the school zone monitoring apparatus 2010 determines whether the number of pedestrians exceeds a reference value for the number of pedestrians (S2206). The school zone monitoring apparatus 2010 calculates school zone risk information based on the result of determining whether the reference values for the number of vehicles and the number of pedestrians are exceeded (S2208). The school zone monitoring device 2010 increases the risk level when the number of vehicles exceeds the reference value for the number of vehicles, and increases the level of risk when the number of pedestrians exceeds the reference value for the number of pedestrians.

또한, 스쿨존 모니터링 장치(2010)는 산출된 스쿨존 위험도 정보에 기초하여 교통 지도 가이드를 생성한다(S2210). 교통 지도 가이드는 예를 들면, 지도 교사의 등하교 지도를 요청하는 제1 레벨 가이드, 및 교통 경찰의 교통 지도를 요청하는 제2 레벨 가이드를 포함한다. 스쿨존 모니터링 장치(2010)는 예를 들면, 차량 수가 기준 값을 초과하는 경우, 제2 레벨 가이드를 생성하고, 차량 수는 기준 값을 초과하지 않고 보행자 수가 기준 값을 초과하는 경우 제1 레벨 가이드를 생성한다.In addition, the school zone monitoring device 2010 generates a traffic map guide based on the calculated school zone risk information (S2210). The traffic guidance guide includes, for example, a first-level guide that requests guidance from a tutor to provide guidance to and from school, and a second-level guide that requests a traffic guidance from a traffic police. The school zone monitoring device 2010 generates, for example, a second level guide when the number of vehicles exceeds a reference value, and a first level guide when the number of vehicles does not exceed the reference value and the number of pedestrians exceeds the reference value. to create

도 23은 본 개시의 일 실시예에 따라, 스쿨존 환경 정보로부터 스쿨존 위험도 정보 및 교통 지도 가이드를 생성하는 과정을 설명하는 도면이다.23 is a view for explaining a process of generating school zone risk information and a traffic map guide from school zone environment information, according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 다양한 종류의 스쿨존 환경 정보(2310)를 수집하고, 수집된 스쿨존 환경 정보(2310)에 기초하여, 스쿨존 위험도 정보(2320)를 생성한다. 스쿨존 환경 정보(2310)는 차량 수, 보행자 수, 날씨 정보, 시간 정보, 또는 주정차 차량 수 중 적어도 하나 또는 이들의 조합을 포함한다. According to an embodiment of the present disclosure, the school zone monitoring device 2010 collects various types of school zone environment information 2310, and based on the collected school zone environment information 2310, school zone risk information 2320 ) is created. The school zone environment information 2310 includes at least one or a combination of the number of vehicles, the number of pedestrians, weather information, time information, and the number of parked and stopped vehicles.

차량 수 정보 및 보행자 수 정보는 앞서 도 22에서 설명한 바와 같이, 엣지 컴퓨팅 장치(110)로부터 수신된 차량 정보 및 보행자 정보로부터 산출될 수 있다. As described above with reference to FIG. 22 , the vehicle number information and pedestrian number information may be calculated from vehicle information and pedestrian information received from the edge computing device 110 .

날씨 정보는 외부 장치 또는 외부 서버로부터 획득될 수 있다. 예를 들면, 스쿨존 모니터링 장치(2010)는 기상청 서버, 또는 날씨 정보 제공 서비스 서버로부터 날씨 정보를 수신한다. 날씨 정보는 예를 들면, 우천, 맑음, 눈, 안개 등의 소정의 값을 가질 수 있다.The weather information may be obtained from an external device or an external server. For example, the school zone monitoring device 2010 receives weather information from the Meteorological Administration server or a weather information providing service server. The weather information may have a predetermined value, such as rain, sunny, snow, and fog.

시간 정보는 스쿨존 모니터링 장치(2010)에서 보유한 시간 정보로부터 획득될 수 있다. 시간 정보는 소정의 시간대로 정의될 수 있다. 예를 들면, 시간 정보는 등교 시간, 하교 시간, 출근 시간, 퇴근 시간, 혼잡 시간, 일반 시간 등의 소정의 값을 가질 수 있다.The time information may be obtained from time information held by the school zone monitoring device 2010 . The time information may be defined in a predetermined time zone. For example, the time information may have a predetermined value, such as a start time, a dismissal time, a work time, a leave time, a congestion time, and a normal time.

주정차 차량 수는 스쿨존에서 검출되는 주정차 차량의 수를 의미한다. 스쿨존 모니터링 장치(2010)는 엣지 컴퓨팅 장치(110)로부터 수신된 속도 정보에 기초하여, 속도 정보가 0 또는 0에 근사한 값으로 주정차 기준 시간 이상 유지되는 차량을 주정차 차량으로 정의한다. 또한, 스쿨존 모니터링 장치(2010)는 속도 정보가 0 또는 0에 근사한 값으로 주정차 기준 시간 이상 유지되고, 최외곽 차선에서 검출되는 차량 또는 인도에 인접한 차량을 주정차 차량으로 정의한다. 주정차 기준 시간은 예를 들면 차량용 신호의 주행 신호 간의 간격을 나타내는 신호 대기 시간보다 길게 설정될 수 있다. The number of parked and parked vehicles means the number of parked and parked vehicles detected in the school zone. Based on the speed information received from the edge computing device 110 , the school zone monitoring device 2010 defines a vehicle in which the speed information is 0 or a value close to 0 and is maintained for more than the parking and stopping reference time as a parked and stopped vehicle. In addition, the school zone monitoring apparatus 2010 defines a vehicle detected in the outermost lane or a vehicle adjacent to a sidewalk as the vehicle in which the speed information is maintained at 0 or an approximate value of 0 for more than the standard time for parking and stopping, as a vehicle for parking and stopping. The parking stop reference time may be set longer than, for example, a signal waiting time indicating an interval between driving signals of vehicle signals.

스쿨존 모니터링 장치(2010)는 수집되거나 산출된 스쿨존 환경 정보(2310)에 기초하여, 스쿨존 위험도 정보(2320)를 생성한다. 스쿨존 위험도 정보(2320)는 다양한 스쿨존 환경 정보(2310)에 기초하여 그 위험도 레벨이 결정된다. 위험도 레벨은 소정 개수로 정의된다. The school zone monitoring device 2010 generates school zone risk information 2320 based on the collected or calculated school zone environment information 2310 . The risk level of the school zone risk information 2320 is determined based on various school zone environment information 2310 . The risk level is defined as a predetermined number.

스쿨존 모니터링 장치(2010)는 차량 수, 보행자 수, 또는 주정차 차량 수 각각에 대해, 소정의 기준 값을 초과하는 경우, 위험도 레벨을 높게 평가한다. 또한, 스쿨존 모니터링 장치(2310)는 날씨 정보가 우천, 눈, 또는 안개 등에 해당하는 경우 위험도 레벨을 높게 평가한다. 또한, 스쿨존 모니터링 장치(2310)는 등교 시간, 하교 시간, 출근 시간, 퇴근 시간, 또는 혼잡 시간의 경우 위험도 레벨을 높게 평가한다. The school zone monitoring apparatus 2010 highly evaluates the risk level when a predetermined reference value is exceeded for each of the number of vehicles, the number of pedestrians, or the number of parked and stopped vehicles. In addition, the school zone monitoring device 2310 evaluates the risk level high when the weather information corresponds to rain, snow, or fog. In addition, the school zone monitoring device 2310 evaluates the risk level to be high in case of going to school time, leaving school time, going to work time, leaving time, or congested time.

일 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 스쿨존 환경 정보(2310) 중 하나라도 높은 위험도 레벨의 조건에 해당하는 경우, 위험도 레벨을 높게 평가한다. 예를 들면, 날씨 정보가 우천인 경우, 다른 스쿨존 환경 정보(2310)는 위험도 레벨이 높게 평가되지 않더라도 스쿨존 위험도 정보(2320)가 높은 위험도 레벨로 평가될 수 있다. According to an embodiment, the school zone monitoring apparatus 2010 evaluates the risk level to be high when any one of the school zone environment information 2310 corresponds to a condition of a high risk level. For example, when the weather information is rainy, the school zone risk information 2320 may be evaluated as a high risk level even if the other school zone environment information 2310 is not evaluated as a high risk level.

다른 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 시간 정보가 등교 시간 또는 하교 시간인 경우에만, 스쿨존 환경 정보(2310)에 기초하여 스쿨존 위험도 정보(2320) 및 교통 지도 가이드(2330)를 생성하고, 시간 정보가 등교 시간 또는 하교 시간이 아닌 경우, 스쿨존 위험도 정보(2320) 및 교통 지도 가이드(2330)를 평가하지 않는다.According to another embodiment, the school zone monitoring device 2010 is based on the school zone environment information 2310 only when the time information is the start time or the dismissal time, the school zone risk information 2320 and the traffic map guide 2330. , and if the time information is not the start time or the dismissal time, the school zone risk information 2320 and the traffic map guide 2330 are not evaluated.

또 다른 실시예에 따르면, 스쿨존 모니터링 장치(2010)는 각 스쿨존 환경 정보(2310)에 대한 가중치를 산정하고, 각 스쿨존 환경 정보(2310)에 대한 판단 경과에 대해 가중 평균한 평가 값을 산출하고, 평가 값에 기초하여 위험도 레벨을 산출한다.According to another embodiment, the school zone monitoring device 2010 calculates a weight for each school zone environment information 2310, and calculates a weighted average evaluation value for the progress of judgment for each school zone environment information 2310 and calculates a risk level based on the evaluation value.

스쿨존 모니터링 장치(2010)는 스쿨존 위험도 정보(2320)에 기초하여 교통 지도 가이드(2330)를 생성한다. 교통 지도 가이드(2330)는 실시예에 따라 다양한 레벨로 정의될 수 있다. 예를 들면, 교통 지도 가이드(2330)는 지도 교사의 등하교 지도를 요청하는 제1 레벨 가이드 및 교통 경찰의 등하교 지도를 요청하는 제2 레벨 가이드를 포함할 수 있다.The school zone monitoring device 2010 generates a traffic map guide 2330 based on the school zone risk information 2320 . The traffic map guide 2330 may be defined at various levels according to embodiments. For example, the traffic map guide 2330 may include a first-level guide that requests a teacher's guidance to and from school and a second-level guide that requests a traffic police's guidance to and from school.

한편, 개시된 실시 예들은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터로 읽을 수 있는 기록매체의 형태로 구현될 수 있다. 상기 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 상기 명령어는 프로세서에 의해 실행되었을 때, 개시된 실시예들의 소정의 동작들을 수행할 수 있다. Meanwhile, the disclosed embodiments may be implemented in the form of a computer-readable recording medium storing instructions and data executable by a computer. The instructions may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. Further, the instruction, when executed by a processor, may perform certain operations of the disclosed embodiments.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시 예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시 예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시 예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

100, 100a 스쿨존 모니터링 시스템
110, 110a 엣지 컴퓨팅 장치
120 제1 원격 장치
122 클라이언트 장치
130 원격 서버
140 제2 원격 장치
150 제3 원격 장치
210, 210a, 210b 제1 프로세서
212 제1 기계학습 모델
220 제2 프로세서
100, 100a School Zone Monitoring System
110, 110a Edge Computing Device
120 first remote device
122 client device
130 remote server
140 second remote device
150 third remote device
210, 210a, 210b first processor
212 first machine learning model
220 second processor

Claims (18)

스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신하는 입력 인터페이스;
상기 입력 영상을 저장하는 비디오 버퍼;
상기 적어도 하나의 카메라에서 촬영된 입력 영상을 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델로부터 상기 입력 영상에서 검출된 차량 정보 및 속도 정보를 획득하고, 상기 검출된 속도 정보가 속도 기준 값을 초과하는 과속 이벤트를 검출하는 적어도 하나의 제1 프로세서; 및
학교에 설치된 제1 원격 장치, 및 상기 카메라의 설치 지점으로부터 제1 기준 거리만큼 차량 진행 방향의 반대 방향으로 이격되어 설치된 제2 원격 장치와 통신하는 제1 통신부를 포함하고,
상기 적어도 하나의 제1 프로세서는, 상기 제1 원격 장치 및 상기 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트에 대한 과속 이벤트 정보, 또는 상기 입력 영상 중 적어도 하나 또는 이들의 조합을 전송하도록 상기 제1 통신부를 제어하고,
상기 제1 기계학습 모델은 상기 입력 영상에서 인식된 하나 또는 복수의 차량 각각에 대해, 차량 영역 정보를 생성하고,
상기 적어도 하나의 제1 프로세서는 상기 제1 원격 장치로 상기 입력 영상, 및 상기 입력 영상에서 인식된 하나 또는 복수의 차량 각각에 대한 상기 차량 영역 정보를 전송하고,
상기 제1 원격 장치는, 상기 입력 영상에서 검출된 차량 영역의 개수를 카운팅하여 상기 입력 영상에 포함된 차량 수를 산출하고, 상기 차량 수에 기초하여 스쿨존 위험도 정보를 생성하는, 엣지 컴퓨팅 장치.
an input interface for receiving an input image photographed from at least one camera for photographing a school zone;
a video buffer for storing the input image;
The input image captured by the at least one camera is input to a first machine learning model, and vehicle information and speed information detected from the input image are obtained from the first machine learning model, and the detected speed information is a speed reference. at least one first processor to detect a speeding event exceeding a value; and
A first remote device installed in a school, and a first communication unit communicating with a second remote device installed to be spaced apart from the installation point of the camera in a direction opposite to the vehicle traveling direction by a first reference distance,
The at least one first processor, to the first remote device and the second remote device, includes at least one of the vehicle information, the speed information, speeding event information for the speeding event, or the input image, or a combination thereof Control the first communication unit to transmit
The first machine learning model generates vehicle area information for each of one or a plurality of vehicles recognized in the input image,
the at least one first processor transmits the input image and the vehicle area information for each of one or a plurality of vehicles recognized in the input image to the first remote device;
The first remote device calculates the number of vehicles included in the input image by counting the number of vehicle areas detected in the input image, and generates school zone risk information based on the number of vehicles.
제1항에 있어서,
상기 적어도 하나의 제1 프로세서는, 상기 제1 원격 장치로, 상기 입력 영상, 상기 차량 정보, 및 상기 속도 정보를 전송하고, 상기 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 및 상기 과속 이벤트 정보를 전송하도록 상기 제1 통신부를 제어하는, 엣지 컴퓨팅 장치.
According to claim 1,
The at least one first processor transmits the input image, the vehicle information, and the speed information to the first remote device, and transmits the vehicle information, the speed information, and the speed information to the second remote device. An edge computing device that controls the first communication unit to transmit event information.
제1항에 있어서,
상기 적어도 하나의 제1 프로세서는, 상기 제1 기계학습 모델로부터, 상기 스쿨존의 보행자 수 정보를 획득하고,
상기 제1 원격 장치 및 상기 제2 원격 장치 중 적어도 하나로 상기 보행자 수 정보를 전송하도록 상기 제1 통신부를 제어하는, 엣지 컴퓨팅 장치.
According to claim 1,
The at least one first processor obtains, from the first machine learning model, information on the number of pedestrians in the school zone,
An edge computing device for controlling the first communication unit to transmit the number of pedestrians information to at least one of the first remote device and the second remote device.
제3항에 있어서,
상기 제1 통신부는, 보행자 정보를 제공하는 제3 원격 장치와 통신하고,
상기 적어도 하나의 제1 프로세서는, 상기 제3 원격 장치로, 상기 보행자 정보를 전송하는, 엣지 컴퓨팅 장치.
4. The method of claim 3,
The first communication unit communicates with a third remote device that provides pedestrian information,
The at least one first processor is configured to transmit, to the third remote device, the pedestrian information.
제1항에 있어서,
상기 제1 통신부는, BCDMA 통신 모듈을 포함하고, 상기 BCDMA 통신 모듈의 시리얼 포터를 통해, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트 정보를 전송하고, 이더넷 포터를 통해 상기 입력 영상을 전송하는, 엣지 컴퓨팅 장치.
According to claim 1,
The first communication unit includes a BCDMA communication module, and transmits the vehicle information, the speed information, and the speeding event information through the serial port of the BCDMA communication module, and transmits the input image through an Ethernet port. edge computing device.
제1항에 있어서,
상기 적어도 하나의 제1 프로세서는, 상기 입력 영상에서 검출된 차량의 번호판 영역 및 운전자 영역을 검출하고, 상기 번호판 영역 및 운전자 영역의 가시성을 감소시키는 영상 처리를 수행하여 개인 정보가 제거된 수정 입력 영상을 생성하고, 상기 제1 통신부를 통해 상기 수정 입력 영상을 전송하는, 엣지 컴퓨팅 장치.
According to claim 1,
The at least one first processor detects the license plate area and the driver area of the vehicle detected from the input image, and performs image processing to reduce visibility of the license plate area and the driver area to remove personal information from the corrected input image and to transmit the corrected input image through the first communication unit.
제1항 있어서,
상기 적어도 하나의 제1 프로세서는, 상기 제1 기계학습 모델로부터 획득된 상기 차량 정보 및 상기 속도 정보에 기초하여, 상기 스쿨존의 통행량 정보를 산출하고, 상기 제1 통신부를 통해 상기 통행량 정보를 상기 제1 원격 장치 또는 상기 제2 원격 장치로 전송하는, 엣지 컴퓨팅 장치.
The method of claim 1,
The at least one first processor, based on the vehicle information and the speed information obtained from the first machine learning model, calculates the traffic information of the school zone, and transmits the traffic information through the first communication unit. An edge computing device that transmits to the first remote device or the second remote device.
제1항에 있어서,
상기 적어도 하나의 카메라는, 상기 스쿨존의 각 차선마다 설치되고,
상기 적어도 하나의 제1 프로세서는, 상기 적어도 하나의 카메라로부터 획득된 각 차선 별 입력 영상에 기초하여, 차선 별 차량 정보 및 속도 정보를 획득하는, 엣지 컴퓨팅 장치.
According to claim 1,
The at least one camera is installed in each lane of the school zone,
The at least one first processor is configured to obtain vehicle information and speed information for each lane based on an input image for each lane obtained from the at least one camera.
제1항에 있어서,
상기 적어도 하나의 제1 프로세서는, 상기 제1 통신부를 통해, 과속 이벤트가 검출된 경우, 검출된 과속 이벤트에 대응하는 상기 과속 이벤트 정보 및 상기 입력 영상을 원격 서버로 전송하고, 상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 차량 정보, 및 과속 이벤트 정보를 수신하고,
상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고,
상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델인, 엣지 컴퓨팅 장치.
According to claim 1,
When a speeding event is detected through the first communication unit, the at least one first processor transmits the speeding event information and the input image corresponding to the detected speeding event to a remote server, and from the remote server Receive speed information, vehicle information, and speeding event information detected for the input image,
The remote server obtains the speed information and the vehicle information from the input image using a second machine learning model,
The first machine learning model is a machine learning model to which a bypass path is applied to at least one layer of the second machine learning model, an edge computing device.
스쿨존을 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신하는 단계;
상기 입력 영상을 저장하는 단계;
상기 적어도 하나의 카메라에서 촬영된 입력 영상을 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델로부터 상기 입력 영상에서 검출된 차량 정보 및 속도 정보를 획득하는 단계;
상기 검출된 속도 정보가 속도 기준 값을 초과하는 과속 이벤트를 검출하는 단계; 및
학교에 설치된 제1 원격 장치 및 상기 카메라의 설치 지점으로부터 제1 기준 거리만큼 차량 진행 방향의 반대 방향으로 이격되어 설치된 제2 원격 장치로, 상기 차량 정보, 상기 속도 정보, 상기 과속 이벤트에 대한 과속 이벤트 정보, 또는 상기 입력 영상 중 적어도 하나 또는 이들의 조합을 전송하는 단계; 및
를 포함하고,
상기 제1 기계학습 모델은 상기 입력 영상에서 인식된 하나 또는 복수의 차량 각각에 대해, 차량 영역 정보를 생성하고,
상기 전송하는 단계는, 상기 제1 원격 장치로 상기 입력 영상, 및 상기 입력 영상에서 인식된 하나 또는 복수의 차량 각각에 대한 상기 차량 영역 정보를 전송하는 단계를 포함하고,
상기 제1 원격 장치는, 상기 입력 영상에서 검출된 차량 영역의 개수를 카운팅하여 상기 입력 영상에 포함된 차량 수를 산출하고, 상기 차량 수에 기초하여 스쿨존 위험도 정보를 생성하는, 엣지 컴퓨팅 장치 제어 방법.
Receiving an input image photographed from at least one camera for photographing the school zone;
storing the input image;
inputting the input image captured by the at least one camera into a first machine learning model, and obtaining vehicle information and speed information detected from the input image from the first machine learning model;
detecting a speeding event in which the detected speed information exceeds a speed reference value; and
A first remote device installed in a school and a second remote device installed to be spaced apart from the installation point of the camera by a first reference distance in a direction opposite to the vehicle traveling direction, the vehicle information, the speed information, and a speeding event for the speeding event transmitting information or at least one of the input images or a combination thereof; and
including,
The first machine learning model generates vehicle area information for each of one or a plurality of vehicles recognized in the input image,
The transmitting includes transmitting the input image and the vehicle area information for each of one or a plurality of vehicles recognized in the input image to the first remote device,
The first remote device calculates the number of vehicles included in the input image by counting the number of vehicle areas detected in the input image, and generates school zone risk information based on the number of vehicles, Edge computing device control Way.
스쿨존 모니터링 장치에 의해 수행되는 스쿨존 모니터링 방법에 있어서,
스쿨존에 설치된 적어도 하나의 카메라에서 촬영된 입력 영상을 수신하는 단계;
상기 입력 영상으로부터 검출된 차량 정보, 속도 정보, 및 보행자 정보를 원격의 엣지 컴퓨팅 장치로부터 수신하는 단계;
상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 및 상기 보행자 정보에 기초하여, 상기 스쿨존에 대한 모니터링 정보를 생성하는 단계;
상기 모니터링 정보를 적어도 하나의 클라이언트 장치로 전송하는 단계; 및
상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 상기 보행자 정보, 및 상기 모니터링 정보 중 적어도 하나를 원격 서버로 전송하는 단계를 포함하고,
상기 모니터링 정보는, 스쿨존 위험도 정보를 포함하고,
상기 스쿨존의 차량 수를 산출하는 단계;
상기 스쿨존의 차량 수가 차량 수 기준 값을 초과하는지 여부에 기초하여, 상기 스쿨존 위험도 정보를 산출하는 단계; 및
상기 스쿨존 위험도 정보에 기초하여 교통 지도 가이드를 생성하여 출력하는 단계를 더 포함하는, 스쿨존 모니터링 방법.
In the school zone monitoring method performed by the school zone monitoring device,
Receiving an input image captured by at least one camera installed in the school zone;
receiving vehicle information, speed information, and pedestrian information detected from the input image from a remote edge computing device;
generating monitoring information for the school zone based on the input image, the vehicle information, the speed information, and the pedestrian information;
transmitting the monitoring information to at least one client device; and
Transmitting at least one of the input image, the vehicle information, the speed information, the pedestrian information, and the monitoring information to a remote server,
The monitoring information includes school zone risk information,
calculating the number of vehicles in the school zone;
calculating the school zone risk information based on whether the number of vehicles in the school zone exceeds a vehicle number reference value; and
Further comprising the step of generating and outputting a traffic map guide based on the school zone risk information, school zone monitoring method.
제11항에 있어서,
상기 보행자 정보는 보행자 수 정보를 포함하고,
상기 스쿨존 위험도 정보를 산출하는 단계는, 상기 스쿨존의 차량 수가 상기 차량 수 기준 값을 초과하는지 여부 및 상기 스쿨존의 보행자 수가 보행자 수 기준 값을 초과하는지 여부에 기초하여, 상기 스쿨존 위험도 정보를 산출하는 단계를 포함하는, 스쿨존 모니터링 방법.
12. The method of claim 11,
The pedestrian information includes information on the number of pedestrians,
The calculating of the school zone risk information may include: based on whether the number of vehicles in the school zone exceeds the reference value for the number of vehicles and whether the number of pedestrians in the school zone exceeds the reference value for the number of pedestrians, the school zone risk information Including the step of calculating, school zone monitoring method.
제12항에 있어서,
상기 교통 지도 가이드는, 지도 교사의 등하교 지도를 요청하는 제1 레벨 가이드, 및 교통 경찰의 교통 지도를 요청하는 제2 레벨 가이드를 포함하는, 스쿨존 모니터링 방법.
13. The method of claim 12,
The traffic map guide includes a first level guide for requesting a teacher's guidance to and from school, and a second level guide for requesting a traffic map from the traffic police, a school zone monitoring method.
제12항에 있어서,
상기 방법은,
날씨 정보를 수집하는 단계; 및
시간 정보를 수집하는 단계를 더 포함하고,
상기 스쿨존 위험도 정보를 산출하는 단계는, 상기 날씨 정보 및 상기 시간 정보에 더 기초하여, 상기 스쿨존 위험도 정보를 산출하는, 스쿨존 모니터링 방법.
13. The method of claim 12,
The method is
collecting weather information; and
further comprising collecting time information;
In the calculating of the school zone risk information, the school zone monitoring method is further based on the weather information and the time information, calculating the school zone risk information.
제12항에 있어서,
상기 방법은,
최외곽 차선의 주정차 차량 수를 검출하는 단계; 및
상기 주정차 차량 수가 주정차 기준 값을 초과하는지 여부에 더 기초하여, 상기 스쿨존 위험도 정보를 산출하는 단계를 더 포함하는, 스쿨존 모니터링 방법.
13. The method of claim 12,
The method is
detecting the number of parked and stopped vehicles in the outermost lane; and
The method of monitoring a school zone, further comprising the step of calculating the school zone risk information based on whether the number of parked and stopped vehicles exceeds a parked and stopped reference value.
제11항에 있어서,
상기 엣지 컴퓨팅 장치는 상기 입력 영상으로부터 상기 차량 정보 및 상기 속도 정보를 생성하는 제1 기계학습 모델을 포함하고,
상기 방법은,
상기 엣지 컴퓨팅 장치로부터, 속도 기준 값을 초과하는 속도를 갖는 차량을 검출한 과속 이벤트 정보를 수신하는 단계;
상기 과속 이벤트 정보가 검출된 적어도 하나의 입력 영상을, 상기 원격 서버로 전송하는 단계;
상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 차량 정보, 및 과속 이벤트 정보를 수신하는 단계; 및
상기 원격 서버로부터 수신된 상기 속도 정보, 상기 차량 정보, 및 상기 과속 이벤트 정보로 상기 모니터링 정보를 업데이트하는 단계를 더 포함하고,
상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고,
상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델인, 스쿨존 모니터링 방법.
12. The method of claim 11,
The edge computing device includes a first machine learning model that generates the vehicle information and the speed information from the input image,
The method is
receiving, from the edge computing device, speeding event information for detecting a vehicle having a speed exceeding a speed reference value;
transmitting at least one input image in which the speeding event information is detected to the remote server;
receiving speed information, vehicle information, and speeding event information detected with respect to the input image from the remote server; and
The method further comprising the step of updating the monitoring information with the speed information, the vehicle information, and the speeding event information received from the remote server,
The remote server obtains the speed information and the vehicle information from the input image using a second machine learning model,
The first machine learning model is a machine learning model to which a bypass path is applied to at least one layer of the second machine learning model, a school zone monitoring method.
스쿨존에 설치된 적어도 하나의 카메라로부터 입력 영상을 수신하고, 상기 입력 영상으로부터 검출된 차량 정보, 속도 정보, 및 보행자 정보를 원격의 엣지 컴퓨팅 장치로부터 수신하는 통신부; 및
상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 및 상기 보행자 정보에 기초하여, 상기 스쿨존에 대한 모니터링 정보를 생성하고, 상기 통신부를 통해 상기 모니터링 정보를 적어도 하나의 클라이언트 단말로 전송하고, 상기 통신부를 통해, 상기 입력 영상, 상기 차량 정보, 상기 속도 정보, 상기 보행자 정보, 및 상기 모니터링 정보 중 적어도 하나를 원격 서버로 전송하는 프로세서를 포함하고,
상기 모니터링 정보는, 스쿨존 위험도 정보를 포함하고,
상기 프로세서는,
상기 스쿨존의 차량 수를 산출하고,
상기 스쿨존의 차량 수가 차량 수 기준 값을 초과하는지 여부에 기초하여, 상기 스쿨존 위험도 정보를 산출하고,
상기 스쿨존 위험도 정보에 기초하여 교통 지도 가이드를 생성하여 출력하는, 스쿨존 모니터링 장치.
a communication unit that receives an input image from at least one camera installed in a school zone, and receives vehicle information, speed information, and pedestrian information detected from the input image from a remote edge computing device; and
Based on the input image, the vehicle information, the speed information, and the pedestrian information, the monitoring information for the school zone is generated, and the monitoring information is transmitted to at least one client terminal through the communication unit, and the communication unit A processor for transmitting at least one of the input image, the vehicle information, the speed information, the pedestrian information, and the monitoring information to a remote server through
The monitoring information includes school zone risk information,
The processor is
Calculating the number of vehicles in the school zone,
Based on whether the number of vehicles in the school zone exceeds a vehicle number reference value, calculating the school zone risk information,
A school zone monitoring device for generating and outputting a traffic map guide based on the school zone risk information.
제17항에 있어서,
상기 엣지 컴퓨팅 장치는 상기 입력 영상으로부터 상기 차량 정보 및 상기 속도 정보를 생성하는 제1 기계학습 모델을 포함하고,
상기 프로세서는, 상기 엣지 컴퓨팅 장치로부터, 속도 기준 값을 초과하는 속도를 갖는 차량을 검출한 과속 이벤트 정보를 수신하고, 상기 과속 이벤트 정보가 검출된 적어도 하나의 입력 영상을, 상기 원격 서버로 전송하고, 상기 원격 서버로부터 상기 입력 영상에 대해 검출된 속도 정보, 보행자 정보, 및 과속 이벤트 정보를 수신하고, 상기 원격 서버로부터 수신된 상기 속도 정보, 상기 차량 정보, 및 상기 과속 이벤트 정보로 상기 모니터링 정보를 업데이트하고,
상기 원격 서버는 제2 기계학습 모델을 이용하여 상기 입력 영상으로부터 상기 속도 정보 및 상기 차량 정보를 획득하고,
상기 제1 기계학습 모델은 상기 제2 기계학습 모델의 적어도 하나의 레이어에 대해 바이패스 경로를 적용한 기계학습 모델인, 스쿨존 모니터링 장치.
18. The method of claim 17,
The edge computing device includes a first machine learning model that generates the vehicle information and the speed information from the input image,
The processor receives, from the edge computing device, speeding event information in which a vehicle having a speed exceeding a speed reference value is detected, and transmits at least one input image in which the speeding event information is detected to the remote server, , receives the speed information, pedestrian information, and speeding event information detected for the input image from the remote server, and receives the monitoring information with the speed information, the vehicle information, and the speeding event information received from the remote server update,
The remote server obtains the speed information and the vehicle information from the input image using a second machine learning model,
The first machine learning model is a machine learning model to which a bypass path is applied to at least one layer of the second machine learning model, a school zone monitoring device.
KR1020200181513A 2020-12-23 2020-12-23 Apparatus and method for monitoring school zone KR102340902B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200181513A KR102340902B1 (en) 2020-12-23 2020-12-23 Apparatus and method for monitoring school zone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200181513A KR102340902B1 (en) 2020-12-23 2020-12-23 Apparatus and method for monitoring school zone

Publications (1)

Publication Number Publication Date
KR102340902B1 true KR102340902B1 (en) 2021-12-20

Family

ID=79033950

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200181513A KR102340902B1 (en) 2020-12-23 2020-12-23 Apparatus and method for monitoring school zone

Country Status (1)

Country Link
KR (1) KR102340902B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060116759A (en) * 2006-06-08 2006-11-15 (주)한일에스티엠 Method for monitoring of school zone and system thereof
KR20140014987A (en) * 2012-07-27 2014-02-06 휴앤에스(주) Safe cross-walk system on school zone
KR102133913B1 (en) * 2019-11-21 2020-07-15 문병국 Digital display board system using object recognition based on deep learning for providing customized information of object and method for controlling thereof
KR20200095381A (en) * 2019-01-31 2020-08-10 주식회사 스트라드비젼 Method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle
KR102189262B1 (en) * 2020-04-29 2020-12-11 주식회사 글로벌브릿지 Apparatus and method for collecting traffic information using edge computing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060116759A (en) * 2006-06-08 2006-11-15 (주)한일에스티엠 Method for monitoring of school zone and system thereof
KR20140014987A (en) * 2012-07-27 2014-02-06 휴앤에스(주) Safe cross-walk system on school zone
KR20200095381A (en) * 2019-01-31 2020-08-10 주식회사 스트라드비젼 Method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle
KR102133913B1 (en) * 2019-11-21 2020-07-15 문병국 Digital display board system using object recognition based on deep learning for providing customized information of object and method for controlling thereof
KR102189262B1 (en) * 2020-04-29 2020-12-11 주식회사 글로벌브릿지 Apparatus and method for collecting traffic information using edge computing

Similar Documents

Publication Publication Date Title
JP7499256B2 (en) System and method for classifying driver behavior - Patents.com
KR102189262B1 (en) Apparatus and method for collecting traffic information using edge computing
US10296794B2 (en) On-demand artificial intelligence and roadway stewardship system
US9335178B2 (en) Method for using street level images to enhance automated driving mode for vehicle
CN104506804B (en) Motor vehicle abnormal behaviour monitoring device and its method on a kind of through street
KR102652023B1 (en) Method and apparatus for real time traffic information provision
CN112069643B (en) Automatic driving simulation scene generation method and device
CN102945603B (en) Method for detecting traffic event and electronic police device
US20140063196A1 (en) Comprehensive and intelligent system for managing traffic and emergency services
EP3676754A1 (en) On-demand artificial intelligence and roadway stewardship system
US11914041B2 (en) Detection device and detection system
KR20200043252A (en) Overlooking image generation system of vehicle and method thereof
CN113111682A (en) Target object sensing method and device, sensing base station and sensing system
KR101210615B1 (en) Regulation system of u-turn violation vehicle
KR102418051B1 (en) Lane traffic situation judgement apparatus, system, and method thereof
JP7024610B2 (en) Detection device and detection system
KR102340902B1 (en) Apparatus and method for monitoring school zone
JP2022006844A (en) Object detection method and object detection device
Singh et al. A Review: Techniques of vehicle detection in Fog
KR102317311B1 (en) System for analyzing information using video, and method thereof
Sahu Automated vehicle detection and tracking using Raspberry-Pi
Koetsier et al. Trajectory extraction for analysis of unsafe driving behaviour
CN115762153A (en) Method and device for detecting backing up
CN115174889A (en) Position deviation detection method for camera, electronic device, and storage medium
KR102630264B1 (en) System, method and computer program for providing guidance information of intersection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant