[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102507540B1 - Integrated fire monitoring system based on artificial intelligence - Google Patents

Integrated fire monitoring system based on artificial intelligence Download PDF

Info

Publication number
KR102507540B1
KR102507540B1 KR1020200142790A KR20200142790A KR102507540B1 KR 102507540 B1 KR102507540 B1 KR 102507540B1 KR 1020200142790 A KR1020200142790 A KR 1020200142790A KR 20200142790 A KR20200142790 A KR 20200142790A KR 102507540 B1 KR102507540 B1 KR 102507540B1
Authority
KR
South Korea
Prior art keywords
image
fire
event
data
server
Prior art date
Application number
KR1020200142790A
Other languages
Korean (ko)
Other versions
KR20220057783A (en
Inventor
임익기
김태규
이태민
Original Assignee
주식회사 브라이튼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브라이튼 filed Critical 주식회사 브라이튼
Priority to KR1020200142790A priority Critical patent/KR102507540B1/en
Publication of KR20220057783A publication Critical patent/KR20220057783A/en
Application granted granted Critical
Publication of KR102507540B1 publication Critical patent/KR102507540B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/06Electric actuation of the alarm, e.g. using a thermally-operated switch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/10Actuation by presence of smoke or gases, e.g. automatic alarm devices for analysing flowing fluid materials by the use of optical means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Alarm Systems (AREA)

Abstract

본 기술은 인공지능 기반의 통합 화재 감시 시스템에 관한 것이다. 본 기술의 인공지능 기반의 통합 화재 감시 시스템은 서버; 및 감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서와, 상기 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서와, 상기 감시 영역에 대한 적외선 또는 자외선 데이터를 수집하는 수광 센서를 포함하는 서로 이격된 다수의 화재 감지 장치들;을 포함하되, 상기 화재 감지 장치들은 각각, 상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부; 상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부; 상기 적외선 또는 자외선 데이터로부터 기설정된 조건을 만족하는 경우 제3 이벤트 발생으로 판단하는 제3 판단부; 상기 제1 이벤트 내지 제3 이벤트 중 적어도 하나 발생시, 상기 가시광 이미지(제1 이미지)와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지(제2 이미지)를 중첩하는 중첩부; 및 상기 중첩 이미지를 상기 서버로 전송하는 통신부;를 포함한다. 본 기술의 인공지능 기반의 통합 화재 감시 시스템은 에지형 감지 시스템에서 비화재 상황을 보다 정확히 판단함으로써 화재 감지 효율을 높일 수 있는 장치를 제공할 수 있다.This technology relates to an artificial intelligence-based integrated fire monitoring system. The artificial intelligence-based integrated fire monitoring system of this technology includes a server; and a visible light image sensor collecting image data of the monitoring area, a thermal image sensor collecting temperature data of the monitoring area, and a light receiving sensor collecting infrared or ultraviolet data of the monitoring area. a plurality of fire detection devices; wherein each of the fire detection devices includes a first determination unit determining that a first event occurs when a predetermined condition is satisfied from the image data; a second determination unit determining that a second event occurs when a predetermined condition is satisfied from the temperature data; a third determination unit determining that a third event occurs when a predetermined condition is satisfied from the infrared or ultraviolet data; An overlapping unit for overlapping the visible light image (first image) and a thermal image (second image) generated from temperature data that satisfies a predetermined condition among the temperature data when at least one of the first to third events occurs. ; and a communication unit transmitting the overlapped image to the server. The artificial intelligence-based integrated fire monitoring system of this technology can provide a device that can increase fire detection efficiency by more accurately determining a non-fire situation in an edge-type detection system.

Description

인공지능 기반의 통합 화재 감시 시스템{Integrated fire monitoring system based on artificial intelligence}Integrated fire monitoring system based on artificial intelligence}

본 발명은 인공지능 기반의 통합 화재 감시 시스템에 관한 것으로, 보다 구체적으로는 UV 감지 기술이 적용된 인공지능 기반의 통합 화재 감시 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based integrated fire monitoring system, and more particularly, to an artificial intelligence-based integrated fire monitoring system to which UV sensing technology is applied.

CCTV(Closed Circuit Television, 폐쇄 회로 텔레비전)는 특정 건축물이나 시설물에서 특정 수신자를 대상으로 유선 또는 특수 무선 전송로를 이용해 화상을 전송하는 시스템이다.CCTV (Closed Circuit Television) is a system that transmits an image to a specific receiver in a specific building or facility using a wired or special wireless transmission line.

CCTV 방식에는 중앙집중형 감시 시스템과 에지형 감시 시스템이 있다. 중앙집중형은 카메라의 영상을 중앙 센터에서 단순 수집하여 일괄적으로 영상을 분석한다. 에지형은 각 카메라 자체에 영상 분석 기능을 구성하여 특정한 이벤트가 발생하는 경우에만 감시 영상을 전송한다. 후자가 중앙 센터의 부하를 분산하고 전체 트래픽의 양을 크게 줄일 수 있어 최근 많이 활용되고 연구되고 있는 방식 중 하나이다. CCTV systems include a centralized monitoring system and an edge monitoring system. The centralized type simply collects images from cameras at a central center and analyzes them in batches. In the edge type, a video analysis function is configured in each camera itself, and surveillance video is transmitted only when a specific event occurs. The latter is one of the methods that have been widely used and studied recently because it can distribute the load of the central center and greatly reduce the total amount of traffic.

또한 영상 감시의 정확도를 높이기 위해, 가시광 카메라 뿐만 아니라 열화상 카메라도 함께 적용된 CCTV에 대한 연구도 활발하다. In addition, in order to increase the accuracy of video surveillance, research on CCTV, which is applied with a thermal imaging camera as well as a visible light camera, is also active.

이에 더해, 자외선 센서도 함께 활용하여 영상 감시의 정확도를 높이는 연구도 활발하다. 대한민국 등록공보 제10-2088198호는 가시광영상, 열화상영상의 수집과 자외선을 감지하는 기능을 하나의 감시 장치에 통합하여 화재발생을 실시간으로 감지하기 위한 기술을 보여준다. In addition to this, research to increase the accuracy of video surveillance by utilizing UV sensors is also active. Korean Registration Publication No. 10-2088198 shows a technology for real-time detection of a fire by integrating a collection of visible light images and thermal images and a function of detecting ultraviolet rays into one monitoring device.

수집 데이터가 많을수록 당연히 영상 감시의 정확도는 높아진다. 그러나, 반대급부가 따른다. 장비 자체의 비용 증가는 물론, 처리해야 할 데이터량이 크게 늘어나 시스템 구축 및 유지비용이 증가하고 소형화의 한계가 드러난다. The more data collected, the higher the accuracy of video surveillance. However, there is a trade-off. Not only the cost of the equipment itself increases, but also the amount of data to be processed greatly increases, which increases the cost of building and maintaining the system, and reveals the limit of miniaturization.

다양한 종류의 정보를 이용하되 전체 트래픽의 양을 줄이면서도 저비용으로 구축할 수 있는 시스템이 요구되는 이유이다. 한정된 자원 하에서 보다 효율적으로 시스템을 설계하기 위한 노력이 필요한 것이다. This is why a system that can be built at low cost while using various types of information while reducing the total amount of traffic is required. Efforts are needed to design systems more efficiently under limited resources.

한편, 상술한 에지형 감지 시스템은 서버 부하를 줄이기 위해, 에지단에서 이벤트가 발생한 경우에만 서버로 전송해 주게 된다. 이는 서버의 부하를 줄이고 관리자(내지는 상황실의 근무자)의 업무 부담을 줄이는 장점을 갖는다. 그러나, 용접 작업과 같이, 지속적인 화염 감지 이벤트 발생시에는 위와 같은 장점을 누리기 어렵다. 용접 작업의 경우 장시간 지속되므로, 에지형 감시 시스템이라 하더라도 그러한 시간동안 계속하여 서버에 부하가 걸리고, 관리자 또한 계속해서 화면에 집중해야 하는 문제가 발생한다. 이는 결국 화재 감지에 취약점을 드러낸다. Meanwhile, the above-described edge-type detection system transmits the event to the server only when an event occurs at the edge in order to reduce server load. This has the advantage of reducing the load of the server and reducing the workload of the manager (or the worker in the control room). However, it is difficult to enjoy the above advantages when a continuous flame detection event occurs, such as in a welding operation. In the case of welding work, since it lasts for a long time, even with an edge-type monitoring system, a load is applied to the server continuously during that time, and a problem arises in that a manager must also continuously concentrate on the screen. This in turn exposes vulnerabilities in fire detection.

이에 화재 오탐 발생 가능성이 높은 상황인 경우에는, 아예 화재 감지 장치의 작동을 일시적으로 차단해 놓는 경우도 있게 된다. 용접 작업과 같이 특히 화재 발생 위험이 높은 경우에는 더욱 화재 감지가 적극적으로 필요함에도 불구하고 현실적으로 기존의 중앙집중형의 감시에서 발생하는 문제점들이 그대로 에지형에도 존재하게 되는 것이다. Accordingly, in a situation where there is a high possibility of false fire detection, the operation of the fire detection device may be temporarily blocked. Although fire detection is more actively required in case of high risk of fire, such as welding work, in reality, the problems occurring in the existing centralized monitoring still exist in the edge type as it is.

본 발명의 발명자는 이러한 문제점들을 해결하기 위하여 오랫동안 연구하고 시행착오를 거친 끝에 본 발명을 완성하기에 이르렀다.The inventor of the present invention has completed the present invention after long research and trial and error in order to solve these problems.

본 발명의 실시예는 에지형 감지 시스템에서 화재 감지 효율을 보다 높이기 위한 장치를 제공한다.An embodiment of the present invention provides an apparatus for further increasing fire detection efficiency in an edge type detection system.

한편, 본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 것이다.Meanwhile, other unspecified objects of the present invention will be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

본 발명의 실시예에 따른 인공지능 기반의 통합 화재 감시 시스템은, 서버; 및 감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서와, 상기 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서와, 상기 감시 영역에 대한 적외선 또는 자외선 데이터를 수집하는 수광 센서를 포함하는 서로 이격된 다수의 화재 감지 장치들;을 포함하되, 상기 화재 감지 장치들은 각각, 상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부; 상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부; 상기 적외선 또는 자외선 데이터로부터 기설정된 조건을 만족하는 경우 제3 이벤트 발생으로 판단하는 제3 판단부; 상기 제1 이벤트 내지 제3 이벤트 중 적어도 하나 발생시, 상기 가시광 이미지(제1 이미지)와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지(제2 이미지)를 중첩하는 중첩부; 및 상기 중첩 이미지를 상기 서버로 전송하는 통신부;를 포함할 수 있다. An artificial intelligence-based integrated fire monitoring system according to an embodiment of the present invention includes a server; and a visible light image sensor collecting image data of the monitoring area, a thermal image sensor collecting temperature data of the monitoring area, and a light receiving sensor collecting infrared or ultraviolet data of the monitoring area. a plurality of fire detection devices; wherein each of the fire detection devices includes a first determination unit determining that a first event occurs when a predetermined condition is satisfied from the image data; a second determination unit determining that a second event occurs when a predetermined condition is satisfied from the temperature data; a third determination unit determining that a third event occurs when a predetermined condition is satisfied from the infrared or ultraviolet data; An overlapping unit for overlapping the visible light image (first image) and a thermal image (second image) generated from temperature data that satisfies a predetermined condition among the temperature data when at least one of the first to third events occurs. ; and a communication unit transmitting the overlapped image to the server.

상기 화재 감지 장치들은 각각, 상기 중첩 이미지로부터 비화재 이벤트 여부를 판단하고, 비화재 이벤트로 판단된 경우에 상기 중첩 이미지의 상기 서버로의 전송을 차단하고 비화재 메시지가 상기 서버로 전송되도록 하는 AI 처리부;를 더 포함할 수 있다. Each of the fire detection devices determines whether a non-fire event occurs from the overlapping image, and if it is determined to be a non-fire event, the AI blocks transmission of the overlapping image to the server and transmits a non-fire message to the server. It may further include a processing unit;

상기 AI 처리부는, 상기 제1 내지 제3 이벤트가 모두 발생한 것으로 판단된 중첩 이미지에 대해 비화재 이벤트 여부를 판단할 수 있다. The AI processing unit may determine whether or not a non-fire event occurs in the overlapped image in which it is determined that all of the first to third events have occurred.

상기 AI 처리부는, 상기 중첩 이미지가 기설정된 시간 이상으로 전송이 지속되는 경우 비화재 이벤트 여부를 판단할 수 있다. The AI processing unit may determine whether a non-fire event occurs when transmission of the overlapped image continues for a predetermined time or more.

상기 AI 처리부는, 상기 중첩 이미지으로부터 작업자가 존재하는지를 인식하고, 기학습된 작업자와 화염 사이의 거리에 기초하여, 상기 중첩 이미지에서 인식된 작업자 영역과 관심 영역 사이의 거리가 기설정된 값 이내인 경우 비화재 이벤트로 판단할 수 있다. The AI processing unit recognizes whether a worker exists from the overlapped image, and based on the pre-learned distance between the worker and the flame, when the distance between the operator's region recognized in the overlapped image and the region of interest is within a preset value It can be judged as a non-fire event.

상기 관심 영역은 상기 열화상 이미지에 의해 정의되는 고온영역일 수 있다. The region of interest may be a high-temperature region defined by the thermal image.

상기 관심 영역은 상기 영상 데이터 중 기설정된 조건을 만족하는 영상 데이터로부터 생성된 화염패턴에 의해 정의되는 화염영역 일 수 있다. The region of interest may be a flame region defined by a flame pattern generated from image data that satisfies a predetermined condition among the image data.

상기 중첩 이미지에서 2 이상의 상기 작업자 영역 또는 2 이상의 상기 관심 영역이 존재하는 경우, 가장 먼 작업자 영역과 관심 영역 사이의 거리를 기준으로 비화재 이벤트를 판단할 수 있다. When two or more worker areas or two or more areas of interest exist in the overlapping image, a non-fire event may be determined based on a distance between the farthest operator area and the ROI.

상기 서버는, 상기 화재 감지 장치들 중 어느 하나로부터 상기 비화재 메시지를 수신한 경우, 다른 화재 감지 장치들로 이벤트 영상 전송 차단 메시지를 브로드캐스팅할 수 있다. When receiving the non-fire message from any one of the fire detection devices, the server may broadcast an event video transmission blocking message to other fire detection devices.

본 기술은 에지형 감지 시스템에서 비화재 상황을 보다 정확히 판단함으로써 화재 감지 효율을 높일 수 있는 장치를 제공할 수 있다.The present technology can provide a device capable of increasing fire detection efficiency by more accurately determining a non-fire situation in an edge-type detection system.

도 1은 본 발명의 실시예에 따른 인공지능 기반의 통합 화재 감시 시스템의 전체적인 구성을 도시하는 도면이다.
도 2는 본 발명의 실시예에 따른 화재 감지 장치의 구성을 보다 상세하게 도시하는 도면이다.
도 3a 내지 도 3d는 본 발명의 실시예에 따른 화재 감지 장치에 의해 중첩 이미지가 생성되는 과정을 개략적으로 도시하는 도면이다.
도 4a는 본 발명의 실시예에 따른 화재 감지 시스템이 설치된 감시 구역을 위에서 바라본 개략적인 상황을 도시하는 도면이다.
도 4b는 도 4a에서 각 화재 감지 장치들로부터 수신된 이벤트 영상(즉, 중첩 이미지)이 서버와 연결된 디스플레이 장치를 통해 표시되는 일례를 도시하는 도면이다.
도 5는 도 4에서 각 화재 감지 장치들이 이벤트 영상을 서버로 전송함에 있어서 본 발명의 실시예에 따른 AI 처리부가 그러한 전송을 제한하기 위한 영상 분석 과정을 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 AI 처리부의 영상 분석 과정을 보다 상세하게 도시하는 도면이다.
첨부된 도면은 본 발명의 기술사상에 대한 이해를 위하여 참조로서 예시된 것임을 밝히며, 그것에 의해 본 발명의 권리범위가 제한되지는 아니한다.
1 is a diagram showing the overall configuration of an artificial intelligence-based integrated fire monitoring system according to an embodiment of the present invention.
2 is a diagram showing the configuration of a fire detection device according to an embodiment of the present invention in more detail.
3A to 3D are diagrams schematically illustrating a process of generating an overlapping image by a fire detection device according to an embodiment of the present invention.
Figure 4a is a diagram showing a schematic situation viewed from above a monitoring area in which a fire detection system according to an embodiment of the present invention is installed.
FIG. 4B is a diagram illustrating an example in which event images (ie, overlapping images) received from each fire detection device in FIG. 4A are displayed through a display device connected to a server.
FIG. 5 is a diagram showing an image analysis process for limiting such transmission by an AI processing unit according to an embodiment of the present invention when each fire detection device transmits an event image to a server in FIG. 4 .
6 is a diagram illustrating an image analysis process of an AI processing unit according to an embodiment of the present invention in more detail.
It is revealed that the accompanying drawings are illustrated as references for understanding the technical idea of the present invention, and thereby the scope of the present invention is not limited thereto.

이하에서는, 본 발명의 가장 바람직한 실시예가 설명된다. 도면에 있어서, 두께와 간격은 설명의 편의를 위하여 표현된 것이며, 실제 물리적 두께에 비해 과장되어 도시될 수 있다. 본 발명을 설명함에 있어서, 본 발명의 요지와 무관한 공지의 구성은 생략될 수 있다. 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In the following, the most preferred embodiment of the present invention is described. In the drawings, the thickness and interval are expressed for convenience of explanation, and may be exaggerated compared to the actual physical thickness. In describing the present invention, well-known configurations irrelevant to the gist of the present invention may be omitted. In adding reference numerals to the components of each drawing, it should be noted that the same components have the same numbers as much as possible, even if they are displayed on different drawings.

도 1은 본 발명의 실시예에 따른 인공지능 기반의 통합 화재 감시 시스템 의 전체적인 구성을 도시하는 도면이다. 1 is a diagram showing the overall configuration of an artificial intelligence-based integrated fire monitoring system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 인공지능 기반의 통합 화재 감시 시스템(1)(이하, 간단히 '화재 감지 시스템'이라 함)은 서버(100) 및 다수의 화재 감지 장치들(200A 내지 200D)을 포함한다. As shown in FIG. 1, the AI-based integrated fire monitoring system 1 (hereinafter simply referred to as a 'fire detection system') includes a server 100 and a plurality of fire detection devices 200A to 200D. do.

서버(100)는 유무선 통신 네트워크를 통해 다수의 화재 감지 장치들(200A 내지 200D)과 연결된다. The server 100 is connected to a plurality of fire detection devices 200A to 200D through a wired/wireless communication network.

서버(100)는 다수의 화재 감지 장치들(200A 내지 200D)로부터 전송되는 각종 데이터를 수신하여 저장하고, 사용자의 요청에 따라 데이터를 가공할 수 있다. The server 100 may receive and store various data transmitted from the plurality of fire detection devices 200A to 200D, and process the data according to a user's request.

서버는 다수의 화재 감지 장치들(200A 내지 200D)로부터 수집된 감시 결과를 복수의 디스플레이 장치(DS)를 통해 표시할 수 있다. 디스플레이 장치는 가시광 데이터에 기반한 제1 이벤트, 열화상 데이터에 기반한 제2 이벤트 및 적외선/자외선 데이터에 기반한 제3 이벤트에 대응하는 색을 나타낼 수 있다. 색 대신에 또는 색과 함께 패턴을 나타낼 수도 있으며, 점등, 소리, 진동 등과 같은 표식을 함께 나타낼 수도 있다. The server may display monitoring results collected from the plurality of fire detection devices 200A to 200D through the plurality of display devices DS. The display device may display colors corresponding to a first event based on visible light data, a second event based on thermal image data, and a third event based on infrared/ultraviolet data. Patterns may be displayed instead of or together with colors, and signs such as lights, sounds, and vibrations may be displayed together.

서버는 그 내부에 저장소(미도시)를 포함한다. 저장소는 가시광 데이터, 열화상 데이터 및 적외선/자외선 데이터를 일정기간 동안 저장할 수 있다. 저장할 정보의 종류와 저장하는 시간 등의 조건은 사용자의 사용목적이나 저장소의 저장 용량 등을 고려하여 변경될 수 있다. The server includes a storage (not shown) therein. The storage may store visible light data, thermal image data, and infrared/ultraviolet data for a certain period of time. Conditions such as the type of information to be stored and the storage time may be changed in consideration of the user's purpose of use or the storage capacity of the storage.

저장소는 네트워크 비디오 레코더(Network Video Recorder, NVR)일 수 있다. The storage may be a Network Video Recorder (NVR).

서버에는 키보드, 스피커, 마우스, 스크린, 디스플레이 장치와 같은 인터페이스 장치가 연결될 수 있다. 이는 사용자의 의도에 대응하여 감시 결과를 변경하거나 조정할 수 있도록 사용자의 의도를 수신할 수 있다. 또는 사용자의 의도나 자동화된 프로그램 등을 통해 결정된 비상등, 경고등, 알람 등을 수행할 수 있다. Interface devices such as a keyboard, speaker, mouse, screen, and display device may be connected to the server. It can receive the user's intention so that the monitoring result can be changed or adjusted in response to the user's intention. Alternatively, an emergency light, a warning light, an alarm, etc. determined through a user's intention or an automated program may be performed.

본 발명에서는 다수의 화재 감지 장치들(200A 내지 200D)을 대표하여 하나의 화재 감지 장치(200)로 참조할 수 있다. In the present invention, it may be referred to as one fire detection device 200 representing the plurality of fire detection devices 200A to 200D.

도 1의 A부분(화재 감지 장치에 대한 정면도)을 참조하면, 화재 감지 장치(200)는 전방의 소정의 영역에 대한 가시광 이미지를 획득하는 가시광 카메라(VC), 상기 소정의 영역에 대한 열화상 이미지를 획득하는 열화상 카메라(TC)와, 상기 소정의 영역에 대한 적외선/자외선 데이터를 수집하는 수광센서(IV)를 포함한다. Referring to part A of FIG. 1 (a front view of the fire detection device), the fire detection device 200 includes a visible light camera (VC) for obtaining a visible light image of a predetermined area in front, and a heat sensor for the predetermined area. It includes a thermal imaging camera (TC) that acquires a visual image, and a light receiving sensor (IV) that collects infrared/ultraviolet data for the predetermined area.

화재 감지 장치에서 생성되는 이미지 데이터 및 적외선/자외선 데이터는 서버의 저장소에 저장 가능한 형식으로 생성될 수 있다. Image data and infrared/ultraviolet data generated by the fire detection device may be generated in a form that can be stored in a storage of a server.

가시광 카메라(VC)는 가시광 이미지 센서를 포함한다. The visible light camera VC includes a visible light image sensor.

가시광 이미지 센서는 광전환 반도체와 결합소자로 구성된 미세한 화소가 세밀하게 집적된 형태를 포함하며, 각 화소는 렌즈를 통해서 빛 에너지에 의해 발생된 전하를 축적한 후 전송할 수 있다. 본 발명에서는 설명의 편의를 위해 가시광 이미지를 획득하는 장치가 가시광 카메라인 것으로 설명하기로 하나, 본 발명이 이에 한정되지 않으며, 가시광 이미지 센서를 포함하는 영상 카메라, 돔 카메라, 저조도 카메라, 줌 카메라, 웹 카메라 등 다양한 장치일 수 있다. The visible light image sensor includes a form in which minute pixels composed of a light conversion semiconductor and a coupling device are finely integrated, and each pixel can accumulate electric charges generated by light energy through a lens and transmit them. In the present invention, for convenience of description, it will be described that a device for obtaining a visible light image is a visible light camera, but the present invention is not limited thereto, and a video camera including a visible light image sensor, a dome camera, a low light camera, a zoom camera, It may be a variety of devices such as a web camera.

가시광 이미지 센서는 기설정되었거나 사용자의 요구에 의해 정해진 감시 영역에 대한 영상 데이터를 수집한다.The visible light image sensor collects image data for a surveillance area that is preset or determined by a user's request.

열화상 카메라(TC)는 열화상 이미지 센서를 포함한다. The thermal imaging camera (TC) includes a thermal image sensor.

열화상 이미지 센서는 열이 발생하는 물체에서 나오는 적외선을 전기적 신호로 변경하여 그 크기에 따라 색상으로 표시하는 장치이다. 본 발명에서는 설명의 편의를 위해 열화상 이미지를 획득하는 장치가 열화상 카메라인 것으로 설명하기로 하나, 이에 한정되지 않으며, 열화상 이미지 센서를 포함하는 적외선 카메라 등 다양한 장치일 수 있다. A thermal image sensor is a device that converts infrared rays emitted from a heat-generating object into electrical signals and displays them in colors according to their size. In the present invention, for convenience of explanation, it will be described that a device for obtaining a thermal image is a thermal imaging camera, but is not limited thereto, and may be various devices such as an infrared camera including a thermal image sensor.

열화상 이미지 센서는 기설정되었거나 사용자의 요구에 의해 정해진 감시 영역에 대한 온도 데이터를 수집한다. The thermal image sensor collects temperature data for a monitoring area that is preset or determined by a user's request.

수광센서}(IV)는 적외선 센서 또는 자외선 센서를 포함한다. 수광센서는 본 발명에서 적외선/자외선 센서로 참조될 수 있다. The light receiving sensor} (IV) includes an infrared sensor or an ultraviolet sensor. The light receiving sensor may be referred to as an infrared/ultraviolet ray sensor in the present invention.

적외선 센서는 불꽃에서 방사되는 적외선의 변화가 일정량 이상이 될 때 작동하는 것으로, 연소시 탄산가스 분자가 갖는 적외선 파장영역(예를 들어, 4.35 um)에서 공명방사의 원리를 이용하는 장치이다. 이에 한정되지 않으며, 적외선을 수광하여 불꽃을 검출하는 다양한 장치일 수 있다. An infrared sensor operates when the change in infrared radiation emitted from a flame exceeds a certain amount, and is a device using the principle of resonance radiation in the infrared wavelength range (eg, 4.35 um) of carbon dioxide gas molecules during combustion. It is not limited thereto, and may be various devices that detect flames by receiving infrared rays.

자외선 센서는 자외선 중 특정 파장대(예를 들어 185 nm 내지 260 nm)의 자외선에 반응하는 장치이다. 자외선 센서는 일정대의 파장이 들어오면 광전자 발생에 의해 전류가 통하게 되고, 그 전류의 양에 따라 검출된 파장의 상대강도를 측정 및 이 상대강도를 이용하여 불꽃을 감지한다. 이에 한정되지 않으며, 자외선을 수광하여 불꽃을 검출하는 다양한 장치일 수 있다. An ultraviolet sensor is a device that responds to ultraviolet rays of a specific wavelength range (for example, 185 nm to 260 nm) among ultraviolet rays. When a certain range of wavelengths enters the UV sensor, current is passed through photoelectron generation, and the relative intensity of the detected wavelength is measured according to the amount of current, and the flame is sensed using this relative intensity. It is not limited thereto, and may be various devices for detecting flames by receiving ultraviolet rays.

수광센서는 기설정되었거나 사용자의 요구에 의해 정해진 감시 영역에 대한 적외선 또는 자외선 데이터를 수집한다. The light-receiving sensor collects infrared or ultraviolet data for a monitoring area that is previously set or determined by a user's request.

한편, 도 1의 A부분에 도시된 화재 감지 장치에서 가시광 카메라와 열화상 카메라가 이격된 거리는 후술하는 중첩 이미지 생성에 활용될 수 있다. 가시광 카메라와 열화상 카메라의 초점 거리는 각각으로부터 획득되는 가시광 이미지와 열화상 이미지를 중첩하는 맵핑 과정에 활용될 수 있다. Meanwhile, in the fire detection device shown in part A of FIG. 1 , the distance between the visible light camera and the thermal imaging camera may be used to generate an overlapping image to be described later. The focal length of the visible light camera and the thermal imaging camera may be used in a mapping process in which a visible light image and a thermal image obtained from each are overlapped.

이와 같이 화재 감지 장치는 화재 감지에 가시광 이미지, 열화상 이미지 및 적외선/자외선을 모두 활용함으로써 화재 감지의 정확도를 높인다. 예를 들면, 가시광 이미지만을 이용할 때에 오탐률이 높은 몇몇 상황들에 대해, 온도에 관한 열화상 이미지와 적외선/자외선까지 함께 이용하면 예상되는 오탐 상황들(빨강색 장갑 등과 같이)에 대해 오탐률을 크게 낮출 수 있다. As such, the fire detection device increases the accuracy of fire detection by utilizing all of a visible light image, a thermal image, and infrared/ultraviolet rays for fire detection. For example, for some situations in which the false positive rate is high when using only the visible light image, the false positive rate for expected false positive situations (such as red gloves) is reduced when the thermal image related to temperature and infrared/ultraviolet are used together. can be significantly lowered.

이를 위해 본 발명의 실시예에 따른 화재 감지 장치는 가시광 이미지와 열화상 이미지를 생성하여 서버로 전송하고 적외선/자외선 검출 결과를 서버로 전송한다. 이때 화재 감지 장치는 에지형 감시 시스템으로서 이벤트 발생을 자체적으로 판단하고, 이벤트 영상만을 서버로 전송한다. To this end, the fire detection device according to an embodiment of the present invention generates a visible light image and a thermal image, transmits them to the server, and transmits infrared/ultraviolet detection results to the server. At this time, the fire detection device, as an edge-type monitoring system, determines the occurrence of an event by itself and transmits only the event image to the server.

이하 화재 감지 장치의 이벤트 영상 전송 과정을 보다 상세히 살펴본다.Hereinafter, a process of transmitting an event image of the fire detection device will be described in detail.

도 2는 본 발명의 실시예에 따른 화재 감지 장치의 구성을 보다 상세하게 도시하는 도면이다. 2 is a diagram showing the configuration of a fire detection device according to an embodiment of the present invention in more detail.

도 2에 도시된 바와 같이 화재 감지 장치(200)는 가시광 이미지 센서(210), 제1 판단부(220), 열화상 이미지 센서(230), 제2 판단부(240), 적외선/자외선 센서(250), 제3 판단부(260), 중첩부(270), AI 처리부(280) 및 통신부(290)를 포함할 수 있다. As shown in FIG. 2, the fire detection device 200 includes a visible light image sensor 210, a first determination unit 220, a thermal image sensor 230, a second determination unit 240, an infrared/ultraviolet ray sensor ( 250), a third determination unit 260, an overlapping unit 270, an AI processing unit 280, and a communication unit 290.

가시광 이미지 센서(210), 열화상 이미지 센서(230) 및 적외선/자외선 센서(250)의 동작은 상술한 바와 동일한 바, 이하에서는 중첩부, AI 처리부 및 통신부의 동작을 중심으로 살펴본다. Operations of the visible light image sensor 210, the thermal image sensor 230, and the infrared/ultraviolet ray sensor 250 are the same as those described above.

제1 판단부(220)는 가시광 이미지 센서(210)에 의해 수집된 영상 데이터를 분석하여, 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단한다. The first determination unit 220 analyzes the image data collected by the visible light image sensor 210 and determines that a first event occurs when a predetermined condition is satisfied.

예를 들어, 가시광 이미지 센서에 의해 획득된 가시광 이미지를 분석하여 화염패턴이 포함된 경우 제1 이벤트를 발생시킬 수 있다. For example, a first event may be generated when a flame pattern is included by analyzing a visible light image acquired by the visible light image sensor.

이때, 가시광 이미지로부터 화염패턴을 인식하기 위한 여러 기술들 중 하나 이상이 적용될 수 있다. 일례로, 화염이 갖는 색상의 레벨 값이 문턱값을 초과하는지로부터 화염을 판단하는 명도 문턱값을 이용한 알고리즘이 적용될 수 있다. 다른 예로, 화염 후보 영역의 질감 분석이나 그 윤곽의 주파수 성분을 분석하는 공간 영역 분석을 이용한 알고리즘이 적용될 수 있다. 또 다른 예로는, 시간에 따라 변화하는 화염 후보영역의 특정 레벨값의 주파수를 분석하는 시간 영역 주파수 분석 알고리즘이 적용될 수 있다. 어느 경우나, 이벤트 발생을 판단하기 위해 기설정된 조건(즉, 문턱값을 설정하고, 그 문턱값을 초과하는지)을 만족하는지 여부로부터 제1 이벤트를 발생시킨다는 점에서는 공통된다. At this time, one or more of several techniques for recognizing a flame pattern from a visible light image may be applied. For example, an algorithm using a brightness threshold value for determining whether a flame level value of a color of the flame exceeds a threshold value may be applied. As another example, an algorithm using spatial domain analysis for analyzing the texture of the flame candidate region or the frequency component of the contour may be applied. As another example, a time domain frequency analysis algorithm for analyzing a frequency of a specific level value of a flame candidate region that changes over time may be applied. In any case, it is common in that the first event is generated based on whether or not a predetermined condition (ie, setting a threshold value and exceeding the threshold value) is satisfied to determine occurrence of an event.

한편, 화염 대신에 또는 화염과 함께 연기 패턴이 포함된 경우 제1 이벤트를 발생시킬 수도 있다. 마찬가지로 가시광 이미지로부터 연기 패턴을 인식하기 위한 하나 이상의 기술이 적용될 수 있다. 일례로, 적응적 가우시안 혼합모델, 시간 도함수 영상의 일시적 축적 기법 등이 적용될 수 있다. Meanwhile, the first event may be generated when a smoke pattern is included instead of or together with the flame. Similarly, one or more techniques for recognizing smoke patterns from visible light images may be applied. For example, an adaptive Gaussian mixture model, a temporary accumulation technique of a temporal derivative image, and the like may be applied.

제2 판단부(240)는 열화상 이미지 센서(230)에 의해 수집된 온도 데이터를 분석하여, 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단한다. The second determination unit 240 analyzes the temperature data collected by the thermal image sensor 230 and determines that a second event occurs when a predetermined condition is satisfied.

예를 들어, 온도 데이터를 분석하여 기설정된 온도를 초과하는 온도 값이 포함된 경우 제2 이벤트를 발생시킬 수 있다. For example, when the temperature data is analyzed and a temperature value exceeding a preset temperature is included, a second event may be generated.

일례로, 문턱값을 50℃로 설정한 경우, 열화상 이미지 센서에 의해 수집된 온도 데이터에 50℃를 초과하는 값이 존재하면 제2 이벤트를 발생시킨다. For example, when the threshold value is set to 50°C, and a value exceeding 50°C exists in temperature data collected by the thermal image sensor, a second event is generated.

또한 온도 데이터에 문턱값을 초과하는 값이 1개라도 존재하면 이벤트를 발생시킬 수도 있으나 이웃하는 2개 이상의 값이 존재하는 경우로 한정하여 이벤트를 발생시킬 수도 있다. 화재 감지 장치의 사용목적이나 사용환경에 따라 변경될 수 있다. In addition, an event may be generated when there is even one value exceeding the threshold in the temperature data, but an event may be generated only when two or more neighboring values exist. It can be changed according to the purpose of use or use environment of the fire detection device.

한편, 열화상 이미지 센서는 온도 데이터를 수집하여 색상 데이터(즉, 열화상 이미지)로 변환하는 바, 변환 후의 색상 데이터를 활용하여(즉, 열화상 이미지 중에서 문턱값을 초과하는 색상 값이 존재하는지 여부로부터) 제2 이벤트 발생을 판단할 수도 있으나, 본 발명에서는 변환 전의 온도 데이터를 활용하는 실시예를 중심으로 설명한다. On the other hand, the thermal image sensor collects temperature data and converts it into color data (i.e., thermal image), and uses the color data after conversion (i.e., determines whether color values that exceed the threshold value exist in the thermal image). It is also possible to determine the occurrence of the second event), but in the present invention, an embodiment in which temperature data before conversion is utilized will be mainly described.

제3 판단부(260)는 적외선/자외선 센서(250)에 의해 수집된 적외선 또는 자외선 데이터를 분석하여, 기설정된 조건을 만족하는 경우 제3 이벤트 발생으로 판단한다. The third determination unit 260 analyzes the infrared or ultraviolet data collected by the infrared/ultraviolet sensor 250 and determines that a third event occurs when a predetermined condition is satisfied.

예를 들어, 적외선 데이터를 분석하여 기설정된 파장대의 적외선이 일정량 이상일 때에 제3 이벤트를 발생시킬 수 있다. 일례로, 4.35 um 대역에 수광량이 문턱값 이상이면 제3 이벤트를 발생시킬 수 있다. For example, a third event may be generated when infrared data in a predetermined wavelength range is greater than or equal to a predetermined amount by analyzing infrared data. For example, if the amount of light received in the 4.35 um band is greater than or equal to a threshold value, a third event may be generated.

또는 예를 들어, 자외선 데이터를 분석하여 기설정된 파장대의 자외선이 일정량 이상일 때에 제3 이벤트를 발생시킬 수 있다. 일례로, 185 nm 내지 260 nm 대역에 수광량이 문턱값 이상이면 제3 이벤트를 발생시킬 수 있다. Alternatively, for example, a third event may be generated when ultraviolet light in a predetermined wavelength range is greater than or equal to a predetermined amount by analyzing ultraviolet light data. For example, when the amount of light received in the 185 nm to 260 nm band is greater than or equal to a threshold value, a third event may be generated.

한편, 적외선/자외선 센서는 적외선 데이터와 자외선 데이터 모두를 이용할 수도 있으나, 본 발명에서는 설명의 편의를 위해 자외선 데이터만을 이용하는 실시예를 중심으로 설명하기로 한다. 또한, 본 발명에서는 설명의 편의를 위해, 적외선 데이터 또는 자외선 데이터를 수집하거나, 저장한다고 표현하나, 수광센서는 이들 데이터를 수집하여 전류 값으로 변환하는 바, 실제 수집되거나 저장되는 것은 전류 값일 수 있다. Meanwhile, the infrared/ultraviolet sensor may use both infrared data and ultraviolet data, but in the present invention, for convenience of description, an embodiment using only ultraviolet data will be mainly described. In addition, in the present invention, for convenience of explanation, it is expressed as collecting or storing infrared data or ultraviolet data, but the light receiving sensor collects these data and converts them into current values, and what is actually collected or stored may be current values. .

중첩부(270)는 제1 이벤트 내지 제3 이벤트 중 적어도 하나 발생시 가시광 카메라(VC)라에 의해 획득된 가시광 이미지와 열화상 카메라(TC)에 의해 획득된 열화상 이미지를 중첩한다. The overlapping unit 270 overlaps the visible light image obtained by the visible light camera VC and the thermal image obtained by the thermal imaging camera TC when at least one of the first to third events occurs.

중첩된 이미지의 서버(100)로의 전송은 통신부(290)에 의해 수행될 수 있다. 화재 감지 장치는 서버와 통신하기 위한 통신부를 더 포함한다. Transmission of the superimposed image to the server 100 may be performed by the communication unit 290 . The fire detection device further includes a communication unit for communicating with the server.

본 발명의 실시예에 따른 중첩부의 중첩 과정은 가시광 이미지의 제1 레이어와 열화상 이미지의 제2 레이어를 중첩하는 맵핑 과정을 포함할 수 있다. An overlapping process of the overlapping unit according to an embodiment of the present invention may include a mapping process of overlapping the first layer of the visible light image and the second layer of the thermal image.

이때, 가시광 이미지의 제1 레이어(이하 간단히 '제1 레이어'라 함)는 전방의 소정의 영역에 대한 가시광 이미지가 그대로 활용됨에 비해, 열화상 이미지의 제2 레이어(이하 간단히 '제2 레이어'라 함)는 전방의 소정의 영역에 대한 일부 온도 값(즉, 문턱값을 초과하는 온도 값)만이 추출된 열화상 이미지라는 점에 주목한다. At this time, the first layer of the visible light image (hereinafter simply referred to as 'first layer') is a visible light image for a predetermined area in the front, while the second layer of the thermal image (hereinafter simply referred to as 'second layer') ) is a thermal image from which only some temperature values (ie, temperature values exceeding a threshold value) for a predetermined area in front are extracted.

구체적으로, 제2 레이어는 제1 레이어와의 중첩 과정 이전에, 문턱값을 초과하는 부분에 대해서만 추출 과정이 이루어진 후에 제1 레이어와 중첩된다. Specifically, the second layer is overlapped with the first layer after an extraction process is performed only on a portion exceeding a threshold before overlapping with the first layer.

본 발명의 실시예에 따르면, 제2 레이어를 위한 문턱값과 상술한 제2 이벤트 발생 판단을 위한 문턱값은 서로 다르게 설정될 수 있다. 제2 이벤트 발생 판단 과정과 제2 레이어 생성 과정은 서로 별도의 프로세스에 해당하기 때문이다. 이벤트 발생 판단은 감시 영상의 전송 시작 시점에 관한 것이고, 제2 레이어 생성은 실제로 관리자에게 제공될 감시 영상에 관한 것이기 때문이다. According to an embodiment of the present invention, the threshold value for the second layer and the above-described threshold value for determining occurrence of the second event may be set differently. This is because the process of determining the occurrence of the second event and the process of creating the second layer correspond to separate processes. This is because event occurrence determination is related to the transmission start point of the monitoring image, and generation of the second layer is related to the monitoring image to be actually provided to the manager.

예를 들어, 제2 레이어를 위한 문턱값이 제2 이벤트 발생 판단을 위한 문턱값보다 낮을 수 있다. 일례로, 전자가 30℃이고, 후자가 50℃일 수도 있다. 제2 레이어 문턱값을 상대적으로 낮게 설정함으로써 (관리자가 디스플레이 장치를 통해 육안으로 확인하면서 수행되는) 관리자에 의한 실제 모니터링이 보다 낮은 온도에서 보다 정밀하게 이루어지도록 한다. For example, the threshold for the second layer may be lower than the threshold for determining the occurrence of the second event. For example, the former may be 30°C and the latter may be 50°C. By setting the second layer threshold to be relatively low, actual monitoring by the manager (which is performed while the manager visually checks through the display device) is performed more accurately at a lower temperature.

본 발명의 실시예에 따르면, 추출 과정은 문턱값을 초과하는 온도 데이터에 대해서만 색상 데이터로 변환하는 과정을 포함한다. 즉, 제2 이벤트가 발생된 부분만 추출된 후 제2 레이어가 된다. 만약 제2 이벤트가 발생된 부분이 없다면 추출될 것이 없으므로 제로 데이터가 제2 레이어가 될 수 있다. 또는 제로 데이터는 투명한 이미지를 나타내는 데이터를 포함할 수 있다. According to an embodiment of the present invention, the extraction process includes a process of converting only temperature data exceeding a threshold value into color data. That is, after only the part where the second event has occurred is extracted, it becomes the second layer. If there is no part where the second event has occurred, since there is nothing to be extracted, zero data can be the second layer. Alternatively, the zero data may include data representing a transparent image.

도 3a 내지 도 3d는 이러한 과정을 개략적으로 보여준다. Figures 3a to 3d schematically show this process.

도 3a는 모든 이벤트들이 발생한 상황을, 도 3b 내지 도 3d는 제1 이벤트 내지 제3 이벤트 중 순서대로 어느 하나의 이벤트만이 발생한 상황에 관한 것이다.FIG. 3A relates to a situation in which all events occur, and FIGS. 3B to 3D relate to a situation in which only one of the first to third events occurs sequentially.

도 3a에 도시된 바와 같이, 전방의 소정의 영역(예를 들어, 화력 발전소 내부 배열회수 보일러 설치 구역)에서 용접 작업으로 인해 제1 이벤트 내지 제3 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 서버 관리자는 디스플레이 장치를 통해 중첩 이미지(OL)를 보고서 화재 발생 여부를 가시광 영상뿐만 아니라 열화상을 통해 신속히 판단할 수 있다. As shown in FIG. 3A, the first to third events occur due to the welding operation in a predetermined area in front (for example, the heat recovery boiler installation area inside the thermal power plant), and the first to third events of the visible light image for this occur. The layer L1 and the second layer L2 of the thermal image may be overlapped and transmitted to the server. The server manager can quickly determine whether or not a fire has occurred through a thermal image as well as a visible light image by looking at the overlapped image OL through the display device.

도면에서 화염영역이 도면부호 WF로, 고온영역이 도면부호 T로 참조된다. 도 3a의 중첩 이미지에서 화염영역(WF)과 고온영역(T)이 대체로 일치한다. In the drawings, the flame region is referred to as WF, and the high temperature region is referred to as T. In the overlapping image of FIG. 3A , the flame area WF and the high temperature area T generally coincide.

도 3b에 도시된 바와 같이, 전방의 소정의 영역에서 용접 작업으로 인해 제1 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 마찬가지로, 서버 관리자는 디스플레이 장치를 통해 중첩 이미지(OL)를 보고서 화재 발생 여부를 가시광 영상뿐만 아니라 열화상을 통해 신속히 판단할 수 있다.As shown in FIG. 3B, a first event occurs due to a welding operation in a predetermined area in front, and the first layer L1 of the visible light image and the second layer L2 of the thermal image are overlapped with respect to the welding operation. can be sent to the server. Similarly, the server manager can quickly determine whether or not a fire has occurred through a thermal image as well as a visible light image by looking at the overlapped image OL through the display device.

이때, 열화상 이미지의 제2 레이어(L2)는 제로 데이터임을 주목한다. 제2 이벤트가 발생하지 않았기 때문이다. 화재 감지시에는 여러 상황에 의해 제2 이벤트가 발생하지 않는 경우를 가정할 수 있다. 일례로, 열화상 카메라의 경우 기기마다 정해진 분해 거리가 있으므로, 거리가 너무 먼 경우 기설정된 조건을 만족하는 온도 데이터가 없을 수 있다. 이처럼 제1 이벤트만이 발생하였음에도 중첩 이미지를 생성하여 서버로 전송하여 서버 관리자에 의해 화재 발생 여부를 판단할 수 있도록 한다. At this time, note that the second layer L2 of the thermal image is zero data. This is because the second event did not occur. When detecting a fire, it may be assumed that the second event does not occur due to various circumstances. For example, since a thermal imaging camera has a predetermined decomposition distance for each device, if the distance is too long, there may be no temperature data that satisfies a predetermined condition. As such, even though only the first event occurs, an overlapping image is generated and transmitted to the server so that the server manager can determine whether a fire has occurred.

도면에서 화염영역이 도면부호 WF로 참조된다. 도면에서는 기설정된 조건을 만족하는 고온영역이 존재하지 않아 중첩 이미지(OL)에서도 고온영역이 존재하지 않는다. In the drawings, the flame region is referred to by the reference WF. In the drawing, since there is no high-temperature region that satisfies the predetermined condition, there is no high-temperature region in the overlapping image OL.

다음으로, 도 3c에 도시된 바와 같이, 전방의 소정의 영역에서 용접 작업으로 인해 제2 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 상술한 도 3b의 경우처럼 세 이벤트들 중 하나의 이벤트만이 발생하였음에도 중첩 이미지(OL)가 생성되어 서버로 전송됨에 주목한다. 서버 관리자는 디스플레이 장치를 통해 화재 발생을 가시광 영상으로부터는 드러나지 않는 열 감지를 통해 신속히 판단할 수 있다. Next, as shown in FIG. 3C, a second event occurred due to a welding operation in a predetermined area in front, and a first layer L1 of a visible light image and a second layer L2 of a thermal image for this event occurred. may be overlapped and transmitted to the server. Note that, as in the case of FIG. 3B described above, even though only one of the three events occurs, the overlapping image OL is generated and transmitted to the server. The server manager can quickly determine the occurrence of a fire through the display device through heat detection that is not revealed from the visible light image.

도 3c에서는 가시광 이미지에서 화염영역이 별도로 표시되지 않고 열화상 이미지에서 고온영역이 존재하며, 중첩 이미지(OL)에서도 화염영역 없이 고온영역만이 존재한다. 제1 이벤트가 발생하지 않았기 때문이다. 화재 감지시에는 여러 상황에 의해 제1 이벤트가 발생하지 않는 경우를 가정할 수 있다. 일례로, 가시광 카메라의 경우 기기마다 정해진 분해 거리가 있으므로, 거리가 너무 먼 경우 기설정된 조건을 만족하는 영상 데이터가 없을 수 있다. 이처럼 제2 이벤트만이 발생하였음에도 중첩 이미지를 생성하여 서버로 전송하여 서버 관리자에 의해 화재 발생 여부를 판단할 수 있도록 한다.In FIG. 3C , the flame region is not separately displayed in the visible light image, and the high temperature region exists in the thermal image, and only the high temperature region exists without the flame region in the overlapped image OL. This is because the first event did not occur. When detecting a fire, it may be assumed that the first event does not occur due to various circumstances. For example, in the case of a visible light camera, since each device has a predetermined decomposition distance, if the distance is too long, there may be no image data that satisfies the predetermined condition. As such, even though only the second event occurs, an overlapping image is generated and transmitted to the server so that the server manager can determine whether a fire has occurred.

그리고, 도 3d에 도시된 바와 같이, 전방의 소정의 영역에서 용접 작업으로 인해 제3 이벤트가 발생하였고, 이에 대한 가시광 이미지의 제1 레이어(L1) 및 열화상 이미지의 제2 레이어(L2)가 중첩되어 서버로 전송될 수 있다. 상술한 도 3b 및 도 3c의 경우처럼 세 이벤트들 중 하나의 이벤트만이 발생하였음에도 중첩 이미지(OL)가 생성되어 서버로 전송됨에 주목한다. 서버 관리자는 디스플레이 장치를 통해 화재 발생을 가시광 영상이나 열화상으로부터는 드러나지 않는 적외선/자외선 감지를 통해 신속히 판단할 수 있다. And, as shown in FIG. 3D, a third event occurred due to the welding operation in a predetermined area in front, and the first layer L1 of the visible light image and the second layer L2 of the thermal image for this event occurred. It can be nested and sent to the server. Note that, as in the case of FIGS. 3B and 3C described above, even though only one of the three events occurs, the overlapping image OL is generated and transmitted to the server. The server administrator can quickly determine the occurrence of a fire through the display device through infrared/ultraviolet detection that is not revealed from visible light images or thermal images.

도 3d에서는 가시광 이미지에서 화염영역이 별도로 표시되지 않고 열화상 이미지에서도 고온영역이 존재하지 않아 중첩 이미지(OL)에서도 화염영역과 고온영역이 존재하지 않는다. 제1 및 제2 이벤트들이 발생하지 않았기 때문이다. 화재 감지시에는 여러 상황에 의해 제1 이벤트와 제2 이벤트가 발생하지 않는 경우를 가정할 수 있다. 상술한 바와 같이, 각각의 분해 거리가 있기 때문이다. 이처럼 제3 이벤트만이 발생하였음에도 중첩 이미지를 생성하여 서버로 전송하여 서버 관리자에 의해 화재 발생 여부를 육안으로 확인할 수 있도록 한다. In FIG. 3D , since the flame region is not separately displayed in the visible light image and the high temperature region is not present in the thermal image, neither the flame region nor the high temperature region exists in the overlapped image OL. This is because the first and second events did not occur. When detecting a fire, it may be assumed that the first event and the second event do not occur due to various circumstances. As described above, this is because there is a respective resolution distance. As such, even though only the third event occurs, an overlapping image is generated and transmitted to the server so that the server administrator can visually check whether or not a fire has occurred.

상기와 같이 이벤트가 발생함으로서 화재 감지 장치단에서 서버단으로 영상의 전송이 이루어진다. 이하 영상의 전송이 제한되는 과정을 살펴본다. As the event occurs as described above, the image is transmitted from the fire detection device end to the server end. Hereinafter, a process of limiting transmission of an image will be described.

에지형 감시 시스템은 중앙 센터의 부하를 분산하고 전체 트래픽의 양을 줄이기 위한 것인 바, 용접 작업과 같이 오탐 확률이 매우 높은 상황에 대한 처리 과정 또한 설정될 필요가 있다. Since the edge-type monitoring system is intended to distribute the load of the central center and reduce the total amount of traffic, it is necessary to set a processing procedure for a situation with a very high false positive probability, such as a welding operation.

도 4a는 본 발명의 실시예에 따른 화재 감지 시스템이 설치된 감시 구역을 위에서 바라본 개략적인 상황을 도시하는 도면이다. Figure 4a is a diagram showing a schematic situation viewed from above a monitoring area in which a fire detection system according to an embodiment of the present invention is installed.

도 4b는 도 4a에서 각 화재 감지 장치들로부터 수신된 이벤트 영상(즉, 중첩 이미지)이 서버와 연결된 디스플레이 장치를 통해 표시되는 일례를 도시하는 도면이다. FIG. 4B is a diagram illustrating an example in which event images (ie, overlapping images) received from each fire detection device in FIG. 4A are displayed through a display device connected to a server.

그리고, 도 5는 도 4에서 각 화재 감지 장치들이 이벤트 영상을 서버로 전송함에 있어서 본 발명의 실시예에 따른 AI 처리부가 그러한 전송을 제한하기 위한 영상 분석 과정을 보여주는 도면이다.And, FIG. 5 is a diagram showing an image analysis process for limiting such transmission by an AI processing unit according to an embodiment of the present invention when each fire detection device transmits an event image to a server in FIG. 4 .

먼저 도 4a를 참조하면, 4대의 화재 감지 장치들(200A 내지 200D)이 소정의 감시 구역에 설치된다. 소정의 감시 구역은 화력발전소 내부 배열회수 보일러 설치 구역일 수 있다. 설명의 편의를 위해 화재 감지 장치가 4대인 경우를 가정할 뿐 본 발명이 개수에 한정되지 않는다. First, referring to FIG. 4A , four fire detection devices 200A to 200D are installed in a predetermined monitoring area. The predetermined monitoring area may be a heat recovery boiler installation area inside a thermal power plant. For convenience of description, it is assumed that there are four fire detection devices, but the present invention is not limited to the number.

각 화재 감지 장치는 전방의 영역(점선으로 표시된 감시 가능 영역)을 감시하면서, 제1 이벤트 내지 제3 이벤트 중 적어도 하나 발생시 중첩 이미지를 서버(100)로 전송한다. 이로써, 도 5에 도시된 바와 같은 감시 영상이 디스플레이 장치(Monitor)를 통해 표시된다. Each fire detection device transmits an overlapping image to the server 100 when at least one of the first to third events occurs while monitoring a front area (surveillable area indicated by a dotted line). As a result, the surveillance image as shown in FIG. 5 is displayed through the display device (Monitor).

도면상 좌측 상단의 화재 감지 장치부터 차례대로 제1 화재 감지 장치(200A), 제2 화재 감지 장치(200B), 제3 화재 감지 장치(200C) 및 제4 화재 감지 장치(200D)로 참조한다. 도면상 좌측 상단의 배열회수 보일러부터 차례대로 제1 배열회수 보일러(B1), 제2 배열회수 보일러(B2), 제3 배열회수 보일러(B3) 및 제4 배열회수 보일러(B4)로 참조한다. The first fire detection device 200A, the second fire detection device 200B, the third fire detection device 200C, and the fourth fire detection device 200D are sequentially referred to from the fire detection device at the upper left in the drawing. Referring to the first heat recovery boiler (B1), the second heat recovery boiler (B2), the third heat recovery boiler (B3), and the fourth heat recovery boiler (B4) in order from the heat recovery boiler at the upper left in the drawing.

이벤트 발생시 제1 화재 감지 장치(200A)가 전송한 이벤트 영상이 디스플레이 장치에서 채널1(CH1)로 표시된다. 순서대로, 제2 화재 감지 장치(200B)가 전송한 이벤트 영상이 채널2(CH2)로, 제3 화재 감지 장치(200C)가 전송한 이벤트 영상이 채널3(CH3)으로, 그리고, 제24화재 감지 장치(200D)가 전송한 이벤트 영상이 채널4(CH4)로 참조된다. When an event occurs, the event image transmitted by the first fire detection device 200A is displayed as channel 1 (CH1) on the display device. In order, the event image transmitted by the second fire detection device (200B) is channel 2 (CH2), the event image transmitted by the third fire detection device (200C) is channel 3 (CH3), and the 24th fire The event image transmitted by the sensing device 200D is referred to as channel 4 (CH4).

도 4에 도시된 바와 같이, 제3 배열회수 보일러(B3)에서 용접 작업이 진행됨에 따라, 제1 이벤트 내지 제3 이벤트를 감지한 제1 화재 감지 장치(200A)가 화염영역(WF)과 고온영역(T)을 포함하는 이벤트 영상을 채널1(CH1)을 통해 보내온다. 상대적으로, 제2 화재 감지 장치, 제3 화재 감지 장치 및 제4 화재 감지 장치는 제1 이벤트는 감지하지 못하였으나, 제2 이벤트를 감지함으로써 고온영역(T)을 포함하는 이벤트 영상을 각각의 채널들(CH2 내지 CH4)을 통해 보내온다. As shown in FIG. 4 , as the welding operation proceeds in the third heat recovery boiler B3, the first fire detection device 200A detecting the first to third events determines the flame area WF and the high temperature The event image including the region (T) is sent through channel 1 (CH1). Relatively, the second fire detection device, the third fire detection device, and the fourth fire detection device did not detect the first event, but detected the second event, thereby transmitting the event image including the high temperature region T to each channel. sent through the fields (CH2 to CH4).

용접으로 인한 화염의 발생 위치나 크기 등은 매우 다양하게 나타날 수 있으나, 본 발명에서는 도면상 제3 배열회수 보일러(B3)의 일측에 그리고 높이상으로는 중간정도에 용접에 따른 화염이 발생한 상황을 가정하기로 한다. Although the position or size of flames caused by welding can appear in a variety of ways, in the present invention, to assume a situation in which flames due to welding are generated on one side of the third heat recovery boiler (B3) on the drawing and at a midpoint in terms of height do it with

한편, 제1 내지 제3 이벤트들 중 적어도 하나가 감지됨에 따라 각 채널에서는 이벤트 영상을 전송해오지만, 디스플레이 장치(Monitor)를 계속하여 장시간 들여다보아야 하는 서버 관리자 입장에서는 화재 발생 여부 판단을 놓치기 쉬운 상황이 발생한다. On the other hand, as at least one of the first to third events is detected, each channel transmits an event image, but from the server manager's point of view, who has to continuously look at the display device (Monitor) for a long time, it is easy to miss the determination of whether a fire has occurred. this happens

즉, 에지형 감시 시스템의 특성에 따라 모든 영상이 아닌 이벤트가 발생한 영상만을 보내오고 있지만, 모든 영상을 보고 상황 판단을 해야 하는 부담에 놓이게 된다. 특히 도시된 바와 같은 용접 작업의 경우 본질적으로 화염을 수반하여 지속적으로 이벤트 영상으로 전송되어옴에 따라 서버 관리자의 피로가 누적된다. That is, according to the characteristics of the edge-type surveillance system, only the video where the event occurred is sent instead of all the video, but the burden of having to judge the situation by viewing all the video is put on. In particular, in the case of the welding work as shown, fatigue of the server manager is accumulated as it is continuously transmitted as an event image accompanied by flames.

화재 감지의 정확도를 높이기 위해 제1 내지 제3 이벤트들 중 어느 하나라도 발생한 경우 이벤트 발생으로 판단하되, 보완적으로, 이벤트 발생이 아닌 영상으로 처리할 필요가 있다. 본 발명의 실시예에 따르면 AI 처리부가 이를 수행할 수 있다. 후술한다. In order to increase the accuracy of fire detection, when any one of the first to third events occurs, it is determined that an event has occurred, but supplementarily, it is necessary to process it as an image rather than an event. According to an embodiment of the present invention, the AI processing unit may perform this. will be described later

도 5를 참조하면, AI 처리부(280)는 중첩 이미지(OL)로부터 비화재 이벤트 여부를 판단한다. AI 처리부(280)는 중첩 이미지를 분석하여 비화재 이벤트로 판단된 경우에 중첩 이미지의 서버로의 전송을 차단하고 비화재 메시지가 서버로 전송되도록 한다. Referring to FIG. 5 , the AI processing unit 280 determines whether there is a non-fire event from the overlapped image OL. The AI processing unit 280 analyzes the overlapping image and blocks transmission of the overlapping image to the server when it is determined to be a non-fire event and transmits a non-fire message to the server.

AI 처리부(280)는 중첩 이미지(OL)를 분석 대상으로 하되, 제1 내지 제3 이벤트가 모두 발생한 것으로 판단된 중첩 이미지에 대해 그 대상으로 한다. AI 처리부에 의한 과정은 능동적으로 이벤트 영상을 전송 대상이 아닌 것으로 처리하기 위한 과정이므로, 보다 보수적으로 판단할 필요가 있기 때문이다. The AI processing unit 280 analyzes the overlapped image OL, and sets the overlapped image as the target for which it is determined that all of the first to third events have occurred. This is because the process by the AI processing unit is a process for actively processing the event image as not to be transmitted, and thus it is necessary to make a more conservative judgment.

AI 처리부(280)는 소정의 시점에 작동한다. The AI processing unit 280 operates at a predetermined point in time.

예를 들어, 중첩 이미지가 기설정된 시간 이상으로 전송이 지속되는 경우에 작동할 수 있다. 기설정된 시간은 일례로 사람의 한 사물에 대한 집중력이 저하되는 시점인 5분일 수 있다. For example, it may operate when transmission of overlapping images continues for a predetermined period of time or longer. The predetermined time may be, for example, 5 minutes, which is a time point at which a person's concentration on one object decreases.

작동되기 시작하면 다음과 같은 비화재 판단 프로세스를 갖는다. When it starts operating, it has the following non-fire determination process.

제1 내지 제3 이벤트들이 모두 발생한 것으로 판단된 중첩 이미지에서 용접 작업자를 인식한다(S1). A welding operator is recognized in the overlapping image in which all of the first to third events are determined to have occurred (S1).

영상 데이터로부터 용접 작업자를 인식하기 위한 알려진 다양한 알고리즘이 적용될 수 있다. Various known algorithms for recognizing a welding operator from image data may be applied.

또한 용접시의 안전 보호장구로서 용접 마스크 인식을 함께 수행하여 작업자 인식의 정확도를 향상시킬 수 있다. 안전 보호장구의 색상 정보를 DB와 비교하는 과정이 수행될 수 있다. In addition, as a safety protective equipment during welding, welding mask recognition can be performed together to improve the accuracy of worker recognition. A process of comparing the color information of the safety protective equipment with the DB may be performed.

또한 영상 데이터로부터 용접 작업자를 인식하는 인공지능 학습을 통해 인식의 정확도를 향상시키는 단계가 수행될 수 있다. 인공지능 학습은 서버에서 수행될 수 있으며, 학습의 결과물을 서버단에서 화재 감지 장치단으로 전송해줌으로써 화재 감지 장치는 용접 작업자 인식을 수행할 수 있다. In addition, a step of improving recognition accuracy through artificial intelligence learning for recognizing a welding worker from image data may be performed. Artificial intelligence learning can be performed in a server, and the fire detection device can perform welding operator recognition by transmitting the learning result from the server end to the fire detection device end.

중첩 이미지로부터 인식된 용접 작업자는 용접 작업자 영역(W)으로 참조될 수 있다. A welding operator recognized from the overlapping image may be referred to as a welding operator area W.

기학습된 용접 작업자와 용접 화염 사이의 거리에 기초하여, 중첩 이미지에서 인식된 용접 작업자 영역과 관심 영역 사이의 거리가 기설정된 값 이내인지를 판단한다(S2). Based on the previously learned distance between the welding operator and the welding flame, it is determined whether the distance between the region of interest and the region of interest recognized in the overlapping image is within a preset value (S2).

용접 작업자 영역(W)은 상기 단계(S1)에서 인식된 부분이다. 도면에서 용접 작업자 영역(W)의 중심이 도면부호 W_C로 참조된다. 여기서 중심은 프레임상 중심(화소 위치상 중심)을 의미할 수 있다. 소정의 영역으로부터 그 중심을 도출하기 위한 다양한 영상 처리 알고리즘이 적용될 수 있다. The welding operator's area W is a part recognized in the above step S1. In the drawing, the center of the welding operator's area W is referenced by reference numeral W_C. Here, the center may mean the center of a frame (center of a pixel position). Various image processing algorithms for deriving the center of a predetermined area may be applied.

관심 영역은 열화상 이미지에 의해 정의되는 고온영역(T)이다. 도면에서 고온영역(T)의 중심이 도면부호 T_C로 참조된다. The region of interest is a high temperature region T defined by the thermal image. In the drawing, the center of the high-temperature region T is referred to as reference numeral T_C.

또는 관심 영역은 가시광 이미지의 화염패턴에 의해 정의되는 화염영역(WF)이다. 도면에서 화염영역(WF)의 중심이 도면부호 WF_C로 참조된다. 화염패턴은 영상 데이터 중 기설정된 조건을 만족하는 영상 데이터로부터 생성될 수 있다. 이는 상술한 제1 이벤트 발생을 판단하는 과정과 유사하지만, 화염영역을 생성하기 위한 문턱값과 제1 이벤트 발생 판단을 위한 문턱값은 서로 다르게 설정될 수 있다. 제1 이벤트 발생 판단 과정과 화염영역 생성 과정은 서로 별도의 프로세스에 해당하기 때문이다. 이벤트 발생 판단은 감시 영상의 전송 시작 시점에 관한 것이고, 화염영역 생성은 실제로 관리자에게 제공될 감시 영상에 관한 것이기 때문이다. 도 5에서는 중첩 이미지에서 고온영역의 중심(T_C)과 화염영역의 중심(WF_C)이 동일한 경우를 가정한다. Alternatively, the region of interest is a flame region WF defined by the flame pattern of the visible light image. In the drawings, the center of the flame area WF is referred to as WF_C. The flame pattern may be generated from image data that satisfies a predetermined condition among image data. This is similar to the process of determining the occurrence of the first event described above, but the threshold value for generating the flame area and the threshold value for determining the occurrence of the first event may be set differently. This is because the process of determining the occurrence of the first event and the process of generating the flame area correspond to separate processes. This is because event occurrence determination is related to the start point of transmission of surveillance images, and flame area generation is related to surveillance images to be actually provided to a manager. In FIG. 5, it is assumed that the center of the high-temperature region (T_C) and the center of the flame region (WF_C) are the same in the overlapped image.

용접 작업자 영역과 관심 영역 사이의 거리가 도면에서 도면부호 d로 참조된다. 거리는 각 영역의 중심을 잇는 최단거리일 수 있다. The distance between the welding operator's area and the area of interest is referred to in the drawing as reference number d. The distance may be the shortest distance connecting the center of each area.

통상의 용접 작업에 있어서 용접 작업자와 용접 화염 사이의 거리를 학습하는 과정이 수행될 수 있다. 마찬가지로 학습은 서버에서 수행될 수 있으며, 학습의 결과물을 서버단에서 화재 감지 장치단으로 전송해줌으로써 화재 감지 장치는 단계(S2)를 수행할 수 있다. In a normal welding operation, a process of learning the distance between the welding operator and the welding flame may be performed. Similarly, learning may be performed in a server, and the fire detection device may perform step S2 by transmitting the result of learning from the server to the fire detection device.

학습이 필요한 이유는 화면(프레임) 크기나 화면상에서 차지하는 용접 작업자(또는 용접 화염)의 비율에 따라 그 거리가 다양하게 나타나기 때문이다. 예를 들어, 화재 감지 장치가 CCTV인 경우, CCTV가 생성할 수 있는 이미지의 크기(해상도 등)에 맞게 나타나는 용접 작업자와 용접 화염 사이의 거리에 대한 학습이 필요하고, 또한 이미지에서 차지하는 용접 작업자(또는 용접 화염)의 비율에 따라(즉, 얼마나 가까이서 촬영되었는지 여부에 따라) 용접 작업자와 용접 화염 사이의 거리에 대한 학습이 필요하기 때문이다. 일례로, HD급 CCTV에서 제공되는 1920x1080 프레임에서, 용접 작업자가 전체 프레임의 1/50 정도의 비율을 차지할 때, 픽셀개수 100에 해당하는 거리가 통상의 용접 작업에 있어서 용접 작업자와 용접 화염 사이의 거리로 학습하고, 이를 기준으로 만족하는지 여부를 판단할 수 있다. The reason learning is necessary is that the distance varies according to the size of the screen (frame) or the ratio of the welding worker (or welding flame) occupying the screen. For example, if the fire detection device is a CCTV, it is necessary to learn the distance between the welding operator and the welding flame that appears to match the size (resolution, etc.) of the image that the CCTV can generate, and also the welding operator occupied in the image ( or the welding flame) (that is, depending on how close the picture was taken), it is necessary to learn the distance between the welding operator and the welding flame. For example, in a 1920x1080 frame provided by HD-level CCTV, when a welding worker occupies a ratio of about 1/50 of the entire frame, the distance corresponding to 100 pixels is the distance between the welding worker and the welding flame in normal welding work. It learns from the distance, and it can be judged whether or not it is satisfied based on this.

이처럼 기학습된 용접 작업자와 용접 화염 사이의 거리에 기초하여 단계(S2)를 수행한다. Step (S2) is performed based on the previously learned distance between the welding operator and the welding flame.

단계(S2)의 판단 결과, 기설정된 값 이내인 경우, 비화재 이벤트로 판단하고, 서버로의 전송을 차단한다(S3). As a result of the determination in step (S2), if it is within the preset value, it is determined as a non-fire event and transmission to the server is blocked (S3).

즉, 이벤트 영상으로 판단되었지만, 비화재 이벤트로 판단하여 서버로 이벤트 영상이 전송되지 않도록 한다. That is, although it is determined as an event video, it is determined as a non-fire event so that the event video is not transmitted to the server.

통상적인 용접 작업에서의 용접 작업자와 용접 화염간 거리에 해당하므로, 이벤트 영상이 비화재 이벤트인 것으로 판단한다. Since it corresponds to the distance between the welding operator and the welding flame in a normal welding operation, it is determined that the event image is a non-fire event.

반대로, 기설정된 값 초과인 경우에는 통상적인 용접 작업이 아닌 상황에 해당하므로, 이벤트 영상의 전송이 지속되도록 한다. Conversely, if it exceeds the predetermined value, it corresponds to a situation other than a normal welding operation, so that the transmission of the event image continues.

비화재 이벤트로서 이벤트 영상의 전송을 차단하는 경우, 비화재 메시지를 서버로 전송한다(S4). When the transmission of the event video is blocked as a non-fire event, a non-fire message is transmitted to the server (S4).

이에, 더 이상 CH1을 통해 이벤트 영상이 디스플레이 되지 않는다. Accordingly, the event image is no longer displayed through CH1.

이 경우, 비화재 메시지를 수신한 서버는 동일한 감시 영역에 설치된 다른 화재 감지 장치들에도 비화재 메시지(즉, 이벤트 영상 전송 차단 메시지)를 브로드캐스팅 함으로써 나머지 채널들(CH2 내지 CH4)에 대해서도 더 이상 이벤트 영상이 디스플레이 되지 않도록 할 수 있다. 브로트캐스팅을 위해 상술한 이벤트 영상의 수신을 위한 통신 채널이 활용될 수 있다. In this case, the server receiving the non-fire message broadcasts a non-fire message (ie, event video transmission blocking message) to other fire detection devices installed in the same monitoring area, so that the remaining channels (CH2 to CH4) are no longer The event image may not be displayed. For broadcasting, the above-described communication channel for receiving the event video may be utilized.

다만, 이는 이벤트 영상의 전송을 제한하는 조치이며, 새로운 이벤트가 발생한 것으로 판단되는 경우에는 제한 조치가 즉시 해제되고 전송이 재개될 수 있다. 예를 들어, CH2을 통해 이벤트 영상을 보내오다가 비화재 메시지를 서버로부터 수신함으로써 이벤트 영상의 전송을 중단한 제2 화재 감지 장치는 기존에 발생한 것으로 판단된 제2 이벤트와 다른 제1 이벤트 또는 제3 이벤트가 발생한 것으로 판단된 경우 중단 조치를 해제하고 상술한 프로세스에 따라 전송을 재개할 수 있다. However, this is a measure to limit the transmission of the event video, and if it is determined that a new event has occurred, the restriction measure is immediately lifted and transmission can be resumed. For example, the second fire detection device that stopped transmitting the event video by receiving a non-fire message from the server while sending the event video through CH2 is a first event or a second event different from the second event determined to have occurred previously. 3 If it is determined that an event has occurred, the interruption action can be canceled and transmission can be resumed according to the process described above.

이하 도 6을 참조하여 중첩 이미지에서 다수의 관심 영역이 존재할 때의 AI 처리부의 처리 프로세스에 대해 살펴본다. Hereinafter, referring to FIG. 6 , a processing process of the AI processing unit when a plurality of regions of interest exist in an overlapping image will be described.

도 6은 본 발명의 실시예에 따른 AI 처리부의 영상 분석 과정을 보다 상세하게 도시하는 도면이다.6 is a diagram illustrating an image analysis process of an AI processing unit according to an embodiment of the present invention in more detail.

도 6을 참조하면, 중첩 이미지에서 고온영역의 중심(T_C)과 화염영역의 중심(WF_C)이 상이한 경우가 도시된다. Referring to FIG. 6 , a case in which the center of the high-temperature region T_C and the center of the flame region WF_C are different in the overlapped image is illustrated.

용접 작업자 영역(W)과 화염영역의 중심(WF_C) 사이의 거리가 d1으로 참조된다. 용접 작업자 영역(W)과 고온영역의 중심(T_C) 사이의 거리가 d2로 참조된다. d1<d2 로 도시된다. The distance between the welding operator's area W and the center of the flame area WF_C is referred to as d1. The distance between the welding operator's region W and the center of the high-temperature region T_C is referred to as d2. It is shown as d1<d2.

이 경우, 관심 영역들 중 용접 작업자 영역으로부터 보다 먼 것을 기준으로 상술한 비화재 판단 프로세스를 수행하는 것이 바람직하다. 즉, d2를 기준으로 기학습된 거리 이내인지를 판단한다. 비화재 판단 프로세스는 이벤트 영상을 적극적으로 비화재 이벤트로 처리하는 프로세스이므로, 최대한 보수적으로 판단하기 위함이다. In this case, it is preferable to perform the above-described non-fire determination process based on a region of interest farther from the region of the welding operator. That is, based on d2, it is determined whether it is within the pre-learned distance. Since the non-fire determination process is a process of actively processing an event video as a non-fire event, this is to make a judgment as conservative as possible.

계속하여, 도 6을 참조하면, 중첩 이미지에서 또 다른 고온영역(T')과 고온영역의 중심(T'_C)가 도시된다. 보이지 않는 또 다른 곳에서의 용접 작업일 수도 있고, 화재 상황일 수도 있다. 용접 작업자 영역(W)과 고온영역의 중심(T'_C) 사이의 거리가 d3로 참조된다. d1<d3 로 도시된다. Continuing to refer to FIG. 6 , another high-temperature region T' and the center of the high-temperature region T'_C are shown in the overlapping image. It could be welding work in another invisible place, or it could be a fire situation. The distance between the welding operator's region (W) and the center of the high-temperature region (T'_C) is referred to as d3. It is shown as d1<d3.

이 경우, 마찬가지로, 관심 영역들 중 용접 작업자 영역으로부터 보다 먼 것을 기준으로 상술한 비화재 판단 프로세스를 수행할 수 있다. 즉, d3를 기준으로 기학습된 거리 이내인지를 판단한다. In this case, similarly, the above-described non-fire determination process may be performed based on a region of interest farther from the region of the welding operator. That is, based on d3, it is determined whether it is within the pre-learned distance.

도면에 도시되지는 않았으나, 용접 작업자 영역이 2 이상일 수도 있으며, 이 경우에도 가장 멀리 있는 용접 작업자 영역과 관심 영역 사이의 거리를 기준으로 상술한 프로세스를 수행할 수 있다. Although not shown in the drawings, the number of welding worker regions may be two or more, and even in this case, the above-described process may be performed based on the distance between the farthest welding worker region and the region of interest.

본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. Examples of program instructions such as magneto-optical, ROM, RAM, flash memory, etc. can be executed by a computer using an interpreter, etc. as well as machine code generated by a compiler. contains high-level language code. The hardware device described above may be configured to operate as at least one software module to perform the operation of one embodiment of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by specific details such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Those skilled in the art in the field to which the present invention belongs can make various modifications and variations from these descriptions. Therefore, the spirit of the present invention should not be limited to the described embodiments, and it will be said that not only the claims to be described later, but also all modifications equivalent or equivalent to these claims belong to the scope of the present invention. .

1 : 스마트 화재 감지 시스템
100 : 서버
200, 200A, 200B, 200C, 200D : 화재 감지 장치
210 : 가시광 이미지 센서
220 : 제1 판단부
230 : 열화상 이미지 센서
240 : 제2 판단부
250 : 적외선/자외선 센서
260 : 제3 판단부
270 : 중첩부
280 : AI 처리부
290 : 통신부
1: Smart fire detection system
100: server
200, 200A, 200B, 200C, 200D: Fire detection device
210: visible light image sensor
220: first judgment unit
230: thermal image sensor
240: second judgment unit
250: infrared / ultraviolet sensor
260: third judgment unit
270: overlapping part
280: AI processing unit
290: Ministry of Communications

Claims (9)

인공지능 기반의 통합 화재 감시 시스템으로서,
서버; 및
감시 영역에 대한 영상 데이터를 수집하는 가시광 이미지 센서와, 상기 감시 영역에 대한 온도 데이터를 수집하는 열화상 이미지 센서와, 상기 감시 영역에 대한 적외선 또는 자외선 데이터를 수집하는 수광 센서를 포함하는 서로 이격된 다수의 화재 감지 장치들;을 포함하되,
상기 화재 감지 장치들은 각각,
상기 영상 데이터로부터 기설정된 조건을 만족하는 경우 제1 이벤트 발생으로 판단하는 제1 판단부;
상기 온도 데이터로부터 기설정된 조건을 만족하는 경우 제2 이벤트 발생으로 판단하는 제2 판단부;
상기 적외선 또는 자외선 데이터로부터 기설정된 조건을 만족하는 경우 제3 이벤트 발생으로 판단하는 제3 판단부;
상기 제1 이벤트 내지 제3 이벤트 중 적어도 하나 발생시, 가시광 이미지(제1 이미지)와 상기 온도 데이터 중 기설정된 조건을 만족하는 온도 데이터로부터 생성된 열화상 이미지(제2 이미지)를 중첩하여 중첩 이미지를 생성하는 중첩부; 및
상기 중첩 이미지를 상기 서버로 전송하는 통신부;를 포함하고,
상기 화재 감지 장치들은 각각,
상기 중첩 이미지로부터 비화재 이벤트 여부를 판단하고, 비화재 이벤트로 판단된 경우에 상기 중첩 이미지의 상기 서버로의 전송을 차단하고 비화재 메시지가 상기 서버로 전송되도록 하는 AI 처리부;를 더 포함하며,
상기 AI 처리부는,
상기 제1 내지 제3 이벤트가 모두 발생한 것으로 판단된 중첩 이미지에 대해 비화재 이벤트 여부를 판단하고,
상기 AI 처리부는,
상기 중첩 이미지가 기설정된 시간 이상으로 전송이 지속되는 경우 비화재 이벤트 여부를 판단하며,
상기 AI 처리부는,
상기 중첩 이미지로부터 작업자가 존재하는지를 인식하고, 기학습된 작업자와 화염 사이의 거리에 기초하여, 상기 중첩 이미지에서 인식된 작업자 영역과 관심 영역 사이의 거리가 기설정된 값 이내인 경우 비화재 이벤트로 판단하며-상기 관심 영역은 상기 열화상 이미지에 의해 정의되는 고온영역, 및 상기 영상 데이터 중 기설정된 조건을 만족하는 영상 데이터로부터 생성된 화염패턴에 의해 정의되는 화염영역을 포함함-,
상기 AI 처리부는 상기 중첩 이미지에서 상기 고온영역의 중심과 상기 화염영역의 중심이 상이한 경우, 상기 작업자 영역의 중심으로부터 상기 고온영역의 중심에 이르는 거리와 상기 화염영역의 중심에 이르는 거리 중 더 먼 거리를 기준으로 상기 기설정된 값 이내인지를 판단함으로써 상기 비화재 이벤트 여부를 판단하는 것을 특징으로 하는 인공지능 기반의 통합 화재 감시 시스템.
As an artificial intelligence-based integrated fire monitoring system,
server; and
A visible light image sensor that collects image data for the surveillance area, a thermal image sensor that collects temperature data for the surveillance area, and a light-receiving sensor that collects infrared or ultraviolet data for the surveillance area. A plurality of fire detection devices; including,
Each of the fire detection devices,
a first determination unit determining that a first event has occurred when a predetermined condition is satisfied from the image data;
a second determination unit determining that a second event occurs when a predetermined condition is satisfied from the temperature data;
a third determination unit determining that a third event occurs when a predetermined condition is satisfied from the infrared or ultraviolet data;
When at least one of the first to third events occurs, a visible light image (first image) and a thermal image (second image) generated from temperature data satisfying a predetermined condition among the temperature data are overlapped to form an overlapping image. overlapping parts to create; and
And a communication unit for transmitting the overlapping image to the server,
Each of the fire detection devices,
An AI processing unit that determines whether a non-fire event is determined from the overlapped image, and if it is determined to be a non-fire event, blocks transmission of the overlapped image to the server and transmits a non-fire message to the server;
The AI processing unit,
Determining whether a non-fire event exists for the overlapping image in which it is determined that all of the first to third events have occurred;
The AI processing unit,
When the transmission of the overlapped image continues for more than a predetermined time, it is determined whether or not a non-fire event occurs,
The AI processing unit,
Recognizes whether a worker exists from the overlapping image, and determines a non-fire event when the distance between the operator's area recognized in the overlapping image and the area of interest is within a preset value based on the previously learned distance between the operator and the flame. and -The region of interest includes a high-temperature region defined by the thermal image and a flame region defined by a flame pattern generated from image data that satisfies a predetermined condition among the image data-;
The AI processing unit, when the center of the high-temperature region and the center of the flame region are different from each other in the overlapping image, the longer distance between the distance from the center of the worker region to the center of the high-temperature region and the distance to the center of the flame region. Artificial intelligence-based integrated fire monitoring system, characterized in that for determining whether the non-fire event by determining whether it is within the predetermined value based on.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 중첩 이미지에서 2 이상의 상기 작업자 영역 또는 2 이상의 상기 관심 영역이 존재하는 경우, 가장 먼 작업자 영역과 관심 영역 사이의 거리를 기준으로 비화재 이벤트를 판단하는 것을 특징으로 하는, 인공지능 기반의 통합 화재 감시 시스템.
According to claim 1,
If there are two or more operator areas or two or more areas of interest in the overlapped image, a non-fire event is determined based on the distance between the farthest operator area and the area of interest. surveillance system.
제1항에 있어서,
상기 서버는,
상기 화재 감지 장치들 중 어느 하나로부터 상기 비화재 메시지를 수신한 경우, 다른 화재 감지 장치들로 이벤트 영상 전송 차단 메시지를 브로드캐스팅하는 것을 특징으로 하는 인공지능 기반의 통합 화재 감시 시스템.
According to claim 1,
The server,
When the non-fire message is received from any one of the fire detection devices, an artificial intelligence-based integrated fire monitoring system, characterized in that for broadcasting an event video transmission blocking message to other fire detection devices.
KR1020200142790A 2020-10-30 2020-10-30 Integrated fire monitoring system based on artificial intelligence KR102507540B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200142790A KR102507540B1 (en) 2020-10-30 2020-10-30 Integrated fire monitoring system based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200142790A KR102507540B1 (en) 2020-10-30 2020-10-30 Integrated fire monitoring system based on artificial intelligence

Publications (2)

Publication Number Publication Date
KR20220057783A KR20220057783A (en) 2022-05-09
KR102507540B1 true KR102507540B1 (en) 2023-03-08

Family

ID=81582002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200142790A KR102507540B1 (en) 2020-10-30 2020-10-30 Integrated fire monitoring system based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102507540B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240095568A (en) 2022-12-16 2024-06-26 한국전력정보(주) Real-time fire monitoring system for small-scale energy storage system based on edge artificial intelligence using smoke sensor and temperature sensor and fire monitoring method using the same
KR20240104613A (en) 2022-12-28 2024-07-05 주식회사 교림정보통신 Method for executing inspection process of fire detection device and detecting fire using real image and thermal image, and fire detection system therefor
CN115862259B (en) * 2023-02-24 2023-05-09 深圳市特安电子有限公司 Fire alarm early warning system based on temperature monitoring

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767980B1 (en) * 2017-04-11 2017-08-14 김수언 Intelligent flame detector and flame detecting method by using infrared thermal camera
KR102088198B1 (en) * 2019-05-31 2020-05-04 (주)오투에이브이 Integrated fire control system using triple detectors and method thereof
KR102153465B1 (en) * 2020-04-29 2020-09-09 (주)진명아이앤씨 Smart system for detecting fire and device for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767980B1 (en) * 2017-04-11 2017-08-14 김수언 Intelligent flame detector and flame detecting method by using infrared thermal camera
KR102088198B1 (en) * 2019-05-31 2020-05-04 (주)오투에이브이 Integrated fire control system using triple detectors and method thereof
KR102153465B1 (en) * 2020-04-29 2020-09-09 (주)진명아이앤씨 Smart system for detecting fire and device for the same

Also Published As

Publication number Publication date
KR20220057783A (en) 2022-05-09

Similar Documents

Publication Publication Date Title
KR102507540B1 (en) Integrated fire monitoring system based on artificial intelligence
US20210049885A1 (en) Method and system for monitoring fire
KR101635000B1 (en) Fire detector and system using plural cameras
CN111144291B (en) Video monitoring area personnel intrusion discrimination method and device based on target detection
CN101334924B (en) Fire detection system and fire detection method thereof
KR100839090B1 (en) Image base fire monitoring system
CN103108159B (en) Electric power intelligent video analyzing and monitoring system and method
KR101215948B1 (en) Image information masking method of monitoring system based on face recognition and body information
KR102060045B1 (en) Fire detector and system capable of measuring heat distribution
KR101200433B1 (en) System for realtime observing fire using CCTV camera, and method for the same
CN112288984A (en) Three-dimensional visual unattended substation intelligent linkage system based on video fusion
KR101741107B1 (en) Apparatus and method for monitoring fire by using cctv
CN104581081A (en) Passenger-flow analysis method based on video information
CN106683308A (en) Event recognition photoelectric information fusion perception device and method
CN201091014Y (en) Fire detecting device
KR102113527B1 (en) Thermal ip cctv system and method for detecting fire by using the same
CN113096337B (en) Moving target identification processing method for complex background and intelligent security system
KR102153465B1 (en) Smart system for detecting fire and device for the same
KR102174606B1 (en) Sense integrated IP network camera, and monitoring system for the same
KR102088198B1 (en) Integrated fire control system using triple detectors and method thereof
KR20100036717A (en) Fire defense system based plc
KR102164802B1 (en) The surveillance camera with passive detectors and active detectors
KR102630275B1 (en) Multi-camera fire detector
KR20230101585A (en) System and Method for Establishing Fire and Disaster Situation Prediction Response Platform
KR20140057225A (en) Methods of cctv video take advantage and surveillance system improved using multi-sensor and thermal imaging

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right