KR102164802B1 - The surveillance camera with passive detectors and active detectors - Google Patents
The surveillance camera with passive detectors and active detectors Download PDFInfo
- Publication number
- KR102164802B1 KR102164802B1 KR1020190098647A KR20190098647A KR102164802B1 KR 102164802 B1 KR102164802 B1 KR 102164802B1 KR 1020190098647 A KR1020190098647 A KR 1020190098647A KR 20190098647 A KR20190098647 A KR 20190098647A KR 102164802 B1 KR102164802 B1 KR 102164802B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- ultraviolet
- area
- infrared
- sensor
- Prior art date
Links
- 238000002156 mixing Methods 0.000 claims abstract description 96
- 238000012544 monitoring process Methods 0.000 claims abstract description 94
- 238000001514 detection method Methods 0.000 claims description 149
- 238000000825 ultraviolet detection Methods 0.000 claims description 50
- 238000000034 method Methods 0.000 claims description 22
- 230000001360 synchronised effect Effects 0.000 claims description 12
- 230000005855 radiation Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010000369 Accident Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Fire-Detection Mechanisms (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명은 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라에 관한 것으로, 더욱 상세하게는 가시광 영상 및 적외선 영상의 수집과 자외선을 감지하는 수동형 디텍터와 물체를 감지하는 능동형 디텍터를 하나의 감시 카메라에 통합하여, 복수의 감시대상구역에 설치하고, 상기 각 감시 카메라에서 상기 수집한 적외선 영상, 상기 자외선 및 물체를 감지한 결과를 상기 수집한 가시광 영상에 반영한 블렌딩 영상을 생성하여 제공함으로써, 하나의 블렌딩 영상만으로도 상기 감시대상구역에서의 화재발생, 불꽃발생, 새로운 물체의 출현 또는 이들의 조합을 효율적으로 감시할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라에 관한 것이다. The present invention relates to a surveillance camera having a passive detector and an active detector, and more specifically, a passive detector for collecting visible and infrared images and detecting ultraviolet rays and an active detector for detecting objects are integrated into one surveillance camera. , By installing in a plurality of surveillance target areas, by generating and providing a blending image reflecting the collected infrared image, the ultraviolet ray and the object detection result in the collected visible light image by each of the surveillance cameras, only one blending image The present invention relates to a surveillance camera having a passive detector and an active detector for efficiently monitoring the occurrence of fire, spark, appearance of a new object, or a combination thereof in the monitoring target area.
최근 화재사고와 같은 재난사고나 범죄 증가로 인해 안전에 대한 대중의 관심이 집중되면서 건물, 지하철, 학교, 아파트 등과 같은 다양한 장소에 감편하게 설치되고 적용될 수 있는 CCTV(closed circuit television)를 활용한 감시 시스템의 필요성이 점점 부각되고 있다.As the public's interest in safety is focused due to recent disasters such as fire accidents or increased crime, surveillance using CCTV (closed circuit television) that can be easily installed and applied in various places such as buildings, subways, schools, apartments, etc. The necessity of the system is increasingly emerging.
이러한 종래의 CCTV를 활용한 감시 시스템은, 감시대상구역에 설치되는 복수의 CCTV로부터 실시간 수신되는 복수의 영상을 상시 모니터링하는 다수의 보안요원이 항시 상주해야 되며, 감시대상구역의 확대에 따라 CCTV의 수가 확장되는 경우에는 그 효율성이 현저하게 떨어지는 문제점이 있으며, 특히 해당 감시대상구역에서 화재가 발생하는 경우에는 신속한 발견 및 대처가 느려지는 문제점을 내포하고 있다.In the surveillance system using such a conventional CCTV, a plurality of security personnel who constantly monitor a plurality of images received in real time from a plurality of CCTVs installed in the surveillance target area must be present at all times. When the number is expanded, the efficiency is significantly deteriorated. In particular, when a fire occurs in the subject area to be monitored, rapid detection and response are slow.
이러한 문제점을 해결하기 위해, 최근에는 CCTV뿐만 아니라 불꽃감지센서, 온도센서 등과 같은 복수의 센서들을 감시대상구역에 설치하여, 상기 CCTV로부터 수신되는 영상과 상기 각 센서들로부터 수신되는 센서데이터를 통합 분석함으로써, 화재발생을 자동으로 감지하는 지능형 화재감시 시스템이 개발되어 상용화되고 있다.In order to solve this problem, recently, a plurality of sensors such as a flame detection sensor, a temperature sensor, etc., as well as a CCTV are installed in the area to be monitored, and the image received from the CCTV and the sensor data received from the sensors are integrated and analyzed. As a result, an intelligent fire monitoring system that automatically detects the occurrence of fire has been developed and commercialized.
그러나 종래의 지능형 화재감시 시스템은, 상기 CCTV 및 상기 각 센서들은 독립적으로 구동되고 개별적으로 영상 및 센서데이터를 각각 전송하기 때문에 화재의 발생여부만을 알 수 있을 뿐, 화재발생의 원인을 추적하는 데에 그 한계가 있으며, 상기 센서데이터를 송수신하기 위해서는 USN(Ubiquitous Sensor Network)와 같은 별도의 센서데이터 송수신용 네트워크의 신설이 필요하다.However, in the conventional intelligent fire monitoring system, the CCTV and each of the sensors are independently driven and individually transmit images and sensor data, so that only the occurrence of a fire can be known, and it is useful to track the cause of the fire. There is a limitation, and in order to transmit and receive the sensor data, it is necessary to establish a separate network for transmitting and receiving sensor data such as a Ubiquitous Sensor Network (USN).
이에 따라 본 발명에서는, 가시광 영상 및 적외선 영상의 수집과 자외선 감지를 위한 수동형 디텍터와 물체를 감지하기 위한 능동형 디텍터를 통합하여 복수의 감시대상구역에 각각 설치되는 감시 카메라를 통해 상기 수집한 가시광 영상에 상기 수집한 적외선 영상, 자외선 감지결과, 물체 감지 결과 또는 이들의 조합을 블렌딩하여 제공함으로서, 하나의 블렌딩 영상을 통해 화재발생, 불꽃발생, 의심스러운 물체의 출현 또는 이들의 조합을 포함하여 상기 감시대상구역을 효율적으로 감시할 수 있도록 하여, 화재발생에 대한 신속한 대처 및 감지 물체에 대한 파악을 신속하게 수행할 수 있도록 하고, 상기 블렌딩 영상을 토대로 화재가 발생한 구역, 발화점 등과 같은 화재발생의 원인을 정확하게 파악하고 추적할 수 있도록 하는 방안을 제안하고자 한다. Accordingly, in the present invention, a passive detector for collecting visible and infrared images and detecting ultraviolet rays and an active detector for detecting an object are integrated, and the collected visible light images are applied to the collected visible light images through surveillance cameras respectively installed in a plurality of areas to be monitored. By blending and providing the collected infrared image, ultraviolet detection result, object detection result, or a combination thereof, the monitoring target including fire occurrence, flame generation, appearance of suspicious objects, or combinations thereof through one blended image By enabling efficient monitoring of the area, it is possible to quickly respond to the occurrence of a fire and to quickly identify the detected object, and accurately determine the cause of the fire such as the area where the fire occurred and the ignition point based on the blending image. I would like to propose a way to be able to grasp and track it.
다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters that the present invention intends to achieve differentiated from the prior art will be described.
먼저 한국등록특허 제1073076호(2011.10.06.)는 복합카메라를 이용한 화재감시 시스템 및 방법에 관한 것으로, 가시광 영상을 촬영하는 가시광 카메라, 적외선 영상을 촬영하는 적외선 카메라를 포함하는 복합카메라에서, 상기 촬영한 적외선 영상에서 감지되는 온도값을 분석하여 화재발생여부를 판단한 후, 상기 판단결과에 따라 상기 가시광 영상 및 적외선 영상을 관리자 단말기에 전송하도록 하는 복합카메라를 이용한 화재감시 시스템 및 방법에 관한 것이다.First, Korean Patent Registration No. 1073076 (2011.10.06.) relates to a fire monitoring system and method using a composite camera, in a composite camera including a visible light camera for taking a visible light image and an infrared camera for taking an infrared image, the The present invention relates to a fire monitoring system and method using a composite camera that analyzes a temperature value detected in a captured infrared image to determine whether a fire has occurred, and then transmits the visible light image and the infrared image to a manager terminal according to the determination result.
즉, 상기 선행기술은 적외선 영상으로 화재를 감지하여 관리자 단말기로 감지결과를 전송하는 것이다.That is, the prior art is to detect a fire with an infrared image and transmit the detection result to the administrator terminal.
이에 반해 본 발명은, 복수의 감시대상구역에 설치되는 감시 카메라에서, 가시광 영상과 적외선 영상의 수집과, 자외선 감지 및 물체 감지를 자체적으로 수행하고, 상기 수집한 적외선 영상, 자외선 감지결과, 물체 감지결과 또는 이들의 조합을 상기 수집한 가시광 영상에 반영한 블렌딩 영상을 생성하여 관제서버로 제공함으로써, 하나의 블렌딩 영상을 통해 상기 감시대상구역에 대한 감시를 효율적으로 수행할 수 있도록 하는 것으로, 상기 선행기술은 이러한 본 발명의 기술적 특징을 기재하거나 시사하고 있지 않다.In contrast, the present invention, in a surveillance camera installed in a plurality of surveillance target areas, collects visible and infrared images, detects ultraviolet rays and detects objects, and detects the collected infrared images, ultraviolet rays, and objects. By generating a blending image that reflects the result or a combination thereof on the collected visible light image and providing it to the control server, it is possible to efficiently monitor the area to be monitored through one blending image. Does not describe or suggest such technical features of the present invention.
또한 한국등록특허 제1741107호(2017.05.23.)는 CCTV를 이용한 화재 감시 방법 및 장치에 관한 것으로, 일반영상을 촬영하는 일반 카메라 모듈과 열영상을 촬영하는 열영상 카메라 모듈을 포함하는 CCTV를 구성하고, 상기 CCTV로부터 상기 촬영한 일반영상인 열영상을 수신하여, 상기 일반영상으로부터 화염이나 연기 중 어느 하나를 감기하고, 상기 열영상으로부터 온도 분포 정보를 획득함으로써, 상기 CCTV가 설치된 영역에 화재가 발생되었는지에 대한 여부를 판단하는 CCTV를 이용한 화재 감시 방법 및 장치에 관한 것이다. In addition, Korean Patent Registration No. 1741107 (2017.05.23) relates to a fire monitoring method and apparatus using CCTV, and constitutes a CCTV including a general camera module for photographing general images and a thermal image camera module for photographing thermal images. And, by receiving the thermal image, which is the captured general image, from the CCTV, winding either flame or smoke from the general image, and obtaining temperature distribution information from the thermal image, a fire occurs in the area where the CCTV is installed. It relates to a fire monitoring method and apparatus using CCTV to determine whether or not it occurred.
상기 선행기술은, 복수의 영역에 설치되는 복수의 CCTV에 의해 전송되는 영상을 중앙에서 집중적으로 처리하여 화재발생을 감지하는 것으로, 본 발명과 같이, 하나의 감시 카메라에 가시광센서, 적외선 센서, 자외선 센서로 구성되는 수동형 디텍터와 물체 감지를 위한 물체 감지 센서로 구성되는 능동형 디텍터를 통합한 것도 아니며, 상기 수동형 디텍터에서 수집 및 감지되는 가시광 영상과 적외선 영상 및 자외선 감지결과와, 상기 능동형 디텍터에서 감지되는 물체 감지 결과를 하나의 영상으로 블렌딩한 블렌딩 영상을 생성하는 것도 아니며, 상기 블렌딩한 영상을 통해 화재발생, 불꽃발생, 물체 감지 또는 이들의 조합을 포함하여 상기 감시대상구역에 대한 효율적인 감시를 수행할 수 있도록 하는 방법 또한 전혀 기재되어 있지 않아, 상기 선행기술은 본 발명에서 제안하고자 하는 기술적 특징과 명확한 차이점이 있다.The prior art is to detect the occurrence of fire by intensively processing images transmitted by a plurality of CCTVs installed in a plurality of areas at the center, and as in the present invention, a visible light sensor, an infrared sensor, and an ultraviolet ray It is not a combination of a passive detector composed of a sensor and an active detector composed of an object detection sensor for object detection, and the visible light image, infrared image, and ultraviolet detection results collected and detected by the passive detector, and the detection result of the active detector. It does not generate a blended image by blending the object detection result into a single image, and through the blended image, it is possible to efficiently monitor the area to be monitored, including fire, flame, object detection, or a combination thereof. There is also no description of a method for enabling the prior art to have clear differences from the technical features proposed by the present invention.
본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 가시광 센서, 적외선 센서 및 자외선 센서를 포함하는 수동형 디텍터와 레이저 펄스를 통해 물체를 감지하는 능동형 디텍터를 통합하여 구비하는 감시 카메라를 복수의 감시대상구역에 배치하고, 상기 각 감시 카메라에서 상기 수동형 디텍터와 능동형 디텍터의 출력결과를 반영한 블렌딩 영상을 생성하여 제공함으로서, 하나의 블렌딩 영상만으로도 상기 감시대상구역을 효과적으로 감시할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 그 목적으로 한다.The present invention was created to solve the above problems, and monitors a plurality of surveillance cameras including a passive detector including a visible light sensor, an infrared sensor, and an ultraviolet sensor, and an active detector that detects an object through a laser pulse. A passive detector and an active type that are arranged in the target area and provided by generating and providing a blended image reflecting the output results of the passive and active detectors from each of the surveillance cameras, so that a single blended image can effectively monitor the area to be monitored. An object thereof is to provide a surveillance camera provided with a detector.
또한 본 발명은, 상기 블렌딩 영상을 통해 상기 감시구역에서의 화재발생, 불꽃 발생, 갑작스런 물체의 출현을 효율적으로 감시할 수 있도록 하며, 상기 화재발생, 불꽃발생 및 상기 출현한 물체에 대한 신속한 대처를 수행함과 동시에 상기 화재발생, 불꽃발생의 원인을 정확하게 파악하여 추적할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention makes it possible to efficiently monitor the occurrence of fire, spark, and sudden appearance of objects in the surveillance area through the blending image, and provide rapid response to the occurrence of fire, spark, and the emerged object. Another object of the present invention is to provide a surveillance camera having a passive detector and an active detector capable of accurately grasping and tracking the cause of the occurrence of fire and sparks while performing.
또한 본 발명은, 상기 각 감시 카메라에서 상기 수집한 적외선 영상을 이용하여 해당 감시대상구역에서 화재가 발생한 것으로 감지되거나, 상기 자외선을 감지한 결과를 토대로 해당 감시대상구역에서 불꽃이 발생한 것으로 감지되는 경우에만 상기 블렌딩 영상을 생성하여 상기 관제서버로 제공할 수 있도록 함으로서, 화재발생 및 불꽃발생을 감지하기 위한 부하를 각 감시 카메라로 분산할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 또 다른 목적으로 한다.In addition, in the present invention, when it is detected that a fire has occurred in a corresponding monitoring target area using the collected infrared images by each of the surveillance cameras, or a flame is detected in the corresponding monitoring target area based on the result of detecting the ultraviolet rays Providing a surveillance camera equipped with a passive detector and an active detector that allows the load for detecting fire and flame to be distributed to each surveillance camera by generating the blended image only and providing it to the control server. It has another purpose.
또한 본 발명은, 상기 감시 카메라는, 상기 수동형 디텍터를 통해 상기 감시대상구역에 대한 가시광 영상, 적외선 영상 및 자외선 감지결과를 동시에 수집하여, 상기 수집한 적외선 영상에서 미리 설정한 값을 초과하는 온도값을 가지는 적외선 감지영역이 존재하거나, 온도값이 급격하게 증가하거나, 상기 적외선감지영역이 확장되거나, 또는 상기 자외선 감지결과 불꽃의 발생이 감지되는 경우, 상기 수집한 가시광 영상에 상기 수집한 적외선 영상 및 상기 자외선 감지결과를 하나의 블렌딩 영상으로 제공함으로써, 화재발생 및 불꽃발생에 대한 신속한 대처와 상기 화재발생에 대한 원인을 시각적으로 파악 및 추적할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention, the surveillance camera, by simultaneously collecting the visible light image, infrared image, and ultraviolet detection results of the surveillance target area through the passive detector, a temperature value exceeding a preset value in the collected infrared image When there is an infrared detection region having an infrared ray, the temperature value rapidly increases, the infrared ray detection region is expanded, or the occurrence of a flame is detected as a result of the ultraviolet ray detection, the collected infrared image and the collected visible light image By providing the ultraviolet ray detection result as a single blending image, a surveillance camera equipped with a passive detector and an active detector enables rapid response to fire and spark occurrence and visually grasping and tracking the cause of the fire occurrence. To provide is another purpose.
또한 본 발명은, 상기 블렌딩한 영상을 상기 관제서버로 제공함으로써, 센서데이터의 송수신을 위한 별도의 네트워크를 구축하지 않고, 기존에 구축된 영상송수신용 네트워크를 통해 상기 블렌딩 영상을 송수신할 수 있도록 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention provides the blended image to the control server so that the blended image can be transmitted and received through an existing network for transmitting and receiving an image without establishing a separate network for transmitting and receiving sensor data. Another object is to provide a surveillance camera having a passive detector and an active detector.
또한 본 발명은, 상기 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 종래의 CCTV로 간편하게 구현할 수 있도록 하여, 종래의 CCTV 영상 송수신을 위한 네트워크를 통해 상기 블렌딩 영상을 송수신할 수 있도록 함으로써, 특정 구역을 감시하기 위한 기반 시설이 구축되지 않은 지역에서도 효율적으로 적용이 가능한 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention makes it possible to easily implement a surveillance camera having the passive detector and the active detector as a conventional CCTV, so that the blended image can be transmitted and received through a network for transmitting and receiving CCTV images, Another object is to provide a surveillance camera equipped with a passive detector and an active detector that can be efficiently applied even in an area where no infrastructure for monitoring is established.
본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라는, 감시대상구역에 대한 가시광 영상을 수집하는 가시광 센서, 상기 감시대상구역에서 방사되는 적외선 및 자외선을 각각 감지하여 적외선 영상을 수집하는 적외선 센서 및 자외선 센서로 구성되는 수동형 디텍터, 특정 파장대의 레이저 펄스를 이용하여 상기 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 물체 감지 센서로 구성되는 능동형 디텍터 및 상기 적외선 감지 결과, 자외선 감지결과, 물체 감지 결과 또는 이들의 조합을 상기 수집한 가시광 영상에 반영한 블렌딩 영상을 생성하여 제공함으로써, 하나의 블렌딩 영상만으로도 상기 감시대상구역에 대한 화재발생, 불꽃발생, 새로운 물체의 출현 또는 이들의 조합을 감시할 수 있도록 하는 블렌딩 영상 생성부를 포함하는 것을 특징으로 한다.A surveillance camera having a passive detector and an active detector according to an embodiment of the present invention includes a visible light sensor that collects a visible light image of an area to be monitored, and an infrared image by detecting infrared rays and ultraviolet rays emitted from the area to be monitored, respectively. A passive detector composed of an infrared sensor and an ultraviolet sensor to collect, an object that detects an object in the monitoring target area by using a laser pulse of a specific wavelength band, and collects a scanning image of the monitoring target area including the detected object An active detector composed of a detection sensor and a blended image that reflects the infrared detection result, ultraviolet detection result, object detection result, or a combination thereof to the collected visible light image is generated and provided. It characterized in that it comprises a blending image generator to monitor the occurrence of fire, the occurrence of a spark, the appearance of a new object, or a combination thereof.
또한 상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서는, 방향 및 화각이 동기화되며, 상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서를 구성하는 각각의 센서 어레이는, 각 센서 어레이의 규모에 대한 비율에 따라 상기 감시대상구역에 대한 동일한 영역을 커버링하도록 동기화되는 것을 특징으로 한다.In addition, the visible light sensor, the infrared sensor, the ultraviolet sensor, and the object detection sensor are synchronized with the direction and angle of view, and each sensor array constituting the visible light sensor, the infrared sensor, the ultraviolet sensor, and the object detection sensor has a scale of each sensor array. It is characterized in that the synchronization to cover the same area for the monitoring target area according to the ratio of.
또한 상기 감시 카메라는, 상기 수집한 적외선 영상으로부터, 상기 감지한 적외선에 대한 적어도 하나 이상의 적외선 감지영역을 컷아웃하는 적외선 감지영역 컷아웃부, 상기 자외선 센서에서 감지한 자외선 파장의 에너지 분포에 대한 자외선 에너지 분포 영상을 생성하는 자외선 에너지 분포 영상 생성부, 상기 생성한 자외선 에너지 분포 영상으로부터 적어도 하나 이상의 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃부 및 상기 수집한 스캐닝 영상으로부터 상기 감지한 적어도 하나 이상의 물체의 영역을 컷아웃하는 물체 감지영역 컷아웃부를 더 포함하며, 상기 블렌딩 영상 생성부는, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 대응되는 특정 영역에 블렌딩함으로써, 상기 블렌딩 영상을 생성하는 것을 특징으로 한다.In addition, the surveillance camera, from the collected infrared image, an infrared detection area cutout unit for cutting out at least one infrared detection area for the sensed infrared light, ultraviolet rays for the energy distribution of the ultraviolet wavelength detected by the ultraviolet sensor An ultraviolet energy distribution image generator for generating an energy distribution image, an ultraviolet sensing region cutout for cutting out at least one ultraviolet sensing region from the generated ultraviolet energy distribution image, and the at least one detected from the collected scanning image Further comprising an object detection area cutout for cutting out the area of the object, wherein the blending image generation unit corresponds to the collected visible light image by the cut-out infrared detection area, ultraviolet light detection area, object area, or a combination thereof The blended image is generated by blending in a specific region.
또한 상기 블렌딩 영상 생성부는, 상기 적외선 감지영역이 미리 설정한 임계값을 초과하는 온도값을 가지거나, 상기 미리 설정한 임계값을 초과하는 온도값을 가지고 확장되거나, 상기 온도값이 미리 설정한 임계값 이상으로 증가하는 경우, 상기 감시대상구역에서 화재가 발생한 것으로 감지하고, 상기 자외선 감지영역이 미리 설정한 에너지값의 범위를 가지는 경우, 상기 감시대상구역에서 불꽃이 발생한 것으로 감지하며, 상기 화재 또는 불꽃이 발생한 것으로 감지된 경우, 상기 생성한 블렌딩 영상에 상기 화재 또는 불꽃발생에 대한 정보를 오버레이하고, 상기 화재 또는 불꽃발생에 대한 알림음과 함께 상기 블렌딩 영상을 제공하는 것을 더 포함하는 것을 특징으로 한다.In addition, the blending image generator may include a temperature value exceeding a preset threshold value, or extending with a temperature value exceeding the preset threshold value, or wherein the temperature value is a preset threshold value. When it increases above the value, it is detected that a fire has occurred in the monitoring target area, and when the ultraviolet detection area has a preset energy value range, it is detected that a flame has occurred in the monitoring target area, and the fire or When it is detected that the flame has occurred, the information on the fire or flame occurrence is overlaid on the generated blending image, and further comprising providing the blending image together with a notification sound for the fire or flame occurrence. do.
또한 상기 블렌딩은, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역 및 물체의 영역에 대한 각각의 픽셀값과 가시광 영상의 특정 영역에 대한 각각의 픽셀값에 대한 중값간을 계산하여, 상기 계산한 중간값을 상기 가시광 영상의 특정 영역에 대한 픽셀값으로 적용함으로써, 수행되는 것을 특징으로 한다.In addition, the blending is performed by calculating a median value for each pixel value for a specific area of a visible light image and a pixel value for the cut-out infrared detection area, the UV detection area, and the object area, and the calculated intermediate value It is characterized in that it is performed by applying a value as a pixel value for a specific area of the visible light image.
아울러 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통한 감시 방법은, 수동형 디텍터를 구성하는 가시광 센서, 적외선 센서 및 자외선 센서를 통해 감시대상구역의 가시광 영상 및 적외선 영상을 수집하고, 상기 감시대상구역에서 방사되는 자외선을 감지하는 단계, 능동형 디텍터를 구성하는 물체 감지 센서를 통해 특정 파장대의 레이저 펄스를 이용하여 상기 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 단계 및 상기 수집한 적외선 영상, 자외선 감지결과, 물체 감지 결과 또는 이들의 조합을 상기 수집한 가시광 영상에 반영한 블렌딩 영상을 생성하여 제공함으로써, 하나의 블렌딩 영상만으로도 상기 감시대상구역에 대한 화재발생, 불꽃발생, 새로운 물체의 출현 또는 이들의 조합을 감시할 수 있도록 하는 블렌딩 영상 생성 단계를 포함하는 것을 특징으로 한다.In addition, the monitoring method through a surveillance camera equipped with a passive detector and an active detector according to an embodiment of the present invention includes a visible light image and an infrared image of a monitoring target area through a visible light sensor, an infrared sensor, and an ultraviolet sensor constituting the passive detector. Collecting and detecting ultraviolet rays emitted from the monitoring target area, detecting an object in the monitoring target area using a laser pulse of a specific wavelength through an object detection sensor constituting an active detector, and including the detected object Collecting the scanning image for the monitoring target area and generating and providing a blended image reflecting the collected infrared image, ultraviolet detection result, object detection result, or a combination thereof on the collected visible light image And a blending image generation step of monitoring the occurrence of fire, occurrence of sparks, appearance of new objects, or a combination thereof in the monitoring target area with only the image.
또한 상기 감시 방법은, 상기 수집한 적외선 영상으로부터, 상기 감시대상구역에서 방사되어 감지되는 적외선에 대한 적어도 하나 이상의 적외선 감지영역을 컷아웃하는 적외선 감지영역 컷아웃 단계, 상기 자외선 센서에서 감지한 자외선의 에너지 분포에 대한 자외선 에너지 분포 영상을 생성하는 자외선 에너지 분포 영상 생성 단계, 상기 생성한 자외선 에너지 분포 영상으로부터 적어도 하나 이상의 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃 단계 및 상기 수집한 스캐닝 영상으로부터 상기 감지한 적어도 하나 이상의 물체의 영역을 컷아웃하는 물체 감지영역 컷아웃 단계를 더 포함하며, 상기 블렌딩 영상 생성 단계는, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 대응되는 특정 영역에 블렌딩함으로써, 상기 블렌딩 영상을 생성하는 것을 특징으로 한다.In addition, the monitoring method includes: an infrared detection region cutout step of cutting out at least one infrared ray detection region for infrared radiation detected by being emitted from the monitoring target region from the collected infrared image, and the ultraviolet ray detected by the ultraviolet sensor. An ultraviolet energy distribution image generation step of generating an ultraviolet energy distribution image for energy distribution, an ultraviolet detection region cutout step of cutting out at least one ultraviolet ray detection region from the generated ultraviolet energy distribution image, and the collected scanning image An object detection area cut-out step of cutting out the area of at least one detected object, wherein the blending image generation step includes the cut-out infrared detection area, ultraviolet light detection area, object area, or a combination thereof. The blended image is generated by blending in a specific region corresponding to the collected visible light image.
또한 상기 블렌딩 영상 생성 단계는, 상기 적외선 감지영역이 미리 설정한 임계값을 초과하는 온도값을 가지거나, 상기 미리 설정한 임계값을 초과하는 온도값을 가지고 확장되거나, 상기 온도값이 미리 설정한 임계값 이상으로 증가하는 경우, 상기 감시대상구역에서 화재가 발생한 것으로 감지하고, 상기 자외선 감지영역이 미리 설정한 에너지값의 범위를 가지는 경우, 상기 감시대상구역에서 불꽃이 발생한 것으로 감지하며, 상기 화재 또는 불꽃이 발생한 것으로 감지된 경우, 상기 생성한 블렌딩 영상에 상기 화재 또는 불꽃발생에 대한 정보를 오버레이하고, 상기 화재 또는 불꽃발생에 대한 알림음과 함께 상기 블렌딩 영상을 제공하는 것을 더 포함하는 것을 특징으로 한다.In addition, in the step of generating the blending image, the infrared detection region has a temperature value exceeding a preset threshold value, or is extended with a temperature value exceeding the preset threshold value, or the temperature value is preset. When it increases above the threshold value, it is detected that a fire has occurred in the monitoring target area, and when the ultraviolet detection area has a preset energy value range, it is detected that a flame has occurred in the monitoring target area, and the fire Or when it is detected that the flame has occurred, overlaying the information on the fire or the occurrence of the flame on the generated blending image, and providing the blending image together with a notification sound for the fire or flame occurrence. To do.
이상에서와 같이 본 발명의 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라는, 가시광 영상 및 적외선 영상을 수집하고, 자외선을 감지하는 수동형 디텍터와 물체를 감지하는 능동형 디텍터를 통합 구비하는 감시 카메라를 복수의 감시대상구역에 각각 설치하여, 상기 수집한 가시광 영상 및 적외선 영상과 상기 자외선을 감지한 결과 및 물체를 감지한 결과를 통합한 블렌딩 영상을 생성하여 제공함으로서, 하나의 블렌딩 영상만으로도 상기 감시대상구역에서의 화재발생, 불꽃발생, 의심스러운 물체의 출현 또는 이들의 조합을 포함하는 감시를 효율적으로 수행하여 상기 화재발생, 불꽃발생, 물체의 출현 또는 이들의 조합에 대해 신속한 대처를 수행할 수 있도록 하는 효과가 있다.As described above, the surveillance camera having a passive detector and an active detector of the present invention includes a plurality of surveillance cameras including a passive detector that collects visible and infrared images and detects ultraviolet rays and an active detector that detects an object. Each installed in the monitoring target area generates and provides a blended image that combines the collected visible and infrared images, the result of detecting the ultraviolet rays, and the object, so that only one blending image is used in the monitoring target area. The effect of efficiently performing monitoring including the occurrence of fire, occurrence of sparks, occurrence of suspicious objects, or combinations of these, enabling rapid response to the occurrence of fire, occurrence of sparks, occurrence of objects, or combinations thereof There is.
또한 본 발명은, 상기 감시대상구역에서 화재발생 혹은 불꽃의 발생이 감지된 경우, 상기 블렌딩 영상을 통해 상기 화재의 발생, 불꽃의 발생에 대한 원인을 정확하게 파악하여 추적할 수 있도록 하는 효과가 있다.In addition, the present invention has the effect of being able to accurately identify and track the cause of the occurrence of the fire or the occurrence of the flame through the blending image when the occurrence of a fire or flame is detected in the monitoring target area.
도 1은 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 설명하기 위해 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통해 블렌딩 영상을 생성하는 방법을 설명하기 위해 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 블렌딩 영상을 설명하기 위해 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라의 구성을 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통해 감시대상구역에 대한 감시 과정을 나타낸 흐름도이다.1 is a view illustrating a surveillance camera having a passive detector and an active detector according to an embodiment of the present invention.
2 is a diagram illustrating a method of generating a blended image through a surveillance camera having a passive detector and an active detector according to an embodiment of the present invention.
3 is a diagram illustrating a blending image according to an embodiment of the present invention.
4 is a block diagram showing the configuration of a surveillance camera including a passive detector and an active detector according to an embodiment of the present invention.
5 is a flowchart illustrating a monitoring process for a surveillance target area through a surveillance camera equipped with a passive detector and an active detector according to an embodiment of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, preferred embodiments of a surveillance camera having a passive detector and an active detector of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same member. In addition, specific structural or functional descriptions of the embodiments of the present invention are exemplified only for the purpose of describing the embodiments according to the present invention, and unless otherwise defined, all terms used herein including technical or scientific terms They have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this specification. It is desirable not to.
도 1은 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 설명하기 위해 나타낸 도면이다.1 is a view illustrating a surveillance camera having a passive detector and an active detector according to an embodiment of the present invention.
도 1에 도시한 바와 같이, 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라(이하, 감시 카메라라 칭함)(100)는, 빌딩, 학교, 병원, 관공서, 공공장소 등과 같은 복수의 감시대상구역에 각각 설치되어 해당 감시대상구역에 대한 화재발생 및 불꽃발생을 실시간으로 감시하도록 하거나, 새로운 물체의 출현을 감시할 수 있도록 하는 기능을 지원한다.As shown in FIG. 1, a surveillance camera (hereinafter referred to as a surveillance camera) 100 having a passive detector and an active detector according to an embodiment of the present invention is provided in a building, school, hospital, government office, public place, etc. It is installed in the same multiple areas to be monitored to monitor the occurrence of fires and sparks in real time in the area to be monitored, or to monitor the appearance of new objects.
한편, 상기 수동형 디텍터 및 능동형 디텍터는, 특정 광원을 방출하는 주체에 따라 분류되는 것으로, 외부에서 방사되는 광원을 수광하여 처리하는 경우에는 수동형 디텍터가 되며, 자체적으로 특정 광원을 방출하여 반사되어 돌아오는 해당 광원을 수광하여 처리하는 경우에는 능동형 디텍터가 된다.On the other hand, the passive detector and the active detector are classified according to the subject that emits a specific light source, and when receiving and processing a light source radiated from the outside, they become a passive detector. When the light source is received and processed, it becomes an active detector.
또한 상기 수동형 디텍터는, CCD(charge couple device) 또는 CMOS(complementary metal oxide semiconductor)로 구성되는 이미지 센서 어레이로 구성되어 상기 감시대상구역의 가시광 영상을 수집하는 가시광 센서, 열적외선 온도 센서 어레이로 구성되어 상기 감시대상구역의 적외선 영상을 수집하는 적외선 센서, 자외선 센서 어레이로 구성되어 해당 감시대상구역의 자외선을 감지하여 스파크와 같은 불꽃의 발생을 감지하는 자외선 센서로 구성된다.In addition, the passive detector is composed of an image sensor array composed of a charge couple device (CCD) or a complementary metal oxide semiconductor (CMOS), and is composed of a visible light sensor and a thermal infrared temperature sensor array to collect a visible light image of the area to be monitored. It is composed of an infrared sensor that collects infrared images of the monitoring target area and an ultraviolet sensor array, and includes an ultraviolet sensor that detects the occurrence of a spark such as a spark by detecting ultraviolet rays in the monitoring target area.
또한 상기 능동형 디텍터는, 포토다이오드 어레이로 구성되어 특정 파장대의 레이저 펄스를 방출하여 특정 물체로부터 반사되어 되돌아오는 반사 펄스 신호를 수신하여, 상기 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하여 상기 감시대상구역에 대한 스캐닝 영상을 생성하는 물체 감지 센서(예: 라이다)로 구성된다.In addition, the active detector is composed of a photodiode array, emits a laser pulse of a specific wavelength band, receives a reflected pulse signal reflected from a specific object and returns, detects an object in the monitoring target area, and includes the detected object. Thus, it is composed of an object detection sensor (eg, lidar) that generates a scanning image of the area to be monitored.
또한 상기 감시 카메라(100)는, 상기 수동형 디텍터를 통해, 수집한 가시광 영상과 적외선 영상 및 자외선 감지결과와 상기 능동형 디텍터를 통해 물체에 대한 감지결과를 통합하여 하나의 블렌딩 영상을 생성하고, 상기 생성한 블렌딩 영상을 상기 관제서버(200)로 제공함으로서, 하나의 블렌딩 영상을 통해 상기 감시대상구역에서의 화재발생, 불꽃발생, 새로운 물체의 출현 또는 이들의 조합을 포함하여 상기 감시대상구역에 대한 감시를 효율적으로 수행할 수 있도록 한다. In addition, the surveillance camera 100 generates a blended image by integrating the collected visible light image, infrared image, and ultraviolet detection result through the passive detector and the detection result of the object through the active detector, and generates the By providing a blended image to the
한편, 상기 감시 카메라(100)는, 상기 적외선 영상을 이용하여 해당 감시대상구역에서 화재가 발생한 것으로 감지되거나, 상기 자외선 감지결과를 이용하여 상기 감시대상구역에서 불꽃이 발생한 것으로 감지되는 경우, 상기 생성한 블렌딩 영상에 상기 화재발생 또는 불꽃발생에 대한 정보를 텍스트 형식으로 오버레이하고, 상기 화재발생 또는 불꽃발생에 대한 알림음과 함께 상기 생성한 블렌딩 영상을 상기 관제서버(200)로 제공하여, 상기 화재발생 또는 불꽃발생을 즉각적으로 인식할 수 있도록 한다.On the other hand, when the surveillance camera 100 detects that a fire has occurred in the surveillance target area using the infrared image, or when it is detected that a flame has occurred in the surveillance target area using the ultraviolet detection result, the generation The information on the occurrence of fire or flame is overlaid on one blending image in text format, and the generated blending image is provided to the
이는, 관제서버(200)에서 상기 가시광 영상, 적외선 영상 및 자외선 감지결과를 중앙 집중적으로 수집하여 화재 및 불꽃의 발생을 감지하도록 하는 것이 아니라, 상기 각 감시 카메라(100)에서 자체적으로 화재발생감지 및 불꽃발생감지를 수행하여 이를 반영한 블렌딩 영상을 상기 관제서버(200)로 제공함으로서, 상기 관제서버(200)의 부하를 분산할 수 있도록 하는 효과가 있다.This does not allow the
상기 블렌딩 영상은, 상기 수집한 가시광 영상을 기반으로 적외선 영상으로부터 관심영역인 적외선 감지영역을 컷아웃하여 상기 가시광 영상과 블렌딩하거나, 상기 자외선 감지결과로부터 생성되는 자외선 에너지 분포 영상으로부터 관심영역(즉, 자외선 에너지 분포 영역)을 컷아웃하여, 상기 가시광 영상에 블렌딩하거나, 상기 스캐닝 영상으로부터 상기 감지한 물체의 영역을 컷아웃하여 상기 가시광 영상과 블렌딩하거나 또는 이들의 조합을 수행함으로써, 생성된다.The blended image may be blended with the visible light image by cutting out an infrared detection area, which is an area of interest, from an infrared image based on the collected visible light image, or an area of interest (i.e., UV energy distribution area) is cut out and blended with the visible light image, or the area of the detected object is cut out from the scanning image and blended with the visible light image, or a combination thereof is performed.
이때, 상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서의 방향, 화각(FOV, field of view), 수집시간 및 감지시간은 서로 동기화되어 동일한 방향 및 범위에서 상기 감시대상구역에 대한 가시광 영상, 적외선 영상, 자외선 감지 및 물체를 감지할 수 있도록 하며, 또한 상기 가시광 센서의 이미지 센서 어레이와 적외선 센서의 열적외선 센서 어레이, 상기 자외선 센서의 자외선 센서 어레이와 상기 물체 감지 센서의 포토다이오드 센서 어레이는, 상기 각 어레이의 규모에 대한 비율에 따라 상기 이미지 센서 어레이를 기준으로 상기 감시대상구역의 동일한 범위를 커버링하도록 동기화된다.At this time, the direction, field of view (FOV), collection time, and detection time of the visible light sensor, infrared sensor, ultraviolet sensor, and object detection sensor are synchronized with each other so that a visible light image of the monitoring target area in the same direction and range, Infrared image, ultraviolet detection and object detection, and also the image sensor array of the visible light sensor and the thermal infrared sensor array of the infrared sensor, the ultraviolet sensor array of the ultraviolet sensor and the photodiode sensor array of the object detection sensor, Synchronized to cover the same range of the area to be monitored based on the image sensor array according to the ratio of the size of each array.
예를 들어, 상기 이미지 센서 어레이의 규모가 1024 x 1024이고, 상기 열적외선 센서 어레이는 512 x 512인 경우, 상기 이미지 센서 어레이와 상기 열적외선 센서 어레이의 비율이 2:1이므로, 상기 열적외선 센서 어레이를 구성하는 하나의 단위센서가 상기 이미지 센서 어레이를 구성하는 두 개의 단위 센서와 대응됨으로써, 상기 이미지 센서 어레이와 상기 열적외선 센서 어레이가 동일한 범위를 커버링하도록 동기화되는 것이다. 이는, 상기 자외선 센서 어레이 및 포토다이오드 센서 어레이와 동일하게 적용된다.For example, when the size of the image sensor array is 1024 x 1024 and the thermal infrared sensor array is 512 x 512, the ratio between the image sensor array and the thermal infrared sensor array is 2:1, so that the thermal infrared sensor One unit sensor constituting the array corresponds to two unit sensors constituting the image sensor array, so that the image sensor array and the thermal infrared sensor array are synchronized to cover the same range. This is applied in the same manner as the ultraviolet sensor array and photodiode sensor array.
따라서 상기 적외선 영상, 상기 스캐닝 영상 및 상기 자외선 에너지 분포 영상의 특정 부분이 상기 가시광 영상에서 어디에 위치하는 지를 쉽게 알 수 있다.Therefore, it is easy to know where a specific part of the infrared image, the scanning image, and the ultraviolet energy distribution image is located in the visible light image.
한편, 상기 적외선 카메라는 상기 열적외선 온도 어레이 센서를 통해 상기 감시대상구역에 위치하는 사물이나 객체 등에서 방사되는 적외선을 감지하고, 상기 감지한 적외선의 파장에 따라 온도값을 계산함으로써, 상기 감시대상구역의 온도분포에 대한 적외선 영상을 수집한다.Meanwhile, the infrared camera detects infrared rays emitted from objects or objects located in the monitoring target area through the thermal infrared temperature array sensor, and calculates a temperature value according to the wavelength of the detected infrared rays. Infrared images of the temperature distribution of are collected.
또한 상기 자외선 센서는, 상기 감시대상구역에서 방사되는 자외선을 감지하는 것으로, 상기 감시 카메라(100)는, 상기 자외선 센서를 통해 감지한 자외선 파장의 에너지 분포를 이미지화한 자외선 에너지 분포 영상을 생성하고, 상기 자외선 에너지 분포 영상으로부터 자외선 감지영역을 컷아웃하여, 상기 가시광 영상에 블렌딩함으로써, 상기 블렌딩 영상을 생성하게 된다.In addition, the ultraviolet sensor detects ultraviolet rays radiated from the monitoring target area, and the surveillance camera 100 generates an ultraviolet energy distribution image obtained by imaging the energy distribution of ultraviolet wavelengths detected by the ultraviolet sensor, An ultraviolet detection region is cut out from the ultraviolet energy distribution image and blended into the visible light image, thereby generating the blended image.
이때, 상기 자외선 센서는, 스파크 등과 같이 불꽃의 초기 발생 때, 180nm 내지 260nm의 자외선 영역에서 많은 양의 방사 에너지를 방출하는 특유의 연소특성을 이용하여, 상기 감시대상구역의 불꽃발생을 감지하도록 구현되며, 이때, 상기 감시 카메라(100)는, 상기 생성한 자외선 에너지 분포 영상으로부터 미리 설정한 범위 내의 에너지 분포를 가지는 영역을 컷아웃하여, 상기 가시광 영상에 블렌딩함으로써, 상기 블렌딩 영상을 생성하게 되며, 상기 생성한 블렌딩 영상을 통해 불꽃의 발생을 시각적이고 즉각적으로 인식할 수 있도록 한다.At this time, the ultraviolet sensor is implemented to detect the occurrence of flame in the monitored area by using a characteristic combustion characteristic that emits a large amount of radiant energy in the ultraviolet region of 180 nm to 260 nm when a flame is initially generated, such as a spark. In this case, the surveillance camera 100 cuts out an area having an energy distribution within a preset range from the generated ultraviolet energy distribution image and blends it with the visible light image, thereby generating the blended image, It is possible to visually and immediately recognize the occurrence of a flame through the generated blending image.
또한 상기 물체 감지 센서는, 상기 감시대상구역의 물체를 감지하여, 상기 감지한 물체를 포함하는 감시대상구역에 대한 스캐닝 영상을 수집하기 위한 것으로, 상기 감시 카메라(100)는, 상기 스캐닝 영상으로부터 상기 감지한 물체의 영역을 컷아웃하여, 상기 컷아웃한 영역에 대응되는 상기 가시광 영상의 특정 영역에 블렌딩함으로써, 상기 블렌딩 영상을 생성하게 된다.In addition, the object detection sensor is for detecting an object in the monitoring target area and collecting a scanning image for a monitoring target area including the detected object, and the monitoring camera 100 includes the The area of the detected object is cut out and blended into a specific area of the visible light image corresponding to the cut-out area to generate the blended image.
또한 상기 감시 카메라(100)는, 타 감시 카메라(100)와 구별되기 위한 식별정보(ID)와 위치정보가 각각 부여되며, 상기 생성한 블렌딩 영상의 일 측에 자신에게 부여된 식별정보 및 위치정보를 함께 오버레이하여 상기 관세서버(200)로 제공하여 화재발생 위치를 신속하게 알 수 있도록 한다.In addition, the surveillance camera 100 is provided with identification information (ID) and location information to be distinguished from other surveillance cameras 100, respectively, and identification information and location information given to one side of the generated blending image By overlaying together and providing it to the
상기에서 설명한 것과 같이, 본 발명의 감시 카메라(100)는, 수동형 디텍터 및 능동형 디텍터를 통합하여 구비하고 있으면서, 상기 수동형 디텍터 및 능동형 디텍터를 통해 감시대상구역에 대한 가시광 영상 및 적외선 영상을 수집하고 이와 동시에 자외선 감지 및 물체 감지를 수행하여, 상기 수집한 가시광 영상에 상기 수집한 적외선 영상, 상기 자외선을 감지한 자외선 감지결과, 상기 물체를 감지한 물체 감지결과 또는 이들의 조합을 블렌딩함으로써, 상기 가시광 영상, 적외선 영상, 자외선 감지결과, 물체 감지결과 또는 이들이 조합이 통합된 블렌딩 영상을 생성하여 관제서버(200)로 제공함으로서, 하나의 블렌딩 영상을 통해 상기 감시대상구역을 효율적으로 감시할 수 있도록 한다. As described above, the surveillance camera 100 of the present invention is provided by integrating a passive detector and an active detector, and collects visible light images and infrared images of the surveillance target area through the passive detector and the active detector. At the same time, ultraviolet detection and object detection are performed, and the collected infrared image, the ultraviolet ray detection result of detecting the ultraviolet ray, the object detection result of detecting the object, or a combination thereof are blended to the collected visible light image. , Infrared image, ultraviolet detection result, object detection result, or a blended image in which a combination thereof is integrated is generated and provided to the
도 2는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통해 블렌딩 영상을 생성하는 방법을 설명하기 위해 나타낸 도면이다.2 is a diagram illustrating a method of generating a blended image through a surveillance camera having a passive detector and an active detector according to an embodiment of the present invention.
도 2에 도시한 바와 같이, 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라(100)는, 상기 수동형 디텍터를 구성하는 적외선 센서를 통해 주비한 적외선 영상으로부터 적외선 감지영역을 컷아웃하거나, 상기 수동형 디텍터를 구성하는 자외선 센서를 통해 자외선을 감지한 결과를 토대로 생성되는 자외선 에너지 분포 영상으로부터 자외선 감지 영역을 컷아웃하거나, 상기 능동형 디텍터를 구성하는 물체 감지 센서에서 물체를 감지하여 생성한 스캐닝 영상으로부터 물체 영역을 컷아웃하거나, 또는 이들의 조합을 수행하여, 이에 대한 블렌딩 영상을 생성한다.As shown in FIG. 2, the surveillance camera 100 having a passive detector and an active detector according to an embodiment of the present invention detects an infrared detection area from an infrared image collected through an infrared sensor constituting the passive detector. Cut-out or cut-out the ultraviolet ray detection area from the ultraviolet energy distribution image generated based on the result of sensing ultraviolet light through the ultraviolet sensor constituting the passive detector, or detect an object by an object detection sensor constituting the active detector The object region is cut out from the generated scanning image, or a combination thereof is performed to generate a blended image for the object region.
한편, 상기 수동형 디텍터 및 능동형 디텍터의 방향과 화각은 동기화되어 있으며, 상기 수동형 디텍터를 구성하는 가시광 센서, 적외선 센서 및 자외선 센서와 상기 능동형 디텍터를 구성하는 물체 감지 센서에 대한 각각의 센서 어레이는 그 규모에 대한 비율에 따라 상기 감시대상구역의 동일한 범위를 커버링하도록 동기화되어 있음은 상술한 바와 같다.On the other hand, the directions and angles of view of the passive detector and the active detector are synchronized, and each sensor array for the visible light sensor, the infrared sensor and the ultraviolet sensor constituting the passive detector and the object detection sensor constituting the active detector is As described above, it is synchronized to cover the same range of the monitoring target area according to the ratio of the
또한 상기 감시 카메라(100)는, 상기 컷아웃한 적외선 영역이 미리 설정한 온도값을 초과하거나, 상기 온도값이 지속적으로 증가하거나, 상기 미리 설정한 온도값을 초과하여 확장되는 경우에는 해당 감시대상구역에서 화재가 발생한 것으로 감지하여, 상기 블렌딩 영상과 함께 화재발생에 대한 알림을 수행한다.In addition, when the cut-out infrared region exceeds a preset temperature value, the temperature value continuously increases, or extends beyond the preset temperature value, the surveillance camera 100 It detects that a fire has occurred in the area, and performs a notification of the fire occurrence along with the blending image.
또한 상기 자외선 에너지 분포 영상으로부터 컷아웃한 자외선 감지 영역이 미리 설정한 에너지 범위를 가지는 경우에는, 해당 감시대상구역에서 불꽃이 발생한 것을 감지하여 상기 블렌딩 영상과 함께 불꽃발생에 대한 알림을 수행한다.In addition, when the ultraviolet detection region cut-out from the ultraviolet energy distribution image has a preset energy range, it detects that a flame has occurred in the monitoring target region, and a notification of the flame occurrence is performed together with the blending image.
상기 알림은, 상기 블렌딩 영상에 상기 화재발생 또는 불꽃발생에 대한 텍스트를 오버레이하거나, 상기 화재발생 또는 불꽃발생에 대한 음향신호를 송출함으로써, 수행된다.The notification is performed by overlaying text on the occurrence of fire or spark on the blended image, or by transmitting an acoustic signal for the occurrence of fire or spark.
상기 온도값은 상기 적외선 센서를 통해 산출되므로, 상기 감시 카메라(100)는 상기 산출된 온도값을 이용하여 화재발생을 감지하며, 상기 적외선 감지 영역은, 상기 적외선 영상을 구성하는 각 프레임별로 컷아웃된다.Since the temperature value is calculated through the infrared sensor, the monitoring camera 100 detects the occurrence of a fire using the calculated temperature value, and the infrared detection area is cut out for each frame constituting the infrared image. do.
한편, 상기 자외선 에너지 분포 영상은, 상기 자외선 센서를 통해 감지된 자외선의 파장범위를 토대로 생성되며, 상기 감시 카메라(100)는, 상기 생성한 자외선 에너지 분포 영상으로부터 자외선 감지영역을 컷아웃하고, 상기 컷아웃한 자외선 감지영역을 상기 수집한 가시광 영상에 대응하는 특정영역에 블렌딩한다. Meanwhile, the ultraviolet energy distribution image is generated based on the wavelength range of ultraviolet rays detected by the ultraviolet sensor, and the surveillance camera 100 cuts out an ultraviolet ray detection region from the generated ultraviolet energy distribution image, and the The cut-out ultraviolet ray sensing region is blended into a specific region corresponding to the collected visible light image.
또한 상기 감시 카메라(100)는, 상기 물체 감지 센서를 통해 감지된 물체에 대해 수집되는 스캐닝 영상으로부터 상기 감지한 물체의 영역을 컷아웃하고, 상기 컷아웃한 물체의 영역을 상기 가시광 영상에 대응하는 특정영역에 블렌딩한다.In addition, the surveillance camera 100 cuts out the area of the detected object from the scanning image collected for the object detected through the object detection sensor, and the cut-out area corresponds to the visible light image. Blend in a specific area.
이때, 상기 가시광 영상과, 적외선 영상, 자외선 에너지 분포 영상 및 스캐닝 영상은, 상기에서 설명한 동기화에 따라 이미 동기화되어 있으므로, 상기 적외선영상에서 컷아웃한 적외선 감지영역 및 자외선 에너지 분포 영상에서 컷아웃한 자외선 감지영역 및 상기 스캐닝 영상에서 컷아웃한 특정 물체의 영역의 위치에 각각 대응하는 상기 가시광 영상의 특정 위치에 상기 컷아웃한 적외선 감지영역, 자외선 감지영역 및 상기 물체의 영역 또는 이들의 조합을 블렌딩함으로써, 상기 블렌딩 영상을 생성하게 된다.At this time, since the visible light image, the infrared image, the ultraviolet energy distribution image, and the scanning image are already synchronized according to the synchronization described above, the infrared detection region cut out from the infrared image and the ultraviolet ray cut out from the ultraviolet energy distribution image By blending the cut-out infrared detection area, the ultraviolet detection area, and the area of the object, or a combination thereof, at a specific location of the visible light image corresponding to the location of the detection area and the area of the specific object cut out from the scanning image. , To generate the blending image.
또한 상기 블렌딩 영상의 배경은 가시광 영상으로 설정되며, 상기 컷아웃되는 각각의 영역은 상기 블렌딩 영상의 전경으로 설정된다.In addition, a background of the blended image is set as a visible light image, and each of the cutout regions is set as a foreground of the blended image.
또한 상기 블렌딩은, 상기 컷아웃은 각각의 영역에 대한 픽셀값과 이에 대응하는 상기 가시광 영상의 각 픽셀값에 대한 중간값을 계산하여, 상기 블렌딩 영상에서 상기 컷아웃한 각 영역이 표시될 부분에 상기 계산한 중간값을 적용함으로써, 수행된다.In addition, in the blending, the cutout calculates a pixel value for each region and an intermediate value for each pixel value of the visible light image corresponding thereto, so that the cutout region in the blended image is displayed. This is done by applying the median value calculated above.
이를 통해, 상기 가시광 영상에 블렌딩되는 상기 컷아웃한 각각의 영역은 반투명한 상태로 표시되어, 상기 적외선 감지영역 또는 자외선 감지영역이 어떠한 사물이나 객체에서 발생되었는지를 즉각적으로 인식할 수 있으며, 상기 물체의 영역 또한 어떠한 사물인지 객체인지에 대한 여부를 즉각적으로 인식할 수 있다.Through this, each cut-out region blended with the visible light image is displayed in a semi-transparent state, so that it is possible to immediately recognize which object or object the infrared sensing region or the ultraviolet sensing region has occurred, and the object It is also possible to immediately recognize whether the area of is an object or an object.
도 3은 본 발명의 일 실시예에 따른 블렌딩 영상을 설명하기 위해 나타낸 도면이다.3 is a diagram illustrating a blending image according to an embodiment of the present invention.
도 3에 도시한 바와 같이, 본 발명의 일 실시예에 감시 카메라(100)는, 적외선 센서를 통해 수집되는 적외선 영상에서의 적외선 감지영역, 자외선 센서를 통해 자외선 감지결과를 토대로 생성되는 자외선 에너지 분포 영상의 자외선 감지영역, 물체 감지 센서를 통해 수집되는 스캐닝 영상의 물체 감지영역을 가시광 센서를 통해 수집되는 가시광 영상에 각각 블렌딩함으로서, 상기 적외선 감지, 자외선 감지, 물체 감지 또는 이들의 조합을 포함하는 감지결과가 반영된 하나의 블렌딩 영상을 생성한다.As shown in FIG. 3, the surveillance camera 100 according to an embodiment of the present invention includes an infrared detection area in an infrared image collected through an infrared sensor, and an ultraviolet energy distribution generated based on the ultraviolet detection result through the ultraviolet sensor. Detection including the infrared detection, ultraviolet detection, object detection, or a combination thereof by blending the ultraviolet detection area of the image and the object detection area of the scanning image collected through the object detection sensor into the visible light image collected through the visible light sensor. One blending image reflecting the result is generated.
또한 상기 가시광 센서와 상기 적외선 센서의 경우, 프레임 레이트와 촬영시간이 동기화되어 있는 경우에는, 상기 적외선영상의 프레임별로 컷아웃되는 적외선 감지영역에 대응하는 상기 가시광 영상의 각 프레임에 각각 블렌딩된다. 또한 상기 프레임 레이트가 상이한 경우에는 상기 프레임 레이트의 비율에 따라 복수의 특정 가시광 영상의 프레임을 선택하여 상기 블렌딩을 수행할 수 있다.In addition, in the case of the visible light sensor and the infrared sensor, when the frame rate and the photographing time are synchronized, each frame of the visible light image corresponding to the infrared detection region cut out for each frame of the infrared image is blended. In addition, when the frame rates are different, the blending may be performed by selecting a plurality of specific frames of visible light images according to a ratio of the frame rate.
또한 상기 감시 카메라(100)는, 상기 자외선 에너지 분포 영상으로부터 컷아웃한 자외선 감지영역을, 상기 가시광 영상을 구성하는 복수의 특정 프레임(예: 홀수 프레임 혹은 짝수 프레임)을 선택하여 상기 컷아웃한 자외선 감지영역을 블렌딩한다.In addition, the surveillance camera 100 selects a plurality of specific frames (eg, odd frames or even frames) constituting the visible light image to the ultraviolet detection region cut out from the ultraviolet energy distribution image, and the cut-out ultraviolet rays Blend the sensing area.
이때, 상기 감시 카메라(100)는, 상기 캇아웃한 자외선 감지영역을 상기 에너지값에 따라 미리 설정한 픽셀값(예: 녹색 등)으로 치환하여 상기 블렌딩을 수행하거나, 상기 자외선 감지영역의 각 픽셀값에 따라 일정한 비율로 해당 픽셀의 명도(luminance)값을 증가시켜, 상기 감시대상구역에서의 불꽃이 발생하거나, 자외선 감지결과를 시각적으로 즉시 인식할 수 있도록 한다.In this case, the surveillance camera 100 performs the blending by replacing the cut-out ultraviolet ray detection region with a pixel value (eg, green, etc.) set in advance according to the energy value, or By increasing the luminance value of the corresponding pixel at a constant rate according to the value, a spark occurs in the area to be monitored or the ultraviolet ray detection result can be visually recognized immediately.
즉, 상기 감시 카메라(100)는, 상기 선택한 복수의 특정 프레임에 블렌딩한 자외선 감지영역의 각 픽셀에 대한 명도를 증가시킴으로써, 상기 블렌딩 영상이 디스플레이 될 때, 상기 자외선 감지영역에 대한 깜박임 효과를 가지도록 하여, 상기 자외선 감지에 대한 시인성을 극대화할 수 있도록 하는 것이다. That is, the surveillance camera 100 increases the brightness of each pixel of the ultraviolet detection region blended in the selected plurality of specific frames, thereby having a flickering effect on the ultraviolet detection region when the blended image is displayed. By doing so, it is possible to maximize the visibility for the ultraviolet detection.
또한 상기 감시 카메라(100)는, 미리 설정한 시간동안 가시광 영상 및 적외선영상을 수집하여 저장하고 있다가, 상기 적외선 영상 및 자외선 감지결과에 따라 해당 대상구역에서 화재발생 혹은 불꽃발생이 감지된 경우에는, 상기 감지된 시간 이전부터 저장된 가시광 영상 및 적외선영상을 포함한 상기 블렌딩 영상을 생성하여 제공함으로서, 상기 사용자가 화재발생 혹은 불꽃발생 이전부터 상기 블렌딩 영상을 분석하여 화재의 원인을 보다 정확하게 분석 및 추적할 수 있도록 하는 것이다. In addition, the surveillance camera 100 collects and stores a visible light image and an infrared image for a preset time, and when a fire or flame occurrence is detected in the target area according to the infrared image and ultraviolet detection result , By generating and providing the blending image including the visible light image and the infrared image stored before the detected time, the user can analyze and track the cause of the fire more accurately by analyzing the blending image before the occurrence of fire or flame. To be able to.
또한 상기 감시 카메라(100)는, 물체 감지 센서를 통해 수집되는 스캐닝 영상을 토대로 상기 감지한 특정 물체에 대한 물체 감지영역을 상기 스캐닝 영상으로부터 컷아웃하고, 상기 가시광 영상을 구성하는 복수의 특정 프레임을 선택하여, 상기 컷아웃한 물체 감지영역에 대응되는 상기 선택한 프레임의 특정 영역에 블렌딩하여 상기 블렌딩 영상을 생성한다.In addition, the surveillance camera 100 cuts out an object detection region for the detected specific object from the scanning image based on the scanning image collected through the object detection sensor, and creates a plurality of specific frames constituting the visible light image. By selecting, the blended image is generated by blending in a specific area of the selected frame corresponding to the cut-out object detection area.
즉, 상기 감시 카메라(100)는, 적외선 감지영역, 자외선 감지영역, 물체 감지영역을 가시광 영상에 블렌딩하여 하나의 블렌딩 영상을 제공함으로써, 하나의 블렌딩 영상만으로도 사용자가 해당 감지대상구역에서의 화재발생, 불꽃발생, 새로운 물체의 출현 또는 이들의 조합을 즉각적으로 인식하고 이에 대처할 수 있도록 하며, 화재나 불꽃의 발생 원인을 정확하게 파악하고 추적할 수 있도록 한다.That is, the surveillance camera 100 blends the infrared detection area, the ultraviolet detection area, and the object detection area with a visible light image to provide a single blended image, so that a user can generate a fire in the detection target area with only one blended image. , The occurrence of a spark, the appearance of a new object, or a combination thereof is immediately recognized and coped with, and the cause of the fire or spark can be accurately identified and traced.
또한 상기 감시 카메라는(100), 상기 생성한 블렌딩 영상의 일 측에 해당 감시 카메라(100)의 위치정보 및 식별정보를 오버레이하여 제공한다.In addition, the surveillance camera 100 provides by overlaying location information and identification information of the surveillance camera 100 on one side of the generated blended image.
도 4는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라의 구성을 나타낸 블록도이다.4 is a block diagram showing the configuration of a surveillance camera including a passive detector and an active detector according to an embodiment of the present invention.
도 4에 도시한 바와 같이, 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라(100)는, 감시대상구역에 대한 가시광 영상을 수집하는 가시광 센서(110), 상기 감시대상구역에 대한 적외선영상을 수집하는 적외선 센서(120), 상기 감시대상구역에서 발생되는 자외선을 감지하는 자외선 센서(130)를 포함하는 수동형 디텍터, 상기 감시대상구역의 물체를 감지하여 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 물체 감지 센서(140), 상기 수집한 적외선영상으로부터 적외선 감지영역을 컷아웃하는 적외선 감지영역 컷아웃부(150), 상기 감지한 자외선의 에너지 분포 영상을 생성하는 자외선 에너지 분포 영상 생성부(160), 상기 생성한 자외선 에너지 분포 영상으로부터 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃부(170), 상기 수집한 스캐닝 영상으로부터 상기 감지한 물체의 영역인 물체 감지영역을 컷아웃하는 물체 감지영역 컷아웃부(180) 및 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체 감지영역 또는 이들의 조합을 상기 수집한 가시광 영상에 블렌딩하여 블렌딩 영상을 생성하는 블렌딩 영상 생성부(180)를 포함하여 구성된다. As shown in FIG. 4, a surveillance camera 100 having a passive detector and an active detector according to an embodiment of the present invention includes a visible light sensor 110 for collecting visible light images for a surveillance target area, and the surveillance target An infrared sensor 120 that collects an infrared image of an area, a passive detector including an ultraviolet sensor 130 that detects ultraviolet rays generated in the area to be monitored, and detects the object in the area to be monitored. An object detection sensor 140 that collects a scanning image for the area to be monitored including, an infrared detection
또한 상기 가시광 센서(100)는, 이미지 센서 어레이를 포함하여 구성되며, 해당 감시대상구역에 대한 가시광 영상을 수집하는 기능을 수행한다.In addition, the visible light sensor 100 is configured to include an image sensor array, and performs a function of collecting a visible light image for a corresponding monitoring target area.
또한 적외선 센서(120)는, 열적외선 온도 센서 어레이를 포함하여 구성되며, 상기 감시대상구역에서 방사되는 적외선을 감지하고, 상기 감지한 적외선 파장에 따른 온도값을 계산하여 상기 감시대상구역에 대한 온도분포를 나타내는 적외선영상을 수집하는 기능을 수행한다.In addition, the infrared sensor 120 is configured to include a thermal infrared temperature sensor array, detects infrared rays emitted from the monitoring target area, calculates a temperature value according to the detected infrared wavelength, and calculates a temperature for the monitoring target area. It performs the function of collecting infrared images representing distribution.
또한 상기 자외선 센서(130)는, 자외선 센서 어레이로 구성되어 상기 감시대상구역에서 방사되는 자외선을 감지하는 기능을 수행한다. In addition, the ultraviolet sensor 130 is configured as an ultraviolet sensor array and performs a function of detecting ultraviolet rays emitted from the monitoring target area.
또한 상기 능동형 디텍터로 구성되는 물체 감지 센서(140)는, 포토다이오드 센서 어레이를 포함하는 라이다로 구성되며, 특정 파장대의 레이저 펄스를 상기 감시대상구역에 방출하고, 물체에 의해 반사되어 돌아오는 반사 펄스 신호를 수신하여 해당 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 기능을 수행한다.In addition, the object detection sensor 140 composed of the active detector is composed of a lidar including a photodiode sensor array, and emits a laser pulse of a specific wavelength to the area to be monitored, and is reflected by the object. It receives a pulse signal to detect an object in a corresponding monitoring target area, and performs a function of collecting a scanning image of the monitoring target area including the detected object.
한편, 상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서(즉, 라이다)는, 방향과 화각이 서로 동기화되어 있으며, 상기 가시광 센서, 적외선 센서, 자외선 센서 및 라이다를 구성하는 각각의 센서 어레이는, 그 규모의 비율에 따라 상기 감시대상구역의 동일한 영역을 커버링하도록 동기화됨은 상술한 바와 같다.Meanwhile, the visible light sensor, the infrared sensor, the ultraviolet sensor, and the object detection sensor (i.e., the lidar) have a direction and a view angle synchronized with each other, and each sensor constituting the visible light sensor, the infrared sensor, the ultraviolet sensor, and the lidar As described above, the array is synchronized to cover the same area of the monitoring target area according to a proportion of its size.
이를 통해, 상기 적외선영상으로부터 컷아웃되는 적외선 감지영역, 상기 생성한 자외선 에너지 분포 영상으로부터 컷아웃되는 자외선 감지영역 및 상기 스캐닝 영상으로부터 컷아웃되는 물체 감지영역은, 상기 가시광 영상의 어느 위치에 위치하는 지를 간편하게 알 수 있다.Through this, the infrared sensing region cut out from the infrared image, the ultraviolet sensing region cut out from the generated ultraviolet energy distribution image, and the object sensing region cut out from the scanning image are located at any position of the visible light image. It can be easily known.
한편, 상기 블렌딩 영상을 수신한 관제서버(200)의 관리자(사용자)는, 상기 블렌딩 영상을 확인한 결과 상기 블렌딩한 상기 각각의 영역이 정확하게 블렌딩되어 있지 않은 경우에는, 상기 사용자는 상기 관제서버(200)를 통해 상기 가시광 영상에 나타나는 오브젝트(즉, 고정된 물체)를 기준으로 상기 적외선 센서, 자외선 센서 및 물체 감지 센서의 방향, 화각 및 상기 각각의 센서 어레이를 동기화시키기 위한 제어신호를 상기 감시 카메라(200)로 전송하여, 상기 블렌딩되는 각각의 영역이 상기 가시광 영상의 정확한 위치에 블렌딩될 수 있도록 한다. On the other hand, the administrator (user) of the
또한 적외선 감지영역 컷아웃부(150)는, 상기 수집한 적외선 영상으로부터 적외선이 감지된 적어도 하나 이상의 적외선 감지영역을 컷아웃하여, 상기 블렌딩 영상 생성부(190)로 제공하는 기능을 지원한다.In addition, the infrared sensing
또한 상기 자외선 에너지 분포 영상 생성부(160)는, 상기 자외선 센서(130)를 통해 자외선이 감지된 경우, 상기 자외선 센서(130)에서 감지한 자외선의 파장에 따른 자외선 에너지 분포 영상을 생성하는 기능을 수행한다. In addition, the ultraviolet energy distribution
또한 상기 자외선 감지영역 컷아웃부(170)는, 상기 생성한 자외선 에너지 분포 영상으로부터 적어도 하나 이상의 자외선 감지영역을 컷아웃하여, 상기 블렌딩 영상 생성부(190)로 제공하는 기능을 수행한다. 이때, 상기 컷아웃되는 자외선 감지영역은, 상기 에너지값의 범위에 따라 미리 설정한 픽셀값으로 치환됨은 상술한 바와 같다.In addition, the ultraviolet sensing
또한 상기 물체 감지영역 컷아웃부(180)는, 상기 물체 감지 센서(140)에서 특정 물체를 감지하여 수집한 상기 스캐닝 영상으로부터 상기 감지한 물체의 영역에 대한 물체 감지영역을 컷아웃하여 상기 블렌딩 영상 생성부(190)로 제공하는 기능을 수행한다. In addition, the object detection
또한 상기 블렌딩 영상 생성부(190)는, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체 감지영역 또는 이들의 조합을 상기 수집한 가시광 영상에 블렌딩함으로써, 적외선, 자외선, 물체 또는 이들의 조합을 감지한 결과를 반영한 하나의 블렌딩 영상을 생성하여 관제서버(200)로 제공하는 기능을 수행한다.In addition, the blending
한편, 상기 블렌딩 영상 생성부(190)는, 상기 컷아웃한 적외선 감지영역, 상기 컷아웃한 자외선 감지영역을 토대로 해당 감시대상구역에서 화재가 발생한 것으로 감지되거나, 또는 불꽃이 발생한 것으로 감지된 경우, 상기 생성한 블렌딩 영상에 화재발생 또는 불꽃발생여부를 텍스트로 오버레이하고, 상기 화재발생 또는 불꽃발생에 대한 알림음을 상기 블렌딩한 영상과 함께 제공한다.On the other hand, the blending
즉, 블렌딩 영상 생성부(190)는, 화재 혹은 불꽃이 발생한 것으로 감지되는 경우에는, 상기 블렌딩한 영상에 상기 화재 혹은 불꽃이 발생한 정보를 오버레이하고, 상기 화재 혹은 불꽃 발생에 대한 알림음을 제공함으로써, 상기 관제서버(200)에서 즉각적으로 화재 혹은 불꽃 발생에 대한 대처를 수행할 수 있도록 한다.That is, when it is detected that a fire or flame has occurred, the blending
이때, 상기 블렌딩 영상 생성부(190)는, 상기 컷아웃한 적외선 감지영역의 온도값이 미리 설정한 임계값을 초과하거나, 상기 임계값을 초과한 상기 적외선 감지영역이 확장되거나, 상기 적외선 감지영역의 온도값이 미리 설정한 임계값 이상으로 빠르게 증가하는 경우에 상기 감시대상구역에서 화재가 발생한 것으로 감지한다.In this case, the blending
또한 상기 블렌디 영상 생성부(190)는, 상기 컷아웃한 자외선 감지영역이 미리 설정한 에너지값의 범위(즉, 180nm 내지 260nm 파장대의 자외선에 대한 에너지값)를 가지는 경우에 상기 감시대상구역에서 스파크 등과 같은 불꽃에 발생한 것으로 감지한다.In addition, the blendy
즉, 상기 블렌딩 영상 생성부(190)는, 상기 적외선 감지영역, 자외선 감지영역 및 자외선 감지영역과, 상기 물체 감지영역 또는 이들의 조합을 포함하는 하나의 블렌딩 영상을 생성하여 제공함으로써, 상기 생성한 블렌딩 영상을 통해 화재발생, 불꽃발생 또는 물체의 출현을 시각적이고 즉각적으로 인식할 수 있도록 하며, 화재발생 혹은 불꽃발생의 원인을 정확하게 분석 및 추적하도록 하거나, 갑작스럽게 출현한 새로운 물체에 대한 정체를 정확하게 파악할 수 있도록 한다.That is, the blending
또한 상기 블렌딩 영상 생성부(190)는, 상기 자외선 감지영역 및 물체의 감지영역을 블렌딩하는 경우, 상기 가시광 영상을 구성하는 복수의 특정 프레임을 선택하여 블렌딩함으로서, 자외선 감지, 물체 감지결과를 반영한 블렌딩 영상을 생성한다. In addition, the blending
또한 상기 블렌딩 영상 생성부(190)는, 상기 블렌딩 영상을 생성할 때, 해당 감시 카메라(100)에 부여된 위치정보 및 식별정보를 상기 생성한 블렌딩 영상의 일 측에 오버레이함은 상술한 바와 같다.In addition, the blending
한편 상기 관제서버(190)는, 상기 복수의 감시 카메라(100)로부터 상기 블렌딩 영상이 수신되는 경우, 상기 블렌딩 영상을 토대로 해당 감시대상구역을 감시하며, 상기 블렌딩 영상에 화재발생이나 불꽃발생에 대한 정보가 오버레이되어 있거나, 상기 블렌딩 영상과 함께 화재발생이나 불꽃발생에 대한 알림음이 수신되는 경우, 비상방송과 상기 수신한 블렌딩 영상을 사용자 단말(300)이나 화재 대응 기관으로 전송하여 이에 대한 신속한 대처를 수행할 수 잇도록 하며, 상기 블렌딩 영상을 디스플레이에 멀티뷰로 출력하여 모니터링할 수 있도록 하는 기능을 지원한다.On the other hand, the
또한 상기 관제서버(200)는, 복수의 감시 카메라(100)로부터 상기 블렌딩 영상을 실시간으로 수신하여 저장하는 기능을 수행한다.In addition, the
또한 상기 관제서버(200)는, 상기 수신한 블렌딩 영상에서, 블렌딩된 각각의 컷아웃된 영역이 정확한 위치에 블렌딩되어 있지 않은 경우에는, 가시광 영상(즉, 상기 블렌딩의 배경)에 나타나는 고정된 오브젝트를 기준으로 상기 적외선 센서, 자외선 센서 및 물체 감지 센서의 방향 및 화각을 조정하고, 상기 각 센서의 센서 어레이를 동기화하기 위한 제어신호를 생성하여 상기 감시 카메라(100)로 제공함으로서, 상기 블렌딩이 정확하게 수행될 수 있도록 한다.In addition, the
또한 상기 관제서버(200)는, 상기 감시 카메라(100)로부터 상기 화재발생 또는 불꽃발생이 감지된 블렌딩 영상이 수신되는 경우, 해당 블렌딩 영상을 우선적으로 디스플레이에 확대하여 출력할 수 있다.In addition, when a blending image in which the fire or flame occurrence is detected is received from the surveillance camera 100, the
또한 상기 비상방송은, 상기 감시대상구역에 각각 설치되는 스피커, 디스플레이 또는 이들의 조합을 통해 화재의 발생을 알림으로써, 수행되거나, 기존에 설치된 음향방송시스템과의 연동을 통해 상기 화재의 발생을 알릴 수 있다.In addition, the emergency broadcasting is performed by notifying the occurrence of a fire through speakers, displays, or a combination thereof respectively installed in the monitoring target area, or notifying the occurrence of the fire through interlocking with an existing sound broadcasting system. I can.
또한 상기 관제서버(200)는, 관제서버(200)의 관리자를 포함하는 사용자의 조작을 통해 상기 각 감시대상구역에 설치되는 각각의 감시 카메라(100)에 대한 팬(pan), 틸트(tilt), 줌인(zoom in), 줌아웃(zoom out)을 포함하여 상기 각 감시 카메라(100)를 원격에서 제어할 수 있도록 하는 기능을 지원한다.In addition, the
도 5는 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통해 감시대상구역에 대한 감시 과정을 나타낸 흐름도이다.5 is a flowchart illustrating a monitoring process for a surveillance target area through a surveillance camera equipped with a passive detector and an active detector according to an embodiment of the present invention.
도 5에 도시한 바와 같이, 본 발명의 일 실시예에 따른 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라(100)를 통해 감시대상구역에 대한 화재감지, 불꽃감지 또는 물체의 출현을 포함하여 상기 감시대상구역에 대한 감시를 수행하는 절차는 우선, 상기 감시 카메라(100)는, 감시대상구역에 대한 가시광 영상, 적외선 영상을 수집하는 가시광 영상 수집 단계 및 적외선 영상 수집 단계를 수행한다(S110).As shown in FIG. 5, the monitoring, including fire detection, flame detection, or the appearance of an object in a monitoring target area through a monitoring camera 100 having a passive detector and an active detector according to an embodiment of the present invention In the procedure of monitoring a target area, first, the surveillance camera 100 performs a visible light image collection step and an infrared image collection step of collecting a visible light image and an infrared image on the surveillance target area (S110).
상기 가시광 영상 및 적외선 영상은, 상기 감시 카메라(100)의 수동형 디텍터를 구성하는 가시광 센서 및 적외선 센서를 통해 수집된다.The visible light image and the infrared image are collected through a visible light sensor and an infrared sensor constituting the passive detector of the surveillance camera 100.
다음으로, 상기 감시 카메라(100)는, 상기 수동형 디텍터를 구성하는 또 다른 센서인 자외선 센서를 통해 해당 감시대상구역에서 발생되는 자외선을 감지하고, 상기 감지한 결과에 따라 자외선 에너지 분포 영상을 생성하는 자외선 분포 영상 생성 단계를 수행한다(S120).Next, the surveillance camera 100 detects ultraviolet rays generated in the monitoring target area through an ultraviolet sensor, which is another sensor constituting the passive detector, and generates an ultraviolet energy distribution image according to the detection result. The ultraviolet distribution image generation step is performed (S120).
한편, 상기 도 5에 도시한 것과 같이, 가시광 영상과 적외선 영상을 수집하는 가시광 영상 수집 단계 및 적외선 영상을 수집하는 적외선 영상 수집 단계인 S110단계와 상기 자외선을 감지하여 자외선 에너지 분포 영상을 생성하는 단계인 S120단계가 순차적으로 수행되는 것으로 도시되어 있으나, 상기 S110단계와 상기 S120단계는 동시에 수행되며 실시간으로 수행됨은 당연하다.Meanwhile, as shown in FIG. 5, a visible light image collection step of collecting a visible light image and an infrared image, step S110, which is an infrared image collection step of collecting an infrared image, and a step of detecting the ultraviolet rays to generate an ultraviolet energy distribution image Although it is shown that step S120 is sequentially performed, step S110 and step S120 are performed simultaneously, and it is natural that step S120 is performed in real time.
다음으로, 상기 감시 카메라(100)는 능동형 디텍터를 구성하는 물체 감지 센서(140)를 통해 상기 감시대상구역으로 특정 파장대의 레이저 펄스를 송출하고, 반사되어 돌아오는 반사 펄스 신호를 수신함으로써, 해당 감시대상구역에서에 위치하는 물체를 감지하여, 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 물체 감지 단계를 수행한다(S130).Next, the surveillance camera 100 transmits a laser pulse of a specific wavelength to the area to be monitored through the object detection sensor 140 constituting the active detector, and receives a reflected pulse signal that is reflected and returned, thereby monitoring the An object detection step of collecting a scanning image of the monitoring target area including the detected object by detecting an object located in the target area is performed (S130).
한편, 상기 물체를 감지하고 스캐닝 영상을 수집하는 물체 감지 센서(140)는 라이다로 구성됨은 상술한 바와 같다.Meanwhile, as described above, the object detection sensor 140 for detecting the object and collecting the scanning image is composed of a lidar.
또한 상기 물체 감지 단계는, 상기 관제서버(200)의 제어에 의해 실시간으로 수행되거나, 미리 설정한 시간구간(예: 밤)에서 수행된다.In addition, the object detection step is performed in real time under the control of the
다음으로, 상기 감시 카메라(100)는, 상기 수집한 적외선 영상으로부터 적외선 감지영역, 상기 생성한 자외선 에너지 분포 영상으로부터 자외선 감지영역, 상기 스캐닝 영상으로부터 물체 감지영역 또는 이들의 조합을 컷아웃하여, 상기 가시광 영상에 블렌딩함으로서, 블렌딩 영상을 생성하고 이를 제공하는 블렌딩 영상 생성 단계를 수행한다(S140).Next, the surveillance camera 100 cuts out an infrared detection region from the collected infrared image, an ultraviolet detection region from the generated ultraviolet energy distribution image, and an object detection region or a combination thereof from the scanning image, By blending the visible light image, a blending image generation step of generating a blended image and providing the blended image is performed (S140).
다시 말해, 상기 감시 카메라(100)는, 상기 적외선 영상으로부터 적외선 감지 영역을 컷아웃하는 적외선 감지영역 컷아웃 단계, 상기 자외선 에너지 분포 영상으로부터 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃 단계, 상기 스캐닝 영상으로부터 물체 감지영역을 컷아웃하는 물체 감지영역 컷아웃 단계를 수행하고, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체 감지영역 또는 이들의 조합을 상기 수집한 가시광 영상에 블렌딩하여 블렌딩 영상을 생성 및 제공하는 블렌딩 영상 생성 단계를 수행하게 되는 것이다.In other words, the surveillance camera 100 includes: an infrared detection region cutout step of cutting out an infrared detection region from the infrared image, an ultraviolet detection region cutout step of cutting out an ultraviolet ray detection region from the ultraviolet energy distribution image, the A blending image by performing an object detection region cutout step of cutting out an object detection region from the scanning image, and blending the cut-out infrared detection region, ultraviolet ray detection region, object detection region, or a combination thereof with the collected visible light image It is to perform the step of generating a blended image that generates and provides.
한편, 상기 블렌딩시, 상기 블렌딩 영상 생성 단계는, 상기 적외선 감지영역을 토대로 해당 감시대상구역에서 화재가 발생된 것으로 감지되거나, 상기 자외선 감지영영을 토대로 해당 감시대상구역에서 불꽃이 발생된 것으로 감지된 경우, 이에 대한 정보(즉, 화재 또는 불꽃 발생에 대한 텍스트)를 상기 블렌딩 영상에 오버레이하고, 상기 생성한 블렌딩 영상과 함께 상기 발생한 화재 또는 불꽃에 대한 알림음을 제공함은 상술한 바와 같다.On the other hand, during the blending, in the step of generating the blending image, it is detected that a fire has occurred in the monitoring target area based on the infrared detection area, or that a flame has been detected in the monitoring target area based on the ultraviolet detection area. In this case, information about this (that is, text on the occurrence of fire or flame) is overlaid on the blending image, and a notification sound for the fire or flame is provided along with the generated blending image as described above.
이때, 상기 감시 카메라(100)는, 상기 적외선 감지영역이 미리 설정한 임계값을 초과하거나, 상기 적외선 감지영역이 확장되거나, 상기 적외선 감지영역의 온도값이 미리 설정한 임계값 이상으로 빠르게 증가하는 경우 상기 화재가 발생한 것으로 감지하며, 상기 자외선 감지영역이 미리 설정한 범위의 에너지값을 가지는 경우, 해당 감시대상구역에서 불꽃이 발생한 것으로 감지한다.At this time, the monitoring camera 100, wherein the infrared detection region exceeds a preset threshold, the infrared detection region is expanded, or the temperature value of the infrared detection region rapidly increases above a preset threshold. In this case, it is detected that the fire has occurred, and when the ultraviolet detection area has an energy value within a preset range, it is detected that a flame has occurred in the monitoring target area.
한편 상기 블렌딩 영상을 생성하는 방법은, 도 2 및 도 3을 참조하여 설명하였으므로, 더 이상의 상세한 설명은 생략하도록 한다.Meanwhile, since the method of generating the blended image has been described with reference to FIGS. 2 and 3, further detailed description will be omitted.
이후, 상기 블렌딩 영상을 수신한 관제서버(200)는, 상기 블렌딩 영상을 토대로 상기 복수의 감시대상구역에 대한 감시를 수행하게 되며, 상기 블렌딩 영상이 화재 혹은 불꽃 발생에 대한 정보를 포함하는 경우에는 해당 감시대상구역에서 화재 혹은 불꽃이 발생한 것으로 판단하여 즉각적인 비상방송을 수행하고, 상기 수신한 블렌딩 영상을 화재 대응 기관 및 사용자에게 제공하여 신속한 대처를 수행함과 동시에 상기 블렌딩 영상을 이용하여 화재발생에 대한 원인을 파악하고 추적할 수 있도록 한다.Thereafter, the
이상에서 설명한 바와 같이, 본 발명의 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라는, 상기 수동형 디텍터와 능동형 디텍터를 통해 감시대상구역에서의 적외선 감지, 자외선 감지, 물체 감지 또는 이들의 조합을 실시간으로 감지하여 상기 감지한 결과를 통합한 블렌딩 영상을 생성하고, 이를 제공함으로서, 화재발생, 불꽃발생 또는 의심스러운 물체의 출현을 시각적이고 즉각적으로 파악할 수 있도록 함으로써, 상기 감시대상구역에 대한 감시를 효율적으로 수해할 수 있도록 하여, 상기 감시대상구역에 대한 안전을 도모할 수 있도록 하는 효과가 있다.As described above, the surveillance camera including the passive detector and the active detector of the present invention detects infrared detection, ultraviolet detection, object detection, or a combination thereof in a monitoring target area in real time through the passive detector and the active detector. By generating a blended image incorporating the detected result, and providing it, it is possible to visually and immediately grasp the occurrence of fire, spark, or the appearance of suspicious objects, thereby efficiently monitoring the area to be monitored. By making it possible to do so, there is an effect of promoting the safety of the monitoring target area.
상기에서는 본 발명에 따른 바람직한 실시 예를 위주로 상술하였으나, 본 발명의 기술적 사상은 이에 한정되는 것은 아니며 본 발명의 각 구성요소는 동일한 목적 및 효과의 달성을 위하여 본 발명의 기술적 범위 내에서 변경 또는 수정될 수 있을 것이다.In the above, a preferred embodiment according to the present invention has been described above, but the technical idea of the present invention is not limited thereto, and each component of the present invention is changed or modified within the technical scope of the present invention to achieve the same object and effect. Can be.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications may be implemented by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.
100 : 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라
110 : 가시광 센서 120 : 적외선 센서
130 : 자외선 센서 140 : 물체 감지 센서
150 : 적외선 감지영역 컷아웃부 160 : 자외선 에너지 분포 영상 생성부
170 : 자외선 감지영역 컷아웃부 180 : 물체 감지영역 컷아웃부
190 : 블렌딩 영상 생성부100: Surveillance camera with passive detector and active detector
110: visible light sensor 120: infrared sensor
130: ultraviolet sensor 140: object detection sensor
150: infrared detection area cutout unit 160: ultraviolet energy distribution image generation unit
170: UV detection area cut-out part 180: Object detection area cut-out part
190: blending image generator
Claims (10)
특정 파장대의 레이저 펄스를 통해 상기 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하는 상기 감시대상구역의 스캐닝 영상을 수집하는 물체 감지 센서로 구성되는 능동형 디텍터; 및
상기 수집한 적외선 영상에서 컷아웃한 적외선 감지영역, 상기 자외선 감지결과에 따라 생성한 자외선 에너지 분포 영상에서 컷아웃한 자외선 감지영역, 상기 스캐닝 영상에서 컷아웃한 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 블렌딩한 블렌딩 영상을 생성하여 제공하는 블렌딩 영상 생성부;를 포함하며,
상기 블렌딩 영상 생성부는,
상기 적외선 감지영역이, 사전에 설정한 임계값을 초과하는 온도값을 가지거나, 상기 임계값을 초과하는 온도값을 가지고 확장되거나, 상기 온도값이 상기 임계값 이상으로 증가하는 경우, 상기 감시대상구역에서의 화재발생을 감지하고,
상기 자외선 감지영역이, 사전에 설정한 에너지값의 범위를 가지는 경우, 상기 감시대상구역에서의 불꽃발생을 감지하며,
상기 화재발생 또는 불꽃발생이 감지되면 상기 생성한 블렌딩 영상에 화재발생 또는 불꽃발생에 대한 정보를 오버레이하고, 상기 감지한 화재발생 또는 불꽃발생에 대한 알림음을 상기 오버레이한 블렌딩 영상과 함께 제공하는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라.A passive detector comprising a visible light sensor for collecting a visible light image, an infrared sensor for collecting an infrared image by detecting infrared rays, and an ultraviolet sensor for detecting ultraviolet rays for the area to be monitored;
An active detector comprising an object detection sensor configured to detect an object in the monitoring target area through a laser pulse of a specific wavelength and collect a scanning image of the monitoring target area including the detected object; And
The collection of the infrared detection region cut out from the collected infrared image, the ultraviolet detection region cut out from the ultraviolet energy distribution image generated according to the ultraviolet detection result, the region of the object cut out from the scanning image, or a combination thereof Includes; a blending image generator for generating and providing a blended image blended with one visible light image,
The blending image generator,
When the infrared detection region has a temperature value exceeding a preset threshold value, extends with a temperature value exceeding the threshold value, or increases above the threshold value, the monitoring target Detect the occurrence of fire in the area,
When the ultraviolet detection area has a preset energy value range, it detects the occurrence of flame in the monitoring target area,
When the occurrence of fire or flame is detected, information on the occurrence of fire or flame is overlaid on the generated blending image, and a notification sound for the detected fire occurrence or flame is provided together with the overlayed blending image. A surveillance camera equipped with a passive detector and an active detector characterized by.
상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서는,
방향 및 화각이 동기화되며,
상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서를 구성하는 각각의 센서 어레이는,
각 센서 어레이의 규모에 대한 비율에 따라 상기 감시대상구역에 대한 동일한 영역을 커버링하도록 동기화되는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라.The method according to claim 1,
The visible light sensor, infrared sensor, ultraviolet sensor, and object detection sensor,
The direction and angle of view are synchronized,
Each sensor array constituting the visible light sensor, infrared sensor, ultraviolet sensor, and object detection sensor,
A surveillance camera having a passive detector and an active detector, characterized in that synchronizing to cover the same area for the surveillance target area according to a ratio to the size of each sensor array.
상기 감시 카메라는,
상기 수집한 적외선 영상으로부터 상기 적외선 감지결과에 따른 적어도 하나 이상의 적외선 감지영역을 컷아웃하는 적외선 감지영역 컷아웃부;
상기 자외선 센서를 통해 감지한 자외선에 대한 자외선 에너지 분포 영상을 생성하는 자외선 에너지 분포 영상 생성부;
상기 생성한 자외선 에너지 분포 영상으로부터 상기 자외선 감지결과에 따른 적어도 하나 이상의 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃부; 및
상기 수집한 스캐닝 영상으로부터 상기 감지한 적어도 하나 이상의 물체의 영역을 컷아웃하는 물체 감지영역 컷아웃부;를 더 포함하며,
상기 블렌딩 영상 생성부는,
상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 대응되는 특정 영역에 각각 블렌딩함으로써, 상기 블렌딩 영상을 생성하는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라.The method according to claim 1,
The surveillance camera,
An infrared detection area cutout unit for cutting out at least one infrared detection area according to the infrared detection result from the collected infrared image;
An ultraviolet energy distribution image generator that generates an ultraviolet energy distribution image for ultraviolet rays detected by the ultraviolet sensor;
An ultraviolet detection region cut-out unit for cutting out at least one ultraviolet ray detection region according to the ultraviolet detection result from the generated ultraviolet energy distribution image; And
An object detection area cut-out unit that cuts out an area of the at least one object detected from the collected scanning image; and
The blending image generator,
The passive detector and the active detector, characterized in that the cut-out infrared detection area, the ultraviolet detection area, the object area, or a combination thereof are respectively blended into a specific area corresponding to the collected visible light image to generate the blended image A surveillance camera equipped with.
상기 블렌딩은,
상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역에 대한 각각의 픽셀값과 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역에 각각 대응하는 상기 수집한 가시광 영상의 특정 영역에 대한 각 픽셀값에 대한 중간값을 각각 계산하여, 상기 계산한 중간값을 상기 가시광 영상의 특정 영역에 대한 픽셀값으로 각각 적용함으로써, 수행되는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라.The method of claim 3,
The blending,
Each pixel value for the cut-out infrared detection area, ultraviolet light detection area, and object area, and a specific area of the collected visible light image corresponding to the cut-out infrared detection area, ultraviolet light detection area, and object area. A surveillance camera having a passive detector and an active detector, characterized in that it is performed by calculating an intermediate value for each pixel value for each and applying the calculated intermediate value as a pixel value for a specific region of the visible light image. .
능동형 디텍터를 구성하는 물체 감지 센서를 통해 특정 파장대의 레이저 펄스를 이용하여 상기 감시대상구역의 물체를 감지하고, 상기 감지한 물체를 포함하는 상기 감시대상구역에 대한 스캐닝 영상을 수집하는 단계; 및
상기 수집한 적외선 영상에서 컷아웃한 적외선 감지영역, 상기 자외선 감지결과에 따라 생성한 자외선 에너지 분포 영상에서 컷아웃한 자외선 감지영역, 상기 스캐닝 영상에서 컷아웃한 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 블렌딩한 블렌딩 영상을 생성하여 제공하는 블렌딩 영상 생성 단계;를 포함하며,
상기 블렌딩 영상 생성 단계는,
상기 적외선 감지영역이 사전에 설정한 임계값을 초과하는 온도값을 가지거나, 상기 임계값을 초과하는 온도값을 가지고 확장되거나, 상기 온도값이 상기 임계값 이상으로 증가하는 경우, 상기 감시대상구역에서의 화재발생을 감지하고,
상기 자외선 감지영역이 사전에 설정한 에너지값의 범위를 가지는 경우, 상기 감시대상구역에서의 불꽃발생을 감지하며,
상기 화재발생 또는 불꽃발생이 감지되면 상기 생성한 블렌딩 영상에 화재발생 또는 불꽃발생에 대한 정보를 오버레이하고, 상기 감지한 화재발생 또는 불꽃발생에 대한 알림음을 상기 오버레이한 블렌딩 영상과 함께 제공하는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통한 감시 방법.Collecting a visible light image and an infrared image of the area to be monitored through a visible light sensor, an infrared sensor, and an ultraviolet sensor constituting the passive detector, and detecting ultraviolet light;
Detecting an object in the monitoring target area using a laser pulse of a specific wavelength through an object detection sensor constituting an active detector, and collecting a scanning image of the monitoring target area including the detected object; And
The collection of the infrared detection region cut out from the collected infrared image, the ultraviolet detection region cut out from the ultraviolet energy distribution image generated according to the ultraviolet detection result, the region of the object cut out from the scanning image, or a combination thereof Including; a blending image generating step of generating and providing a blended image blended with one visible light image,
The step of generating the blending image,
When the infrared detection area has a temperature value exceeding a preset threshold value, extends with a temperature value exceeding the threshold value, or increases above the threshold value, the monitoring target area Detect the occurrence of fire in
When the ultraviolet detection area has a preset energy value range, it detects the occurrence of flame in the monitoring target area,
When the occurrence of fire or flame is detected, information on the occurrence of fire or flame is overlaid on the generated blending image, and a notification sound for the detected fire occurrence or flame is provided together with the overlayed blending image. A monitoring method through a surveillance camera equipped with a passive detector and an active detector characterized by.
상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서는,
방향 및 화각이 동기화되며,
상기 가시광 센서, 적외선 센서, 자외선 센서 및 물체 감지 센서를 구성하는 각각의 센서 어레이는,
각 센서 어레이의 규모에 대한 비율에 따라 상기 감시대상구역에 대한 동일한 영역을 커버링하도록 동기화되는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통한 감시 방법.The method of claim 6,
The visible light sensor, infrared sensor, ultraviolet sensor, and object detection sensor,
The direction and angle of view are synchronized,
Each sensor array constituting the visible light sensor, infrared sensor, ultraviolet sensor, and object detection sensor,
A monitoring method through a surveillance camera having a passive detector and an active detector, characterized in that synchronization is performed to cover the same area for the area to be monitored according to a ratio to the size of each sensor array.
상기 감시 방법은,
상기 수집한 적외선 영상으로부터 상기 감시대상구역에서 방사되어 감지되는 적외선에 대한 적어도 하나 이상의 적외선 감지영역을 컷아웃하는 적외선 감지영역 컷아웃 단계;
상기 자외선 센서를 통해 감지한 자외선에 대한 자외선 에너지 분포 영상을 생성하는 자외선 에너지 분포 영상 생성 단계;
상기 생성한 자외선 에너지 분포 영상으로부터 적어도 하나 이상의 자외선 감지영역을 컷아웃하는 자외선 감지영역 컷아웃 단계; 및
상기 수집한 스캐닝 영상으로부터, 상기 감지한 적어도 하나 이상의 물체의 영역을 컷아웃하는 물체 감지영역 컷아웃 단계;를 더 포함하며,
상기 블렌딩 영상 생성 단계는,
상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역 또는 이들의 조합을 상기 수집한 가시광 영상에 대응되는 특정 영역에 각각 블렌딩함으로써, 상기 블렌딩 영상을 생성하는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통한 감시 방법.The method of claim 6,
The monitoring method,
An infrared detection region cut-out step of cutting out at least one infrared ray detection region for infrared radiation detected by being emitted from the monitoring target region from the collected infrared image;
An ultraviolet energy distribution image generating step of generating an ultraviolet energy distribution image for ultraviolet rays sensed through the ultraviolet sensor;
An ultraviolet detection region cutout step of cutting out at least one ultraviolet ray detection region from the generated ultraviolet energy distribution image; And
An object detection region cutout step of cutting out the region of the at least one object detected from the collected scanning image; further comprising,
The step of generating the blending image,
The passive detector and the active detector, characterized in that the cut-out infrared detection area, the ultraviolet detection area, the object area, or a combination thereof are respectively blended into a specific area corresponding to the collected visible light image to generate the blended image Surveillance method through a surveillance camera equipped with.
상기 블렌딩은,
상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역에 대한 각각의 픽셀값과, 상기 컷아웃한 적외선 감지영역, 자외선 감지영역, 물체의 영역에 각각 대응하는 상기 수집한 가시광 영상의 특정 영역에 대한 각 픽셀값에 대한 중간값을 각각 계산하여, 상기 계산한 중간값을 상기 가시광 영상의 특정 영역에 대한 픽셀값으로 각각 적용함으로써, 수행되는 것을 특징으로 하는 수동형 디텍터 및 능동형 디텍터를 구비한 감시 카메라를 통한 감시 방법.The method of claim 8,
The blending,
Each pixel value of the cut-out infrared detection area, ultraviolet detection area, and object area, and a specific area of the collected visible light image corresponding to the cut-out infrared detection area, UV detection area, and object area Monitoring with a passive detector and an active detector, characterized in that it is performed by calculating the median value for each pixel value for, and applying the calculated median value as a pixel value for a specific region of the visible light image. Surveillance method through camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098647A KR102164802B1 (en) | 2019-08-13 | 2019-08-13 | The surveillance camera with passive detectors and active detectors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098647A KR102164802B1 (en) | 2019-08-13 | 2019-08-13 | The surveillance camera with passive detectors and active detectors |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102164802B1 true KR102164802B1 (en) | 2020-10-13 |
Family
ID=72884926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190098647A KR102164802B1 (en) | 2019-08-13 | 2019-08-13 | The surveillance camera with passive detectors and active detectors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102164802B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113075688A (en) * | 2021-03-22 | 2021-07-06 | 仓东 | Infrared laser radar imaging device and method for fire rescue scene |
KR20220134962A (en) | 2021-03-29 | 2022-10-06 | 방병주 | System for suppressing fire equipped with function of selectively sensing flame of fire |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160109707A (en) * | 2015-03-12 | 2016-09-21 | 주식회사 대명코퍼레이션 | Fire detecting system capable of controlling sensitivity and control method thereof |
US20180089972A1 (en) * | 2016-09-26 | 2018-03-29 | Mobotix Ag | System and method for surveilling a scene comprising an allowed region and a restricted region |
-
2019
- 2019-08-13 KR KR1020190098647A patent/KR102164802B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160109707A (en) * | 2015-03-12 | 2016-09-21 | 주식회사 대명코퍼레이션 | Fire detecting system capable of controlling sensitivity and control method thereof |
US20180089972A1 (en) * | 2016-09-26 | 2018-03-29 | Mobotix Ag | System and method for surveilling a scene comprising an allowed region and a restricted region |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113075688A (en) * | 2021-03-22 | 2021-07-06 | 仓东 | Infrared laser radar imaging device and method for fire rescue scene |
KR20220134962A (en) | 2021-03-29 | 2022-10-06 | 방병주 | System for suppressing fire equipped with function of selectively sensing flame of fire |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101635000B1 (en) | Fire detector and system using plural cameras | |
KR101544019B1 (en) | Fire detection system using composited video and method thereof | |
EP2710801B1 (en) | Surveillance system | |
US8139112B2 (en) | Methods and apparatus related to improved surveillance | |
CN102693603B (en) | Dual spectrum based intelligent monitoring system for forest fire prevention | |
US9311794B2 (en) | System and method for infrared intruder detection | |
KR102060045B1 (en) | Fire detector and system capable of measuring heat distribution | |
KR101321444B1 (en) | A cctv monitoring system | |
US8754942B2 (en) | Detection device and method for detecting fires and/or signs of fire | |
JP6403687B2 (en) | Monitoring system | |
KR100849689B1 (en) | watching control system having an auto picture pop-up function and controlling method for the same | |
KR102113527B1 (en) | Thermal ip cctv system and method for detecting fire by using the same | |
JP2010232888A (en) | Monitor device | |
KR102088198B1 (en) | Integrated fire control system using triple detectors and method thereof | |
KR102164802B1 (en) | The surveillance camera with passive detectors and active detectors | |
KR20210097500A (en) | Apparatus for Monitoring Fire And System having the same | |
KR101521236B1 (en) | Monitoring System using thermal imagery | |
KR102507540B1 (en) | Integrated fire monitoring system based on artificial intelligence | |
KR102585768B1 (en) | Fire prevention system and method using thermal imaging camera | |
KR101250956B1 (en) | An automatic system for monitoring | |
KR101656642B1 (en) | Group action analysis method by image | |
KR101938120B1 (en) | Thermal imaging apparatus and method for providing thermal imaging analysis information | |
KR101044342B1 (en) | Portable thermal image device, the method of smoke fire and fire source use by its | |
KR102153465B1 (en) | Smart system for detecting fire and device for the same | |
KR101128022B1 (en) | A multipurpose watching camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |