KR20230050277A - Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same - Google Patents
Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same Download PDFInfo
- Publication number
- KR20230050277A KR20230050277A KR1020230014886A KR20230014886A KR20230050277A KR 20230050277 A KR20230050277 A KR 20230050277A KR 1020230014886 A KR1020230014886 A KR 1020230014886A KR 20230014886 A KR20230014886 A KR 20230014886A KR 20230050277 A KR20230050277 A KR 20230050277A
- Authority
- KR
- South Korea
- Prior art keywords
- learning data
- artificial intelligence
- vibration
- destination
- signal learning
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000001514 detection method Methods 0.000 claims description 21
- 238000001931 thermography Methods 0.000 claims description 5
- 238000012806 monitoring device Methods 0.000 claims 1
- 230000005236 sound signal Effects 0.000 description 56
- 238000004891 communication Methods 0.000 description 18
- 241001465754 Metazoa Species 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000269400 Sirenidae Species 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009187 flying Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009184 walking Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/19—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19617—Surveillance camera constructional details
- G08B13/1963—Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Alarm Systems (AREA)
Abstract
인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.A control device using artificial intelligence includes a database, a sensor interface, a photographing device interface, and a processor, wherein the processor learns sample images using an artificial intelligence algorithm to generate image signal learning data and the image signal learning data stored in the database, generating vibration signal learning data by learning sample vibration signals using the artificial intelligence algorithm, storing the vibration signal learning data in the database, and receiving a first captured image transmitted from a photographing device. and identifies an object included in the first captured image using the image signal learning data, receives a second captured image transmitted from the photographing device, and learns the object included in the second captured image as the image signal. It identifies using data, receives vibration signals output from a sensor that senses vibration through the sensor interface, determines whether the vibration signals are artificial vibration signals using the vibration signal learning data, and determines whether the vibration signals are artificial vibration signals. When the artificial vibration signals are determined, the object is determined as an intruder through the fence, and when the object is determined to be the intruder, the movement of the object identified in each of the first captured image and the second captured image is determined. By analyzing the image signal learning data, a movement method, movement speed, and a movement direction including bearing and angular range of the object are obtained, and the movement direction is analyzed using the image signal learning data so that the object is Predicting which one of a plurality of moving routes will go to the destination, and predicting the time the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data generating prediction information including the destination and a time to reach the destination, receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the photographing device according to an analysis result; The photographing device interface receives the control signal for controlling the photographing device from the processor and transmits it to the photographing device.
Description
본 발명은 인공지능 알고리즘을 이용한 침입 경계(또는 침입 예측) 방법에 관한 것으로, 특히 경계지역에서 발생할 수 있는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 이를 상기 학습 데이터를 이용하여 분석하고, 분석의 결과에 따라 침입자의 목적지, 및 상기 목적지에 도달할 시간 등을 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템에 관한 것이다.The present invention relates to an intrusion boundary (or intrusion prediction) method using an artificial intelligence algorithm. In particular, a plurality of samples that may occur in a boundary area are learned by using the artificial intelligence algorithm to generate learning data, video signals, A method capable of receiving at least one of sound signals, electrical signals, and vibration signals, analyzing it using the learning data, and predicting the intruder's destination and the time to reach the destination according to the result of the analysis. , a computer program stored in a storage medium for performing the method, and an intrusion detection system for performing the method.
주요한 경계지역의 시설물과 상기 시설물에 근무하는 사람들이나 이용자들을 보호하기 위해, 상기 시설물의 주변 및 상기 시설물에 대한 접근을 제한하는 울타리의 주변에는 센서들, 상기 센서들과 연동하여 작동하는 CCTV 카메라들, 및 상기 센서들과 상기 CCTV 카메라들을 제어하는 제어 장치들을 포함하는 경계 시스템이 설치되어 운용되고 있다.In order to protect the facilities in the main boundary area and the people working or users of the facilities, sensors around the facilities and around the fences that restrict access to the facilities, CCTV cameras operating in conjunction with the sensors , and a boundary system including control devices for controlling the sensors and the CCTV cameras is installed and operated.
이러한 경계 시스템은 침입자에 대한 사후적 대응 방법으로 최근에 발생하는 지능적 침입 행위에는 대처하기 어렵다.This alert system is a reactive response method for intruders, and it is difficult to cope with recently occurring intelligent intrusions.
침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명이 이루고자 하는 기술적인 과제는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템을 제공하는 것이다.The technical problem to be achieved by the present invention, which was devised to solve a post-reaction method for an intruder, is to generate learning data by learning a plurality of samples using the artificial intelligence algorithm, and to generate video signals, sound signals, and electricity. A method for receiving at least one of signals and vibration signals, analyzing the received signal using the learning data, and predicting how many intruders invade when, where, and with what they possess according to the analysis result, the method described above It is to provide a computer program stored in a storage medium for performing a method, and an intrusion deterrent system for performing the method.
본 발명의 실시 예에 따른 침입 경계 시스템은 촬영 장치와, 진동을 감지하는 센서와, 인공 지능을 이용한 제어 장치를 포함하고, 상기 인공 지능을 이용한 제어 장치는 데이터베이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성한다.An intrusion detection system according to an embodiment of the present invention includes a photographing device, a sensor for detecting vibration, and a control device using artificial intelligence, wherein the control device using artificial intelligence includes a database and a processor, and the processor Learning sample images using an artificial intelligence algorithm to generate image signal learning data, storing the image signal learning data in the database, learning sample signals using the artificial intelligence algorithm to generate vibration signal learning data, The vibration signal learning data is stored in the database, a first captured image transmitted from the photographing device is received, an object included in the first captured image is identified using the image signal learning data, The transmitted second captured image is received, the object included in the second captured image is identified using the image signal learning data, vibration signals output from the sensor are received, and whether the vibration signals are artificial vibration signals is determined. is determined using the vibration signal learning data, and when the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence, and when the object is determined to be the intruder, the first captured image is determined. and analyzing the movement of the object identified in each of the second captured images using the image signal learning data to obtain a movement method, movement speed, and a movement direction including azimuth and angular range of the object, and the movement The direction is analyzed using the video signal learning data to predict whether the object will go to its destination through which one of the plurality of moving paths it will go to, and the moving method and the moving speed are determined by using the video signal learning data. The object is analyzed to predict the time at which the object will arrive at the destination, and generates prediction information including the destination and the time at which the object is to be reached.
본 발명의 실시 예에 따라 인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.According to an embodiment of the present invention, a control device using artificial intelligence includes a database, a sensor interface, a photographing device interface, and a processor, and the processor learns sample images using an artificial intelligence algorithm to generate image signal learning data. generating and storing the image signal learning data in the database, learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data, storing the vibration signal learning data in the database, and transmitting from the photographing device A first captured image is received, an object included in the first captured image is identified using the image signal learning data, a second captured image transmitted from the photographing device is received, and an object included in the first captured image is identified. The object is identified using the image signal learning data, vibration signals output from a sensor for detecting vibration are received through the sensor interface, and whether the vibration signals are artificial vibration signals is determined using the vibration signal learning data. and when the vibration signals are determined to be the artificial vibration signals, the object is determined to be an intruder through the fence, and when the object is determined to be the intruder, in each of the first captured image and the second captured image. The movement of the identified object is analyzed using the video signal learning data to obtain a movement method, movement speed, and a movement direction including bearing and angular range of the object, and the movement direction is determined by using the video signal learning data. It predicts whether the object will go to the destination through which one of the plurality of movement routes it will go to, and analyzes the movement method and the movement speed using the video signal learning data so that the object can predicting a time to reach a destination, generating prediction information including the destination and a time to reach the destination, receiving and interpreting the vibration signals from the sensor interface, and controlling the photographing device according to the analysis result and the photographing device interface receives the control signal for controlling the photographing device from the processor and transmits the control signal to the photographing device.
침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명의 실시 예에 따른 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템은 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 효과가 있다.A method according to an embodiment of the present invention, a computer program stored in a storage medium for performing the method, and an intrusion alert system for performing the method according to an embodiment of the present invention devised to solve a post-reaction method for an intruder, Learning using an intelligent algorithm to generate learning data, receiving at least one of images, sound signals, electrical signals, and vibration signals, analyzing the received signal using the learning data, and It has the effect of predicting how many intruders will invade when, where, and with what they possess.
이에 따라 상기 방법, 상기 컴퓨터 프로그램, 및 상기 침입 경계 시스템은 울타리 및 시설물에 대한 침입자의 침입을 예방하고, 상기 침입자의 침입 경로 또는 도주 경로에 미리 도착하여 상기 침입자에 대한 빠른 조치를 취할 수 있는 효과가 있다.Accordingly, the method, the computer program, and the intrusion detection system prevent an intruder from entering a fence or facility, arrive at an intrusion route or an escape route of the intruder in advance, and take quick action against the intruder. there is
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.
도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.
도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.
도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.
도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.
도 6은 객체가 침입자로 판단될 때 침입 경계 시스템의 작동을 설명하는 플로우차트이다.
도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.A detailed description of each drawing is provided in order to more fully understand the drawings cited in the detailed description of the present invention.
1 is a block diagram of an intrusion detection system using artificial intelligence according to an embodiment of the present invention.
FIG. 2 is a block diagram of a control device using artificial intelligence shown in FIG. 1 .
FIG. 3 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1 .
4 is a diagram illustrating a process of generating learning data using an artificial intelligence algorithm.
5 is a diagram for explaining a method of acquiring a moving method, a moving speed, and a moving direction of an object using captured images.
6 is a flowchart illustrating the operation of an intrusion deterrent system when an object is determined to be an intruder.
FIG. 7 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1 .
도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.1 is a block diagram of an intrusion detection system using artificial intelligence according to an embodiment of the present invention.
도 1을 참조하면, 인공지능(artificial intelligence(AI))을 이용하여 울타리(400) 또는 시설물(410)에 대한 침입자(500)의 침입 경로 및/또는 도주 경로를 실시간으로 예측하고, 예측의 결과에 따라 예측 정보(IF)를 생성할 수 있는 침입 경계(이를 '침입 감시', 또는 '침입 예측'이라고도 한다.) 시스템(100)은 인공지능 (또는 인공지능 프로그램)을 이용한 제어 장치(이를 '인공지능 제어 장치'라 한다. 200), 복수 개의 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391), 복수개의 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393), 울타리 (400), 시설물(410), 제1객체(500), 및 단말기(600)를 포함하고, 실시 예들에 따라 침입 경계 시스템(100)은 카메라가 장착된 드론(700)을 더 포함할 수 있다.Referring to FIG. 1, an intrusion route and/or an escape route of an
침입 경계 시스템(100)은 (i) 제1객체(500)의 행위에 관련된 입력 신호(예를 들면, 영상 신호(IM), 소리 신호(SS), 전기 신호(ES), 및 진동 신호(VS) 중에서 적어도 하나), 또는 (ⅱ) 상기 입력 신호와 제1객체(500)가 이동하는 지역의 지형지물 정보를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체 (500)가 제1위치(P1)로부터 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT1, DT2, 또는 DT3), 또는 경계 내부 공간의 어느 부분(예를 들면, DT4 또는 DT5)), 및 어떤 경로(예를 들면, PA1, PA2, PA3, PB1, PB2, 및 PC1))를 통해 울타리(400) 또는 시설물(410)에 무단 침입하고, 그후 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT6, 또는 DT7)), 및 어떤 경로(예를 들면, PD1, PD2, 및 PE1))를 통해 도주할지를 실시간으로 예측하고, 예측의 결과(IF)를 단말기(600)로 통보하여 제1객체(500)의 침입을 예방하거나 제1객체(500)에 대한 빠른 조치를 취하도록 하는 시스템이다.The
인공지능 제어 장치(200)는 신경망((Neural Networks) 알고리즘, 머신 러닝 (Machine Learning) 알고리즘, 또는 딥러닝(Deep Learning) 알고리즘 등을 이용하여 학습을 위한 다양한 샘플들(예를 들면, 샘플 영상 신호들, 샘플 소리 신호들, 샘플 전기 신호들, 및 샘플 진동 신호들 중에서 적어도 하나)을 학습(예를 들면, 다중 인스턴스 학습(multi-instance learning))하여 학습 데이터(241, 이를 '빅 데이터(bigdata)'라고도 한다.)를 생성하고, 학습 데이터(241)를 데이터베이스(240)에 저장한다.The artificial
실시 예에 따라 인공지능 프로그램(212)이 학습을 위한 다양한 샘플들은 데이터 라벨링된 데이터일 수 있다. 데이터 라벨링은 수많은 비정형 데이터를 인공지능이 학습할 수 있도록 샘플들(또는 원천 데이터)에 이름(또는 라벨)을 붙이는 작업을 말한다.According to an embodiment, various samples for learning by the
인공지능 제어 장치(200)는 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391) 중에서 적어도 하나로부터 감지 신호(SS, ES, 및 VS 중에서 적어도 하나, 이를 'SS, ES, 및/또는 VS'라 한다.)를 수신하여 분석하고, 분석의 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 작동을 제어할 수 있다.The artificial
각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 제1객체(500)의 침입 또는 움직임을 감지하기 위한 센서이다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 타입(type)은 적외선을 감지하는 센서, 레이저를 감지하는 센서, 전파를 감지하는 센서, 열을 감지하는 센서, 움직임을 감지하는 센서, 빛을 감지하는 광 센서, 압력을 감지하는 센서, 소리를 감지하는 센서, 전기 신호를 감지하는 센서, 진동을 감지하는 센서, 가스를 감지하는 센서, 기상을 감지하는 센서, 및 피사체 이미지 센서 등을 포함한다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 주위에는 스피커 또는 사이렌이 설치될 수 있다.Each of the
본 명세서에서 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 앞에 열거된 기능들을 수행하는 센서들 중에서 적어도 하나를 포함하는 센서를 통칭한다.In this specification, each of the
촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom(PTZ) camera), 열화상 카메라(thermographic camera), 또는 열상 감시 장비(Thermal Observation Device)일 수 있으나 이에 한정되는 것은 아니다. 열화상 카메라는 적외선 복사를 사용하여 영상을 생성하는 장치로서, 적외선 카메라(infrared camera), 열 영상 카메라 (thermal imaging camera) 또는 열 이미저(thermal imager)라고도 불린다.At least one of the photographing
쌍을 이루는 센서와 촬영 장치(311과 313, 321과 323, 내지 391과 393)는 연동하여 작동할 수 있다.The paired sensors and photographing
시설물(410)은 국가 중요 시설(예를 들면, 공공 기관, 공항, 항만, 원자력 발전소, 또는 전력 시설, 등), 군사 시설물, 공공 시설물, 또는 개인 시설물 등과 같이 울타리(400)에 둘러싸여 경계(또는 경비)가 필요한 시설물을 의미한다.The
시설물(410)에 접근을 위한 각 이동 경로(PA1, PA2, PA3, PB1, PB2, PB3, 및 PC1)는 침입 경로라 할 수 있고, 시설물(410)로부터 도주를 위한 각 이동 경로 (PD1, PD2, 및 PE1)은 도주 경로라 할 수 있다.Each movement path (PA1, PA2, PA3, PB1, PB2, PB3, and PC1) for access to the
도 1에서는 시설물(410)을 에워싸는 하나의 울타리(400)가 도시되어 있으나, 실시 예들에 따라 시설물(410)을 에워싸는 울타리(400)의 개수는 2개 이상일 수 있다.Although one
제1객체(500)는 움직이는 사람 또는 움직이는 야생 동물일 수 있으나, 본 명세서에서 제1객체(500)는 사람(또는 침입자)이라고 가정한다.The
단말기(600)는 인공지능 제어 장치(200)로부터 예측 정보(IF, 예를 들면, 예측된 목적지와 예측된 도달 시간 등을 포함하는 정보)를 수신할 수 있는 통신 장치를 의미한다.The
단말기(600)의 예들은 울타리(400)와 시설물(410)의 경계(또는 경비)를 담당하는 담당자(예를 들면, 경비원, 군인, 청원 경찰, 및/또는 경찰)이 소지하고 있는 통신 장치, 경계 회사의 통신 장치, 군부대의 통신 장치, 경찰서의 통신 장치, 또는 소방서의 통신 장치를 의미하나 이에 한정되는 것은 아니다.Examples of the
단말기(600)가 인공지능 제어 장치(200)로부터 예측 정보(IF)를 수신하면, 울타리(400)를 경계하는 담당자는 예측 정보(IF)를 이용하여 제1객체(500)보다 해당 위치(DT1 ~ DT8 중에서 적어도 하나)에 먼저 도착하여 제1객체(500)의 침입을 예방하거나 제1객체(500)의 침입에 대한 빠른 조치(예를 들면, 체포 등)를 취할 수 있는 효과가 있다.When the
카메라가 장착된 드론(700)은, 인공지능 제어 장치(200) 또는 인공지능 제어 장치(200)의 관리자의 제어에 따라, 제1객체(500)의 영상을 실시간으로 촬영하고, 촬영된 영상들을 인공지능 제어 장치(200)로 무선 통신으로 실시간으로 전송할 수 있다.The
도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.FIG. 2 is a block diagram of a control device using artificial intelligence shown in FIG. 1 .
도 1과 도 2를 참조하면, 인공지능 제어 장치(200)는 입력 장치(205), 인공지능 알고리즘에 따라 작동하는 인공지능 프로그램(212)을 실행하는 프로세서 (210, 이를 '서버'라고도 한다.), 메모리 장치(215), 센서 인터페이스(220), 촬영 장치 인터페이스(230), 데이터베이스(240), 통신 장치(250), 디스플레이 장치 (270), 및 경보 장치(280)를 포함하고, 실시 예들에 따라 인공지능 제어 장치(200)는 드론 제어 장치(260)을 더 포함할 수 있다.Referring to FIGS. 1 and 2 , the artificial
하드웨어와 결합되어 본 명세서에서 설명되는 인공지능 알고리즘을 이용한 침입 예측 방법을 수행하는 인공지능 프로그램(212)은 프로세서(210)에 의해 액세스가능한 저장 매체(예를 들면, 메모리 장치(215))에 저장되고, 프로세서(210)에 의해 실행된다.The
센서 인터페이스(220)는 해당 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)를 수신하고, 감지 신호 (SS, ES, 및/또는 VS)를 인공지능 프로그램(212)으로 전송한다.The
인공지능 프로그램(212)은 감지 신호(SS, ES, 및/또는 VS)를 수신하여 해석하고, 해석 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치를 제어(예를 들면, 해당 촬영 장치가 PTZ 카메라일 때, 상기 PTZ 카메라의 팬, 틸트, 및 줌 중에서 적어도 하나를 제어)하기 위한 제어 신호(CTL)를 생성하고, 제어 신호(CTL)를 촬영 장치 인터페이스(230)를 통해 상기 적어도 하나의 촬영 장치로 전송한다.The
인공지능 프로그램(212)은 상기 적어도 하나의 촬영 장치로부터 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 수신하고, 도 3, 도 5, 도 6, 및 도 7을 참조하여 설명될 단계들(또는 작동들)을 수행한다.The
예를 들면, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 촬영 장치 인터페이스(230)를 통해 제1위치(P1)에 설치된 촬영 장치(313)로 전송한다.For example, when the
촬영 장치(313)가 PTZ 카메라일 때 촬영 장치(313)는 제어 신호(CTR)에 응답하여 제1객체(500)를 촬영하기 위해 팬, 틸트, 및 줌 중에서 적어도 하나를 제어하고, 제1객체(500)에 대한 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 인공지능 프로그램(212)로 전송한다.When the photographing
또한, 해당 센서(321, 331, 341, 351, 361, 371, 381, 및 391)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)를 제어하기 위한 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)로 전송한다.In addition, when the
실시 예들에 따라, 해당 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)는 제1객체(500)의 특징(예를 들면, 제1객체(500)의 머리, 얼굴, 또는 발 등)을 실시간으로 트래킹(tracking)하면서 촬영 영상들을 생성할 수 있다.According to embodiments, the photographing
또한, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 두 개의 촬영 장치들(313과 343) 각각을 제어할 수 있는 제어 신호(CTR)을 생성하도 제어 신호(CTR)를 촬영 장치들(313과 343)로 전송할 수 있다. 이에 따라, 촬영 장치들(313과 343) 모두는 제1객체(500)가 존재하는 제3위치(P3)를 포커싱(또는 촬영)할 수 있다.In addition, when the
데이터베이스(240)는 도 3과 도 4를 참조하여 설명될 학습 데이터(241)와 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치(또는 지역)에 대한 지형지물 정보(243)를 저장할 수 있다. 실시 예들에 따라, 데이터베이스(240)는 정보(241과 243)를 저장하는 데이터 저장 장치, 또는 상기 데이터 저장 장치에 저장된 정보를 의미할 수 있다.The
도 2에 도시된 바와 같이 지형지물 정보(243)는 ID(ID1~ID9)별로 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)에 대한 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I), 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)에 대한 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I), 위치 정보(PI1~PI9), 지형 정보(TG1~TG9), 및 지물 정보(FI1~FI9)를 포함한다.As shown in FIG. 2, feature
각 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I)는 해당 센서의 타입에 대한 정보이고, 각 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I)는 해당 촬영 장치의 타입에 대한 정보이고, 각 위치 정보(PI1~PI9)는 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치 정보이고, 예를 들면 GPS(global positioning system) 좌표들일 수 있다.Each sensor information (311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, and 391I) is information on the type of the corresponding sensor, and each photographing device information (313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, and 393I) is information about the type of the corresponding photographing device, and each position information (PI1 to PI9) is information about the photographing
지형은 땅의 생긴 모양이나 형세를 의미하므로, 지형 정보(TG1~TG9)는 땅이 평지인지, 산지인지, 얼마의 경사도를 갖는 경사지인지, 습지인지, 기암절벽 지역인지 등에 대한 정보를 포함한다.Since topography refers to the shape or shape of the land, the topography information (TG1 to TG9) includes information on whether the land is flat, mountainous, sloped, wetland, or an area with oddly shaped cliffs.
지물은 땅 위에 존재하는 천연 또는 인공의 모든 물체를 의미하므로, 지물 정보(FI1~FI9)는 수목, 바위, 가옥, 하천, 계곡, 및 도로 등에 대한 정보를 포함한다.Since features refer to all natural or artificial objects existing on the ground, feature information (FI1 to FI9) includes information on trees, rocks, houses, rivers, valleys, and roads.
실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 정보(243)를 활용할 수 있다.According to embodiments, the
실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 학습 데이터(241E)와 지형지물 정보(243) 중에서 적어도 하나를 활용할 수 있다.According to embodiments, the
실시 예들에 따라, 인공지능 프로그램(212)은 샘플 영상들(SPI) 각각에 포함된 지형 및/또는 지물을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 지형지물 학습 데이터(241E)를 생성하고, 지형지물 학습 데이터(241E)를 데이터베이스(240)에 저장할 수 있다.According to embodiments, the
통신 장치(250)는 단말기(600) 또는 드론(700)과의 통신을 위한 장치이다.The
인공지능 프로그램(212)에 제어에 따라 디스플레이 장치(또는 모니터, 270)는 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치로부터 전송된 촬영 영상들을 수신하여 디스플레이할 수 있다.Under the control of the
예를 들면, 촬영 장치 인터페이스(230)가 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)와 서로 다른 통신 채널을 통해 통신하고, 촬영 장치 (313)와 쌍을 이루는 센서(311)에 의해 제1객체(500)가 감지될 때, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 기초하여 촬영 장치 인터페이스(230)와 촬영 장치(313) 사이의 통신 채널을 자동으로 연결한다.For example, the photographing
이에 따라, 디스플레이 장치(270)는, 인공지능 프로그램(212)의 제어에 따라, 촬영 장치(313)로부터 출력된 촬영 영상들을 수신하여 디스플레이 장치(270)에서 디스플레이할 수 있다.Accordingly, the
인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)는 경보 신호를 경보 장치(280)로 출력한다. 경보 장치(280)는 청각적 경보 장치, 시각적 경보, 또는 시청각적 경보 장치일 수 있다.When the
드론 제어 장치(260)는 드론(700)의 작동을 제어할 수 있다. 인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)은 드론 제어 신호를 생성하여 드론 제어 장치(260)로 출력하면, 상기 드론 제어 신호는 통신 장치(250)를 통해 드론(700)으로 전송된다.The
인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 드론 제어 신호를 생성할 때, 상기 드론 제어 신호는 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)를 포함한다.When the
따라서, 드론(700)은 인공지능 제어 장치(200)로부터 전송된 드론 제어 신호에 응답하여 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 자동으로 날아가 제1객체(500)를 추적하면서 제1객체(500)의 영상을 촬영하고 촬영된 영상을 통신 장치(250)로 전송한다. 인공지능 프로그램(212)은 드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 통신 장치(250)를 통해 수신하여 디스플레이 장치(270)로 전송한다.Therefore, the
다른 실시 예에 따라, 인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 제1객체(500)를 침입자로 판단할 때, 인공지능 제어 장치(200)의 관리자는 드론 제어 장치(260)를 조작하여 드론(700)을 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 비행시켜 제1객체(500)를 실시간으로 추적할 수 있다.According to another embodiment, the
드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상은 통신 장치(250)를 통해 인공지능 프로그램(212)으로 전송되고, 인공지능 프로그램(212)은 드론 (700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 수신하여 디스플레이 장치 (270)로 전송한다.The captured image of the
도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이고, 도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.3 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1, and FIG. 4 is a diagram illustrating a process of generating learning data using an artificial intelligence algorithm.
도 1 내지 도 4를 참조하면, 인공지능 프로그램(212)은 각각이 적어도 하나의 객체를 포함하는 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들 (ELS), 샘플 진동 신호들(VBS), 또는 이들(SPI, SDS, ELS, 및 VBS) 중에서 적어도 두 개의 조합을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 학습 데이터(241)를 생성하여 데이터베이스(240)에 저장한다(S110).1 to 4, the
인공지능 프로그램(212)에 의해 학습 데이터(241)가 생성되는 과정은 도 4를 참조하여 예시적으로 설명된다.A process of generating the learning
학습 데이터(241)는 샘플 영상들(SPI)의 학습 결과에 따라 생성된 영상 신호 학습 데이터(241A), 샘플 소리 신호들(SDS)의 학습 결과에 따라 생성된 소리 신호 학습 데이터(241B), 샘플 전기 신호들(ELS)의 학습 결과에 따라 생성된 전기 신호 학습 데이터(241C), 및 샘플 진동 신호들(VBS)의 학습 결과에 따라 생성된 진동 신호 학습 데이터(241D) 중에서 적어도 하나를 포함한다. 실시 예에 따라, 학습 데이터(241)는 지형지물 학습 데이터(241E)를 더 포함할 수 있다.The learning
도 4에 도시된 바와 같이 학습을 위한 복수 개의 샘플들(예를 들면, 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들(ELS), 및 샘플 진동 신호들(VBS) 중에서 적어도 하나)은 입력 장치(205)를 통해 인공지능 프로그램(212)으로 입력된다. 실시 예들에 따라, 통신 장치(250)를 통해 수신된 학습을 위한 샘플들은 인공지능 프로그램(212)으로 입력된다.As shown in FIG. 4, a plurality of samples for learning (eg, sample images (SPI), sample sound signals (SDS), sample electrical signals (ELS), and sample vibration signals (VBS)) at least one of them) is input into the
인공지능 프로그램(212)은 각 샘플 영상(SPI)에 해당하는 각 영상 신호 (IMS)에 포함된 객체(또는 복수의 객체들)를 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅 (sorting))한다. 도 4에 도시된 요소들(HME, ANE, NEE, ATE, 및 NSE)은 설명을 위해 예시된 것에 불과하다.The
예를 들면, 인공지능 프로그램(212)은 각 샘플 영상 신호(IMS)에 해당하는 각 샘플 영상(SPI)에 포함된 적어도 하나의 객체를 아래의 요소로 학습(또는 소팅)한다.For example, the
1. 각 샘플 영상(SPI)에 포함된 객체가 사람일 때 인공지능 프로그램(212)은 상기 객체를 사람 요소(HME)로 학습;1. When an object included in each sample image (SPI) is a human, the
2. 상기 객체가 동물일 때 인공지능 프로그램(212)은 상기 객체를 동물 요소 (ANE)로 학습;2. When the object is an animal,
3. 상기 객체가 번개일 때 인공지능 프로그램(212)은 상기 객체를 자연 환경 요소(NEE)로 학습;3. When the object is lightning,
4. 상기 객체가 전등 불빛 또는 울타리(400)의 철선을 도구(예를 들면, 절단기)로 자를 때 발생하는 불꽃일 때 인공지능 프로그램(212)은 상기 객체를 인위적 요소(ATE)로 학습; 및4. When the object is a light or a spark generated when cutting the wire of the
5. 상기 객체가 산불일 때 인공지능 프로그램(212)은 상기 객체를 잡음 요소 (NSE)으로 학습.5. When the object is a forest fire, the
또한, 인공지능 프로그램(212)은 샘플 소리 신호들(SDS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.In addition, the
예를 들면, 인공지능 프로그램(212)은 각 샘플 소리 신호(SDS)를 아래의 요소로 학습(또는 소팅)한다.For example, the
1. 인공지능 프로그램(212)은 사람 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 사람 요소(HME)로 학습;1. The
2. 인공지능 프로그램(212)은 동물 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 동물 요소(ANE)로 학습;2. The
3. 인공지능 프로그램(212)은 바람 소리, 비 소리, 파도 소리, 파도에 돌이 구르는 소리, 또는 물이 흐르는 소리에 해당하는 각 샘플 소리 신호(SDS)를 자연 환경 요소(NEE)로 학습;3. The
4. 인공지능 프로그램(212)은 총 소리, 차량이 이동하는 소리, 땅을 파는 소리, 사람이 울타리(400)를 기어오를 때 나는 소리, 또는 울타리(400)의 철선을 절단기로 절단할 때 나는 소리에 해당하는 각 샘플 소리 신호(SDS)를 인위적 요소 (ATE)로 학습;4. The
5. 인공지능 프로그램(212)은 천둥 소리에 해당하는 각 샘플 소리 신호 (SDS)를 잡음 요소(NSE)로 학습.5. The
또한, 인공지능 프로그램(212)은 샘플 전기 신호들(ELS) 각각을 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅)한다.In addition, the
예를 들면, 인공지능 프로그램(212)은 각 샘플 전기 신호(ELS)를 아래의 요소로 학습(또는 소팅)한다.For example, the
1. 인공지능 프로그램(212)은 낙뢰에 의해 발생한 각 샘플 전기 신호(ELS)를 자연 환경 요소(NEE)로 학습;1. The
2. 인공지능 프로그램(212)은 울타리(400)를 절단하기 위해 가해지는 각 전기 신호(ELS), 울타리(400)의 주변에 설치된 전기선 또는 통신선을 무력화하기 위해 가해지는 각 샘플 전기 신호(ELS)를 인위적 요소(ATE)로 학습;2. The
3. 인공지능 프로그램(212)은 정전기에 의해 발생하는 각 샘플 전기 신호 (ELS)를 잡음 요소(NSE)로 학습.3. The
또한, 인공지능 프로그램(212)은 샘플 진동 신호들(VBS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.In addition, the
예를 들면, 인공지능 프로그램(212)은 각 샘플 진동 신호(VBS)를 아래의 요소로 학습(또는 소팅)한다.For example, the
1. 인공지능 프로그램(212)은 사람의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 사람 요소(HME)로 학습;1. The
2. 인공지능 프로그램(212)은 동물의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 동물 요소(ANE)로 학습;2. The
3. 인공지능 프로그램(212)은 낙뢰, 구르는 구름, 또는 쓰러지는 나무에 의해 발생하는 각 샘플 진동 신호(VBS)를 자연 환경 요소(NEE)로 학습;3. The
4. 인공지능 프로그램(212)은 폭파, 도구로 땅을 팔 때 발생하는 진동, 차량의 이동에 의해 발생하는 각 샘플 진동 신호(VBS)를 인위적 요소(ATE)로 학습;4. The
5. 인공지능 프로그램(212)은 지진파에 의해 발생하는 각 샘플 진동 신호(VBS)를 잡음 요소(NSE)로 학습.5. The
인공지능 프로그램(212)은 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소 (NEE), 인위적 요소(ATE), 및 잡음 요소(NSE) 중에서 적어도 하나로 학습된 샘플들을 이용하여 객체(예를 들면, 사람 또는 동물)의 이동 방법(MM), 이동 속도(MV), 이동 방향(MD), 및 침입 유형(IT) 중에서 적어도 하나를 학습하고, 또한 상기 샘플들의 이용하여 상기 객체가 존재하는 지역의 지형지물(LM)을 학습한다.The
예를 들면, 인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방법(MM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 방법(MM)을 학습한다. 여기서, 이동 방법(MM)의 예들은 객체가 포복하여 이동하는지, 상기 객체가 걸어서 이동하는지, 상기 객체가 뛰어서 이동하는지, 상기 객체가 이동 수단(예를 들면, 차량 또는 보트 등)을 타고 이동하는지, 및 상기 객체가 수영하여 이동하는지를 포함한다.For example, the
인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 속도(MV)를 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 속도(MV)를 학습한다.The
인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방향(MV)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임의 방향을 학습하여 상기 객체의 이동 방향(MV)을 학습한다.The
인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 객체의 침입 유형(IT)을 학습한다.The
예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임에 따라 상기 객체의 침입 유형(IT)을 학습한다.For example, the
침입 유형(IT)의 예들은 불법적인 침입을 목적으로 객체가 울타리(400)를 기어오르는지, 울타리(400)를 뛰어넘는지, 사다리를 이용하여 울타리(400)를 오르는지, 울타리(400)의 아래에 굴을 파는지, 울타리(400)를 넘어뜨리는지, 또는 울타리 (400)를 절단하여 구멍을 뚫는지를 학습한다.Examples of the intrusion type (IT) include whether the object climbs the
인공지능 프로그램(212)은 침입 유형(IT)에 대한 판단의 정확성을 높이기 위해 아래의 학습 결과들을 조합할 수 있다. 조합하는 학습 결과들이 많을 수록 침입 유형(IT)에 대한 판단의 정확성은 높아진다.The
1. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 소리 신호들(SDS)에 대한 학습 결과의 조합;1. Combination of learning results for sample images (IMS) and learning results for sample sound signals (SDS);
2. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;2. Combination of learning results for the sample images IMS and learning results for the sample electrical signals ELS;
3. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;3. Combination of learning results for the sample images (IMS) and learning results for the sample vibration signals (VBS);
4. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;4. A combination of the learning result of the sample images IMS, the learning result of the sample sound signals SDS, and the learning result of the sample electrical signals ELS;
5. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;5. A combination of a learning result for sample images (IMS), a learning result for sample sound signals (SDS), and a learning result for sample vibration signals (VBS);
6. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 샘플 전기 신호들(ELS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합.6. The learning results for sample images (IMS), the learning results for sample sound signals (SDS), the learning results for sample electrical signals (ELS), and the learning results for sample vibration signals (VBS) Combination.
물론, 영상 촬영 장치의 고장 또는 의도적인 고장을 대비하여, 인공지능 프로그램(212)은 아래의 예들을 이용하여 객체의 침입 유형(IT)을 학습할 수 있다.Of course, in preparation for failure or intentional failure of the image capture device, the
(1) 샘플 소리 신호들(SDS)에 대한 학습 결과;(1) learning results for sample sound signals (SDS);
(2) 샘플 전기 신호들(ELS)에 대한 학습 결과;(2) learning results on sample electrical signals (ELS);
(3) 샘플 진동 신호들(VBS)에 대한 학습 결과;(3) learning results for the sample vibration signals (VBS);
(4) (1) 내지 (3) 중에서 적어도 두 개의 조합.(4) A combination of at least two of (1) to (3).
인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 지형지물(LM)을 학습한다.The
예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 객체들에 따라 지형지물(LM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 수목의 분포, 계곡의 유무, 물이 흐르는지 유무, 비탈길의 유무, 등으로 지형지물(LM)을 학습할 수 있다.For example, the
도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.5 is a diagram for explaining a method of acquiring a moving method, a moving speed, and a moving direction of an object using captured images.
해당 촬영 영상(FA2, FB2, 및 FC2)에서 점선으로 표시된 제1객체(500)는 이전 영상(FA1, FB1, 및 FC1)에 포함된 제1객체(500)를 의미하고, 실선으로 표시된 제1객체(500)는 해당 촬영 영상(FA2, FB2, 및 FC2)에 포함된 제1객체(500)를 의미한다.The
본 발명에 대한 이해를 돕기 위해, 현재 촬영 영상(FA2, FB2, 및 FC2)은 이전 촬영 영상(FA1, FB1, 및 FC1)에 포함된 점선으로 표시된 제1객체(500)와, 현재 촬영 영상(FA2, FB2, 및 FC2)에 포함된 실선으로 표시된 제1객체(500)를 함께 도시한다.In order to facilitate understanding of the present invention, the currently captured images FA2, FB2, and FC2 include the
실시 예에 따라 경우1(CASE1)를 참조하면, 학습 데이터(241)가 생성되어 데이터베이스(240)에 저장된 후, 인공지능 프로그램(212)은 제1시점에 제1촬영 영상 (FA1)을 수신하고 제1촬영 영상(FA1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).Referring to case 1 (CASE1) according to an embodiment, after learning
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FA2)을 수신하고 제2촬영 영상(FA2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).After that, the
예를 들면 각 단계(S115와 S120)를 수행할 때, 인공지능 프로그램(212)은 각 촬영 영상(FA1과 FA2)에 몇개의 객체들이 포함되어 있는지, 객체가 도구(예를 들면, 도검, 총기, 절단기, 또는 사다리 등)를 소지하고 있는지를 학습 데이터(241)를 이용하여 식별할 수도 있다.For example, when performing each step (S115 and S120), the
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제1이동 방법, 제1이동 속도, 및 제1이동 방향을 획득한다(S125).The
이때, 인공지능 프로그램(212)은 제1객체(500)의 특정 부분(예를 들면, 제1객체(500)의 머리, 발 또는 손 등)을 이용하여 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석할 수 있다.At this time, the
인공지능 프로그램(212)은 제1이동 방향(예를 들면, 북북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제1목적지(DT1)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제1이동 경로(PA1)를 통해 제1목적지(DT1)로 갈 것이라고 예측한다.The
인공지능 프로그램(212)은 제1이동 방법(예를 들면, 속보)과 제1이동 속도(분당 70미터 내지 80미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제1목적지(DT1)에 도달할 제1시간을 예측한다(S135). 예측된 제1시간은 제1객체 (500)가 제1위치(P1)로부터 제1이동 경로(PA1)를 통해 제1목적지(DT1)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The
예를 들면, 경우2(CASE2)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FB1)을 수신하고 제1촬영 영상(FB1)에 포함된 제1객체(500)를 학습 데이터 (241)를 이용하여 식별한다(S115).For example, referring to case 2 (CASE2), the
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FB2)을 수신하고 제2촬영 영상(FB2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).Then, the
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체 (500)의 제2이동 방법, 제2이동 속도, 및 제2이동 방향을 획득한다(S125).The
인공지능 프로그램(212)은 제2이동 방향(예를 들면, 서북서, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제2목적지(DT2)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제2지점(P2)을 포함하는 제2이동 경로(PA2)를 통해 제2목적지(DT2)로 갈 것이라고 예측한다.The
인공지능 프로그램(212)은 제2이동 방법(예를 들면, 급보)과 제2이동 속도(예를 들면, 분당 100미터 내지 110미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제2지점(P2)를 경유하여 제2목적지(DT2)에 도달할 제2시간을 예측한다(S135). 예측된 제2시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA2와 PB2)을 통해 제2목적지(DT2)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The
예를 들면, 경우3(CASE3)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FC1)을 수신하고 제1촬영 영상(FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).For example, referring to case 3 (CASE3), the
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FC2)을 수신하고 제2촬영 영상(FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).Then, the
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제3이동 방법, 제3이동 속도, 및 제3이동 방향을 획득한다(S125).The
인공지능 프로그램(212)은 제3이동 방향(예를 들면, 동북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제3목적지(DT3)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제3지점(P3)를 포함하는 제3이동 경로(PA3)를 통해 제3목적지(DT3)로 갈 것이라고 예측한다.The
인공지능 프로그램(212)은 제3이동 방법(예를 들면, 뛰어서)과 제3이동 속도 (예를 들면, 시속 15km 내지 18km)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제3지점(P3)를 경유하여 제3목적지(DT3)에 도달할 제3시간을 예측한다 (S135). 예측된 제3시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA3와 PB3)을 통해 제3목적지(DT3)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The
도 6은 객체가 침입자로 판단될 때의 작동을 설명하는 플로우차트이다. 도 1 내지 도 6을 참조하여 인공지능 프로그램(212)이 제3목적지(DT3)에 도달한 제1객체 (500)를 침입자를 판단하는 경우들을 설명한다.Fig. 6 is a flowchart describing the operation when an object is determined to be an intruder. 1 to 6, cases in which the
센서(341)는 (i) 소리를 감지하는 센서, (ⅱ) 전기 신호를 감지하는 센서, (ⅲ) 진동을 감지하는 센서, 또는 (ⅳ) 소리, 전기 신호, 및 진동 중에서 적어도 두 개를 감지하는 센서의 집합을 통칭한다.The
인공지능 프로그램(212)이 제1객체(500)를 침입자를 판단할 수 있는 예들은 아래와 같다.Examples in which the
(1) 촬영 장치(343)에 의해 촬영된 영상들(IM)을 이용하여 침입자로 판단;(1) Determining an intruder using the images IM captured by the photographing
(2) 소리를 감지하는 센서(341)로부터 출력된 소리 신호들(SS)을 이용하여 침입자로 판단;(2) Determining an intruder by using the sound signals SS output from the
(3) 전기 신호를 감지하는 센서(341)로부터 출력된 전기 신호들(ES)을 이용하여 침입자로 판단;(3) determining an intruder using the electrical signals ES output from the
(4) 진동을 감지하는 센서(341)로부터 출력된 진동 신호들(VS)을 이용하여 침입자로 판단;(4) determining an intruder using the vibration signals VS output from the
(5) (1) 내지 (4) 중에서 적어도 2개를 조합하여 침입자로 판단.(5) Determined as an intruder by combining at least two of (1) to (4).
예를 들면, 인공지능 프로그램(212)은 촬영 장치(343)에 의해 촬영된 제3촬영 영상들 각각을 촬영 장치 인터페이스(230)를 통해 수신하고, 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고(S115와 S120), 상기 제3촬영 영상들 각각에 포함된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제4이동 방법, 제4이동 속도, 및 제4이동 방향을 획득하고(S125), 상기 제4이동 방향을 이용하여 제1객체(500)의 제4목적지(DT4)를 예측하고(S130), 상기 제4이동 방법과 상기 제4이동 속도를 이용하여 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 예측한다(S135). 예측된 제4시간은 제1객체(500)가 제3목적지(DT3)로부터 제4목적지(DT4)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.For example, the
인공지능 프로그램(212)에 의해 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램(212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단한다(S137).When the second object is identified as the
제1객체(500)가 사람(즉, 침입자)이고, 침입자(500)가 울타리(400)에 대한 침입 행위를 한다고 판단될 때(S137의 YES), 인공지능 프로그램(212)은 경보 장치 (280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지 (DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다. 단말기(600)는 예측 정보(IF)에 응답하여 단말기(600)의 경보기를 이용하여 경보(예를 들면, 시각적 경보, 청각적 경보, 또는 시청각적 경보)를 발생할 수 있다.When it is determined that the
실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 절단기 또는 사다리 등)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 및 상기 도구의 종류를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.According to an embodiment, the
이에 따라 단말기(600)의 담당자는 예측 정보(IF)에 따라 침입자인 제1객체 (500)의 침입을 예방 또는 제1객체(500)의 침입에 대한 조치(또는 대응 방안)을 수립할 수 있다. 조치(또는 대응 방안)은 몇명의 담당자들이 필요하고 상기 담당자들 각각이 어떤 무기를 가지고 갈지를 포함한다.Accordingly, the person in charge of the terminal 600 can prevent the intrusion of the
실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 또는 절단기)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 상기 도구의 종류, 및 제1객체(500)의 침입을 예방하거나 제1객체(500)를 체포하기 위해 몇 명의 담당자가 필요하고 각 담당자가 어떤 무기를 가지고 갈지를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.According to an embodiment, the
즉, 인공지능 프로그램(212)은 침입자인 제1객체(500)에 대응하기 위한 조치 (또는 대응 방안)을 학습 데이터(241)를 이용하여 분석하고, 분석 결과에 따라 상기 조치(또는 대응 방안)을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송할 수 있다.That is, the
제1객체(500)의 침입 행위의 예들은 제1객체(500)가 울타리(400)를 무단으로 절단하는 행위, 제1객체(500)가 울타리(400)에 생긴 구멍을 통과하는 행위, 제1객체(500)가 울타리(400)의 아래에 굴을 파는 행위, 제1객체(500)가 사다리를 타고 울타리(400)를 오르는지, 및 제1객체(500)가 울타리(400)를 넘는 행위를 포함한다.Examples of trespassing by the
인공지능 프로그램(212)은 제3촬영 영상들 각각에 포함된 제1객체(500)의 행위(또는 행동)을 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 사람이지만 상기 사람이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 스피커를 제어하여 경고 방송을 할 수 있다(S139).The
실시 예에 따라 제1객체가 동물이고 상기 동물이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 경광등을 제어하여 경고를 할 수 있다. 다른 실시 예에 따라 제1객체가 동물이고 울타리(400)가 전기 울타리일 때 (S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 전기 울타리 (400)로 전류를 흐르게 하여 상기 동물을 전기 울타리(400)로부터 퇴치할 수 있다.According to an embodiment, when it is determined that the first object is an animal and the animal does not invade the fence 400 (NO in S137), the
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 소리 신호들(SS)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the
학습 데이터(241)는 소리 신호 학습 데이터(241B)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 소리 신호들(SS)을 센서 인터페이스(220)를 통해 수신하고, 소리 신호들(SS)이 인위적인 소리 신호인지를 소리 신호 학습 데이터(241B)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 전기 신호들(ES)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the
학습 데이터(241)는 전기 신호 학습 데이터(241C)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 전기 신호들(ES)을 센서 인터페이스(220)를 통해 수신하고, 전기 신호들(ES)이 인위적인 전기 신호들인지를 전기 신호 학습 데이터(241C)를 이용하여 판단하고, 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 진동 신호들(VS)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the
학습 데이터(241)는 진동 신호 학습 데이터(241D)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 진동 신호들(VS)을 센서 인터페이스(220)를 통해 수신하고, 진동 신호들(VS)이 인위적인 진동 신호들인지를 진동 신호 학습 데이터(241D)를 이용하여 판단하고, 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 신호(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning
앞의 실시 예들에서 설명한 바와 같이, 목적지와 상기 목적지에 도달할 시간이 예측된 후, 인공지능 프로그램(212)은 해당 촬영 장치(353, 363, 373, 383, 또는 393)에 의해 촬영된 영상들 각각에 포함된 제1객체(500)를 식별하고(S145), 제1객체(500)의 움직임을 분석하여 제1객체(500)의 새로운 목적지와 상기 새로운 목적지에 도달할 새로운 시간을 예측하고, 예측된 목적지와 예측된 시간을 예측된 새로운 목적지와 예측된 새로운 시간으로 실시간 업데이트하고(S150), 상기 예측된 새로운 목적지와 상기 예측된 새로운 시간을 포함하는 새로운 예측 정보(IF)를 생성하여 통신 장치(250)를 통해 단말기(600)로 전송한다(S140).As described in the previous embodiments, after the destination and the time to reach the destination are predicted, the
인공지능 프로그램(212)이 제1객체(500)의 목적지(DT5, DT6, DT7, 또는 DT8)와 목적지(DT5, DT6, DT7, 또는 DT8)에 도달할 시간을 예측하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정은, 제1객체(500)의 목적지 (DT1, DT2, DT3, 또는 DT4)와 목적지(DT1, DT2, DT3, 또는 DT4)에 도달할 시간을 예측하고 예측된 상기 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정과 대동소이하다.The
도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법을 설명하는 플로우차트이다.FIG. 7 is a flowchart illustrating an operation method of the intrusion detection system shown in FIG. 1 .
도 1 내지 도 7을 참조하여 인공지능 프로그램(212)이 제1객체(500)가 존재하는 위치에 대한 지형 및/또는 지물을 식별하고, 식별된 지형 지물을 이용하여 목적지와 상기 목적지에 도달할 시간을 예측하는 방법을 설명한다. 도 5의 각 촬영 영상(FA1, FA2, FB1, FB2, FC1, 및 FC2)에 포함된 객체(510)는 지형 지물에 대한 정보를 획득하기 위한 객체라고 가정한다.Referring to FIGS. 1 to 7 , the
실시 예들에 따라, 도 5의 경우1(CASE1)를 참조하면. 인공지능 프로그램 (212)은 제1촬영 영상(FA1)에 포함된 제1객체(500)와 제2객체(510) 및 제2촬영 영상(FA2)에 포함된 제1객체(500)와 제2객체(510)를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 존재하는 위치의 지형 지물 정보를 식별한다(S210).According to embodiments, referring to case 1 (CASE1) of FIG. 5 . The
인공지능 프로그램(212)은 제1객체(500)의 제1이동 방향과 식별된 지형 지물 (또는 지형지물 정보)를 학습 데이터(241)를 이용하여 분석하고 제1객체(500)의 제1목적지를 예측한다(S130A).The
인공지능 프로그램(212)은 제1이동 방법, 제1이동 속도, 및 식별된 지형 지물을 학습 데이터(214)를 이용하여 분석하고 제1객체(500)가 제1목적지에 도달할 제1시간을 예측한다(S135A).The
실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다.According to embodiments, the first capture image FA1 and the capture image FA2 may be output from the same capture device or from different capture devices.
실시 예들에 따라, 데이터베이스(240)는 지형 지물 정보(243)를 저장하고 있으므로, 인공지능 프로그램(212)은 제1촬영 영상(FA1)를 출력하는 제1촬영 장치 (313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 지형 지물 정보(243)를 이용하여 분석하고 제1객체(500)가 존재하는 지형 지물(예를 들면, 지형 정보(TG1)와 지물 정보(FI1)에 해당하는 지형 지물)를 식별한다(S210).According to embodiments, since the
동일한 이동 방법으로 제1객체(500)가 평지를 이동할 때의 이동 속도와 제1객체(500)가 경사가 급한 산지를 이동할 때의 이동 속도는 서로 다르다. 따라서, 인공지능 프로그램(212)이 제1객체(500)의 이동 속도를 예측할 때, 인공지능 프로그램(212)이 식별된 지형 지물 정보를 이용하면 제1객체(500)의 이동 속도를 좀 더 정확하게 예측할 수 있다.The moving speed when the
도 7의 단계들(S110~S125, 및 S140~S150)과 도 4의 단계들(S110~S125, 및 S140~S150)은 동일하므로, 단계들(S110~S125, 및 S140~S150)에 대한 설명은 생략한다. 또한 도 6의 단계들(S137과 S139)은 도 7의 단계들(S135A와 S140) 사이에 적용된다.Since the steps S110 to S125 and S140 to S150 of FIG. 7 and the steps S110 to S125 and S140 to S150 of FIG. 4 are the same, description of the steps S110 to S125 and S140 to S150 is omitted. Also, steps S137 and S139 of FIG. 6 are applied between steps S135A and S140 of FIG. 7 .
실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다. 제1촬영 영상(FA1)과 촬영 영상(FA2)은 드론(700)에 의해 촬영된 영상일 수 있다.According to embodiments, the first capture image FA1 and the capture image FA2 may be output from the same capture device or from different capture devices. The first captured image FA1 and the captured image FA2 may be images captured by the
인공지능 알고리즘(또는 인공지능 프로그램(212))을 이용한 침입 예측 방법은 샘플 영상들(SPI)을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터 (241)를 생성하고(S110), 제1촬영 영상(FA1, FB1, 또는 FC1)을 수신하고 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S115), 제2촬영 영상(FA2, FB2, 또는 FC2)을 수신하고 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고 (S120), 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2) 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 이동 방법, 이동 속도, 및 이동 방향을 획득하고(S125), 상기 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측하고 (S130), 상기 이동 방법과 상기 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 상기 목적지에 도달할 시간을 예측한다(S135).The intrusion prediction method using an artificial intelligence algorithm (or artificial intelligence program 212) generates
실시 예들에 따라 상기 침입 예측 방법은 제3촬영 영상들을 수신하고 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고, 상기 제2객체가 울타리(400)로 식별될 때 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단하고(S137), 제1객체(500)가 울타리(400)에 대한 침입 행위를 할 때 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to embodiments, the intrusion prediction method receives third captured images, identifies a
실시 예들에 따라 상기 침입 예측 방법은 샘플 소리 신호들(SDS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 소리 신호들(SS)을 수신하고 소리 신호들(SS)이 인위적인 소리 신호들인지를 학습 데이터 (241)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to embodiments, the intrusion prediction method further learns sample sound signals (SDS) using an artificial intelligence algorithm to generate learning data 241 (S110), receives sound signals (SS), and generates sound signals It is determined whether (SS) are artificial sound signals using the
실시 예들에 따라 상기 침입 예측 방법은 샘플 전기 신호들(ELS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 전기 신호들(ES)을 수신하고 전기 신호들(SS)이 인위적인 전기 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to the embodiments, the intrusion prediction method further learns sample electrical signals ELS using an artificial intelligence algorithm to generate learning data 241 (S110), receives electrical signals ES, and electrical signals It is determined whether (SS) are artificial electrical signals using the learning data 241 (S137), and when the electrical signals (ES) are determined to be the artificial electrical signals, the
실시 예들에 따라 상기 침입 예측 방법은 샘플 진동 신호들(VBS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 진동 신호들(VS)을 수신하고 진동 신호들(VS)이 인위적인 진동 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to the embodiments, the intrusion prediction method further learns sample vibration signals (VBS) using an artificial intelligence algorithm to generate learning data 241 (S110), receives vibration signals (VS), and generates vibration signals It is determined whether VS is artificial vibration signals using the learning data 241 (S137), and when the vibration signals VS are determined to be the artificial vibration signals, the
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제2객체(510)와 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제2객체(510)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 존재하는 위치의 지형지물을 식별하고(S210), 획득된 제1객체(500)의 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).According to an embodiment, the
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 동일한 촬영 장치가 설치된 위치 정보를 분석하여 제1객체(500)가 존재하는 위치의 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).According to an embodiment, the
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)를 출력하는 제1촬영 장치(313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 분석하여 제1객체(500)가 존재하는 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다 (S130A).According to an embodiment, the
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The
인공지능 프로그램(212)은 제3촬영 영상을 수신하고 상기 제3촬영 영상에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S145), 제2촬영 영상 (FA2, FB2, 또는 FC2)과 상기 제3촬영 영역 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 이동 방법, 새로운 이동 속도, 및 새로운 이동 방향을 획득하고(S145), 새로운 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 목적지를 예측하고 (S145), 새로운 이동 방법과 새로운 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 새로운 목적지에 도달할 시간을 예측한다(S145).The
인공지능 프로그램(212)은 이전 목적지를 새로운 목적지로 변경하고, 이전에 예측된 제1시간을 새롭게 예측된 시간으로 변경하고, 새로운 목적지와 상기 새로운 시간을 포함하는 예측 정보를 생성하여 단말기(600)로 전송한다(S150).The
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.
100: 침입 경계 시스템
200: 인공지능을 이용한 제어 장치
311, 321, 331, 341, 351, 361, 371, 381, 391: 센서
313, 323, 333, 343, 353, 363, 373, 383, 393: 촬영 장치
400: 울타리
410: 시설물
500: 객체, 사람
100: intrusion alert system
200: control device using artificial intelligence
311, 321, 331, 341, 351, 361, 371, 381, 391: sensor
313, 323, 333, 343, 353, 363, 373, 383, 393: photographing device
400: fence
410: facility
500: object, person
Claims (6)
진동을 감지하는 센서; 및
인공 지능을 이용한 제어 장치를 포함하고,
상기 인공 지능을 이용한 제어 장치는,
데이터베이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.filming device;
a sensor that detects vibration; and
Including a control device using artificial intelligence,
The control device using the artificial intelligence,
database; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from the photographing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the photographing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from the sensor, determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
An intrusion detection system for generating prediction information including the destination and a time to reach the destination.
상기 프로세서의 제어에 따라 상기 제1촬영 영상과 상기 제2촬영 영상을 수신하여 디스플레이하는 디스플레이 장치를 더 포함하는 침입 경계 시스템.The method of claim 1, wherein the control device using artificial intelligence,
and a display device for receiving and displaying the first captured image and the second captured image under the control of the processor.
상기 촬영 장치는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom (PTZ) camera), 열화상 카메라, 또는 열상 감시 장비인 침입 경계 시스템.According to claim 1,
The intrusion boundary system of claim 1, wherein the photographing device is a CCTV camera, a network camera, a pan-tilt-zoom (PTZ) camera, a thermal imaging camera, or a thermal imaging monitoring device.
제2촬영 장치;
진동을 감지하는 센서; 및
인공 지능을 이용한 제어 장치를 포함하고,
상기 인공 지능을 이용한 제어 장치는,
데이터베이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
상기 제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.a first photographing device;
a second photographing device;
a sensor that detects vibration; and
Including a control device using artificial intelligence,
The control device using the artificial intelligence,
database; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from the first capturing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the second capturing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from the sensor, determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
An intrusion detection system for generating prediction information including the destination and a time to reach the destination.
센서 인터페이스;
촬영 장치 인터페이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고,
상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송하는 인공지능을 이용한 제어 장치.database;
sensor interface;
shooting device interface; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from a photographing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the photographing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from a sensor that detects vibration through the sensor interface, and determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
generating prediction information including the destination and a time to reach the destination;
receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the photographing device according to an analysis result;
wherein the photographing device interface receives the control signal from the processor and transmits it to the photographing device.
센서 인터페이스;
촬영 장치 인터페이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 제1촬영 장치와 상기 제1촬영 장치를 제어하기 위한 제어 신호를 생성하고,
상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 제1촬영 장치와 상기 제2촬영 장치로 전송하는 인공지능을 이용한 제어 장치.database;
sensor interface;
shooting device interface; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from a first capturing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from a second capturing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from a sensor that detects vibration through the sensor interface, and determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
generating prediction information including the destination and a time to reach the destination;
receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the first photographing device and the first photographing device according to an analysis result;
wherein the photographing device interface receives the control signal from the processor and transmits the control signal to the first photographing device and the second photographing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230014886A KR102531272B1 (en) | 2021-10-06 | 2023-02-03 | Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210132549A KR102398010B1 (en) | 2021-10-06 | 2021-10-06 | Method for intrusion prediction using artificial intelligence algorithm and computer program thereof |
KR1020220075333A KR102498352B1 (en) | 2021-10-06 | 2022-06-21 | Control device using artificial intelligence control device and intrusion alert systme including the same |
KR1020230014886A KR102531272B1 (en) | 2021-10-06 | 2023-02-03 | Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220075333A Division KR102498352B1 (en) | 2021-10-06 | 2022-06-21 | Control device using artificial intelligence control device and intrusion alert systme including the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230050277A true KR20230050277A (en) | 2023-04-14 |
KR102531272B1 KR102531272B1 (en) | 2023-05-11 |
Family
ID=81590731
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210132549A KR102398010B1 (en) | 2021-10-06 | 2021-10-06 | Method for intrusion prediction using artificial intelligence algorithm and computer program thereof |
KR1020220055616A KR102412862B1 (en) | 2021-10-06 | 2022-05-04 | Intrusion alert system |
KR1020220055607A KR102412861B1 (en) | 2021-10-06 | 2022-05-04 | Control device using artificial intelligence control device |
KR1020220075333A KR102498352B1 (en) | 2021-10-06 | 2022-06-21 | Control device using artificial intelligence control device and intrusion alert systme including the same |
KR1020230014886A KR102531272B1 (en) | 2021-10-06 | 2023-02-03 | Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same |
KR1020230014870A KR102509570B1 (en) | 2021-10-06 | 2023-02-03 | Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210132549A KR102398010B1 (en) | 2021-10-06 | 2021-10-06 | Method for intrusion prediction using artificial intelligence algorithm and computer program thereof |
KR1020220055616A KR102412862B1 (en) | 2021-10-06 | 2022-05-04 | Intrusion alert system |
KR1020220055607A KR102412861B1 (en) | 2021-10-06 | 2022-05-04 | Control device using artificial intelligence control device |
KR1020220075333A KR102498352B1 (en) | 2021-10-06 | 2022-06-21 | Control device using artificial intelligence control device and intrusion alert systme including the same |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230014870A KR102509570B1 (en) | 2021-10-06 | 2023-02-03 | Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same |
Country Status (1)
Country | Link |
---|---|
KR (6) | KR102398010B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102557342B1 (en) * | 2022-06-28 | 2023-07-19 | 주식회사 시큐오션 | System and method for controlling operation of sensor for detecting intruder |
KR102743921B1 (en) * | 2022-09-08 | 2024-12-17 | (주)블라우비트 | Recording system and method using sound information based on deep learning |
CN116597608B (en) * | 2023-05-26 | 2023-12-19 | 江西省宏旺科技有限公司 | Zoo monitoring and early warning method and device |
KR102600316B1 (en) * | 2023-06-19 | 2023-11-09 | 주식회사 영화키스톤건축사사무소 | Electric shock accident prevention system for apartment houses using artificial intelligence |
CN116866530A (en) * | 2023-08-01 | 2023-10-10 | 广东省新一代通信与网络创新研究院 | A security monitoring system, method and device based on 5G communication |
KR102643021B1 (en) * | 2023-08-18 | 2024-03-04 | 이성락 | Method and system for automatically notifying unauthorized intrusion to a user terminal based on neural networks |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160102923A (en) * | 2015-02-23 | 2016-08-31 | 한남대학교 산학협력단 | Apparatus for detecting intrusion |
KR101934700B1 (en) | 2018-07-12 | 2019-01-03 | 주식회사동우유니온 | Early fire detection system, server and method using image processing and artificial intelligence based on deep learning |
KR101951361B1 (en) | 2017-09-15 | 2019-02-22 | 김동권 | Method for managing crime prevention and disaster prevention using artificial intelligence |
KR102021441B1 (en) | 2019-05-17 | 2019-11-04 | 정태웅 | Method and monitoring camera for detecting intrusion in real time based image using artificial intelligence |
KR102126498B1 (en) | 2019-11-15 | 2020-06-25 | 한국건설기술연구원 | Apparatus, system and method for detecting dangerous situation based on image recognition |
KR102298063B1 (en) * | 2021-02-17 | 2021-09-02 | 임정석 | Smart security drone system linked to cctv |
-
2021
- 2021-10-06 KR KR1020210132549A patent/KR102398010B1/en active IP Right Grant
-
2022
- 2022-05-04 KR KR1020220055616A patent/KR102412862B1/en active IP Right Grant
- 2022-05-04 KR KR1020220055607A patent/KR102412861B1/en active IP Right Grant
- 2022-06-21 KR KR1020220075333A patent/KR102498352B1/en active IP Right Grant
-
2023
- 2023-02-03 KR KR1020230014886A patent/KR102531272B1/en active IP Right Grant
- 2023-02-03 KR KR1020230014870A patent/KR102509570B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160102923A (en) * | 2015-02-23 | 2016-08-31 | 한남대학교 산학협력단 | Apparatus for detecting intrusion |
KR101951361B1 (en) | 2017-09-15 | 2019-02-22 | 김동권 | Method for managing crime prevention and disaster prevention using artificial intelligence |
KR101934700B1 (en) | 2018-07-12 | 2019-01-03 | 주식회사동우유니온 | Early fire detection system, server and method using image processing and artificial intelligence based on deep learning |
KR102021441B1 (en) | 2019-05-17 | 2019-11-04 | 정태웅 | Method and monitoring camera for detecting intrusion in real time based image using artificial intelligence |
KR102126498B1 (en) | 2019-11-15 | 2020-06-25 | 한국건설기술연구원 | Apparatus, system and method for detecting dangerous situation based on image recognition |
KR102298063B1 (en) * | 2021-02-17 | 2021-09-02 | 임정석 | Smart security drone system linked to cctv |
Also Published As
Publication number | Publication date |
---|---|
KR102498352B1 (en) | 2023-02-08 |
KR102398010B1 (en) | 2022-05-12 |
KR102412861B1 (en) | 2022-06-23 |
KR102509570B1 (en) | 2023-03-13 |
KR102412862B1 (en) | 2022-06-24 |
KR102531272B1 (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102531272B1 (en) | Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same | |
KR101644443B1 (en) | Warning method and system using prompt situation information data | |
US20160019427A1 (en) | Video surveillence system for detecting firearms | |
KR101877294B1 (en) | Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events | |
US20070035622A1 (en) | Method and apparatus for video surveillance | |
CN107360394B (en) | More preset point dynamic and intelligent monitoring methods applied to frontier defense video monitoring system | |
CN113593161A (en) | Perimeter intrusion detection method | |
JP2014194686A (en) | Crime prevention system | |
CN116453278A (en) | Intrusion monitoring method combining deep learning intelligent detection and optical fiber vibration sensing | |
CN117975637A (en) | Intelligent security system based on Internet of things | |
CN211630273U (en) | Intelligent image recognition device for railway environment | |
Fatima et al. | Iot based border security system using machine learning | |
US20220366687A1 (en) | System and method for drone land condition surveillance | |
Saravanan et al. | IoT alert reflexion of forbidden deforestation regions with drone observation | |
KR101542134B1 (en) | The apparatus and method of surveillance a rock fall based on smart video analytic | |
KR102333955B1 (en) | Method, system and application for indicating safe area and navigating safe path for socially vulnerable people | |
CN111063148A (en) | Remote night vision target video detection method | |
CN114998846A (en) | Method and system for realizing intelligent system of offshore drilling platform and related components | |
CN117809441B (en) | Mobile sentinel danger early warning system for forest fire prevention | |
CN118397794A (en) | Intelligent sensing and early warning method and system for man falling into water | |
CN117994734A (en) | Target risk level assessment method based on robot | |
LU500876B1 (en) | Warning area intrusion detection method and device | |
KR102686900B1 (en) | Processing apparatus for dangerous situation information using smart pole | |
KR102440169B1 (en) | Smart guard system for improving the accuracy of effective detection through multi-sensor signal fusion and AI image analysis | |
CN101523451A (en) | A method for determining sensor coverage, a design tool and a border protection system using the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20230203 Patent event code: PA01071R01D Filing date: 20220621 Application number text: 1020220075333 |
|
PA0201 | Request for examination | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230210 |
|
PG1501 | Laying open of application | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230508 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230508 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |