KR102090739B1 - Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis - Google Patents
Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis Download PDFInfo
- Publication number
- KR102090739B1 KR102090739B1 KR1020190130710A KR20190130710A KR102090739B1 KR 102090739 B1 KR102090739 B1 KR 102090739B1 KR 1020190130710 A KR1020190130710 A KR 1020190130710A KR 20190130710 A KR20190130710 A KR 20190130710A KR 102090739 B1 KR102090739 B1 KR 102090739B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- sub
- video
- feature points
- similarity
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 디지털 영상 파일의 화면을 비교하기 위해 유사도 분석을 이용하는 지능형 이동 감시 시스템 및 그 감시 방법에 관한 것이다. 특히 디지털 촬영 영상 파일을 격자 다분할 하고 이를 이용하여 기존 촬영 영상과 비교하여 특이사항이 발견된 시점의 영상과 경고 등 이벤트를 자동으로 출력할 수 있는 시스템 및 그 감시 방법에 관한 것이다.The present invention relates to an intelligent mobile monitoring system using similarity analysis to compare screens of digital image files and a monitoring method thereof. In particular, the present invention relates to a system capable of automatically dividing a digital photographed image file into grids and using it to output an event such as an image and a warning at a time point when an abnormality is found, and a monitoring method thereof.
최근 범죄나 안전사고 발생 등의 증가로 감시카메라의 역할이 날로 증대하고 있으며, 나아가 사후 범인 검거 등에 매우 효과적인 수단이 되고 있다.Recently, the role of surveillance cameras is increasing day by day due to the increase in crimes and safety accidents, and furthermore, it has become a very effective means for arresting criminals after death.
이에 따라 감시 카메라의 설치수가 급속도로 증가하고 있는 실정이며 이로 인한 경제적 부담도 함께 증가하고 있다. 이는 감시카메라가 고정된 영역을 상시 촬영하고 있거나, 각도 변경이 가능하더라도 감시카메라는 고정되어 있기 때문에 촬영 영역이 제한적이라는 점에 기인한 것이었다.Accordingly, the number of surveillance cameras installed is rapidly increasing, and the economic burden is also increasing. This was due to the fact that the surveillance camera is constantly photographing a fixed area, or even if the angle can be changed, the surveillance camera is fixed and the shooting area is limited.
또한 감시 카메라를 통해 이상 징후를 발견하는 것은 결국 사람의 몫이었으며, 이는 감시 카메라가 촬영한 영상을 관찰자가 상시 감시하고 있어야만 하는 불편함이 있었다.In addition, it was ultimately the responsibility of the person to find any abnormal signs through the surveillance camera, which was inconvenient for the observer to be constantly monitoring the images captured by the surveillance camera.
이러한 불편을 해소하기 위해, 한국 특허등록 제10-1734029호의 "이동형 활영 영상의 유사도 분석을 이용한 지능형 이동 감시시스템 및 그 감시 방법"에서는, 감시대상 영역을 촬영한 동영상의 프레임 이미지별 서브 비디오 핑거 프린트를 생성하고 상기 서브 비디오 핑거 프린트를 그룹핑하여 동영상 화일에 비디오 핑거 프린트를 생성하고, 상기 서브 비디오 프린트로 추출된 특징점을 영상 색인 DB에 저장된 영상의 색인화된 특징점들과 상호 비교하여 감시 대상에서 촬영한 동영상에 찍힌 지역의 이상 여부를 판단하고 있다.In order to solve this inconvenience, in Korean Patent Registration No. 10-1734029, "Intelligent Mobile Surveillance System Using Similarity Analysis of Mobile-Sliding Video and Its Monitoring Method," sub-video finger print for each frame image of a video that captures an area to be monitored Create a video finger print on a video file by grouping the sub video finger prints, and compare the feature points extracted with the sub video prints with the indexed feature points of the image stored in the image index DB, and shoot at the surveillance object. It is judging whether the area in the video is abnormal.
그러나, 상기 특허 등록에는 영상 프레임별로 생성된 서브 비디오 핑거 프린트에 의해 추출된 특징점과 종전 데이터 베이스(DB)의 영상 프레임별 특징점과 비교를 하므로 영상 프레임의 일부 영역에서의 큰 차이가 발생을 하여도 전체 영상 프레임별로 비교를 하므로 전체에 있어서는 큰 차이가 없는 것으로 판단하여 이상 상황이 발생한 것을 감지할 수 없는 문제점이 있었다.However, the patent registration compares the feature points extracted by the sub-video finger print generated for each image frame with the feature points for each image frame in the previous database DB, so even if a large difference occurs in some areas of the image frame There is a problem in that it is not possible to detect that an abnormal situation has occurred because it is determined that there is no significant difference in the whole because the comparison is performed for each image frame.
본 발명은 영상 프레임을 서브 영역으로 분할하고 분할 영역에서의 특징점을 추출한 후 분할 영역들을 비교하여 감시 대상 영역의 일부 영역에서의 변화가 발생한 경우 용이하게 감지할 수 있도록 하고자 한다.The present invention is to divide an image frame into sub-regions, extract feature points from the divided regions, and compare the divided regions so that it can be easily detected when a change in some region of the monitored region occurs.
본 발명은 이동형 카메라로 촬영한 복수의 프레임을 포함하는 감시대상 영상인 동영상을 촬영하는 영상 촬영부; 상기 감시대상을 촬영한 영상의 특징점을 추출하는 특징점 추출부; 동영상의 특징점이 색인화되어 저장되는 영상 색인 DB; 상기 감시대상을 촬영한 영상의 특징점과 상기 영상 색인 DB에 기저장된 동일한 경로의 동영상에 해당하는 특징점을 상호 비교하여 유사도를 분석하는 영상 분석부;를 포함하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템에 관한 것이다.The present invention is a video recording unit for photographing a video that is a surveillance target image including a plurality of frames photographed with a mobile camera; A feature point extracting unit for extracting a feature point of the image of the surveillance object; A video index DB in which feature points of a video are indexed and stored; An image analysis unit that analyzes similarity by comparing the feature points of the image photographed with the surveillance object and the feature points corresponding to the video of the same path pre-stored in the image index DB. The present invention relates to an intelligent mobile monitoring system using segmentation.
또한, 본 발명에서 상기 특징점 추출부는, 상기 감시대상 영상의 비디오 스트림을 RGB 포맷 (적외선 영상 포맷 포함) 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 다수의 서브 영역으로 분할 하며, 상기 다수의 서브 영역 각각을 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임의 서브 영역별로 그룹화된 핑거프린트를 생성할 수 있다.In addition, in the present invention, the feature point extracting unit decodes the video stream of the monitored image into an RGB format (including an infrared image format) or a black and white image format, and then divides each decoded frame image into a plurality of sub-regions. After dividing each sub-area into a plurality of block units, calculating the average value of the image brightness data of each pixel for each of the divided block units, extracting a feature point based on a difference between the average values of the image brightness data between adjacent blocks Fingerprints grouped by sub-regions of a frame may be generated.
또한, 본 발명에서 상기 영상 분석부는, 상기 감시대상을 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트로 추출된 특징점과 상기 영상 색인 DB에 기저장된 색인화된 특징점을 상호 비교하여 동일 장소의 촬영 시점을 검색하고, 상기 검색된 촬영 시점으로부터 소정 구간의 복수의 프레임 각각의 서브 영역 이미지에 대응하는 특징점의 유사도가 임계수치 이상인지 여부를 판단할 수 있다.In addition, in the present invention, the image analysis unit compares the feature points extracted with the fingerprint grouped for each sub-region image of each frame from the image captured by the surveillance object and the indexed feature points pre-stored in the image index DB, in the same place. It is possible to search a shooting time point of, and determine whether the similarity of feature points corresponding to sub-region images of a plurality of frames in a predetermined section is greater than or equal to a threshold value from the searched shooting time point.
또한, 본 발명에서 상기 영상 분석부는, 상기 감시 대상을 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트로 추출된 특징점 값의 일부와 상기 영상 색인 DB에 기저장된 색인화된 특징점값의 일부를 상호 비교하여 비교값이 일정한 범위에 있는 경우, 촬영한 영상과 영상 색인 DB에 기저장된 영상을 동기화 하여 각각의 프레임별 서브 영역 이미지의 특징점을 비교하고, 상기 특징점의 비교 결과 차이값이 임계치 이상인 서브 영역이 존재하면 촬영 영상에서 다른 이벤트가 발생하였음을 감지할 수 있다.In addition, in the present invention, the image analysis unit, a part of the feature point values extracted by the fingerprint grouped for each sub-region image of each frame from the image capturing the surveillance object, and a part of the indexed feature point values previously stored in the image index DB When the comparison values are in a certain range by comparing each other, the feature points of the sub-region images for each frame are compared by synchronizing the captured images and the images previously stored in the image index DB, and the difference between the feature points is greater than or equal to a threshold value. When a sub-region exists, it is possible to detect that another event has occurred in the captured image.
또한, 본 발명에서 상기 특징점의 유사도가 임계 수치 미만인 촬영 시점의 영상 및 유사도를 화면 표시하고 영상의 특이사항 유무를 지정받는 관리자 검열부;를 더 포함하고, 상기 관리자 검열부는, 특이사항이 아닌 것으로 판명된 상기 감시대상 영상의 특징점을 상기 영상 색인 DB에 저장하는 영상 색인부;를 더 포함할 수 있다.In addition, in the present invention, the manager inspecting unit for displaying the image and the similarity of the point in time at which the similarity point of the feature point is less than a threshold value and receiving the presence or absence of specificity of the image is further included. It may further include; an image index unit for storing the identified feature points of the monitored image in the image index DB.
또한 본 발명은 특이사항이 없는 것으로 판별된 영상의 각 프레임별 특징점 및 특이사항이 수록된 영상 색인 DB를 준비하는 단계; 영상 촬영부가 감시대상 영상을 촬영하는 단계; 특징점 추출부가 상기 감시대상을 촬영한 영상으로부터 추출한 각 프레임의 서브 영역 이미지별 특징점 및 경과 시간값을 영상 분석부로 전송하는 단계; 영상 분석부가 전송받은 각 프레임의 서브 영역 이미지별 특징점을 영상 색인 DB에서 검색하는 단계; 영상 분석부가 소정 구간의 복수의 프레임의 서브 영역 이미지에 대응하는 특징점을 기준으로 유사도가 임계수치 이상인지 여부를 판단하는 단계; 판단 결과, 영상 분석부는 유사도가 임계수치 미만인 경우 특이사항이 있음을 판단하는 단계 및, 특이사항이 없는 경우 비교대상 영상으로 설정하는 설정단계를 포함하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 방법에 관한 것이다.In addition, the present invention comprises the steps of preparing an image index DB containing the feature points and peculiarities for each frame of the image determined as having no peculiarities; An image photographing unit photographing an image to be monitored; Transmitting, by the feature point extraction unit, feature points and elapsed time values for each sub-region image of each frame extracted from the image captured by the monitoring object to the image analysis unit; Searching the image index DB for feature points for each sub-region image of each frame transmitted by the image analysis unit; Determining whether the degree of similarity is greater than or equal to a threshold value based on feature points corresponding to sub-region images of a plurality of frames in a predetermined section; As a result of the determination, the image analysis unit performs multi-segmentation of the image area grid to analyze the similarity of the image including the step of determining if there is a singularity when the similarity is less than the threshold, and setting the comparison target image if there is no singularity. It relates to an intelligent mobile monitoring method to use.
본 발명은 기존 프레임별 특징점을 추출하는 것에 비하여 프레임을 서브 영역으로 분할하여 각각의 분할 영역들을 비교하여 감시 대상 영역의 일부 영역에서의 변화가 발생한 경우 용이하게 감지할 수 있도록 하였다.In the present invention, compared to extracting the feature points for each frame, the frames are divided into sub-regions, and the respective divided regions are compared to facilitate detection when a change in a portion of the monitored region occurs.
도 1a은 본 발명 블록 구성도이다.
도 1b는 본 발명의 또 다른 블록 구성도이다.
도 2는 본 발명의 이동형 촬영 영상의 유사도 분석을 이용한 지능형 이동 감시 시스템이 감시대상 영상의 특징점을 통해 특정 촬영 시점의 특이사항을 검출하는 개념도이다.
도 3 본 발명의 이동형 촬영 영상의 프레임(100)을 서브 프레임으로 분할한 예이다.
도 4는 서브 프레임[SI(1,1)]에서 특이점을 추출하기 위하여 다수의 블록으로 분할한 예시이다.
도 5는 프레임(100)의 서브 프레임 각각에 특이점을 추출한 예시이다.
도 6a 및 도 6b는 본 발명의 특이점 비교예이다.
도 5a 내지 도 5d는 종래 발명에서의 실제 영상에 따른 특이점 비교예이다.
도 6a 내지 도 6b는 본 발명에서의 특이점 비교 실시예이다.
도 7a 내지 도 7d는 종래 발명에서의 특이점 비교예이다.
도 8a 내지 도 8b는 본 발명에서의 특이점 비교 실시예이다.
도 9a 내지 도 9c는 종래 발명에서의 특이점 비교예이다.
도 10a 내지 도 10b는 본 발명에서의 특이점 실시예이다.1A is a block diagram of the present invention.
1B is another block diagram of the present invention.
FIG. 2 is a conceptual diagram of an intelligent mobile surveillance system using the similarity analysis of a mobile photographed image of the present invention to detect specific features at a specific photographing time point through a feature point of a monitored image.
3 is an example of dividing the
4 is an example of dividing into a plurality of blocks in order to extract singularities from sub-frames [SI (1,1)].
5 is an example of extracting singularities in each of the sub-frames of the
6A and 6B are comparative examples of singularities of the present invention.
5A to 5D are comparative examples of singularities according to actual images in the conventional invention.
6A to 6B are comparative examples of singularity in the present invention.
7A to 7D are comparative examples of singularity in the conventional invention.
8A to 8B are comparative examples of singularity in the present invention.
9A to 9C are comparative examples of singularity in the conventional invention.
10A to 10B are examples of singularity in the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, it should be noted that in adding reference numerals to the components of each drawing, the same components have the same reference numerals as possible, even if they are displayed on different drawings. In describing the present invention, when it is determined that detailed descriptions of related known configurations or functions may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.
도 1a은 본 발명의 이동형 촬영 영상의 유사도 분석을 이용한 지능형 이동 감시 시스템을 나타낸 블록 구성도로서, 영상 촬영부(200), 특징점 추출부(210), 영상 분석부(220), 영상 색인 DB(260)를 포함한다.Figure 1a is a block diagram showing an intelligent mobile surveillance system using the similarity analysis of the moving image of the present invention, the
상기 영상 촬영부(200)는 각종 동영상을 촬영할 수 있는 카메라 등이 될 수 있으며, 감시 대상 영상을 상기 특징점 추출부(210)로 전송한다.The
한편 특징점 추출부(210)는 동영상 파일에 포함된 비디오 데이터를 분석하여 비디오 특징점인 비디오 핑거프린트를 추출한다.Meanwhile, the feature
여기서, 비디오 핑거 프린트란 비디오 데이터를 고유하게 식별할 수 있는 일종의 비디오 고유 아이디의 요소를 지칭하고, 상기 특징점 추출부(210)는 비디오 핑거 프린트를 추출하기에 앞서 영상 파일로부터 비디오 데이터만을 선택적으로 분리하는 과정을 선행할 수 있다.Here, the video finger print refers to a kind of video unique ID element capable of uniquely identifying video data, and the feature
상기 특징점 추출부(210)는 비디오 핑거 프린트를 추출하기 위해 동영상 파일에서 비디오 스트림을 선택적으로 분리하고, 분리된 비디오 스트림을 RGB 포맷으로 디코딩한다. 이어서 디코딩된 영상 데이터를 구성하는 각 프레임(100)을 다수개의 서브 영역으로 분할하고 다수개의 분할된 서브 영역 이미지별로 서브 비디오 특징점을 추출한다.The
상기 각 프레임(100)의 서브 영역에서의 서브 비디오 특징점을 추출하는 방법은 예를 들어 좁 우스트빈 외 1명의 논문(Job Oostveen, Ton Kalker, Jaap Haitsma의 논문 "Feature Extraction and a Database Strategy for Video Fingerprinting"(Lecture Notes in Computer Science 2314 Springer 2002)을 참조하여 추출할 수 있다.The method of extracting the sub-video feature points in the sub-region of each
먼저, 특징점 추출부(210)는 프레임(100) 이미지를 도 3에 도시된 것과 같이 다수의 서브 영역[SI(1,1), SI(1,2), SI(1,3) ...]으로 분할하고 분할된 서브 영역 각각을 도 4와 같이 다수개의 블록 단위 (도 4는 9개의 블록으로 구분)로 분할할 수 있다.First, the feature
예를 들어, 각각의 서브 영역[SI(1,1), S(1,2), S(1,3) ...] 이미지의 세로축을 n 등분하고 가로축을 m 등분하여 프레임의 서브 영역 이미지를 n×m 개의 블록으로 분할한다. For example, each sub-region [SI (1,1) , S (1,2) , S (1,3) ... ] divides the vertical axis of the image into n and divides the horizontal axis into m equals the sub-region image of the frame. Is divided into n × m blocks.
그리고, 특징점 추출부(210)는 분할된 블록 단위별로 각 영상 밝기 데이터인 Y값의 평균을 산출한 후 인접한 블록 간의 영상 밝기 평균값의 차이를 기준으로 소정 비트수의 서브 비디오 핑거 프린트를 생성한다.Then, the feature
[수학식 1]은 [Equation 1]
하나의 프레임의 서브 영역 이미지에 대한 서브 비디오 핑거 프린트를 생성하는데 사용될 수 있는 비트 할당 함수 'B(r, c, p)'를 예시한 것이다.An example of a bit allocation function 'B (r, c, p)' that can be used to generate a sub video fingerprint for a sub-region image of one frame.
여기서 B(r, c, p)는 p번째 서브 영역 이미지 [예를 들면 SI(1,p)]의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록에 대해 비트를 할당하는 함수이다. 그리고, F(r, c, p)는 p번째 서브 영역 이미지의 가로축 및 세로축을 기준으로 각각 r번째 및 c번째에 위치한 블록의 영상 밝기값 평균을 나타낸다.Here, B (r, c, p) is a function for allocating bits for blocks located in the r-th and c-th positions, respectively, based on the horizontal and vertical axes of the p-th sub-region image [for example, SI (1, p) ]. . In addition, F (r, c, p) represents the average image brightness values of blocks located at the r-th and c-th, respectively, based on the horizontal and vertical axes of the p-th sub-region image.
상기 [수학식 1]의 F(r, c, p)에서, r은 1부터 n까지의 정수값을 갖고, c는 1부터 m-1까지의 정수값을 갖는다. 여기서 a는 1보다 작은 수로서 적절하게 선택할 수 있는 상수이다.In F (r, c, p) of [Equation 1], r has an integer value from 1 to n, and c has an integer value from 1 to m-1. Here, a is a number smaller than 1 and is a constant that can be appropriately selected.
한편 상기 특징점 추출부(110)는 영상의 밝기 데이터인 Y값 이외에도 각 픽셀의 색차 데이터인 Cb 또는 Cr값을 활용하여 서브 비디오 핑거 프린트를 생성할 수 있다.Meanwhile, the feature point extracting unit 110 may generate a sub video fingerprint by using Cb or Cr values, which are color difference data of each pixel, in addition to Y values, which are brightness data of an image.
상기 특징점 추출부(210)는 동영상을 구성하는 각 프레임의 서브 영역 이미지에 대한 서브 비디오 핑거 프린트를 추출한 후에는 추출된 각 서브 비디오 핑거프린트를 그룹핑함으로써 각 프레임과 각각의 프레임을 포함하는 동영상 파일에 대한 비디오 핑거프린트의 생성을 완료한다.The feature
본 발명에서는 상기 좁 우스트빈 외 1명의 논문에 기술된 방식 외의 비디오 핑거 프린트를 추출할 수 있는 알고리즘이면 어떠한 것이라도 적용 가능하다.In the present invention, any algorithm can be applied as long as it can extract video fingerprints other than those described in the narrow paper above and one paper.
한편 상기 영상 촬영부(200)는 상기 특징점 정보의 유사도가 임계수치 이상인지 여부를 판단한 결과 임계수치 미만인 경우, 상기 영상 촬영부(200)의 위치를 고정시키도록 제어하는 제어부를 더 포함하는 것이 좋다. 상기 제어부는 드론 등의 비행 위치 등을 제어하는 기능을 수행하며, 특이사항 발견 즉시 드론 등을 제자리에 고정시킴으로써 특이사항 발생 지점을 계속 주시할 수 있도록 한다.On the other hand, when the similarity of the feature point information is greater than or equal to a threshold value as a result of determining whether the similarity of the feature point information is less than a threshold value, the
특징점 추출부(210)는 화재 등 색상에 기반한 특징점을 추출하기 위해서는 색상 히스토그램 그래프를 이용할 수도 있다. 이는 웨이-룬 차오(Wei-Lun Chao)의 논문 "The Core of Video Fingerprinting Example of Feature Extraction"의 내용을 이용할 수 있다. The feature
또한 특징점 추출부(210)는 침입 탐지 등 객체 이동에 기반한 특징점을 추출하기 위해서는 객체 인식 기반 특징점 추출 알고리즘을 이용할 수 있다. 이는 후이타오 루오(Huitao Luo)의 논문(Algorithms for Video Ob ject Detection and Segmentation with Application to Content-Based Multimedia Systems)을 이용하는 것이 바람직하다.Also, the feature
한편 특징점 추출부(210)는 상기 서브 비디오 특징점을 추출한 각 프레임 고유값들을 영상 분석부(220)로 전송한다. 영상 분석부(220)는 전달된 파라미터 또는 전달 인자에 따라 특정 시점부터 검색할 수 있다.Meanwhile, the feature
영상 색인 DB(260)로부터 기존 영상들에서 추출한 특징점들을 검색하여 상기 전송받은 비디오 특징점들을 비트 연산을 통해 상호 유사도를 구하고, 관리자가 미리 설정한 임계수치 미만인 서브 영역 이미지를 포함하는 프레임을 영상 분석부(220)로 전달한다. 비디오 특징점 (= 핑거 프린트)은 도 5에 도시된 것과 같이 각 서브 영역별로 수치화 또는 암호화될 수 있다.The image analysis unit retrieves the feature points extracted from the existing images from the
도 5에 도시된 것과 같이, 서브 영역별로 P(1,1), P(1, 2), P(1,3), P(1, 4)... 와 같이 핑거 프린트가 생성되어 있으며, 예를 들어 P(1, 1)은 도 4에 도시된 다수개의 블럭 단위의 RGB값을 수치화 하여 설정할 수 있다.As illustrated in FIG. 5, finger prints are generated as P (1, 1) , P (1, 2) , P (1 , 3) , and P (1, 4) ... for each sub region, For example, P (1, 1) can be set by numerically quantifying the RGB values of a plurality of block units shown in FIG. 4.
도 6a 내지 도 6b는 본 발명에 의해 촬영한 영상과 영상 색인 DB에 저장된 영상을 비교하는 실시예이다.6A to 6B are examples of comparing an image captured by the present invention with an image stored in the image index DB.
도 6a의 5개의 프레임(100ba, 100bb, 100bc, 100bd, 100be)은 실시간 촬영중인 영상이고, 특정 구간인 T1 시간동안 촬영한 프레임 집합인 동영상이다. 촬영의 시작점이 Ti 시각이 된다고 가정할 때, 상기 5개의 프레임은 서브 영역 각각이 핑거 프린트화 되어 있다. The five frames (100ba, 100bb, 100bc, 100bd, and 100be) in FIG. 6A are real-time video recordings, and are video sets of frames taken during a specific period T 1 hour. Assuming that the starting point of the photographing is the Ti time, each of the five frames is finger-printed.
그리고 도 6b의 8개의 프레임은 기저장된 영상이고, 상기 5개의 프레임(100ba, 100bb, 100bc, 100bd, 100be)의 서브 영역 이미지의 일부 핑거 프린트된 값과 임계수치 이상의 값을 구비하는 5개의 프레임(100aa, 100ab, 100ac, 100ad, 100ae)과 특정 구간인 TS에서 동기화가 된다.In addition, the 8 frames in FIG. 6B are pre-stored images, and 5 frames (5) each having a fingerprint value and a threshold value or more of a sub-region image of the 5 frames (100ba, 100bb, 100bc, 100bd, 100be) 100aa, 100ab, 100ac, 100ad, 100ae) and a specific section T S.
즉, 5개의 프레임(100ba, 100bb, 100bc, 100bd, 100be) 각각의 서브 영역의 핑거 프린트 값 P(1,1), P(1, 2), P(1,3), P(1, 4) ...들중 일부가 기 저장된 DB의 5개의 프레임(100aa, 100ab, 100ac, 100ad, 100ae)의 핑거 프린트 값 P(1,1), P(1, 2), P(1,3), P(1, 4) ..의 일부와 임계치 이상에서 서로 대응되는 것으로 파악되면, 유사도 비교의 시작점을 Ti와 Ts로써 동기화되고 이후의 각각의 프레임에 포함되는 서브 영역 이미지의 특징점을 상호 비교하게 되는 것이다.That is, the finger print values P (1 , 1) , P (1, 2) , P (1 , 3) , and P (1, 4 ) of each sub-region of five frames (100ba, 100bb, 100bc, 100bd, 100be) ) ... Fingerprint values P (1,1) , P (1, 2) , P (1,3) of 5 frames (100aa, 100ab, 100ac, 100ad, 100ae) of DB where some of them are already stored , If it is found to correspond to a part of P (1, 4) .. above a threshold value, the starting points of the similarity comparison are synchronized as Ti and Ts, and the feature points of the sub-region image included in each subsequent frame are mutually compared. Will be.
동기화를 하기 위해서는 프레임의 서브 영역 핑거 프린트 값 모두가 일치하는 것이 아니라, 각각 프레임의 서브 영역의 일정 개수 및 일정 개수의 프레임의 핑거 프린트 값이 일치하면 동기화를 한다.In order to synchronize, not all of the fingerprint values of the sub-regions of the frames are matched, but when the number of fingerprints of a certain number of frames and the number of frames of each sub-frames are synchronized, synchronization is performed.
예를 들어, 촬영된 영상의 제1 내지 제5 프레임(100ba, 100bb, 100bc, 100bd, 100be)의 서브 영역 SI(1,1) 및 SI(2,1)의 핑거 프린트값이 저장된 된 5개의 프레임(100aa, 100ab, 100ac, 100ad, 100ae)의 서브 영역 SI(1,1) 및 SI(2,1)의 핑거 프린트값에서의 차이가 10% 미만(임계치가 90%인경우)인 경우 촬영된 5개의 프레임(100ba, 100bb, 100bc, 100bd, 100be)과 기저장된 5개의 프레임(100aa, 100ab, 100ac, 100ad, 100ae)을 동기화 할 수 있다.For example, the finger print values of the sub-regions SI (1,1) and SI (2,1) of the first to fifth frames (100ba, 100bb, 100bc, 100bd, and 100be) of the captured image are stored. Frames (100aa, 100ab, 100ac, 100ad, 100ae) of sub-regions SI (1,1) and SI (2,1) difference in finger print value difference is less than 10% (threshold is 90%) shooting 5 frames (100ba, 100bb, 100bc, 100bd, 100be) and 5 pre-stored frames (100aa, 100ab, 100ac, 100ad, 100ae) can be synchronized.
동기화가 된 후에는 각각의 프레임의 서브 영역의 핑거 프린트값을 비교하게 되며 일부에서 차이가 10% 이상의 오차가 발생하면 평상시와는 다른 이벤트가 발생하였음을 알 수 있다.After the synchronization, the finger print values of the sub-regions of each frame are compared, and it can be seen that an event different from normal occurs when an error of 10% or more occurs in some parts.
예를 들어, 촬영 영상의 제4 프레임(100bd) 및 제5 프레임(100be)과 기저장된 영상의 제4 프레임(100ad) 및 제5 프레임(100ae)의 비교 과정에서, 서브 영역 SI(6,1), SI(2, 2) 및 SI(2,4)에서의 핑거 프린트 값 P(6,1), P(2,2) 및 P(2, 4)의 값에서 차이가 10%보다 큰 경우, 제4 프레임(100bd)의 서브 영역 SI(6,1) 및 제5 프레임(100be)의 SI(2, 2) 및 SI(2,4)에서 다른 이벤트가 발생하였다는 것을 알 수 있다. For example, in the process of comparing the fourth frame 100bd and the fifth frame 100be of the captured image and the fourth frame 100ad and the fifth frame 100ae of the pre-stored image, the sub-region SI (6,1 ) , When the difference in the values of finger print values P (6,1) , P (2,2) and P (2, 4) in SI (2, 2) and SI (2,4) is greater than 10% , It can be seen that other events have occurred in the sub-regions SI (6,1) of the fourth frame 100bd and SI (2, 2) and SI (2,4) of the fifth frame 100be.
즉 무인항공기가 변화되는 배경을 촬영할 때 상기 제4 및 제5 프레임에 해당하는 배경에서 특이사항이 발생하였다는 것을 자동으로 인지할 수 있는 것입니다.That is, it is possible to automatically recognize that an abnormality has occurred in the background corresponding to the above 4th and 5th frames when the unmanned aerial vehicle photographs the changing background.
하나의 프레임의 서브 영역 각각에 해당하는 특징점을 수치화하고 복수의 프레임을 상호 비교함으로써, 고정된 하나의 이미지가 아닌 복수의 프레임 각각의 서브 영역속에서 특이사항을 발견하는 것이다.By quantifying the feature points corresponding to each sub-region of one frame and comparing a plurality of frames with each other, it is to find out peculiarities in each sub-region of a plurality of frames rather than a fixed one image.
바람직하게는 영상 색인 DB(260)는 촬영 경과시점 및 프레임, GPS 좌표별로 색인화하는 것이 좋다. 특히 GPS 좌표를 이용하는 경우 카메라 위치가 이동했거나 경로를 수정해도 GPS좌표가 있다면 그 좌표를 이용해서 경로가 겹칠 경우 활용이 가능하다.Preferably, the
상기 영상 분석부(220)에서는 유사도가 임계수치 이상으로 검출된 일부 영상은 분석을 요청한 감시대상 영상의 동일한 장소를 촬영한 특이사항 없는 영상으로 판별하고, 임계수치 미만의 일부 영상은 동일한 장소를 촬영한 특이사항이 있는 영상으로 판별하여, 영상 분석부(220)에서 구한 프레임의 색인값을 통해 분석 요청한 감시대상 영상의 일부 혹은 캡쳐이미지를 도 1b의 관리자 검열부(230)로 출력한다.In the
혹은 임계수치 이상이라 하더라도 특이 사항이 있는 영상 색인 DB(260)에서 검색된 경우 해당 영상은 특이사항 있음으로 판별하며, 관리자가 별도로 기록한 특이사항 내용과 함께 관리자 검열부로 전달 및 출력하도록 하는 것이 바람직하다.Alternatively, even if the threshold value is greater than or equal to the threshold value, it is preferable to determine that the corresponding image is unusual when it is retrieved from the
한편 상기 영상 분석부(220)는 기설정된 기간으로 제한하여 영상 색인 DB(260)를 검색하는 기능을 수행하는 것이 바람직하다. 상기 영상 색인 DB(260)에 기저장된 전체 데이터를 검색하지 않고 관리자가 기설정한 검색 구간으로 제한하여 검색 속도를 높일 수 있는 것이다.Meanwhile, it is preferable that the
도 2은 본 발명의 이동형 촬영영상의 유사도 분석을 이용한 지능형 이동 감시 시스템이 감시대상 영상의 특징점을 통해 특정 촬영 시점의 특이사항을 검출하는 개념도이다.FIG. 2 is a conceptual diagram of an intelligent mobile surveillance system using the similarity analysis of a mobile photographed image of the present invention to detect specific features at a specific photographing time point through a feature point of a monitored image.
도 2에서와 같이, 드론 등을 통해 9월 10일에 촬영했던 또는 현재 실시간으로 촬영되고 있는 감시대상 영상을 9월 9일에 촬영된 영상과 비교한다. 비교대상은 영상 자체의 이미지가 아니라 특징점 추출부(210)가 추출한 일정 구간의 핑거 프린트화된 특징점을 비트 연산을 통해 상호 비교하기 때문에 연산속도가 빠르다. 따라서 실시간 비교도 가능한 것이다. 상기 비교는 영상 분석부(220)가 수행한다. As shown in FIG. 2, a surveillance target image photographed on September 10 or currently being photographed in real time through a drone or the like is compared with an image photographed on September 9. The comparison target is not an image of the image itself, but the computation speed is fast because the feature-printed feature points extracted by the feature
도 2에서 보듯이 영상의 A point부터 D point까지는 특징점의 상호 비교 결과 유사도가 임계수치 이상인 경우로서 특이사항 없음으로 판별될 것이다. 그러나 E point에서는 화재가 발생하여 유사도가 임계수치에 미달하여 특이사항 발생으로 판별될 것이다.As shown in FIG. 2, as a result of mutual comparison of feature points from A point to D point of the image, the similarity is more than a threshold value, and it will be determined that there is no specificity. However, at the E point, a fire will occur and the similarity will be less than the critical value, and it will be determined as the occurrence of an unusual feature.
도 7a 내지 도 7d는 종래 프레임별 영상 비교하는 것으로, 도 7a와 같이 화재가 크게 발생한 영상을 도 7b의 영상 색인 DB의 종전 영상과 비교하는 경우 79%의 유사도로 측정되어 이상 상황을 감지하나, 도 7c와 같이 프레임 영상의 일부 구석에 작게 화재가 발생한 경우 도 7d의 영상 색인 DB의 종전 영상과 비교하는 경우 95%의 유사도로 측정되어 이상 상황을 감지하지 못한다.7A to 7D are comparisons of images for each frame, and when an image having a large fire as shown in FIG. 7A is compared with a previous image of the image index DB of FIG. 7B, an abnormality is detected by measuring similarity of 79%, When a small fire occurs in some corners of the frame image as shown in FIG. 7C, when compared with the previous image of the image index DB of FIG. 7D, it is measured with similarity of 95% and does not detect an abnormal situation.
이와 같이, 종전 프레임별 특이점을 추출하여 영상을 비교하는 경우에는 촬영 위치, 카메라 각도 등의 오차에 의해 촬영 대상에서의 변화를 정확하게 감지할 수 없는 문제점이 있다.As described above, when comparing the images by extracting the singularity for each previous frame, there is a problem in that it is impossible to accurately detect a change in an object to be photographed due to errors such as a photographing position and a camera angle.
이에 비하여 본 발명에서는 각각의 프레임에서 서브 영역별로 분할하여 핑거프린트화된 특이점을 추출해 저장한 후 서브 영역 별로 특이점들을 비교하므로 촬영 대상에서의 변화를 보다 정확하게 감지할 수 있다.In contrast, in the present invention, since the singularity, which is fingerprinted by dividing by sub-region in each frame, is extracted and stored, the singularities are compared for each sub-region, it is possible to more accurately detect a change in an object.
예를 들어, 도 8b에서 처럼 서브 영역 SI(4,5)에서만 화재가 발생한 경우, 도 8a의 대응되는 영상 색인 DB의 서브 영역 SI(4,5)와 비교할 때 특이점에서 임계치 이하 (70% 유사)를 감지하게 되어 변화를 감지할 수 있다.For example, when a fire occurs only in the sub-region SI (4,5) as in FIG. 8B, when compared to the sub-region SI (4,5) of the corresponding image index DB in FIG. ) To detect changes.
그러나, 이를 프레임별로 비교하는 경우 프레임 전체에서 단지 서브 영역 SI(4,5)에서만의 차이가 되어 전체적으로 95%의 이상의 유사로 파악하게 되고 변화를 감지할 수 없다.However, when comparing them frame by frame, the difference is only in the sub-regions SI (4,5) in the entire frame, and it is recognized as a similarity of 95% or more as a whole, and a change cannot be detected.
또한, 도 9b 및 도 9c는 SSI01, SSI02와 같이 영상 색인 DB의 영상 프레임 (도 9a)에 비하여 촬영 이미지가 쉬프트되는 경우 위치 오차에 의하여 80%의 유사를 나타내어 변화가 발생한 것을 감지한다.In addition, FIGS. 9B and 9C show 80% similarity due to a position error when a photographed image is shifted compared to a video frame (FIG. 9A) of the image index DB, such as SSI01 and SSI02, to detect that a change has occurred.
그러나, 도 10a 및 10b에서 처럼 대응되는 서브 영역을 찾아 비교를 하게 되면 도 10a의 서브 영역 SI(1,11)과 도 10b의 서브 영역 SI(1, 10)를 비교 하게되고 이경우 유사도가 95%를 넘게 되어 이상이 없다는 것을 알리게 된다.However, as shown in FIGS. 10A and 10B, when the corresponding sub-regions are found and compared, the sub-regions SI (1,11) of FIG. 10A and the sub-regions SI ( 1, 10 ) of FIG. 10B are compared, and in this case, the similarity is 95%. You will be informed that there is no abnormality.
이와 같이, 촬영 영상 프레임의 서브 영역별로 특이점을 추출해서 영상 색인 DB의 저장된 영상의 서브 영역과 비교함으로써, 변화의 정확도를 증가시켰다.As described above, the singularity is extracted for each sub-region of the captured image frame and compared with the sub-region of the stored image in the image index DB, thereby increasing the accuracy of the change.
100: 영상 프레임 200: 영상 촬영부
210: 특징점 추출부 220: 영상 분석부
260: 영상 색인 DB100: video frame 200: video recording unit
210: feature point extraction unit 220: image analysis unit
260: image index DB
Claims (8)
상기 감시대상을 촬영한 영상의 특징점을 추출하는 특징점 추출부;
동영상의 특징점이 색인화되어 저장되는 영상 색인 DB;
상기 감시대상을 촬영한 영상의 특징점과 상기 영상 색인 DB에 기저장된 동일한 경로의 동영상에 해당하는 특징점을 상호 비교하여 유사도를 분석하는 영상 분석부;를 포함하되,
상기 특징점 추출부는,
상기 감시대상 영상의 비디오 스트림을 RGB 포맷, 적외선 영상 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 다수의 서브 영역[SI(1,1), SI(1,2), SI(1,3) ...]으로 분할 한후, 상기 다수의 서브 영역 각각을 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임의 서브 영역별로 그룹화된 핑거프린트 [P(1,1), P(1, 2), P(1,3)..]를 생성하고,
상기 영상 분석부는
상기 감시대상의 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트[P(1,1), P(1, 2), P(1,3)..]로 추출된 특징점과 상기 영상 색인 DB에 기저장된 색인화된 특징점을 상호 비교하여 동일 장소의 촬영 시점을 검색하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템.An image photographing unit for photographing a video which is a surveillance target image including a plurality of frames photographed by a mobile camera;
A feature point extracting unit for extracting a feature point of the image of the surveillance object;
A video index DB in which feature points of a video are indexed and stored;
Includes a; image analysis unit that analyzes the similarity by comparing the feature points corresponding to the video of the same path pre-stored in the image index DB and the feature points of the image captured by the monitoring object;
The feature point extraction unit,
The monitoring of the video stream of the object image the RGB format, the infrared image format or after decoding the black-and-white image format of each frame image of the decoded multiple sub-regions [SI (1,1), SI ( 1,2), SI (1 , 3) ... ], and then divide each of the plurality of sub-regions into a plurality of block units, calculate the average value of the image brightness data of each pixel for each of the divided block units, and then image brightness between adjacent blocks Characteristic points are extracted based on the difference in the average values of data to generate fingerprints [P (1,1) , P (1, 2) , and P (1,3) .. ] grouped by sub-regions of each frame,
The image analysis unit
Feature points extracted with fingerprints [P (1,1) , P (1, 2) , and P (1,3) .. ] grouped by sub-region images of each frame from the captured image of the surveillance object and the image An intelligent mobile surveillance system that uses multi-segmentation of the image area grid to analyze the similarity of images, which compares the indexed feature points stored in the index DB with each other to search for the shooting point in the same place.
상기 영상 분석부는,
상기 검색된 촬영 시점으로부터 소정 구간의 복수의 프레임 각각의 서브 영역 이미지에 대응하는 특징점의 유사도가 임계수치 이상인지 여부를 판단하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템.According to claim 1,
The image analysis unit,
Intelligent movement using multi-segmentation of the image area grid to analyze the similarity of the image, characterized in that it determines whether the similarity of the feature points corresponding to the sub-region images of each of a plurality of frames in a predetermined section is greater than or equal to a threshold value from the searched shooting time point Surveillance system.
상기 영상 분석부는,
상기 감시 대상을 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트로 추출된 특징점 값의 일부와 상기 영상 색인 DB에 기저장된 색인화된 특징점값의 일부를 상호 비교하여 비교값이 일정한 범위에 있는 경우, 촬영한 영상과 영상 색인 DB에 기저장된 영상을 동기화 하여 각각의 프레임별 서브 영역 이미지의 특징점을 비교하고,
상기 특징점의 비교 결과 차이값이 임계치 이상인 서브 영역이 존재하면 촬영 영상에서 다른 이벤트가 발생하였음을 감지하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템.According to claim 1,
The image analysis unit,
The comparison value is within a certain range by comparing a portion of the feature point values extracted with the fingerprint grouped by the sub-region image of each frame from the image of the surveillance object and a portion of the indexed feature point value previously stored in the image index DB. If present, compare the feature points of each sub-frame image for each frame by synchronizing the pre-stored image in the image index DB and the captured image.
An intelligent mobile monitoring system using multi-segmentation of the image area grid to analyze the similarity of an image, characterized in that when a difference between the feature points and a sub-region where a difference value is greater than or equal to a threshold is detected, another event has occurred in the captured image.
상기 특징점의 유사도가 임계 수치 미만인 촬영 시점의 영상 및 유사도를 화면 표시하고 영상의 특이 사항 유무를 지정받는 관리자 검열부;를 더 포함하고,
상기 관리자 검열부는,
특이 사항이 아닌 것으로 판명된 상기 감시대상 영상의 특징점을 상기 영상 색인 DB에 저장하는 영상 색인부;를 더 포함하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템.According to claim 2,
It further includes a manager inspecting unit that displays an image and a similarity at the time of photographing when the similarity of the feature points is less than a threshold value, and is assigned whether or not there are any particulars of the image;
The manager inspection unit,
An intelligent movement monitoring system using multi-segmentation of the image area grid for similarity analysis of images, further comprising: an image indexing unit that stores the feature points of the image to be monitored that are not unusual in the image index DB. .
영상 촬영부가 감시대상 영상을 촬영하는 단계;
특징점 추출부가 상기 감시대상을 촬영한 영상으로부터 추출한 각 프레임의 서브 영역 이미지별 특징점 및 경과 시간값을 영상 분석부로 전송하는 단계;
영상 분석부가 전송받은 각 프레임의 서브 영역 이미지별 특징점을 영상 색인 DB에서 검색하는 단계;
영상 분석부가 소정 구간의 복수의 프레임의 서브 영역 이미지에 대응하는 특징점을 기준으로 유사도가 임계수치 이상인지 여부를 판단하는 단계;
판단 결과, 영상 분석부는 유사도가 임계수치 미만인 경우 특이사항이 있음을 판단하는 단계 및,
특이사항이 없는 경우 비교대상 영상으로 설정하는 설정단계를 포함하고,
상기 특징점 추출부는,
상기 감시대상 영상의 비디오 스트림을 RGB 포맷, 적외선 영상 포맷 또는 흑백 영상 포맷으로 디코딩한 후 디코딩된 각 프레임 이미지를 다수의 서브 영역[SI(1,1), SI(1,2), SI(1,3) ...]으로 분할 한후, 상기 다수의 서브 영역 각각을 복수 개의 블록 단위로 분할하고, 상기 분할된 블록 단위별로 각 픽셀의 영상 밝기 데이터의 평균값을 산출한 후, 인접한 블록 간의 영상 밝기 데이터의 평균값의 차이를 기준으로 특징점을 추출하여 각 프레임의 서브 영역별로 그룹화된 핑거프린트[P(1,1), P(1, 2), P(1,3)..]를 생성하고,
상기 영상 분석부는
상기 감시대상의 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트[P(1,1), P(1, 2), P(1,3)..]로 추출된 특징점과 상기 영상 색인 DB에 기저장된 색인화된 특징점을 상호 비교하여 동일 장소의 촬영 시점을 검색하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 방법.Preparing an image index DB containing feature points and singularities for each frame of the image determined as having no peculiarities;
An image photographing unit photographing an image to be monitored;
Transmitting, by the feature point extraction unit, feature points and elapsed time values for each sub-region image of each frame extracted from the image captured by the monitoring object to the image analysis unit;
Searching the image index DB for feature points for each sub-region image of each frame transmitted by the image analysis unit;
Determining whether the degree of similarity is greater than or equal to a threshold value based on feature points corresponding to sub-region images of a plurality of frames in a predetermined section;
As a result of the determination, the image analysis unit determines that there is an unusual feature when the similarity is less than a threshold value,
If there are no unusual items, it includes a setting step of setting the video to be compared.
The feature point extraction unit,
The monitoring of the video stream of the object image the RGB format, the infrared image format or after decoding the black-and-white image format of each frame image of the decoded multiple sub-regions [SI (1,1), SI ( 1,2), SI (1 , 3) ... ], and then divide each of the plurality of sub-regions into a plurality of block units, calculate the average value of the image brightness data of each pixel for each of the divided block units, and then image brightness between adjacent blocks Characteristic points are extracted based on the difference in the average value of data to generate fingerprints [P (1,1) , P (1, 2) , P (1,3) .. ] grouped by sub-regions of each frame,
The image analysis unit
Feature points extracted with fingerprints [P (1,1) , P (1, 2) , and P (1,3) .. ] grouped by sub-region images of each frame from the captured image of the surveillance object and the image An intelligent movement monitoring method using multi-segmentation of an image area grid for similarity analysis of images, by comparing the indexed feature points previously stored in the index DB and searching for a shooting time point in the same place.
상기 영상 분석부는,
상기 검색된 촬영 시점으로부터 소정 구간의 복수의 프레임 각각의 서브 영역 이미지에 대응하는 특징점의 유사도가 임계수치 이상인지 여부를 판단하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 방법.The method of claim 5
The image analysis unit,
Intelligent movement using multi-segmentation of the image area grid to analyze the similarity of the image, characterized in that it determines whether the similarity of the feature points corresponding to the sub-region images of each of a plurality of frames in a predetermined section is greater than or equal to a threshold value from the searched shooting time point Monitoring method.
상기 영상 분석부가 과거 촬영 영상인 전체 영상 색인 DB로부터 기설정된 구간에서 임계치 이상의 유사도와 특이사항 있음을 갖는 영상 검색이 가능한지를 판단하는 가부단계 및, 판단 결과, 검색이 가능한 경우 상기 기설정된 구간에 상응하는 영상, 유사도 및 특이사항 내용을 관리자 검열부에 출력하는 단계를 더 진행하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 방법.The method of claim 5
The image analysis unit determines whether an image having a similarity and specificity above a threshold can be searched in a predetermined section from the entire image index DB, which is a past photographed image, and a determination result, if the search is possible, corresponds to the predetermined section An intelligent movement monitoring method using multi-segmentation of an image area grid for analyzing the similarity of an image, further comprising outputting an image, similarity, and peculiar contents to the inspector.
상기 영상 분석부는,
상기 감시 대상을 촬영한 영상으로부터 각 프레임의 서브 영역 이미지별로 그룹화된 핑거프린트로 추출된 특징점 값의 일부와 상기 영상 색인 DB에 기저장된 색인화된 특징점값의 일부를 상호 비교하여 비교값이 일정한 범위에 있는 경우, 촬영한 영상과 영상 색인 DB에 기저장된 영상을 동기화 하여 각각의 프레임별 서브 영역 이미지의 특징점을 비교하고,
상기 특징점의 비교 결과 차이값이 임계치 이상인 서브 영역이 존재하면 촬영 영상에서 다른 이벤트가 발생하였음을 감지하는 것을 특징으로 하는 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 방법.
The method of claim 5,
The image analysis unit,
The comparison value is within a certain range by comparing a portion of the feature point values extracted with the fingerprint grouped by the sub-region image of each frame from the image of the surveillance object and a portion of the indexed feature point value previously stored in the image index DB. If present, compare the feature points of each sub-frame image for each frame by synchronizing the pre-stored image in the image index DB and the captured image.
An intelligent movement monitoring method using multi-segmentation of the image area grid for similarity analysis of an image, characterized in that when a difference between the feature points and a sub-region where a difference value is greater than or equal to a threshold exists, another event has occurred in the captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190130710A KR102090739B1 (en) | 2019-10-21 | 2019-10-21 | Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190130710A KR102090739B1 (en) | 2019-10-21 | 2019-10-21 | Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102090739B1 true KR102090739B1 (en) | 2020-03-18 |
Family
ID=69999306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190130710A KR102090739B1 (en) | 2019-10-21 | 2019-10-21 | Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102090739B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112131424A (en) * | 2020-09-22 | 2020-12-25 | 深圳市天维大数据技术有限公司 | Distributed image analysis method and system |
KR20230019744A (en) | 2021-08-02 | 2023-02-09 | 주식회사 휴머놀러지 | Video Finger Printing Learning Method Using Virtual world and system using same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160093253A (en) * | 2015-01-29 | 2016-08-08 | 쿠도커뮤니케이션 주식회사 | Video based abnormal flow detection method and system |
KR101734029B1 (en) | 2016-01-19 | 2017-05-10 | 박명준 | Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image |
KR20180133379A (en) * | 2016-04-14 | 2018-12-14 | 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 | Video recording method, server, system and storage medium |
-
2019
- 2019-10-21 KR KR1020190130710A patent/KR102090739B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160093253A (en) * | 2015-01-29 | 2016-08-08 | 쿠도커뮤니케이션 주식회사 | Video based abnormal flow detection method and system |
KR101734029B1 (en) | 2016-01-19 | 2017-05-10 | 박명준 | Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image |
KR20180133379A (en) * | 2016-04-14 | 2018-12-14 | 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 | Video recording method, server, system and storage medium |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112131424A (en) * | 2020-09-22 | 2020-12-25 | 深圳市天维大数据技术有限公司 | Distributed image analysis method and system |
KR20230019744A (en) | 2021-08-02 | 2023-02-09 | 주식회사 휴머놀러지 | Video Finger Printing Learning Method Using Virtual world and system using same |
KR102509981B1 (en) | 2021-08-02 | 2023-03-14 | 주식회사 휴머놀러지 | Video Finger Printing Learning Method Using Virtual world and system using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9208226B2 (en) | Apparatus and method for generating evidence video | |
KR102560308B1 (en) | System and method for exterior search | |
US9210385B2 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
KR101734029B1 (en) | Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image | |
KR101337060B1 (en) | Imaging processing device and imaging processing method | |
US20160019426A1 (en) | Method of video analysis | |
US20120281874A1 (en) | Method, material, and apparatus to improve acquisition of human frontal face images using image template | |
US10037467B2 (en) | Information processing system | |
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
KR101781358B1 (en) | Personal Identification System And Method By Face Recognition In Digital Image | |
US10074029B2 (en) | Image processing system, image processing method, and storage medium for correcting color | |
CN111325051B (en) | Face recognition method and device based on face image ROI selection | |
CN108376246A (en) | A kind of identification of plurality of human faces and tracking system and method | |
EP2549759A1 (en) | Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras | |
JP2009027393A (en) | Image searching system and personal searching method | |
KR102096784B1 (en) | Positioning system and the method thereof using similarity-analysis of image | |
KR102090739B1 (en) | Intellegent moving monitoring system and the method thereof using video region grid multidivision for video image similarity-analysis | |
KR101084914B1 (en) | Indexing management system of vehicle-number and man-image | |
KR101547255B1 (en) | Object-based Searching Method for Intelligent Surveillance System | |
KR20090035798A (en) | Store and search system and the method of the license plate images | |
KR101848367B1 (en) | metadata-based video surveillance method using suspective video classification based on motion vector and DCT coefficients | |
KR101395666B1 (en) | Surveillance apparatus and method using change of video image | |
KR101248154B1 (en) | Method and apparatus for estimating moving object using variable area size, and computer readable record medium with moving estimating program for the same | |
KR102656084B1 (en) | Method and apparatus for mapping objects besed on movement path | |
KR102509981B1 (en) | Video Finger Printing Learning Method Using Virtual world and system using same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |