KR101192163B1 - Method and apparatus for detecting objects in motion through background image analysis by objects - Google Patents
Method and apparatus for detecting objects in motion through background image analysis by objects Download PDFInfo
- Publication number
- KR101192163B1 KR101192163B1 KR1020100115733A KR20100115733A KR101192163B1 KR 101192163 B1 KR101192163 B1 KR 101192163B1 KR 1020100115733 A KR1020100115733 A KR 1020100115733A KR 20100115733 A KR20100115733 A KR 20100115733A KR 101192163 B1 KR101192163 B1 KR 101192163B1
- Authority
- KR
- South Korea
- Prior art keywords
- background model
- objects
- regions
- extracted
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 물체 검출 방법은 입력 영상들로부터 물체들을 추출하는 단계, 추출된 물체들에 대해 배경 모델을 구성하는 물체들 중에 유사한 물체가 있는지 판단하는 단계, 판단 결과 유사한 물체가 있으면, 배경 모델 중의 원래 물체를 추출된 유사한 물체로 갱신하고, 그렇지 않으면 추출된 물체를 배경 모델에 추가하는 단계 및 배경 모델에 갱신 또는 추가된 물체들 중에 새로운 입력 영상에서 추출된 물체에 의해 소정 시간 갱신되지 않는 물체를 배경 모델에서 제거하는 단계를 포함할 수 있다.The object detecting method of the present invention comprises the steps of extracting objects from the input images, determining whether there is a similar object among the objects constituting the background model with respect to the extracted objects, and if there is a similar object, Updating the object with the extracted similar object, otherwise adding the extracted object to the background model, and among the objects updated or added to the background model, the object is not updated for a certain time by the object extracted from the new input image. And removing from the model.
Description
본 발명은 영상 분석에 관한 것으로, 더욱 상세하게는, 영상 내의 이동하는 물체를 검출하는 기법에 관한 것이다.The present invention relates to image analysis, and more particularly, to a technique for detecting a moving object in an image.
종래에 이동하는 물체의 검출 기법들은 영상을 화소 단위 또는 블록(화소의 집합) 단위로 분할한 다음, 각 화소 단위 또는 블록 단위의 독립적인 변동을 관찰하고 분석하는 방식을 이용하였다. 예를 들어, 학습된 배경 영상을 이용하는 방식의 경우, 입력 영상들의 화소 집합에서 화소 값들의 변동 폭을 학습한 다음, 학습 데이터와 입력 영상의 차이에 기초하여 물체의 이동 여부를 검출한다. 이러한 화소 단위의 물체 검출 방법은 각각의 화소 단위 프로세스가 독립적으로 학습되기 때문에, 학습되지 않은 부분이 출현하면 오동작을 일으킬 수 있고, 실제 물체 영역 중 일부만 검출하는 경우도 종종 발생한다. 또한 파도나 바람에 흔들리는 나무 등과 같은 동적인 배경의 경우 종래의 기법으로는 이동하는 물체를 검출하는 성능이 크게 떨어진다.Conventionally, detection techniques of moving objects have been divided into units of pixels or blocks (sets of pixels), and then an independent variation of each pixel or block is observed and analyzed. For example, in the case of using the learned background image, the variation width of the pixel values is learned in the pixel set of the input images, and then whether the object is moved is detected based on the difference between the training data and the input image. In this pixel-based object detection method, since each pixel-based process is learned independently, malfunction may occur when an unlearned portion appears, and sometimes only a part of an actual object area is detected. In addition, in the case of a dynamic background such as a tree swaying in the wind or the wind, the conventional technique is significantly less capable of detecting a moving object.
배경이 동적인 경우가 아니더라도, 카메라가 이동하는 경우, 즉 PTZ(pan, tilt, zoom) 카메라를 이용하는 환경에서는 종래의 기술들을 적용하기 어렵다.Even if the background is not dynamic, conventional techniques are difficult to apply when the camera moves, i.e., in an environment using a PTZ (pan, tilt, zoom) camera.
본 발명이 해결하고자 하는 과제는 영상을 물체 단위로 분석하고 구분된 물체 단위 정보에 기초하여 배경을 모델링함으로써, 화소 단위의 물체 검출 기법에서 일어나는 오동작 현상을 해소할 수 있는 물체 검출 방법 및 장치를 제공하는 데에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide an object detection method and apparatus capable of solving a malfunction occurring in a pixel detection method by analyzing an image in object units and modeling a background based on the divided object unit information. It's there.
본 발명의 일 측면에 따른 물체 검출 방법은,Object detection method according to an aspect of the present invention,
입력 영상들로부터 물체들을 추출하는 단계;Extracting objects from input images;
상기 추출된 물체들에 대해 배경 모델을 구성하는 물체들 중에 유사한 물체가 있는지 판단하는 단계;Determining whether there is a similar object among objects constituting a background model with respect to the extracted objects;
학습 모드에서, 상기 판단 결과 유사한 물체가 있으면, 상기 배경 모델 중의 원래 물체를 상기 추출된 유사한 물체로 갱신하고, 그렇지 않으면 상기 추출된 물체를 상기 배경 모델에 추가하는 단계; 및In a learning mode, if there is a similar object as a result of the determination, updating the original object in the background model with the extracted similar object; otherwise, adding the extracted object to the background model; And
학습 모드에서, 상기 배경 모델에 갱신 또는 추가된 물체들 중에 새로운 입력 영상에서 추출된 물체에 의해 소정 시간 갱신되지 않는 물체를 상기 배경 모델에서 제거하는 단계를 포함할 수 있다.In a learning mode, the method may include removing from the background model an object that is not updated for a predetermined time by an object extracted from a new input image among objects updated or added to the background model.
일 실시예에 따라, 상기 물체 검출 방법은,According to one embodiment, the object detection method,
검출 모드에서, 상기 추출된 물체에 대하여 상기 배경 모델에 유사한 물체가 없으면 전경 물체로 판정하는 단계를 더 포함할 수 있다.In the detection mode, the method may further include determining that the foreground object is the foreground object if there is no similar object to the background model.
일 실시예에 따라, 상기 물체들을 추출하는 단계는,According to one embodiment, the step of extracting the object,
연속하는 입력 영상들을 유사한 특성을 가지는 영역들로 세분화하는 단계;Subdividing successive input images into regions having similar characteristics;
상기 입력 영상들의 각각 세분화된 영역들 사이에 서로 대응하는 영역들을 구하는 단계;Obtaining regions corresponding to each other among the subdivided regions of the input images;
상기 세분화된 영역들에 대해 계산된 유사도에 기초하여 유사도가 높은 영역들끼리 군집화하는 단계; 및Clustering regions of high similarity based on the similarity calculated for the subdivided regions; And
상기 군집화한 영역들의 라벨링을 최적화하고, 동일한 라벨의 영역들로써 물체를 정의하는 단계를 포함할 수 있다.Optimizing labeling of the clustered regions and defining an object with regions of the same label.
일 실시예에 따라, 상기 연속하는 입력 영상들을 유사한 특성을 가지는 영역들로 세분화하는 단계는,According to an embodiment, the subdividing the continuous input images into regions having similar characteristics may include:
상기 입력 영상들의 픽셀의 색상 값들이 유사한 영역들을 평균 이동 기법(mean-shift method)를 이용하여 세분화하는 단계를 포함할 수 있다.The method may include subdividing regions having similar color values of pixels of the input images using a mean-shift method.
일 실시예에 따라, 상기 입력 영상들의 각각 세분화된 영역들 사이에 서로 대응하는 영역들을 구하는 단계는,According to an embodiment, the step of obtaining regions corresponding to each other among the subdivided regions of the input images may include:
이전 영상의 특정 영역 내 다수의 픽셀들과 현재 영상의 영역 내의 다수의 픽셀들 사이의 시각적 흐름 투표(optical flow voting)를 연산하고, 연산 결과를 문턱 값에 비교하는 단계;Calculating an optical flow voting between the plurality of pixels in a specific region of the previous image and the plurality of pixels in the region of the current image, and comparing the operation result to a threshold value;
상기 이전 영상의 특정 영역과 현재 영상의 특정 영역의 외형 매칭 서술자들에 관하여 바타차야 거리(battacharrya distance)를 연산하고, 연산 결과를 문턱 값에 비교하는 단계;Calculating a battacharrya distance with respect to appearance matching descriptors of a specific region of the previous image and a specific region of the current image, and comparing the calculation result to a threshold value;
주변 영역들의 대표 이동 방향에 발생한 왜곡을 연산하고, 연산이 왜곡을 소정 값 이하이면 연속하는 영상에서 특정 영역에 관하여 추적이 성공한 것으로 판정하는 단계; 및Calculating distortion occurring in the representative movement direction of the peripheral regions, and determining that the tracking is successful with respect to the specific region in the continuous image when the calculation is less than or equal to the predetermined value; And
가려지거나 사라진 영역으로 판정되지 않은 영역들 중에, 현재 영상의 영역이 이전 영상의 영역들 사이의 대응관계가 없는 경우에는, 상기 현재 영상의 영역을 새로 출현한 영역으로 분류하는 단계를 포함할 수 있다.If the region of the current image does not have a correspondence between the regions of the previous image among the regions that are not determined to be the hidden or disappeared region, the method may include classifying the region of the current image as a newly appeared region. .
일 실시예에 따르면, 상기 세분화된 영역들에 대해 계산된 유사도에 기초하여 유사도가 높은 영역들끼리 군집화하는 단계는,According to one embodiment, the step of clustering the areas of high similarity based on the similarity calculated for the subdivided areas,
이동 특성, 컬러 특성, 라벨의 스케일 공간 동질성 및 라벨의 시간상 동질성에 관하여 유사도를 연산하는 단계; 및Calculating similarity with respect to transfer characteristics, color characteristics, scale spatial homogeneity of the label, and temporal homogeneity of the label; And
유사도가 높은 영역들끼리 군비화하는 단계를 포함할 수 있다.It may include the step of armalizing the areas of high similarity.
본 발명의 다른 측면에 따른 물체 검출 방법은,Object detection method according to another aspect of the present invention,
연속하는 입력 영상들을 유사한 특성을 가지는 영역들로 세분화하는 단계;Subdividing successive input images into regions having similar characteristics;
상기 입력 영상들의 각각 세분화된 영역들 사이에 서로 대응하는 영역들을 구하는 단계;Obtaining regions corresponding to each other among the subdivided regions of the input images;
상기 세분화된 영역들에 대해 계산된 유사도에 기초하여 유사도가 높은 영역들끼리 군집화하는 단계; 및Clustering regions of high similarity based on the similarity calculated for the subdivided regions; And
상기 군집화한 영역들의 라벨링을 최적화하고, 동일한 라벨의 영역들로써 물체를 정의하는 단계를 포함할 수 있다.Optimizing labeling of the clustered regions and defining an object with regions of the same label.
본 발명의 다른 측면에 따른 물체 검출 장치는,Object detecting apparatus according to another aspect of the present invention,
입력 영상들로부터 물체들을 추출하는 물체 추출부; 및An object extracting unit which extracts objects from input images; And
배경 모델을 학습하는 배경 모델 학습부를 포함하며,It includes a background model learning unit for learning a background model,
상기 배경 모델 학습부는,The background model learning unit,
상기 추출된 물체들에 대해 배경 모델을 구성하는 물체들 중에 유사한 물체가 있는지 판단하고, It is determined whether there is a similar object among the objects constituting the background model with respect to the extracted objects,
상기 판단 결과 유사한 물체가 있으면 상기 배경 모델 중의 원래 물체를 상기 추출된 유사한 물체로 갱신하며, 그렇지 않으면 상기 추출된 물체를 상기 배경 모델에 추가하고, If it is determined that there is a similar object, the original object in the background model is updated with the extracted similar object; otherwise, the extracted object is added to the background model,
상기 배경 모델에 갱신 또는 추가된 물체들 중에 새로운 입력 영상에서 추출된 물체에 의해 소정 시간 갱신되지 않는 물체를 상기 배경 모델에서 제거하도록 동작할 수 있다.Among objects updated or added to the background model, an object that is not updated for a predetermined time by an object extracted from a new input image may be removed from the background model.
일 실시예에 따라, 상기 물체 검출 장치는,According to one embodiment, the object detection device,
상기 추출된 물체들에 대해 배경 모델을 구성하는 물체들 중에 유사한 물체가 있는지 판단하고, 상기 판단 결과 상기 추출된 물체에 대하여 상기 배경 모델에 유사한 물체가 없으면 전경 물체로 판정하는 전경 판정부를 더 포함할 수 있다.The apparatus may further include a foreground determiner configured to determine whether there is a similar object among the objects constituting the background model with respect to the extracted objects, and determine that the object is a foreground object when there is no similar object in the background model with respect to the extracted object. Can be.
본 발명의 물체 검출 방법 및 장치에 따르면, 동적 배경 환경 또는 PTZ 카메라 환경에서 물체 단위로 배경 영상 모델링을 수행할 수 있고, 그러한 배경 영상 모델로부터 이동하는 물체를 검출할 수 있다.According to the object detection method and apparatus of the present invention, it is possible to perform background image modeling in units of objects in a dynamic background environment or a PTZ camera environment, and to detect a moving object from such a background image model.
도 1은 본 발명의 일 실시예에 따른 물체 검출 방법을 예시한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계를 세부적으로 예시한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 세분화 프로세스를 수행한 결과 영상을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 추적 프로세스를 예시한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 추적 프로세스의 결과를 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 군집화 프로세스를 설명하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 물체 검출 방법 중의 배경 모델링 단계에서 앞서 분석된 물체 정보를 기반으로 한 코드 워드들을 예시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 물체 검출 방법 중의 배경 모델링 단계를 설명하기 위한 수도 코드를 예시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 물체 검출 방법 중의 물체 단위의 배경 모델링 단계의 결과를 예시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 물체 검출 장치를 예시한 블록도이다.1 is a flow chart illustrating an object detection method according to an embodiment of the present invention.
2 is a flowchart illustrating an object extraction step in detail in the object detection method according to an embodiment of the present invention.
3 is a diagram illustrating an image of a result of performing an area segmentation process of an object extraction step in an object detection method according to an embodiment of the present invention.
4 is a flowchart illustrating an area tracking process of an object extraction step in the object detection method according to an embodiment of the present invention.
5 is a diagram illustrating a result of the area tracking process of the object extraction step of the object detection method according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an area clustering process of an object extraction step in an object detection method according to an embodiment of the present invention.
7 is a diagram illustrating code words based on object information analyzed in the background modeling step of the object detection method according to an embodiment of the present invention.
8 is a diagram illustrating a pseudo code for explaining a background modeling step of an object detecting method according to an embodiment of the present invention.
9 is a diagram illustrating a result of a background modeling step of an object unit in an object detecting method according to an exemplary embodiment of the present invention.
10 is a block diagram illustrating an object detecting apparatus according to an embodiment of the present invention.
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
종래의 물체 검출 기법들이 화소를 기반으로 하는 배경 모델링을 하고, 일단 모델링된 배경과 입력된 영상을 비교하여 차이가 나는 화소들을 물체로 판정하는 방식들이 주류가 된다. Background Art [0002] Conventional object detection techniques mainly perform background modeling based on pixels, and compare the input image with the background modeled once.
반면에, 본 발명의 물체 검출 방법은 먼저 입력 영상들 중에서 서로 연관성이 높은 영역들을 각각 물체로 분류하고, 분류된 물체들 중에 움직이지 않는 물체들을 기초로 배경을 모델링한다. 이어서 입력된 영상 중에서 배경을 구성하는 물체들에 속하지 않는 물체가 있다면, 이를 배경이 아닌 전경에 속하는 물체로 판정할 수 있을 것이다.On the other hand, the object detection method of the present invention first classifies areas of high correlation among the input images as objects, and models the background based on objects that do not move among the classified objects. Subsequently, if there is an object that does not belong to the objects constituting the background among the input images, it may be determined as an object belonging to the foreground rather than the background.
이러한 본 발명의 물체 검출 방법은 물체들을 기반으로 배경을 모델링하므로, 카메라의 패닝, 기울어짐, 주밍에 따른 입력 영상의 변화가 있더라도 배경을 구성하는 물체들의 동질성을 유지할 수 있다. 배경이 강건(robust)하게 모델링되므로 입력 영상에서 분석된 물체들 중에 배경에 속하지 않는 물체를 전경의 이동하는 물체로서 쉽게 검출할 수 있다.Since the object detection method of the present invention models the background based on the objects, even if there is a change in the input image due to panning, tilting and zooming of the camera, homogeneity of the objects constituting the background can be maintained. Since the background is robustly modeled, an object that does not belong to the background among objects analyzed in the input image may be easily detected as a moving object in the foreground.
도 1은 본 발명의 일 실시예에 따른 물체 검출 방법을 예시한 순서도이다.1 is a flow chart illustrating an object detection method according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 물체 검출 방법은, 크게 배경 모델을 모델링하는 학습 모드와, 모델링된 배경에 입력 영상을 비교하여 이동 물체를 검출하는 검출 모드로 나뉠 수 있다. Referring to FIG. 1, the object detecting method of the present invention may be divided into a learning mode for largely modeling a background model and a detection mode for detecting a moving object by comparing an input image with the modeled background.
단계(S11)에서, 입력 영상들로부터 물체들을 추출하는 단계로부터 시작할 수 있다. In operation S11, the method may start from extracting objects from input images.
영상 내에서 어떤 영역들이 다음과 같은 특성들을 가진다면, 한 물체에 속하는 영역들이라고 가정할 수 있다. If certain areas in the image have the following characteristics, they can be assumed to be areas belonging to an object.
1. 이동 궤적 특성 : 시간상 유사한 이동 특성을 가짐1.Movement trajectory characteristics: have similar movement characteristics in time
2. 컬러 특성 : 유사한 컬러 값을 가짐2. Color characteristics: have similar color values
3. 스케일 공간에서 라벨 유사성 : 축적(scale)을 변화하였을 경우에도 라벨이 유지됨3. Label similarity in scale space: labels remain even when scale changes
4. 시간적 라벨 유사성 : 시간이 흐르더라도 동일한 라벨이 유지됨4. Temporal Label Similarity: The same label is maintained over time
이러한 네 가지 특성에 기초하여 입력 영상의 어떤 영역들이 위와 같은 특성들의 기준에서 동일성을 보인다면, 그러한 영역들은 하나의 물체를 구성한다고 할 수 있다. 따라서 입력 영상의 영역들을 분석함으로써 물체를 추출할 수 있다. 입력 영상 중에서 영역들을 분할하고 군집하여 물체를 추출하는 프로세스는 도 2 내지 도 5를 참조하여 설명한다.On the basis of these four characteristics, if certain regions of the input image show the same in the criteria of the above characteristics, such regions constitute one object. Therefore, an object may be extracted by analyzing regions of the input image. A process of extracting an object by dividing and clustering regions from the input image will be described with reference to FIGS. 2 to 5.
단계(S12)에서는, 입력 영상에서 추출된 물체들에 대해 배경 모델을 구성하는 물체 중에 유사한 물체가 있는지 판단한다. In step S12, it is determined whether there is a similar object among the objects constituting the background model with respect to the objects extracted from the input image.
단계(S11)에서 추출된 물체에 대해 만약 단계(S12)에서 배경 모델 중 유사한 물체가 있다고 판정되고 또한 학습 모드인 때에는, 단계(S13)에서, 원래 배경 모델 중의 해당 물체를 추출된 물체로 갱신함으로써, 배경 모델을 갱신한다. 새 프레임에서 추출된 물체가 기존의 배경 모델을 갱신한다는 것은 그 물체가 실제로 배경일 가능성이 높다는 의미이다.For the object extracted in step S11, if it is determined in step S12 that there is a similar object in the background model and is also in the learning mode, in step S13, by updating the corresponding object in the original background model with the extracted object. Update the background model. If an object extracted from a new frame updates an existing background model, it means that the object is actually a background.
단계(S11)에서 추출된 물체에 대해 만약 단계(S12)에서 배경 모델에 없던 물체로 판정되고 또한 학습 모드일 때에는, 단계(S14)에서, 추출된 물체를 배경 모델에 추가한다.For the object extracted in step S11, if it is determined that the object was not in the background model in step S12 and is also in the learning mode, in step S14, the extracted object is added to the background model.
학습 모드에서, 최초에는 배경 모델이 초기화된 상태이므로 추출된 물체들 모두 배경 모델로 추가될 것이고, 이후에는 새로운 물체들만 배경 모델에 추가된다.In the learning mode, since the background model is initially initialized, all the extracted objects will be added to the background model, after which only new objects will be added to the background model.
단계(S13) 또는 단계(S14)에 이어, 단계(S15)에서는, 앞서 갱신되거나 추가된 배경 모델 내의 물체들 중에, 새 프레임에서 추출된 물체에 의해 소정 시간 이상 갱신되지 못하면 배경 모델에서 제외한다.Subsequently to step S13 or step S14, in step S15, among the objects in the previously updated or added background model, if not updated for a predetermined time or more by the object extracted in the new frame, the background model is excluded.
학습 모드 즉, 배경 모델의 구축 및 갱신에 관한 프로세스는 도 6 내지 도 8을 통해 설명한다.The process of building and updating the learning mode, that is, the background model, will be described with reference to FIGS. 6 to 8.
학습 모드에서는 단계(S11) 내지 단계(S15)를 반복함으로써 배경 모델을 구성하고 갱신한다.In the learning mode, the background model is constructed and updated by repeating steps S11 to S15.
단계(S16)는 검출 모드로서 학습 모드에서 구축된 배경 모델을 이용하여, 물체와 배경 모델을 비교하여 전경 물체인지 판정하는 단계이다. 단계(S16)에서, 단계(S11)에서 추출된 물체들이 단계(12)에서 배경 모델에 없는 물체로 판정되고 또한 검출 모드인 경우에는 전경 물체로 판단한다.Step S16 is a step of comparing the object and the background model using the background model constructed in the learning mode as the detection mode to determine whether the object is a foreground object. In step S16, the objects extracted in step S11 are determined to be objects that are not in the background model in
도 2는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계를 세부적으로 예시한 순서도이다.2 is a flowchart illustrating an object extraction step in detail in the object detection method according to an embodiment of the present invention.
도 2를 참조하면, 물체 추출 단계(S11)는 앞서 가정한 물체의 특성에 기초하여 다음과 같은 세부적인 단계들을 가질 수 있다.Referring to FIG. 2, the object extracting step S11 may have the following detailed steps based on the characteristics of the object assumed above.
먼저, 단계(S21)에서, 연속하는 입력 영상들을 유사한 특성을 가지는 영역들로 세분화한다. 세분화된 영역들은 물체를 구성하는 최소 단위이다. 예를 들어, 동일 내지 유사한 컬러를 갖는 화소들의 집합으로 영역을 세분화할 수 있다. 하나의 물체가 여러 가지 컬러를 가질 수 있더라도, 어떤 동일한 색상의 영역이 서로 다른 두 물체에 속할 가능성은 낮기 때문이다.First, in step S21, successive input images are subdivided into regions having similar characteristics. Subdivided areas are the smallest units that make up an object. For example, an area may be subdivided into a set of pixels having the same to similar colors. Even if an object can have several colors, it is unlikely that an area of the same color belongs to two different objects.
실시예에 따라 입력 영상의 세분화는 평균 이동(mean-shift) 기법을 이용하여 비슷한 컬러 값을 가지는 픽셀들의 집합들로 분할함으로써 수행될 수 있다. 평균 이동 기법은 확률 공간에서 비매개 변수적(non-parametric) 방법을 통해 중심 모드(mode)를 검출하는 통계학적 기법이다. 평균 이동 기법을 영상 분석에 적용하면, 픽셀들의 화소 값을 확률 밀도 함수로 보고, 특정 데이터의 근방에 존재하는 주변 데이터들 중에서 특정 데이터와 유사한 컬러 분포를 갖는 주변 데이터들의 평균 위치 및 평균 컬러 값을 계산한 다음, 그 평균 위치에서 다시 주변 데이터들의 평균 위치와 평균 컬러 값의 계산하는 과정을 반복하면, 평균 위치는 어떤 한 좌표로 수렴하게 되는데, 이렇게 수렴하는 평균 위치의 컬러 값을 최초의 특정 데이터의 위치에 대입하는 작업을 입력 영상 내의 모든 픽셀들에 대해 반복하면, 유사한 컬러 값들을 가지는 픽셀들끼리 묶을 수 있다.According to an exemplary embodiment, segmentation of the input image may be performed by dividing into sets of pixels having similar color values using a mean-shift technique. The mean shift technique is a statistical technique that detects the center mode through a non-parametric method in probability space. When the average shift technique is applied to image analysis, the pixel value of pixels is regarded as a probability density function, and the average position and average color value of surrounding data having a color distribution similar to the specific data among the surrounding data existing near the specific data are calculated. After calculating and repeating the calculation of the average position and average color value of the surrounding data at the average position again, the average position converges to a certain coordinate. By repeating the assignment of the position of for all the pixels in the input image, it is possible to group pixels having similar color values.
잠시 도 3을 참조하면, 도 3은 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 세분화 프로세스를 수행한 결과 영상을 예시한 도면이다. 입력 영상에서 유사한 컬러의 픽셀들이 잘게 세분화된 영역들로 분할된 것을 알 수 있다.Referring to FIG. 3 for a while, FIG. 3 is a diagram illustrating an image of a result of performing an area segmentation process of an object extraction step in an object detection method according to an exemplary embodiment of the present invention. It can be seen that pixels of similar color in the input image are divided into finely divided regions.
다시 도 2를 참조하면, 단계(S22)에서, 각각의 시간적으로 연속하는 입력 영상들의 세분화된 영역들 사이에 서로 대응하는 영역들을 찾는다.Referring back to FIG. 2, in step S22, regions corresponding to each other are found between the subdivided regions of each temporally consecutive input image.
이는 한 물체에 속하는 영역들이 동일한 이동 특성을 가질 것이라는 가정과 시간상으로 동일한 라벨을 가질 것이라는 가정에 따라, 이후 단계의 유사도 연산을 위해 서로 시간적 관계를 가진 영역들이 어떤 것들인지를 분석하기 위함이다.This is to analyze what areas are temporally related to each other for the subsequent similarity calculation, based on the assumption that areas belonging to an object will have the same label and the same label in time.
한편, 도 4는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 추적 프로세스를 예시한 순서도이다.4 is a flowchart illustrating an area tracking process of an object extraction step in the object detection method according to an embodiment of the present invention.
잠시 도 4를 참조하면, 물체 추출 단계의 영역 추적 프로세스는 단계(S221)에서, 이전 영상의 어떤 영역 Ri(t-1) 내의 여러 픽셀들과 현재 영상의 어떤 영역 Rj(t) 내의 픽셀들 사이의 시각적 흐름 투표들(optical flow voting)을 연산하고, 연산 결과를 문턱 값에 비교한다.Referring to FIG. 4 for a moment, the area tracking process of the object extraction step includes, in step S221, several pixels in a certain region R i (t-1) of a previous image and a pixel in a certain region R j (t) of a current image. Compute optical flow voting between them and compare the result to the threshold.
단계(S222)에서, 이전 영상의 어떤 영역 Ri(t-1)과 현재 영상의 어떤 영역 Rj(t)의 외형 매칭 서술자들(appearance matching descriptor)의 바타차랴 거리(bhattacharrya distance)를 연산하고, 연산 결과를 문턱 값에 비교한다.In step S222, a batattacharrya distance of an appearance matching descriptor of a region R i (t-1) of a previous image and a region R j (t) of the current image is calculated. , Compare the result of the operation to the threshold.
시각적 흐름 투표들은 전방향(과거 영상의 영역에서 현재 영상의 영역으로, VFopt)뿐 아니라 역방향(현재 영상의 영역에서 과거 영상의 영역으로, VBopt)의 조건이 모두 만족하여야 하며, 외형 매칭 서술자들(AppearDesci(t-1), AppearDescj(t))의 바타차랴 거리 값(BhattachDist)도 소정 값 이상이어야 한다.Visual flow votes must satisfy both the forward direction (from the area of the past image to the area of the current image, V Fopt ) as well as the reverse (from the area of the current image to the area of the past image, V Bopt ). The batatcharya distance value (BhattachDist) of the fields AppearDesc i (t-1) and AppearDesc j (t) should also be greater than or equal to a predetermined value.
이러한 조건을 수학식 1에서 나타내었다.These conditions are shown in equation (1).
실시예에 따라서, 수학식 1의 두 가지 조건들 중 어느 하나만으로 영역 추적을 완료할 수도 있다. 즉, 단계(S221)과 단계(S222)는 모두 수행될 수도 있고, 어느 한 단계만 수행될 수도 있다.According to an embodiment, the area tracking may be completed with only one of the two conditions of
여기서 도 5를 잠시 참조하면, 도 5는 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 추적 프로세스의 결과를 예시한 도면이다.Referring to FIG. 5 for a while, FIG. 5 is a diagram illustrating a result of an area tracking process of an object extraction step in an object detection method according to an embodiment of the present invention.
도 5의 (a)에는 이전 영상의 영역들과 현재 영상의 영역들 사이의 시각적 흐름 투표들이 예시되어 있고, (b)에는 그러한 시각적 흐름 투표들에 의해 결정된 영역들 사이의 대응 관계가 예시되어 있다.(A) of FIG. 5 illustrates visual flow votes between regions of the previous video and regions of the current image, and (b) illustrates the correspondence between the regions determined by such visual flow votes. .
단계(S222)의 외형 매칭 연산 절차에 의해, 영역 Rj(t)의 대표 이동 방향(Wj(t))이 수학식 2와 같이 결정될 수 있다.By the external matching operation procedure of step S222, the representative movement direction W j (t) of the region R j (t) may be determined as in
여기서 u(x,y)는 영역의 움직임 벡터이고, Vopt는 시각적 흐름 투표들이다.Where u (x, y) is the motion vector of the region and V opt is the visual flow votes.
한편, 어떤 물체가 다른 물체가 가려진 경우나, 이전 영상에 있던 영역이 현재 영상에서 화면 밖으로 사라진 경우 등에서는, 위의 단계(S221, S222)의 대응 관계가 잘못 나타날 수 있다. 이러한 잘못된 대응 관계를 처리하기 위해, 어떤 영역의 주변 영역들의 추적 결과를 이용할 수 있다. 하나의 물체일 경우에 나타나는 것으로 가정한 특성들 중에 이동 특성이 유사하다는 가정에 비추어 보면, 같은 물체라고 여겨지는 영역들은 비슷한 대표 이동 방향을 가질 것이다. 이와 달리, 어떤 물체를 가리는 영역들이나 물체가 사라진 후 남은 영역들은 물체에 속하는 다른 영역들의 대표 이동 방향과 다른 경향을 보인다.On the other hand, in a case where an object is covered by another object, or when an area in the previous image disappears from the screen in the current image, the correspondence of the above-described steps S221 and S222 may appear incorrectly. To deal with this false correspondence, the tracking results of the surrounding areas of a certain area can be used. In view of the similarity of the movement characteristics among the properties assumed to appear in the case of one object, the areas considered to be the same object will have similar representative directions of movement. In contrast, the areas covering an object or the areas remaining after the object disappears tend to be different from the representative direction of movement of the other areas belonging to the object.
따라서, 단계(S223)에서, 만약 수학식 3과 같이, 주변 영역들의 대표 이동 방향에 발생한 왜곡(Distortion)을 연산하고, 연산된 왜곡이 소정 값 이하이면 연속하는 영상에서 특정 영역에 관하여 추적이 성공한 것으로 판정한다.Therefore, in step S223, as shown in
여기서, f는 시각적 흐름(optical flow)의 크기(m)와 방향(θ)으로 정의되는 벡터이다.Here, f is a vector defined by the magnitude (m) and direction (θ) of the optical flow.
또한, 단계(S224)에서는, 앞서 단계(S223)에서 가려지거나 사라진 영역으로 판단되지 않은 현재 영상의 영역들 중에서, 단계(S221)에서 어떤 현재 영상의 영역이 이전 영상의 영역들과의 사이에 대응 관계를 찾지 못한 경우에, 현재 영상의 영역은 현재 영상에서 새로 나타난 영역으로 분류한다.Further, in step S224, among the areas of the current image not previously determined to be the area that is hidden or disappeared in step S223, an area of a current image corresponds to an area of the previous image in step S221. If no relationship is found, the area of the current image is classified as a newly appearing area of the current image.
새로 나타난 영역은 과거 영상의 영역과는 관계가 없지만, 이후 영상의 영역들과는 시간적 대응 관계를 찾을 수 있다.The newly appeared area is not related to the area of the past image, but can find a temporal correspondence with the areas of the image afterwards.
이러한 프로세스를 거쳐 현재 영상의 영역들의 이동 특성을 알 수 있다.Through this process, the movement characteristics of the regions of the current image can be known.
다시 도 2로 돌아가서, 단계(S23)에서는, 이동 특성, 컬러 특성, 라벨의 스케일 공간 동질성 및 라벨의 시간상 동질성에 관하여 연산된 유사도에 기초하여, 유사도가 높은 영역들끼리 군집화한다.2, in step S23, regions with high similarity are clustered based on similarity calculated with respect to movement characteristic, color characteristic, scale spatial homogeneity of the label, and temporal homogeneity of the label.
종래의 물체 검출 기법들은 대개 미리 학습한 물체 모델에 기초하여 영상을 세분화하고 물체를 검출하는 방식을 택하였는데, 이러한 방식들은 실험실 환경에서는 잘 동작하더라도 현실 환경에서 촬영된 영상을 한정된 물체 모델에 비교하는 작업에 오류가 많이 발생하였다.Conventional object detection techniques usually adopt a method of subdividing an image and detecting an object based on a pre-learned object model. These methods compare an image captured in a real environment with a limited object model even though it works well in a laboratory environment. There were many errors in the operation.
이에 비해 본 발명의 실시예들에서는 물체 모델과 무관하게 매번 얻은 영상 내에서 구조화된 데이터를 군집화하므로, 물체 검출 속도가 빠르고 현실 환경에 강할 수 있다.In contrast, in the exemplary embodiments of the present invention, the structured data is clustered in the image obtained each time regardless of the object model, so that the object detection speed is fast and strong in the real environment.
먼저 앞서 세분화한 영역과 이동 특성, 컬러 특성, 시간적 대응 관계에 기초하여, 각 영역을 노드(node)로 하고 영역들의 유사도를 에지(edge)로 하는 그래프를 생성한다.First, a graph is generated based on the previously subdivided regions, movement characteristics, color characteristics, and temporal correspondences, and each region is a node and the similarity of the regions is an edge.
이때, 영역들 사이의 유사도는 적절하게 정의되거나 선택된 유사도 행렬에 기초할 수 있는데, 본 발명의 실시예들에서는 최초의 네 가지 가정에 기반한 수학식 4와 같은 유사도 행렬 Aij을 이용할 수 있다.In this case, the similarity between the regions may be based on an appropriately defined or selected similarity matrix. In embodiments of the present invention, the similarity matrix A ij may be used as shown in Equation 4 based on the first four assumptions.
여기서, 네 개의 유사도 행렬들은 각각 이동 궤적, 컬러 특성, 라벨의 스케일 공간 동질성 및 라벨의 시간적 동질성에 관한 유사도 행렬이다.Here, the four similarity matrices are similarity matrices regarding the movement trajectory, the color characteristic, the scale space homogeneity of the label, and the temporal homogeneity of the label, respectively.
여기서, f는 시각적 흐름(optical flow)의 크기(m)와 방향(θ)으로 정의되는 벡터이다. BD는 주지된 바와 같이 영상 분포의 차이를 비교하는 바타차야 거리(Bhattacharrya Distance)이며, SL은 스케일 공간 상의 라벨 값, OL은 과거의 물체 라벨 값을 의미한다. σ는 수학식 4에 나타나는 각 유사도 항들의 가우시안 분포의 형태를 정의하기 위한 대역폭이며, 경험적으로 결정될 수 있다.Here, f is a vector defined by the magnitude (m) and direction (θ) of the optical flow. BD is a Battacharrya distance comparing the difference in image distribution as is well known, SL means label value on scale space, and OL means past object label value. [sigma] is a bandwidth for defining the shape of the Gaussian distribution of each similarity term shown in Equation 4, and can be determined empirically.
이렇게 생성한 그래프의 라플라시안 행렬 L을 계산하고, 라플라시안 행렬 L의 고유 벡터(eigen vectors)를 구한 다음, k-평균 알고리즘(k-means algorithm)을 이용하여 라플라시안 행렬 L의 고유 벡터들을 k 개의 클러스터로 군집화할 수 있다.Calculate the Laplacian matrix L of the graph thus generated, obtain the eigen vectors of the Laplacian matrix L, and then use the k-means algorithm to convert the eigenvectors of the Laplacian matrix L into k clusters. Can be clustered
참고로, 도 6은 본 발명의 일 실시예에 따른 물체 검출 방법 중에서 물체 추출 단계의 영역 군집화 프로세스를 설명하는 도면이다.For reference, FIG. 6 is a diagram illustrating an area clustering process of an object extraction step in an object detection method according to an exemplary embodiment of the present invention.
도 6을 참조하면, 현재 영상의 영역들은 노드와 에지를 가진 그래프로 변환되고, 각각 유사도 행렬에 기초하여 그래프의 에너지가 최소가 되도록 그래프의 에지를 절단함으로써 군집화된다.Referring to FIG. 6, regions of the current image are transformed into graphs having nodes and edges, and are clustered by cutting the edges of the graph to minimize the energy of the graph based on the similarity matrix.
단계(S24)에서는, 앞서 군집화한 영역들의 라벨링을 최적화하고, 동일하게 라벨링된 영역들로써 물체를 정의한다.In step S24, the labeling of the previously clustered areas is optimized, and the object is defined as the same labeled areas.
일단, 앞서 연속하는 영상에서 추적에 성공한 영역에는 물체 단위의 라벨이 부여되는 반면에, 추적에 실패한 영역들에는 라벨링이 되지 않는다.Once, the area that succeeded in tracking in the preceding image is labeled by the object unit, while the areas that fail in tracking are not labeled.
단계(S24)의 물체 모델링 단계에서는 앞서 라벨이 부여된 군집화한 영역들의 라벨을 기준으로, 영상 전체에 대해 물체별 라벨을 최적화하며, 이 때에 추적 실패로 인해 라벨링되지 않은 영역들에도 라벨이 부여된다.In the object modeling step of step S24, the object-specific label is optimized for the entire image based on the labels of the previously labeled clustered areas, and at this time, the unlabeled areas are also labeled due to the tracking failure. .
구체적으로, 앞서 그래프로 표현된 군집화된 영역들을 그래프 컷 이론을 이용하여 물체 라벨링을 최적화한다.Specifically, the clustered regions represented by the graphs above are optimized for object labeling using a graph cut theory.
본 발명의 일 실시예에서는, 특정 영역의 에너지와 주변 영역과 사이의 에너지로 구성된 에너지 함수를 최소화하는 특정 영역을 위한 물체 라벨의 할당을 찾음으로써 물체 라벨링을 최적화할 수 있다.In one embodiment of the present invention, object labeling may be optimized by finding an assignment of an object label for a particular region that minimizes the energy function comprised of the energy of the specific region and the energy between the surrounding region.
수학식 5에 따르면, 에너지 함수 E는 특정 영역의 에너지 Edata와 주변 영역들과 사이의 관계에 따른 연속적 에너지 Esmooth로 구성된다. According to
수학식 6에서 특정 영역의 에너지 Edata는 영역 Ri가 연속하는 영상에서 가지는 이동 특성의 일관성으로 정의한다. 이동 특성이란 영역 군집화로 같은 라벨을 부여받은 부분 영역들의 움직임을 의미하며, 연속하는 영상에서 어파인 변환(affine transform)으로 정의된다. 즉, 이동 특성의 일관성을 계산하기 위해서 현재의 부분 영역을 영역 군집의 어파인 변환을 통해 위치를 변경하고, 옮겨진 위치에서 부분 영역이 가지는 영상 분포와 과거의 부분 영역의 영상 분포를 비교한다. 영상 분포의 비교는 바타챠야 거리로 구한다.In Equation 6, the energy E data of a specific region is defined as the consistency of the moving characteristics of the region R i in a continuous image. The movement characteristic refers to the movement of partial regions given the same label by region clustering, and is defined as an affine transform in successive images. That is, in order to calculate the consistency of the moving characteristics, the current partial region is changed by affine transformation of the region cluster, and the image distribution of the partial region at the moved position is compared with the image distribution of the past partial region. The comparison of the image distribution is obtained by the Batchaya distance.
이동 특성의 유사도 H(Affine(Ri))는 군집화 절차를 거쳐 구한 군집들의 RANSAC(RANdom SAmple Consensus, 무작위 표본 일치) 기법과 같은 2차원 어파인 변환을 구하고 현재 영상에서 이전 영상으로 역변환했을 때의 유사도를 의미한다.The similarity H (Affine (R i )) of the moving characteristics is obtained by obtaining a two-dimensional affine transformation such as RANSAC (Random SAmple Consensus) technique of clusters obtained through the clustering procedure and inverting from the current image to the previous image. Means similarity.
연속적 에너지 Esmooth는 다음의 수학식 7과 같이 표현될 수 있다.The continuous energy E smooth may be expressed as in Equation 7 below.
수학식 7에서는 이웃하는 영역들과 사이의 상관관계를 이용하며, 이웃 영역과의 히스토그램 분포가 비슷하면 에너지가 작아지고, 할당된 라벨이 같으면 에너지가 작아지게 구성된다.In Equation 7, the correlation between neighboring regions is used. If the histogram distribution with the neighboring regions is similar, the energy becomes small, and if the assigned labels are the same, the energy becomes small.
이렇게 하여, 영역들 및 유사도를 기초로 생성한 그래프에 관하여 에너지가 최소화되도록 그래프를 절단하는 물체 라벨링을 수행하고, 동일 라벨이 할당된 영역들을 하나의 물체 모델로 정의한다.In this way, object labeling is performed to cut the graph so that energy is minimized with respect to the graph generated based on the regions and the similarity, and regions assigned the same label are defined as one object model.
이제, 이렇게 추출된 물체의 모델들을 기초로 배경을 모델링할 수 있다.Now, the background can be modeled based on the models of the extracted object.
도 7은 본 발명의 일 실시예에 따른 물체 검출 방법 중의 배경 모델링 단계에서 앞서 분석된 물체 정보를 기반으로 한 코드 워드들을 예시한 도면이다.7 is a diagram illustrating code words based on object information analyzed in the background modeling step of the object detection method according to an embodiment of the present invention.
본 발명은 패닝하고, 틸팅하며, 주밍하는 PTZ 카메라 사용 환경에 대응하기 위해, 연속하는 입력 영상들에서 물체들을 추출하고, 추출된 물체들을 정렬하여 배경을 모델링한다. 따라서, 모델링된 배경은 현재 카메라가 향하는 시야에 한정되지 않는다.The present invention extracts objects from successive input images and aligns the extracted objects to model a background in order to correspond to the PTZ camera environment for panning, tilting and zooming. Thus, the modeled background is not limited to the field of view facing the current camera.
앞서 추출된 각각의 물체의 라벨이 하나의 코드 워드에 비유한다면, 배경은 그러한 코드 워드들로 구성된 커다란 코드북이라 할 수 있다.If the label of each object extracted earlier is like one code word, the background is a large codebook composed of such code words.
연속적인 영상들 내의 형체들은 각각 세분화와 연관 관계 추적, 군집화 및 라벨링을 거쳐 물체로 추출되며, 도 7에는 추출된 물체들이 어떻게 코드 워드로 관리되는지 예시되어 있다.Shapes in successive images are extracted into objects through segmentation, association tracking, clustering, and labeling, respectively, and FIG. 7 illustrates how the extracted objects are managed as code words.
도 8은 본 발명의 일 실시예에 따른 물체 검출 방법 중의 배경 모델링 단계를 설명하기 위한 수도 코드를 예시한 도면이다.8 is a diagram illustrating a pseudo code for explaining a background modeling step of an object detecting method according to an embodiment of the present invention.
도 8을 참조하면, 먼저 배경 모델 BG을 초기화하고, 배경 모델을 구성하는 물체들의 수 L도 0으로 초기화한다.Referring to FIG. 8, first, the background model BG is initialized, and the number L of objects constituting the background model is also initialized to zero.
이후에 단계(S11)을 통해 영상을 분석하여 얻은 모든 물체에 관하여, 다음과 같은 학습 동작을 수행할 수 있다.Thereafter, the following learning operation may be performed on all objects obtained by analyzing the image through step S11.
배경은 거의 변화가 없는 물체들로 구성되므로, 만약 어떤 추출된 물체가 배경이라면 지속적으로 영상 중에서 추출되면서 배경으로 인식될 것이며, 나아가 추출된 물체가 배경에 속한 물체들과 약간 다르지만 유사하다면 배경이 약간 변화한 것으로 판정할 수 있고, 새로 추출된 이후 변화가 거의 없다면 새로운 배경이 나타난 것으로 판정할 수 있다. Since the background is composed of objects that are almost unchanged, if the extracted object is a background, it will be continuously extracted from the image and recognized as a background. Furthermore, if the extracted object is slightly different from the objects belonging to the background, the background will be slightly different. It can be determined that there has been a change, and if there is little change since the new extraction, a new background can be determined.
반대로, 어떤 추출된 물체가 배경에 속한 물체들과 전혀 다르거나, 또는 크게 변화한다면 배경에서 제외하여야 할 것이다. 물체를 배경에서 제외시키기 위해, 일정한 연속적인 영상들에서 추출된 물체와 배경에 속한 물체가 다르다고 판단된 횟수를 이용할 수 있다.On the contrary, if an extracted object is completely different from the objects in the background or changes greatly, it should be excluded from the background. In order to exclude an object from the background, the number of times determined that the object extracted from the continuous images and the object belonging to the background is different.
영상에서 추출된 물체(Obji)가 있을 경우에, 이전 단계에서 배경 모델에 포함된 물체 BGj와 유사도(Dist(Obji, BGj))가 소정 값(Thobj) 이하이면 그 물체 Obji로써 배경 모델을 구성하는 물체 BGj를 갱신한다. 즉, 해당 물체가 배경이면 지속적으로 배경 모델을 구성하는 물체를 갱신한다. If there is an object Obj i extracted from the image, if the object BG j and the similarity (Dist (Obj i , BG j )) included in the background model in the previous step are less than or equal to the predetermined value Th obj , the object Obj i As a result, the object BG j constituting the background model is updated. That is, if the object is a background, the object constituting the background model is continuously updated.
이 물체 Obji에 대해서는 배경 모델로부터 제거하기 위해 어떤 배경 BGj가 갱신되지 않고 유지된 수령(age of BG) 값을 0으로 초기화한다.For this object Obj i , some background BG j is initialized to zero to keep the background BG j not updated to remove it from the background model.
만약 추출된 물체 Obji가 전경(foreground)이거나 더이상 배경이 아닌 경우라면, 현재 배경 모델을 구성하는 물체 BGj 중 어떤 것과도 거리가 소정 값 이상으로 판정될 것이다. 이 물체 Obji는 기존의 배경 구성 물체 BGj를 갱신하는 대신에 새로운 배경 구성 물체로 추가(Obji → BGL, L=L+1)하며, 이러한 물체들에 관하여 수령이 1씩 증가한다. 학습 모드에서, 완전히 새롭게 추출된 물체는 일단 배경 모델에 임시적으로 추가된다.If the extracted object Obj i is the foreground or no longer the background, the distance to any of the object BG j constituting the current background model will be determined to be greater than or equal to a predetermined value. This object Obj i is added as a new background component instead of updating the existing background component BG j (Obj i → BG L , L = L + 1), and the receipt increases by 1 for these objects. In the learning mode, a completely new extracted object is temporarily added to the background model once.
만약, 수령이 소정 값(Thage) 이상이 되면, 이는 그 물체 Obji가 본질적으로 배경에 속할 가능성이 없거나 기존의 배경이 약간 변화한 물체일 가능성도 거의 없다는 의미이므로 배경에서 완전히 제외(Reject)한다.If the receipt is above a certain value (Th age ), this means that the object Obj i is essentially unlikely to belong to the background or is almost unlikely to be a slightly changed object. do.
도 9는 본 발명의 일 실시예에 따른 물체 검출 방법 중의 물체 단위의 배경 모델링 단계의 결과를 예시한 도면이다.9 is a diagram illustrating a result of a background modeling step of an object unit in an object detecting method according to an exemplary embodiment of the present invention.
도 9를 참조하면, (a)의 입력 영상을 세분화, 대응 관계 추적, 군집화 및 라벨링하여 (b)의 물체 모델들을 생성하였다.Referring to FIG. 9, object models of (b) were generated by segmenting, corresponding relationship tracking, clustering, and labeling the input image of (a).
(b)의 물체 모델들로써 도 8과 같은 프로세스를 통해 (c)와 같은 배경 모델을 구축할 수 있다. (b)의 물체 모델들 중에 맨 오른쪽의 사람 모델은 (c)의 배경 모델에서 제외되었음을 알 수 있다.As the object models of (b), the background model of (c) may be constructed through the process of FIG. 8. It can be seen that the rightmost human model of the object models of (b) was excluded from the background model of (c).
도 10은 본 발명의 일 실시예에 따른 물체 검출 장치를 예시한 블록도이다.10 is a block diagram illustrating an object detecting apparatus according to an embodiment of the present invention.
도 10을 참조하면, 물체 검출 장치(10)는 카메라(11), 물체 추출부(12), 배경 모델 학습부(13), 전경 판정부(14) 및 메모리(15)를 포함할 수 있다.Referring to FIG. 10, the object detecting apparatus 10 may include a
카메라(11)가 촬영한 영상은 물체 추출부(12)에 제공될 수 있다.The image photographed by the
물체 추출부(12)는 영상을 컬러 특성에 기초하여 세분화한 영역들로 분할하고, 연속하는 영상들로부터 영역들 사이의 대응 관계를 추적하며, 이동 특성, 컬러 특성, 라벨의 스케일 공간 동질성 및 시간적 동질성에 기초하여 영역들을 군집화한 다음, 군집화된 영역들에 대한 라벨링을 최적화함으로써, 동일하게 라벨링된 영역들의 집합으로서 물체들을 매 영상마다 반복적으로 추출한다.The
배경 모델 학습부(13)는 물체 추출부(12)에서 추출하는 물체들을 배경 모델에 비교하여, 추출된 물체와 유사한 물체가 배경 모델에 존재하면 배경 모델 내의 물체를 추출된 물체로 갱신하고, 그렇지 않으면 추출된 물체를 배경 모델에 추가하며, 배경 모델 내의 물체가 추출된 물체로써 소정 시간 이상 갱신되지 않으면 그 물체는 일정한 형체로 유지되지 않는 물체로써 배경이라고 할 수 없을 것이므로, 그 물체를 배경 모델에서 제외할 수 있다. The
학습된 배경 모델은 메모리(15)에 저장되고 배경 모델 학습부(13)에 의해 갱신, 추가 및 제거 동작에 의해 관리된다.The learned background model is stored in the
전경 판정부(14)는 물체 추출부(12)에서 추출된 물체를 배경 모델과 비교하여, 배경 모델에 속하지 않으면 그 물체를 전경으로 판정할 수 있다. 전경 판정부(14)는 전경 판정된 물체를 메모리(15)에 저장할 수 있다.The
본 발명의 실시예들에 따른 물체 검출 장치는 PTZ 감시 카메라 시스템에서 물체의 검출과 추적에 이용될 수 있다.The object detecting apparatus according to the embodiments of the present invention may be used for detecting and tracking an object in a PTZ surveillance camera system.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, the spirit of the invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications will fall within the scope of the invention.
또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the apparatus according to the present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include ROM, RAM, optical disk, magnetic tape, floppy disk, hard disk, nonvolatile memory, and the like, and also include a carrier wave (for example, transmission through the Internet). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
10 물체 검출 장치 11 카메라
12 물체 추출부 13 배경 모델 학습부
14 전경 판정부 15 메모리10
12
14
Claims (9)
상기 추출된 물체들의 각각에 대해 배경 모델을 구성하는 물체들 중에 유사도가 소정 값보다 커서 유사하다고 판정된 물체가 있는지 판단하는 단계;
학습 모드에서, 상기 판단 결과 유사하다고 판정된 물체가 있으면, 상기 배경 모델 중의 원래 물체를 상기 추출된 물체로 갱신하고, 그렇지 않으면 상기 추출된 물체를 상기 배경 모델에 추가하는 단계; 및
학습 모드에서, 상기 배경 모델에 갱신 또는 추가된 물체들 중에 새로운 입력 영상에서 추출된 물체에 의해 소정 시간 갱신되지 않는 물체를 상기 배경 모델에서 제거하는 단계를 포함하는 물체 검출 방법.Extracting objects from each of successive input images;
Judging whether any of the objects constituting the background model are similar to each of the extracted objects because a similarity is greater than a predetermined value;
In a learning mode, if there is an object determined to be similar as the result of the determination, updating the original object in the background model with the extracted object; otherwise, adding the extracted object to the background model; And
And removing, from the background model, an object that is not updated for a predetermined time by an object extracted from a new input image among objects updated or added to the background model in a learning mode.
상기 연속하는 입력 영상들의 각각을 픽셀의 특성에 기초하여 복수의 영역들로 세분화하는 단계;
상기 입력 영상들 각각의 세분화된 영역들 사이에 서로 대응하는 영역들을 구하는 단계;
상기 세분화된 영역들에 대해 계산된 유사도에 기초하여 유사도가 소정 값보다 높은 영역들끼리 군집화하는 단계; 및
상기 군집화한 영역들의 라벨링을 최적화하고, 동일한 라벨의 영역들로써 물체를 정의하는 단계를 포함하는 것을 특징으로 하는 물체 검출 방법.The method of claim 1, wherein the extracting of the objects comprises:
Subdividing each of the consecutive input images into a plurality of regions based on a characteristic of a pixel;
Obtaining regions corresponding to each other among the subdivided regions of each of the input images;
Clustering regions having a similarity higher than a predetermined value based on the similarity calculated for the subdivided regions; And
Optimizing labeling of the clustered areas and defining an object with areas of the same label.
상기 입력 영상들의 픽셀의 색상 값들에 관하여 평균 이동 기법(mean-shift method)를 이용하여 세분화하는 단계를 포함하는 것을 특징으로 하는 물체 검출 방법.The method of claim 3, wherein the subdividing the continuous input images into a plurality of regions based on a characteristic of a pixel comprises:
And subdividing the color values of the pixels of the input images using a mean-shift method.
이전 영상의 특정 영역 내 다수의 픽셀들과 현재 영상의 영역 내의 다수의 픽셀들 사이의 시각적 흐름 투표(optical flow voting)를 연산하고, 연산 결과를 문턱 값에 비교하는 단계;
상기 이전 영상의 특정 영역과 현재 영상의 특정 영역의 외형 매칭 서술자들에 관하여 바타차야 거리(battacharrya distance)를 연산하고, 연산 결과를 문턱 값에 비교하는 단계;
주변 영역들의 대표 이동 방향에 발생한 왜곡을 연산하고, 연산이 왜곡을 소정 값 이하이면 연속하는 영상에서 특정 영역에 관하여 추적이 성공한 것으로 판정하는 단계; 및
상기 대표 이동 방향에 관하여 연산된 왜곡이 소정 값보다 커서 추적에 성공하지 못한 것으로 판정된 영역들 중에, 현재 영상의 영역이 이전 영상의 영역들 사이의 대응관계가 없는 경우에는, 상기 현재 영상의 영역을 새로 출현한 영역으로 분류하는 단계를 포함하는 것을 특징으로 하는 물체 검출 방법.The method of claim 3, wherein the obtaining of regions corresponding to each other among the subdivided regions of the input images comprises:
Calculating an optical flow voting between the plurality of pixels in a specific region of the previous image and the plurality of pixels in the region of the current image, and comparing the operation result to a threshold value;
Calculating a battacharrya distance with respect to appearance matching descriptors of a specific region of the previous image and a specific region of the current image, and comparing the calculation result to a threshold value;
Calculating distortion occurring in the representative movement direction of the peripheral regions, and determining that the tracking is successful with respect to the specific region in the continuous image when the calculation is less than or equal to the predetermined value; And
If the area of the current image does not have a correspondence between the areas of the previous image among the areas determined to be unsuccessful in tracking because the distortion calculated with respect to the representative movement direction is greater than a predetermined value, the area of the current image And classifying the into newly appearing areas.
이동 특성, 컬러 특성, 라벨의 스케일 공간 동질성 및 라벨의 시간상 동질성의 각각 또는 이들의 조합에 관하여 유사도를 연산하는 단계; 및
유사도가 소정 값보다 높은 영역들끼리 군집화하는 단계를 포함하는 것을 특징으로 하는 물체 검출 방법.The method of claim 3, wherein the clustering of regions having similarity higher than a predetermined value based on the similarity calculated for the subdivided regions includes:
Calculating similarity with respect to each or a combination of moving characteristics, color characteristics, scale spatial homogeneity of the label, and temporal homogeneity of the label; And
And clustering regions having a similarity higher than a predetermined value.
상기 입력 영상들의 각각 세분화된 영역들 사이에 서로 대응하는 영역들을 구하는 단계;
상기 세분화된 영역들에 대해 계산된 유사도에 기초하여 유사도가 소정 값보다 높은 영역들끼리 군집화하는 단계; 및
상기 군집화한 영역들의 라벨링을 최적화하고, 동일한 라벨의 영역들로써 물체를 정의하는 단계를 포함하는 물체 검출 방법.Subdividing each of the successive input images into a plurality of regions based on a characteristic of a pixel;
Obtaining regions corresponding to each other among the subdivided regions of the input images;
Clustering regions having a similarity higher than a predetermined value based on the similarity calculated for the subdivided regions; And
Optimizing labeling of the clustered areas and defining an object with areas of the same label.
배경 모델을 학습하는 배경 모델 학습부를 포함하며,
상기 배경 모델 학습부는,
상기 추출된 물체들에 대해 배경 모델을 구성하는 물체들 중에 유사도가 소정 값보다 커서 유사하다고 판정된 물체가 있는지 판단하고,
상기 판단 결과 유사하다고 판정된 물체가 있으면 상기 배경 모델 중의 원래 물체를 상기 추출된 물체로 갱신하며, 그렇지 않으면 상기 추출된 물체를 상기 배경 모델에 추가하고,
상기 배경 모델에 갱신 또는 추가된 물체들 중에 새로운 입력 영상에서 추출된 물체에 의해 소정 시간 갱신되지 않는 물체를 상기 배경 모델에서 제거하도록 동작하는 것을 특징으로 하는 물체 검출 장치.An object extracting unit which extracts objects from each of the input images; And
It includes a background model learning unit for learning a background model,
The background model learning unit,
It is determined whether there is an object determined to be similar because the similarity is greater than a predetermined value among the objects constituting the background model with respect to the extracted objects,
If there is an object determined to be similar as the result of the determination, the original object in the background model is updated with the extracted object; otherwise, the extracted object is added to the background model,
And removing an object from the background model that is not updated for a predetermined time by an object extracted from a new input image among objects updated or added to the background model.
The method of claim 8, wherein it is determined whether there is an object determined to be similar among the objects constituting the background model with respect to the extracted objects, and the determination result determines that the object is similar among the objects in the background model with respect to the extracted object. And a foreground determiner which determines that the object is a foreground object if there is no object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100115733A KR101192163B1 (en) | 2010-11-19 | 2010-11-19 | Method and apparatus for detecting objects in motion through background image analysis by objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100115733A KR101192163B1 (en) | 2010-11-19 | 2010-11-19 | Method and apparatus for detecting objects in motion through background image analysis by objects |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120054381A KR20120054381A (en) | 2012-05-30 |
KR101192163B1 true KR101192163B1 (en) | 2012-10-17 |
Family
ID=46270255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100115733A KR101192163B1 (en) | 2010-11-19 | 2010-11-19 | Method and apparatus for detecting objects in motion through background image analysis by objects |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101192163B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373015B2 (en) | 2015-01-19 | 2019-08-06 | Hanwha Techwin Co., Ltd. | System and method of detecting moving objects |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109215047B (en) * | 2018-08-16 | 2021-02-12 | 中国科学院深海科学与工程研究所 | Moving target detection method and device based on deep sea video |
CN113298845A (en) | 2018-10-15 | 2021-08-24 | 华为技术有限公司 | Image processing method, device and equipment |
CN112116621A (en) * | 2020-09-18 | 2020-12-22 | 杭州世平信息科技有限公司 | Method for rapidly segmenting multi-scale superpixel of synthetic aperture radar image |
-
2010
- 2010-11-19 KR KR1020100115733A patent/KR101192163B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373015B2 (en) | 2015-01-19 | 2019-08-06 | Hanwha Techwin Co., Ltd. | System and method of detecting moving objects |
Also Published As
Publication number | Publication date |
---|---|
KR20120054381A (en) | 2012-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097568B (en) | Video object detection and segmentation method based on space-time dual-branch network | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
Babaee et al. | A deep convolutional neural network for background subtraction | |
Elhabian et al. | Moving object detection in spatial domain using background removal techniques-state-of-art | |
US8374440B2 (en) | Image processing method and apparatus | |
US9767570B2 (en) | Systems and methods for computer vision background estimation using foreground-aware statistical models | |
Han et al. | Density-based multifeature background subtraction with support vector machine | |
AU2014240213B2 (en) | System and Method for object re-identification | |
US8705861B2 (en) | Context processor for video analysis system | |
CN101470809B (en) | Moving object detection method based on expansion mixed gauss model | |
US20180060653A1 (en) | Method and apparatus for annotating a video stream comprising a sequence of frames | |
Lee et al. | A genetic algorithm-based moving object detection for real-time traffic surveillance | |
KR101868103B1 (en) | A video surveillance apparatus for identification and tracking multiple moving objects and method thereof | |
Luo et al. | Real-time people counting for indoor scenes | |
Jemilda et al. | Moving object detection and tracking using genetic algorithm enabled extreme learning machine | |
KR101192163B1 (en) | Method and apparatus for detecting objects in motion through background image analysis by objects | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
CN114937248A (en) | Vehicle tracking method and device for cross-camera, electronic equipment and storage medium | |
Jin et al. | Fusing Canny operator with vibe algorithm for target detection | |
Veit et al. | Space-time a contrario clustering for detecting coherent motions | |
Yu et al. | Pedestrian counting based on spatial and temporal analysis | |
Al Najjar et al. | A hybrid adaptive scheme based on selective Gaussian modeling for real-time object detection | |
Thangaraj et al. | A competent frame work for efficient object detection, tracking and classification | |
KR101460517B1 (en) | Method or providing visual tracking from video by learning and unlearning with dual modeling, and computer-readable recording medium for the same | |
UKINKAR et al. | Object detection in dynamic background using image segmentation: A review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151006 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161006 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20171002 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20191008 Year of fee payment: 8 |