KR101915893B1 - Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique - Google Patents
Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique Download PDFInfo
- Publication number
- KR101915893B1 KR101915893B1 KR1020170058799A KR20170058799A KR101915893B1 KR 101915893 B1 KR101915893 B1 KR 101915893B1 KR 1020170058799 A KR1020170058799 A KR 1020170058799A KR 20170058799 A KR20170058799 A KR 20170058799A KR 101915893 B1 KR101915893 B1 KR 101915893B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth information
- technique
- area
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 109
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 230000000877 morphologic effect Effects 0.000 claims abstract description 33
- 238000004458 analytical method Methods 0.000 claims abstract description 17
- 230000003628 erosive effect Effects 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 241001071864 Lethrinus laticaudis Species 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법 및 장치가 제시된다. 본 발명에서 제안하는 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법은 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 단계, 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 단계, 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계 및 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계를 포함한다.A method and apparatus for object detection at the wall and floor boundaries using the Kinect - based area extension technique are presented. The object detection method at the wall and floor boundaries using the Kinect-based region expansion method proposed in the present invention includes steps of capturing an object in a space through a camera to acquire a depth information image, correcting the obtained depth information image, A step of performing a difference image technique on an image of a space including an object and an image of a space not including an object in the depth information image, a step of performing a difference image using a morphological operation and a connection component analysis on the image subjected to the difference image technique, And detecting the object using the SLIC algorithm and the area extension technique.
Description
본 발명은 차영상 기법과 형태학 연산 기법을 통해 바닥 부분의 객체를 탐지하고, 영역 확장 기법과 비율을 통한 예측을 통해 영역을 확정하여 벽면에 붙어있는 물체를 탐지하는 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for detecting an object at a bottom portion through a difference image technique and a morphological calculation technique and determining an area through prediction using a region expansion technique and a ratio.
바닥 부분의 객체를 탐지하기 위하여 차영상 기법을 사용할 수 있다. 차영상 기법은 두 영상의 각 픽셀의 값을 빼서 차이를 보여주는 기법으로 객체가 있는 영상에서 객체가 없는 배경 영상을 뺌으로써 바닥 부분의 객체 부분을 탐지할 수 있다. 또한 영상정보의 경계를 보정하기 위하여 형태학 연산(Morphological Operation)을 사용할 수 있다. 형태학 연산은 영상의 형태를 분석하고 처리하는 기법으로, 미리 정의된 모양 요소를 사용하여 영상의 각 화소를 조사하여 영상을 변환한다. 그리고 벽면에 위치한 객체의 탐지를 위하여 벽면과 바닥에 인접한 픽셀을 검사하여 검사한 픽셀을 인접 영역으로 추가하는지 여부를 판단하는 영역 확장 기법(Region Growing)을 사용한다.You can use a differential image technique to detect objects at the bottom. The difference technique subtracts the value of each pixel of two images and shows the difference. It can detect the object part of the bottom by subtracting the background image without the object from the image of the object. Morphological operations can also be used to correct the boundaries of the image information. A morphological operation is a technique of analyzing and processing the shape of an image. It uses a predefined shape element to scan each pixel of the image and transform the image. In order to detect an object located on the wall, a region adjacent to the wall and the floor is examined, and a region growing method is used to determine whether the examined pixel is added to the adjacent region.
본 발명이 이루고자 하는 기술적 과제는 키넥트 기반 영역 확장 기법을 이용하여 벽과 바닥 경계에서의 객체를 정확히 탐지하기 위한 방법 및 장치를 제공하는데 있다. 영상처리 방법 중 하나인 차영상 기법과 형태학 연산 기법을 통해 바닥 부분의 객체를 탐지하고, 영역 확장 기법과 비율을 통한 예측을 이용하여 관심영역을 확정하여 벽면에 붙어있는 객체의 탐지가 가능하도록 하는 방법 및 장치를 제공한다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for accurately detecting objects at wall and floor boundaries using a Kinect-based area extension technique. Detecting the object at the bottom part by the difference image technique and morphological operation technique which is one of the image processing methods and fixing the area of interest by using the area expansion technique and the prediction through the ratio to be able to detect the object attached to the wall Method and apparatus.
일 측면에 있어서, 본 발명에서 제안하는 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법은 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 단계, 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 단계, 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계 및 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계를 포함한다. In one aspect, a method for detecting an object at a wall and a floor boundary using the Kinect-based region expansion technique proposed in the present invention is a method for acquiring a depth information image by capturing an object in a space through a camera, Performing a difference imaging method on an image of a space including the object and a space including no object in the corrected depth information image, performing a difference imaging method on the image subjected to the difference imaging method, Analyzing the noise, and detecting the object using the SLIC algorithm and the area extension technique.
카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 단계는 깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행한다. The step of acquiring a depth information image by capturing an object in a space through a camera and correcting the obtained depth information image may include temporally reducing a plurality of frames into one frame to correct depth information of the depth information image, And performs spatial reduction with respect to the horizontal and vertical sizes of one frame.
차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계는 차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거한다. The step of removing the noise using the morphological operation and the connection component analysis on the image subjected to the differential image technique removes the noise region around the object and the object using the morphological operation on the image subjected to the differential image technique, The size of each object is measured using the component analysis, and noise below a predetermined size is removed.
SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계는 탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할하는 단계, SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하는 단계, 설정된 SEED를 출발점으로 하여 영역확장 기법을 수행하는 단계 및 형태학 연산을 이용하여 객체의 모양을 보정하는 단계를 포함한다. The step of detecting the object using the SLIC algorithm and the area extension method includes the steps of designating an object located at the boundary between the wall and the bottom of the detected objects as a region of interest and dividing the region by applying the SLIC algorithm to the region of interest, Setting an object located in the bottom area in the divided area by applying the algorithm to the SEED, performing the area extension method using the set SEED as a starting point, and correcting the shape of the object using the morphological operation.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 장치는 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 깊이 정보 보정부, 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 차영상 수행부, 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 필터링부 및 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 객체 탐지부를 포함한다. According to another aspect of the present invention, there is provided an apparatus for detecting an object at a boundary between a wall and a floor using a Kinect-based area expansion technique, which acquires a depth information image by capturing an object in a space through a camera, A difference image correcting unit for correcting the image, a difference image performing unit for performing a difference image method on the image of the space including the object in the corrected depth information image and the image of the space not including the object, A filtering unit for removing noise using morphological operation and connection component analysis for the image, and an object detecting unit for detecting the object using the SLIC algorithm and the area expansion technique.
깊이 정보 보정부는 깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행한다. The depth information correction unit temporally reduces a plurality of frames into one frame in order to correct depth information of the depth information image, and performs spatial reduction on the horizontal and vertical sizes of one frame.
필터링부는 차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거한다. The filtering unit removes the noise region around the object and the object using the morphological operation on the image subjected to the differential image technique, measures the size of each object using the connection component analysis, and then removes noise of a predetermined size or less do.
객체 탐지부는 탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할하고; SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하고; 설정된 SEED를 출발점으로 하여 영역확장 기법을 수행하고; 형태학 연산을 이용하여 객체의 모양을 보정한다.The object detection unit designates an object located at the boundary between the wall and the bottom of the detected objects as a region of interest, applies a SLIC algorithm to the region of interest to divide the region; Apply the SLIC algorithm to set the object located in the bottom area in the partitioned area to SEED; Performing the area extension technique with the set SEED as a starting point; Correct the shape of the object using morphological operations.
본 발명의 실시예들에 따르면 키넥트 기반 영역 확장 기법을 이용하여 벽과 바닥 경계에서의 객체를 정확히 탐지할 수 있다. 또한, 영상처리 방법 중 하나인 차영상 기법과 형태학 연산 기법을 통해 바닥 부분의 객체를 탐지하고, 영역 확장 기법과 비율을 통한 예측을 이용하여 관심영역을 확정하여 벽면에 붙어있는 객체의 탐지가 가능하도록 할 수 있다.Embodiments of the present invention can accurately detect objects at wall and floor boundaries using the Kinect-based area extension technique. In addition, it can detect object attached to the wall by detecting object at the bottom part by using difference image method and morphological operation method, which is one of image processing methods, and fixing region of interest by using region expansion technique and ratio prediction. .
도 1은 본 발명의 일 실시예에 따른 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 카메라를 통해 깊이 정보 영상을 획득하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 깊이 정보 영상을 시공간적으로 축소한 영상을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 차영상을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 잡음을 제거한 영상을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 과정을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 관심영역을 지정하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 SLIC 알고리즘 및 영역 확장 기법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 장치의 구성을 나타내는 도면이다.FIG. 1 is a flowchart illustrating a method for detecting an object at a boundary between a wall and a floor using a Kinect-based area expansion technique according to an embodiment of the present invention.
2 is a view for explaining a process of acquiring a depth information image through a camera according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an image obtained by reducing a depth information image in a space-time manner according to an embodiment of the present invention.
4 is a diagram illustrating a difference image according to an exemplary embodiment of the present invention.
5 is a diagram illustrating an image in which noise is removed according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating a process of detecting an object using the SLIC algorithm and the area expansion technique according to an embodiment of the present invention. Referring to FIG.
FIG. 7 illustrates a process of designating a region of interest according to an embodiment of the present invention. Referring to FIG.
FIG. 8 is a view for explaining an SLIC algorithm and an area extension technique according to an embodiment of the present invention.
FIG. 9 is a block diagram of an apparatus for detecting an object at a wall and a floor boundary using a Kinect-based area expansion technique according to an embodiment of the present invention. Referring to FIG.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법을 설명하기 위한 흐름도이다. FIG. 1 is a flowchart illustrating a method of detecting an object at a wall and a floor boundary using a Kinect-based area expansion technique according to an embodiment of the present invention.
본 발명은 돈방 내의 돼지를 탐지하기 위한 방법 및 장치에 관한 것으로서, 이하 설명에서 객체는 돼지를 나타낼 수 있다. 제안하는 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법은 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 단계(110), 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 단계(120), 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계(130) 및 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계(140)를 포함한다. The present invention relates to a method and apparatus for detecting pigs in a piggy bank. In the following description, an object can represent a pig. In the method of detecting an object at a wall and a floor boundary using the proposed Kinect-based area expansion method, a step 110 of capturing an object in a space through a camera to obtain a depth information image, correcting the obtained depth information image, A step 120 of performing a difference image technique on an image of a space including an object and an image of a space not including an object in the depth information image 120 and a morphological operation and a connection component analysis on the image subjected to the difference image technique (130), and detecting the object using the SLIC algorithm and the area extension technique (140).
단계(110)에서, 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정한다. 깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행한다. 카메라를 통해 깊이 정보 영상을 획득하는 과정을 도 2를 참조하여 더욱 상세히 설명한다.
In step 110, an object in a space is photographed through a camera to acquire a depth information image, and the acquired depth information image is corrected. In order to correct the depth information of the depth information image, a plurality of frames are temporally reduced to one frame, and spatial reduction is performed on the horizontal and vertical sizes of one frame. The process of acquiring the depth information image through the camera will be described in more detail with reference to FIG.
도 2는 본 발명의 일 실시예에 따른 카메라를 통해 깊이 정보 영상을 획득하는 과정을 설명하기 위한 도면이다.2 is a view for explaining a process of acquiring a depth information image through a camera according to an embodiment of the present invention.
도 2a는 본 발명의 일 실시예에 따른 실내에 설치된 키넥트(Kinect) 카메라를 통해 객체(220)를 촬영하는 과정을 설명하기 위한 도면이고, 도 2b 는 본 발명의 일 실시예에 따른 키넥트 카메라로부터 획득한 깊이 정보 영상을 나타내는 도면이다. FIG. 2A is a view for explaining a process of photographing an
일 실시예에 따르면, 4m 높이에 키넥트(Kinect) 카메라(210)를 설치하고, 키넥트 카메라(210)를 통해 최대 화각(211)으로 벽면과 붙어있는 객체(220)를 촬영하여 깊이 정보 영상을 획득할 수 있다. 획득된 깊이 정보 영상에서 객체가 벽면과 바닥의 경계면에 위치하는 경우, 부정확한 깊이 정보를 가질 수 있다. According to one embodiment, a Kinect camera 210 is installed at a height of 4 m, and an
키넥트(Kinect) 카메라를 통해 객체를 촬영할 때 최대 화각이 존재하고, 실내의 벽 부분은 최대 화각을 초과하게 된다. 이러한 벽과 바닥의 경계 부분에 객체(220)가 위치할 경우 촬영된 영상에서의 객체는 부정확한 깊이 정보를 갖게 된다. 따라서, 부정확한 깊이 정보를 보정하기 위해 깊이 정보 영상에 대하여 시공간적인 축소를 수행할 수 있다.
When photographing an object through a Kinect camera, there is a maximum angle of view, and the wall portion of the room exceeds the maximum angle of view. When the
도 3은 본 발명의 일 실시예에 따른 깊이 정보 영상을 시공간적으로 축소한 영상을 나타내는 도면이다.FIG. 3 is a diagram illustrating an image obtained by reducing a depth information image in a space-time manner according to an embodiment of the present invention.
도 3a은 본 발명의 일 실시예에 따른 객체가 있는 배경을 시공간적으로 축소한 영상을 나타내고, 도 3b는 본 발명의 일 실시예에 따른 객체가 없는 배경을 시공간적으로 축소한 영상을 나타낸다. FIG. 3A shows an image obtained by spatially reducing a background with an object according to an embodiment of the present invention, and FIG. 3B shows an image obtained by spatially reducing an objectless background according to an embodiment of the present invention.
일 실시예에 따르면, 설치된 카메라에서 획득한 깊이 정보 영상에서 부정확한 깊이 정보를 보정하기 위해 3장의 프레임을 1장의 프레임으로 시간적인 축소를 수행할 수 있다. 또한, 1장의 프레임에 대하여 가로와 세로 크기를 각각 반으로 분할하여 공간적인 축소를 수행할 수 있다. 다시 말해, 시간적인 축소는 3개의 픽셀을 1개의 픽셀로 줄이는 것이고, 공간적인 축소는 4개의 픽셀을 1개의 픽셀로 줄이는 것으로, 이들의 평균값으로 취함으로써 시간적 축소 및 공간적 축소를 수행할 수 있다.
According to an exemplary embodiment, in order to correct inaccurate depth information in a depth information image acquired by an installed camera, it is possible to perform temporal reduction of three frames into one frame. In addition, it is possible to perform spatial reduction by dividing the horizontal and vertical sizes of each frame by half. In other words, the temporal reduction is to reduce three pixels to one pixel, and the spatial reduction reduces the four pixels to one pixel, so that the temporal reduction and the spatial reduction can be performed by taking the average value of them.
도 4는 본 발명의 일 실시예에 따른 차영상을 나타내는 도면이다.4 is a diagram illustrating a difference image according to an exemplary embodiment of the present invention.
단계(120)에서, 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행한다. 이때, 도 3a에 보여진 객체가 있는 배경을 시공간적으로 축소한 영상 및 도 3b에 보여진 객체가 없는 배경을 시공간적으로 축소한 영상을 이용하여 차영상 기법을 수행한다.
In step 120, a difference image is performed on the image of the space including the object and the image of the space not including the object in the corrected depth information image. At this time, a difference image technique is performed using an image obtained by spatially reducing the background of the object shown in FIG. 3A and an image obtained by spatially reducing the background without the object shown in FIG. 3B.
도 5는 본 발명의 일 실시예에 따른 잡음을 제거한 영상을 나타내는 도면이다. 5 is a diagram illustrating an image in which noise is removed according to an embodiment of the present invention.
단계(130)에서, 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석(connected component analysis)을 이용하여 잡음을 제거한다. In step 130, noise is removed using a morphological operation and connected component analysis on the image subjected to the differential image technique.
도 5a는 본 발명의 일 실시예에 따른 형태학 연산을 통해 객체 및 객체 주위의 잡음을 제거한 영상이고, 도 5b는 본 발명의 일 실시예에 따른 연결 성분 분석을 통해 객체 외의 잡음을 모두 제거한 영상이다. 5A is an image in which noises around an object and an object are removed through a morphological operation according to an embodiment of the present invention. FIG. 5B is an image in which noise other than an object is removed through connection component analysis according to an embodiment of the present invention .
차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거함으로써 객체 부분만을 탐지할 수 있다. 예를 들어, 연결 성분 분석은 4방향 또는 8방향으로 인접한 픽셀이 객체인지 분석하여 각 객체마다 레이블링을 한 후, 라벨 개수를 측정하여 크기를 측정할 수 있다.
The noise image is removed from the object and the object by using the morphological operation on the image subjected to the differential image technique, the size of each object is measured using the connection component analysis, and the noise of a predetermined size or less is removed, Only parts can be detected. For example, in the connection component analysis, it is possible to measure sizes by measuring the number of labels after labeling each object by analyzing whether four or eight adjacent pixels are objects.
도 6은 본 발명의 일 실시예에 따른 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 과정을 설명하기 위한 흐름도이다. FIG. 6 is a flowchart illustrating a process of detecting an object using the SLIC algorithm and the area expansion technique according to an embodiment of the present invention. Referring to FIG.
단계(140)에서, SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지한다. In step 140, the object is detected using the SLIC algorithm and the area extension technique.
단계(140)는 탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할하는 단계(610), SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하는 단계(620), 설정된 SEED를 출발점으로 하여 영역확장 기법을 수행하는 단계(630), 형태학 연산을 이용하여 객체의 모양을 보정하는 단계(640)를 포함할 수 있다.
In operation 140, an object located at a boundary between a wall and a floor of the detected object is designated as an area of interest, and a region is divided by applying an SLIC algorithm to the region of interest (operation 610). In
도 7은 본 발명의 일 실시예에 따른 관심영역을 지정하는 과정을 설명하기 위한 도면이다. FIG. 7 illustrates a process of designating a region of interest according to an embodiment of the present invention. Referring to FIG.
단계(610)에서, 탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할할 수 있다. 먼저, 도 7a에 보여진 것과 같이 벽(710)과 바닥(720)의 경계(730)에 위치한 객체를 관심영역으로 지정 후 해당 부분을 분리한다. 다시 말해, 벽면과 겹쳐 잘린 객체 주위로 관심영역을 지정한다. 도 7b는 벽면과 겹쳐 잘린 객체의 주위를 분리한 관심영역을 나타내는 도면이다.
In
도 8은 본 발명의 일 실시예에 따른 SLIC 알고리즘 및 영역 확장 기법을 설명하기 위한 도면이다.FIG. 8 is a view for explaining an SLIC algorithm and an area extension technique according to an embodiment of the present invention.
도 8a는 관심영역에 대해 SLIC 알고리즘 적용한 영상이다. 단계(620)에서, 관심영역에 대해 SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체, 다시 말해 돼지를 SEED로 설정할 수 있다. 수퍼 픽셀이란, 비슷한 색상 정보 등을 가지고 있는 픽셀들의 집합을 말한다. SLIC 알고리즘은 이러한 복수개의 수퍼 픽셀로 분할하는 알고리즘이다. 설정된 SEED는 영역확장의 출발점으로 사용될 수 있다. FIG. 8A is an image obtained by applying the SLIC algorithm to the ROI. In
도 8b는 바닥 영역의 돼지 부분을 SEED로 설정한 영상이고, 도 8c는 영역 확장 기법을 적용한 영상이다. 단계(630)에서, 설정된 SEED를 출발점으로 하여 영역확장 기법을 수행할 수 있다. 영역확장 기법은 설정된 SEED를 출발점으로 SLIC 알고리즘을 적용하여 분할된 영역의 경계까지 벽 방향으로 객체부분을 확장하는 것이다. 다시 말해 SLIC알고리즘에 의하여 분할된 영역의 경계인 빨간선을 만날 때까지 SEED로부터 벽 방향으로 객체 영역을 확장할 수 있다. 예를 들어, 돼지를 SEED로 하여 벽 부분을 향해 확장하고, 이때 일반적인 돼지 크기가 될 때까지 영역을 확장할 수 있다.FIG. 8B shows an image in which the pig part in the bottom area is set as SEED, and FIG. 8C shows an image in which the area extension technique is applied. In
도 8d는 형태학 연산을 통해 객체 모양을 보정한 영상이다. 단계(640)에서, 형태학 연산을 이용하여 객체의 모양을 보정한다. 형태학 연산은 팽창연산 후 침식연산을 수행하는 닫힘 연산 또는 침식연산 후 팽창연산을 수행하는 열림 연산 중 어느 하나를 수행하는 것이다. 다시 말해, 모폴로지 연산인 열림 및 닫힘 연산을 이용하여 불필요하게 확장된 영역을 제거할 수 있다. FIG. 8D is an image obtained by correcting the shape of an object through a morphological operation. In
이러한 침식연산은 객체의 표면을 제거하는 연산이고, 팽창연산은 객체의 표면을 팽창시키는 연산을 말한다. 닫힘 연산은 팽창연산 후 침식연산을 수행하여 구멍이나 틈을 채울 수 있고, 열림 연산은 침식연산 후 팽창연산을 수행하여 얇은 영역이 제거될 수 있다.Such an erosion operation is an operation for removing the surface of an object, and an expansion operation is an operation for expanding the surface of an object. Closed operation can be filled with holes or gaps by performing erosion operation after expansion operation, and open operation can be removed by performing expansion operation after erosion operation.
종래 기술에서는 바닥영역과 벽 영역을 구분하지 않고 단순한 차영상기법을 이용하여 객체를 탐지했다. 하지만, 제안하는 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 방법에서는 바닥영역의 정보를 이용하여 벽 영역을 분리함으로써 객체를 더욱 정확하게 탐지할 수 있다.
In the prior art, objects are detected using a simple difference image technique without distinguishing between the floor area and the wall area. However, in the object detection method using the proposed Kinect - based area extension method, it is possible to detect the object more accurately by separating the wall area using the information of the bottom area.
도 9는 본 발명의 일 실시예에 따른 키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 장치의 구성을 나타내는 도면이다. FIG. 9 is a block diagram of an apparatus for detecting an object at a wall and a floor boundary using a Kinect-based area expansion technique according to an embodiment of the present invention. Referring to FIG.
키넥트 기반 영역 확장 기법을 이용한 벽과 바닥 경계에서의 객체 탐지 장치(900)는 깊이 정보 보정부(910), 차영상 수행부(920), 필터링부(930), 객체 탐지부(940)를 포함한다. 깊이 정보 보정부(910), 차영상 수행부(920), 필터링부(930), 객체 탐지부(940)는 도 1의 단계들(110~140) 및 도 6의 단계들(610~640)을 수행하기 위해 구성될 수 있다.The
깊이 정보 보정부(910)는 카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정한다. 깊이 정보 보정부(910)는 깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행한다.The depth information correction unit 910 acquires a depth information image by photographing an object in a space through a camera, and corrects the obtained depth information image. The depth information correction unit 910 temporally shrinks a plurality of frames into one frame to correct the depth information of the depth information image, and performs spatial reduction on the width and height of one frame.
차영상 수행부(920)는 보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행한다. 차영상 수행부(920)는 객체가 있는 배경을 시공간적으로 축소한 영상 및 객체가 없는 배경을 시공간적으로 축소한 영상을 이용하여 차영상 기법을 수행한다.The difference image performing unit 920 performs a difference image method on the image of the space including the object and the image of the space not including the object in the corrected depth information image. The difference image performing unit 920 performs a difference image method using an image obtained by spatially reducing a background having an object and an image obtained by spatially reducing a background without an object.
필터링부(930)는 차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거한다. 필터링부(930)는 차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거함으로써 객체 부분만을 탐지할 수 있다.The filtering unit 930 removes noise using a morphological operation and a connection component analysis on the image subjected to the differential image technique. The filtering unit 930 removes the noise region around the object and the object using the morphological operation on the image subjected to the difference image technique, measures the size of each object using the connection component analysis, So that only the object part can be detected.
객체 탐지부(940)는 SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지한다. The object detection unit 940 detects the object using the SLIC algorithm and the area expansion method.
객체 탐지부(940)는 탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할한다. 이후, SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하고, 설정된 SEED를 출발점으로 하여 영역확장 기법을 수행한다. 마지막으로, 형태학 연산을 이용하여 객체의 모양을 보정한다. The object detection unit 940 designates an object located at the boundary between the wall and the bottom of the detected objects as the ROI, and applies the SLIC algorithm to the ROI to divide the ROI. Then, by applying the SLIC algorithm, the object located in the bottom area in the divided area is set as SEED, and the area expansion technique is performed using the set SEED as a starting point. Finally, morphological operations are used to correct the shape of the object.
본 발명의 실시예들에 따르면 키넥트 기반 영역 확장 기법을 이용하여 벽과 바닥 경계에서의 객체를 정확히 탐지할 수 있다. 또한, 영상처리 방법 중 하나인 차영상 기법과 형태학 연산 기법을 통해 바닥 부분의 객체를 탐지하고, 영역 확장 기법과 비율을 통한 예측을 이용하여 관심영역을 확정하여 벽면에 붙어있는 객체의 탐지가 가능하도록 할 수 있다.Embodiments of the present invention can accurately detect objects at wall and floor boundaries using the Kinect-based area extension technique. In addition, it can detect object attached to the wall by detecting object at the bottom part by using difference image method and morphological operation method, which is one of image processing methods, and fixing region of interest by using region expansion technique and ratio prediction. .
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device As shown in FIG. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (12)
보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 단계;
차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계; 및
SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계
를 포함하고,
카메라를 통해 공간 내 객체를 촬영하여 깊이 정보 영상을 획득하고, 획득된 깊이 정보 영상을 보정하는 단계는,
깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행하는
객체 탐지 방법. Capturing an object in a space through a camera to acquire a depth information image, and correcting the obtained depth information image;
Performing a difference image technique on an image of a space including an object and an image of a space not including an object in the corrected depth information image;
Removing noise by using a morphological operation and a connection component analysis on the image subjected to the differential image technique; And
Detecting an object using the SLIC algorithm and area extension method
Lt; / RTI >
Acquiring a depth information image by photographing an object in a space through a camera, and correcting the obtained depth information image,
In order to correct the depth information of the depth information image, a plurality of frames are temporally reduced in one frame, and spatial reduction is performed on the horizontal and vertical sizes of one frame
Object detection method.
차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 단계는,
차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거하는
객체 탐지 방법. The method according to claim 1,
The step of removing the noise using the morphological operation and the connection component analysis on the image subjected to the differential image technique may include:
A noise area around an object and an object is removed using a morphological operation on an image subjected to the differential image technique, a size of each object is measured using a connection component analysis, and noise of a predetermined size or less is removed
Object detection method.
SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 단계는,
탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할하는 단계;
SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하는 단계;
설정된 SEED를 출발점으로 하여 영역확장 기법을 수행하는 단계; 및
형태학 연산을 이용하여 객체의 모양을 보정하는 단계
를 포함하는 객체 탐지 방법.The method according to claim 1,
The step of detecting the object using the SLIC algorithm and the area extension method includes:
Designating an object located at a boundary between a wall and a bottom of the detected objects as a region of interest and dividing the region by applying an SLIC algorithm to the region of interest;
Setting an object located in a floor area in the divided area to SEED by applying an SLIC algorithm;
Performing an area extension scheme using the set SEED as a starting point; And
Correcting the shape of the object using morphological operations
/ RTI >
영역확장 기법은 설정된 SEED를 출발점으로 SLIC 알고리즘을 적용하여 분할된 영역의 경계까지 벽 방향으로 객체부분을 확장하는
객체 탐지 방법. 5. The method of claim 4,
The region extension technique uses the set SEED as a starting point and applies the SLIC algorithm to extend the object portion to the boundary of the divided region toward the wall
Object detection method.
형태학 연산은 팽창연산 후 침식연산을 수행하는 닫힘 연산 또는 침식연산 후 팽창연산을 수행하는 열림 연산 중 어느 하나를 수행하는
객체 탐지 방법.5. The method of claim 4,
The morphological operation is performed either by a closing operation for performing an erosion operation after the expansion operation or an opening operation for performing an expansion operation after the erosion operation
Object detection method.
보정된 깊이 정보 영상에서 객체가 포함된 공간의 영상 및 객체가 포함되지 않은 공간의 영상에 대해 차영상 기법을 수행하는 차영상 수행부;
차영상 기법을 수행한 영상에 대해 형태학 연산 및 연결 성분 분석을 이용하여 잡음을 제거하는 필터링부; 및
SLIC 알고리즘 및 영역 확장 기법을 이용하여 객체를 탐지하는 객체 탐지부
를 포함하고,
깊이 정보 보정부는,
깊이 정보 영상의 깊이 정보를 보정하기 위해 복수의 프레임을 하나의 프레임으로 시간적 축소를 수행하고, 하나의 프레임의 가로 및 세로 크기에 대하여 공간적 축소를 수행하는
객체 탐지 장치. Acquiring a depth information image by capturing an object in a space through a camera, and correcting the obtained depth information image;
A difference image performing unit for performing a difference image method on an image of a space including an object and an image of a space not including an object in the corrected depth information image;
A filtering unit for removing noise by using a morphological operation and a connection component analysis on an image subjected to the differential image technique; And
An object detection unit for detecting an object using an SLIC algorithm and an area extension method
Lt; / RTI >
The depth-
In order to correct the depth information of the depth information image, a plurality of frames are temporally reduced in one frame, and spatial reduction is performed on the horizontal and vertical sizes of one frame
Object detection device.
필터링부는,
차영상 기법을 수행한 영상에 대해 형태학 연산을 이용하여 객체 및 객체주위의 잡음 영역을 제거하고, 연결 성분 분석을 이용하여 각 객체의 크기를 측정한 후, 미리 정해진 크기 이하의 잡음을 제거하는
객체 탐지 장치.8. The method of claim 7,
The filtering unit,
A noise area around an object and an object is removed using a morphological operation on an image subjected to the differential image technique, a size of each object is measured using a connection component analysis, and noise of a predetermined size or less is removed
Object detection device.
객체 탐지부는,
탐지된 객체 중 벽과 바닥의 경계에 위치한 객체를 관심영역으로 지정하고, 관심영역에 대해 SLIC 알고리즘을 적용하여 영역을 분할하고;
SLIC 알고리즘을 적용하여 분할된 영역에서 바닥 영역에 위치한 객체를 SEED로 설정하고;
설정된 SEED를 출발점으로 하여 영역확장 기법을 수행하고;
형태학 연산을 이용하여 객체의 모양을 보정하는
객체 탐지 장치. 8. The method of claim 7,
The object detection unit,
Designating an object located at the boundary between the wall and the bottom of the detected objects as a region of interest, applying a SLIC algorithm to the region of interest to divide the region;
Apply the SLIC algorithm to set the object located in the bottom area in the partitioned area to SEED;
Performing the area extension technique with the set SEED as a starting point;
Correct the shape of an object using morphological operations
Object detection device.
객체 탐지부는,
설정된 SEED를 출발점으로 SLIC 알고리즘을 적용하여 분할된 영역의 경계까지 벽 방향으로 객체부분을 확장하는 영역확장 기법을 수행하는
객체 탐지 장치. 11. The method of claim 10,
The object detection unit,
By applying the SLIC algorithm with the set SEED as the starting point, the area extension method is extended to expand the object part in the wall direction to the boundary of the divided area
Object detection device.
객체 탐지부는,
팽창연산 후 침식연산을 수행하는 닫힘 연산 또는 침식연산 후 팽창연산을 수행하는 열림 연산 중 어느 하나를 수행하는 형태학 연산을 수행하는
객체 탐지 장치.11. The method of claim 10,
The object detection unit,
Performing an erosion operation after performing an expansion operation, or performing an erosion operation after performing an erosion operation after the erosion operation,
Object detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170058799A KR101915893B1 (en) | 2017-05-11 | 2017-05-11 | Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170058799A KR101915893B1 (en) | 2017-05-11 | 2017-05-11 | Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101915893B1 true KR101915893B1 (en) | 2018-11-06 |
Family
ID=64329772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170058799A Active KR101915893B1 (en) | 2017-05-11 | 2017-05-11 | Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101915893B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210036625A (en) | 2019-09-26 | 2021-04-05 | 나재훈 | Smart farm livestock management system using code and management method thereof |
CN115294478A (en) * | 2022-07-28 | 2022-11-04 | 北京航空航天大学 | An aerial drone target detection method applied to modern optoelectronic platforms |
KR20230153207A (en) | 2022-04-28 | 2023-11-06 | 고려대학교 세종산학협력단 | Method and System for Accuracy Improvement under Multi-sized Object Detection |
KR20240132598A (en) | 2023-02-27 | 2024-09-04 | 고려대학교 세종산학협력단 | Method and System for Accuracy-Speed Tradeoff Improvement of Vehicle Detection based on Ensemble Technique |
-
2017
- 2017-05-11 KR KR1020170058799A patent/KR101915893B1/en active Active
Non-Patent Citations (1)
Title |
---|
논문:최윤창 외 3명* |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210036625A (en) | 2019-09-26 | 2021-04-05 | 나재훈 | Smart farm livestock management system using code and management method thereof |
KR20230153207A (en) | 2022-04-28 | 2023-11-06 | 고려대학교 세종산학협력단 | Method and System for Accuracy Improvement under Multi-sized Object Detection |
CN115294478A (en) * | 2022-07-28 | 2022-11-04 | 北京航空航天大学 | An aerial drone target detection method applied to modern optoelectronic platforms |
CN115294478B (en) * | 2022-07-28 | 2024-04-05 | 北京航空航天大学 | A method for aerial drone target detection applied to modern optoelectronic platforms |
KR20240132598A (en) | 2023-02-27 | 2024-09-04 | 고려대학교 세종산학협력단 | Method and System for Accuracy-Speed Tradeoff Improvement of Vehicle Detection based on Ensemble Technique |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3486872B1 (en) | Image processing apparatus, image processing method, and program | |
US9916689B2 (en) | Apparatus and method for estimating camera pose | |
US9600898B2 (en) | Method and apparatus for separating foreground image, and computer-readable recording medium | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
US9269155B2 (en) | Region growing method for depth map/color image | |
US20170263008A1 (en) | Image processing apparatus and image processing method | |
US9299005B2 (en) | Image processing apparatus and method | |
CN105306813A (en) | IMAGE PROCESSING APPARATUS and IMAGE PROCESSING METHOD | |
US20150146006A1 (en) | Display control apparatus and display control method | |
KR101915893B1 (en) | Kinect-based Object Detection Method at Wall-Floor Junction Using Region Growing Technique | |
KR102410268B1 (en) | Object tracking method and object tracking apparatus for performing the method | |
JP6638723B2 (en) | Image analysis device, image analysis method, and image analysis program | |
KR20160046174A (en) | Method and Apparatus for Setting Region of Interest | |
EP3698317B1 (en) | Techniques for detecting spatial anomalies in video content | |
KR102362345B1 (en) | Method and apparatus for processing image | |
US20160337555A1 (en) | Automatic video synchronization via analysis in the spatiotemporal domain | |
KR101582800B1 (en) | Method for detecting edge in color image adaptively and apparatus and computer-readable recording media using the same | |
KR102161212B1 (en) | System and method for motion detecting | |
KR101438451B1 (en) | Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same | |
KR101899242B1 (en) | Method and Apparatus for Pig's Room Background Removal using Texture Information | |
KR101600183B1 (en) | Method and apparatus for extracting depth information from image | |
JP7010225B2 (en) | Breast region detection system, breast region detection method, and program | |
JP6780639B2 (en) | Image analysis device, image analysis method, and image analysis program | |
JP7696086B2 (en) | Three-dimensional model generating method and three-dimensional model generating device | |
JP2019176261A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170511 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20180419 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20181012 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20181031 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20181031 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20211018 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230209 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |