KR101967858B1 - Apparatus and method for separating objects based on 3D depth image - Google Patents
Apparatus and method for separating objects based on 3D depth image Download PDFInfo
- Publication number
- KR101967858B1 KR101967858B1 KR1020170145949A KR20170145949A KR101967858B1 KR 101967858 B1 KR101967858 B1 KR 101967858B1 KR 1020170145949 A KR1020170145949 A KR 1020170145949A KR 20170145949 A KR20170145949 A KR 20170145949A KR 101967858 B1 KR101967858 B1 KR 101967858B1
- Authority
- KR
- South Korea
- Prior art keywords
- depth image
- image
- area
- depth
- ceiling
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 3D 깊이(3 Dimension Depth) 기반 이미지 기반 객체 분리 장치 및 그 방법에 관한 것으로서, 특히 3D 카메라를 통해 얻은 깊이 이미지로부터 객체를 효과적으로 분리함으로써, 3D 이미지 데이터 기반 객체 검출, 이미지 이벤트 검출 등과 같은 이미지 보안 서비스에 활용할 수 있도록 한 3D 깊이 이미지 기반 객체 분리 장치 및 그 방법에 관한 것이다.
The present invention relates to a 3D depth depth based image-based object separating apparatus and method thereof, and more particularly to a 3D depth depth-based object separating apparatus and method for efficiently separating an object from a depth image obtained through a 3D camera, And to a 3D depth image-based object separation apparatus and method thereof that can be utilized in an image security service.
일반적으로, 카메라를 이용하여 사용자의 손 동작, 즉 제스처를 인식하는 다양한 어플리케이션이 제시되었다. 어플리케이션은 사용자의 제스처의 의미를 정확하게 인식함에 따라 인식된 의미에 대응하는 명령 또는 처리의 과정을 수행한다. In general, various applications for recognizing a user's hand movements, i.e., gestures, using a camera have been proposed. The application accurately recognizes the meaning of the gesture of the user, and executes a command or process corresponding to the recognized meaning.
이러한 제스처의 인식은 인간-컴퓨터 상호작용 분야에서 주로 연구되어 왔다. 스마트폰을 이용하는 원격제어, 의사소통, 게임 및 어플리케이션의 실행과 같은 제스처의 인식에 관련된 다양한 시도가 이루어지고 있다.The recognition of these gestures has been mainly studied in the field of human-computer interaction. Various attempts have been made to recognize gestures such as remote control using a smartphone, communication, and execution of games and applications.
그러나, 카메라를 이용해서 사용자의 제스처를 인식하는 다양한 방법이 제시되었음에도 불구하고, 경우에 따라서 이러한 제스처의 인식은 제한되거나 정확하지 않은 결과를 도출할 수 있다. 예를 들면, 사용자의 손이 사용자의 얼굴 또는 사용자의 피부색과 유사한 색을 갖는 다른 객체와 중첩될 경우, 카메라에 의해 획득된 이미지의 정보에서 사용자의 손을 얼굴 또는 다른 객체로부터 분리하는 것이 어렵고, 따라서 사용자의 실제의 제스처를 정확하게 인식할 수 없다는 문제가 발생할 수 있다. 즉, 정확한 객체를 검출하여야만 해당 객체의 제스쳐 등을 인지할 수 는 것이다. However, although various methods of recognizing a user's gesture using a camera have been proposed, recognition of such a gesture may be limited or inaccurate in some cases. For example, if the user's hand overlaps with the user's face or another object having a color similar to the user's skin color, it is difficult to separate the user's hand from the face or other object in the information of the image acquired by the camera, Therefore, there is a problem that the user can not accurately recognize the actual gesture. In other words, it is necessary to detect an accurate object to recognize the gesture of the object.
또한, 일반적인 2D 기반 객체 분리 기술은 주변 환경의 색상으로 인한 오류, 야간에 객체 인지의 어려움, 조명/화질의 열화 등으로 인한 오류 등 다양한 환경 변화에서 배경으로부터 객체 분리를 하는데 어려움이 있으며, 이로 인해 이미지 보안 시스템에서 2D 이미지를 기반으로 이벤트 검출을 했을 때 정확도가 낮은 문제점이 발생하게 된다.
In addition, the general 2D-based object separation technology has difficulties in separating objects from the background in various environmental changes such as errors due to the surrounding environment, difficulty in recognizing objects at night, and errors caused by degradation of illumination / image quality. In the image security system, when an event is detected based on a 2D image, a problem of low accuracy occurs.
따라서, 본 발명은 상기한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 다양한 환경 변화가 존재하는 환경에서 3D 카메라로부터 입력되는 깊이 이미지로부터 객체를 효과적으로 분리함으로써, 3D 이미지 데이터를 기반으로 이미지 이벤트를 검출하는 이미지 보안 시스템에 적용하여 위험 이벤트 인식 성능 정확도를 향상시킬 수 있도록 한 3D 깊이 이미지 기반 객체 분리 장치 및 그 방법을 제공함에 있다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and it is an object of the present invention to effectively separate an object from a depth image input from a 3D camera in an environment where various environmental changes exist, The object of the present invention is to provide a 3D depth image-based object separation apparatus and a method thereof, which can improve the accuracy of risk event recognition performance by applying the present invention to an image security system for detecting an object.
상기한 목적을 달성하기 위한 본 발명의 일 측면에 따른 3D 깊이 이미지 기반 객체 분리 장치에 따르면, 3D 깊이 이미지를 입력하는 이미지 입력부; 및 입력된 3D 깊이 이미지의 깊이 정보를 이용하여 객체 위치 및 객체 수를 탐지한 후, 탐지된 객체들에 대한 픽셀값들중 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하고, 그룹핑된 객체 영역 이외의 배경 영역 및 천장 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 객체 분리부를 포함할 수 있다. According to an aspect of the present invention, there is provided an apparatus for separating objects based on 3D depth images, comprising: an image input unit for inputting 3D depth images; And depth information of the input 3D depth image to detect the position of the object and the number of objects and then perform inter-pixel grouping having similar pixel values among the pixel values of the detected objects, And an object separator for sequentially removing the background area, the ceiling, and the ground area to extract a final object.
상기 장치는, 상기 이미지 입력부로부터 입력되는 3D 깊이 이미지의 상태를 판단하여 해당 3D 깊이 이미지에 노이즈가 포함된 경우, 해당 3D 깊이 이미지를 객체 분리부로 제공하는 이미지 상태 판단부를 더 포함할 수 있다. The apparatus may further include an image state determination unit for determining a state of the 3D depth image input from the image input unit and providing the 3D depth image to the object separation unit when noise is included in the 3D depth image.
상기 객체 분리부는, 노이즈가 포함된 3D 깊이 이미지로부터 객체의 위치 및 객체 수를 탐지하는 객체 탐지부; 객체 탐지부로부터 탐지된 객체에 대한 픽셀 유사도를 이용하여 객체를 제외한 배경 영역(노이즈)을 제거하는 배경 영역 제거부; 및 상기 배경 영역 제거부를 통해 배경 영역이 제거된 이미지로부터 천장 영역 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 천장 및 지면 영역 제거부를 포함할 수 있다. Wherein the object separator comprises: an object detector for detecting the position of the object and the number of objects from the 3D depth image including the noise; A background region removing unit configured to remove a background region (noise) excluding an object using a pixel similarity of the object detected by the object detecting unit; And a ceiling and floor area removing unit for sequentially removing the ceiling area and the ground area from the image from which the background area is removed through the background area removing unit to extract the final object.
상기 객체 탐지부는, 입력되는 3D 깊이 이미지의 깊이 정보를 통해 딥러닝 객체 탐지 방식을 이용하여 객체의 위치 및 객수를 탐지하여 객체의 위치 좌표값을 획득하여 저장할 수 있다. The object detection unit can detect the position and the number of the object using the depth learning object detection method through the depth information of the input 3D depth image and acquire and store the position coordinate value of the object.
상기 배경 영역 제거부는, CCA(Connected Component Analysis) 방식을 이용하여 배경 영역(노이즈)을 제거할 수 있다. The background area removing unit may remove a background area (noise) using a CCA (Connected Component Analysis) method.
상기 천장 및 지면 영역 제거부는, 배경영역 제거부에서 배경 영역이 제거된 깊이 이미지를 3차원 좌표로 변환한 후, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정하고, 천장 및 지면으로부터 특정 임계치까지를 평면이라고 결정하고, 계산된 평면에서 임계치에 포함되는 점의 개수를 산출하며, 상기 동작을 일정 횟수 반복하여, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거할 수 있다.
The ceiling and floor area removing unit may convert the depth image from which the background area is removed in the background area removing unit into three-dimensional coordinates, arbitrarily select three points among the three-dimensional coordinates, determine a plane using the plane equation A ceiling, and a floor from a ground to a specific threshold are determined as a plane, the number of points included in the threshold in the calculated plane is calculated, the above operation is repeated a predetermined number of times, The area can be removed by determining the floor and ceiling.
한편, 상기한 목적을 달성하기 위한 본 발명의 3D 깊이 이미지 기반 객체 분리 방법에 따르면, 3D 깊이 이미지를 입력하는 단계; 및 입력된 3D 깊이 이미지의 깊이 정보를 이용하여 객체 위치 및 객체 수를 탐지한 후, 탐지된 객체들에 대한 픽셀값들중 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하고, 그룹핑된 객체 영역 이외의 배경 영역 및 천장 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided a 3D depth image-based object separation method comprising: inputting a 3D depth image; And depth information of the input 3D depth image to detect the position of the object and the number of objects and then perform inter-pixel grouping having similar pixel values among the pixel values of the detected objects, And sequentially removing the background area, the ceiling, and the ground area to extract a final object.
상기 방법은, 상기 입력되는 3D 깊이 이미지의 상태를 판단하는 단계를 더 포함하며, 상기 판단 결과, 해당 3D 깊이 이미지에 노이즈가 포함된 경우, 노이즈가 포함된 해당 3D 깊이 이미지를 이용하여 상기 객체를 추출하는 단계를 수행한다. The method may further include determining a state of the input 3D depth image. When the noise is included in the 3D depth image as a result of the determination, the 3D depth image may include noise, .
상기 객체를 추출하는 단계는, 노이즈가 포함된 3D 깊이 이미지로부터 객체의 위치 및 객체 수를 탐지하는 단계; 상기 탐지된 객체에 대한 픽셀 유사도를 이용하여 객체를 제외한 배경 영역(노이즈)을 제거하는 단계; 및 상기 배경 영역이 제거된 이미지로부터 천장 영역 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 단계를 포함할 수 있다. Wherein the extracting of the object comprises: detecting the location and number of objects of the object from the 3D depth image containing noise; Removing a background region (noise) excluding an object by using a pixel similarity degree of the detected object; And sequentially removing the ceiling area and the ground area from the image from which the background area is removed to extract the final object.
상기 객체의 위치 및 객체 수를 탐지하는 단계는, 입력되는 3D 깊이 이미지의 깊이 정보를 통해 딥러닝 객체 탐지 방식을 이용하여 객체의 위치 및 객수를 탐지하여 객체의 위치 좌표값을 획득하여 저장할 수 있다. The step of detecting the position and the number of objects of the object may detect the position and the number of the object using the depth learning object detection method through the depth information of the input 3D depth image and acquire and store the position coordinate value of the object .
상기 배경 영역을 제거하는 단계는, CCA(Connected Component Analysis) 방식을 이용하여 배경 영역(노이즈)을 제거할 수 있다. The step of removing the background region may remove a background region (noise) using a CCA (Connected Component Analysis) method.
상기 객체를 추출하는 단계는, 상기 배경영역 제거된 깊이 이미지를 3차원 좌표로 변환한 후, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정하는 단계; 천장 및 지면으로부터 특정 임계치까지를 평면이라고 결정하고, 상기 계산된 평면에서 임계치에 포함되는 점의 개수를 산출하는 단계; 및 상기 단계들을 일정 횟수 반복하여, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거하는 단계를 포함할 수 있다.
The step of extracting the object may include the steps of transforming the background image into a three-dimensional coordinate, selecting arbitrary three points among the three-dimensional coordinates, and determining a plane using the plane equation; Determining a plane from the ceiling and the ground to a specific threshold value, and calculating the number of points included in the threshold in the calculated plane; And repeating the steps a predetermined number of times to determine a plane including a greatest number of points among the number of repetitions as a ground and a ceiling to remove the corresponding region.
본 발명에 따르면, 다양한 환경 변화가 존재하는 환경에서 3D 카메라로부터 입력되는 Depth 이미지로부터 객체를 효과적으로 분리함으로써, 3D 이미지 데이터를 기반으로 이미지 이벤트를 검출하는 이미지 보안 시스템에 적용하여 위험 이벤트 인식 성능 정확도를 향상시킬 수 있다. According to the present invention, by effectively separating an object from a depth image input from a 3D camera in an environment where various environmental changes exist, it is applied to an image security system that detects an image event based on 3D image data, Can be improved.
또한, 본 발명에 따른 다양한 환경 변화가 존재하는 환경에서 3D 카메라로부터 입력되는 깊이 이미지의 배경으로부터 객체를 효과적으로 분리함으로써, 3D 이미지 기반 인체 행위 인지 시스템의 전처리 수행 시 효과적으로 적용이 가능하며, 이미지 보안 시스템에서 관심 객체를 추출하고, 객체의 행동을 효과적으로 분석할 수 있는 효과를 가진 것이다.
In addition, in the environment where various environmental changes according to the present invention exist, the object can be effectively separated from the background of the depth image input from the 3D camera, so that it can be effectively applied in the preprocessing of the 3D image based human body recognition system, And extracts the object of interest from the object, and effectively analyzes the behavior of the object.
도 1은 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 장치에 대한 개략적인 블록 구성을 나타낸 도면.
도 2는 도 1에 도시된 객체 분리부에 대한 상세 블록 구성을 나타낸 도면.
도 3은 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 예시 화면을 나타낸 도면.
도 4는 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 방법에 대한 동작 플로우챠트를 나타낸 도면.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic block diagram of a 3D depth image-based object separating apparatus according to the present invention; FIG.
FIG. 2 is a detailed block diagram of the object separator shown in FIG. 1. FIG.
3 is a view illustrating an example of 3D depth image-based object separation according to the present invention.
4 is a flowchart illustrating an operation of a 3D depth image-based object separation method according to the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. And the present invention is defined by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.
먼저, 본 발명의 구체적인 설명에 앞서, 3D 이미지 기반 행위 인지 기술 분야에서 배경으로부터 객체를 분리하는 본 발명은 객체 검출, 객체 추적, 이미지 이벤트 검출 등 이미지 보안 서비스를 정확하게 수행하기 위한 핵심 요소이다. First, prior to the description of the present invention, the present invention for separating objects from the background in 3D image-based action recognition technology is a key element for accurately performing image security services such as object detection, object tracking, and image event detection.
이하, 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 장치 및 방법에 대한 구체적인 실시예에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A 3D depth image-based object separating apparatus and method according to the present invention will now be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 장치에 대한 개략적인 블록 구성을 나타낸 도면이다.FIG. 1 is a schematic block diagram of a 3D depth image-based object separating apparatus according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 3D 깊이 이미지 기반 객체 분리장치는, 이미지 입력부(10), 이미지 상태 판단부(20) 및 객체 분리부(30)를 포함할 수 있다. As shown in FIG. 1, the 3D depth image-based object separating apparatus according to the present invention may include an
이미지 입력부(10)는 획득한 3D 깊이 이미지를 이미지 상태 판단부(20)로 입력한다. 여기서, 이미지 입력부(10)는 적어도 하나 이상의 3D 카메라, 3D 이미지 센서 중 적어도 하나 일 수 있으며, 3D 깊이 이미지에는 깊이 정보를 포함할 수 있다. The
이미지 상태 판단부(20)는 이미지 입력부(10)로부터 입력되는 3D 깊이 이미지의 이미지 상태를 판단하여 이미지 상태가 좋지 않을 경우 즉, 노이즈가 많거나 배경이 복잡한 상황인 경우 이하의 객체 분리 동작을 수행한다. 만약, 이미지 상태가 좋은 경우 별도의 객체 분리 동작을 수행하지 않고 입력된 깊이 이미지의 객체만으로 행위 인지 등 다양한 동작을 수행하는 것이다. The image
만약, 이미지 상태 판단부(20)에서 이미지 상태 판단 결과, 이미지 상태가 좋지 않다고 판단되는 경우, 객체 분리부(30)는 도 3 (a)와 같이 입력되는 깊이 이미지로부터 객체 위치 및 객체 수를 탐지한 후, 탐지된 객체들에 대한 픽셀값들중 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행한다. If it is determined that the image state is not good as a result of the image
그리고, 객체 분리부(30)는 픽셀간 그룹핑이 이루어진 후, 패당 그룹 이외의 이미지 영역을 제거한 후, 해당 객체의 천장 및 지면 영역을 제거함으로써 최종적인 원하는 객체를 분리 추출하는 것이다. After the inter-pixel grouping is performed, the
이하, 상기 설명한 도 1에 도시된 객체 분리부(30)에 대한 상세 구성 및 동작에 대하여 도 2 및 도 3을 참조하여 살펴보기로 하자. Hereinafter, the detailed configuration and operation of the
도 2는 도 1에 도시된 객체 분리부에 대한 상세 블록 구성을 나타낸 도면, 도 3은 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 예시 화면을 나타낸 도면이다.FIG. 2 is a detailed block diagram of the object separating unit shown in FIG. 1, and FIG. 3 is a view illustrating an example of 3D depth image-based object separation according to the present invention.
도 2에 도시된 바와 같이, 객체 분리부(30)는 객체 탐지부(31), 배경 영역 제거부(32), 천장 영역 제거부(33), 지면 영역 제거부(34) 및 객체 추출부(35)를 포함할 수 있다. 2, the
객체 탐지부(31)는 도 3 (a)와 같이 입력되는 노이즈가 포함된 깊이 이미지로부터 깊이 정보를 이용하여 깊이 이미지내 객체들의 위치 및 객체의 수를 탐지한 후, 탐지된 객체의 좌표값을 획득한다. 여기서, 객체들의 위치 및 객체의 수를 탐지하는 방법으로, 객체 검출 속도가 빠른 딥러닝 기반 객체 탐지 방법을 사용할 수 있다. 즉, 입력되는 깊이 이미지에 대한 깊이 정보를 기반으로 다양한 깊이 정보를 기반으로 학습되어 모델링된 모델링 값에 따라 객체들의 위치 및 객체의 수를 탐지한 후, 탐지된 객체들에 대한 좌표값을 획득하는 것이다. 이때, 상기한 딥러닝 기반 객체 탐지 방법은 이미 공지된 일반적인 방법으로서, 구체적인 방법에 대한 설명은 생략하며, 이러한 방식 이외의 방법을 이용해서 객체를 탐지하여도 무방함을 이해해야 할 것이다. 여기서, 객체 탐지부(31)에서 객체 탐지 결과에 대한 화면은 도 3 (b)와 같다. The
배경 영역 제거부(32)는 상기 객체 탐지부(31)에서 탐지된 객체에 대한 좌표값을 기준으로 하여 CCA(Connected Component Analysis) 알고리즘을 수행한다. 즉, CCA 알고리즘은, 상기 객체 탐지부(31)에서 획득한 해당 객체의 좌표값에 해당되는 픽셀을 기준으로 연결된 유사 픽셀값을 분석하여 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하는 것이다. The background
CCA 알고리즘은, 입력되는 이미지 안의 물체를 찾아내어 분석하기 위한 목적으로 쓰레숄딩(Thresholding)에 기반한 이진화 기술들이 개발되었으며, 이진화 결과에서 노이즈를 제거하고, 결과들을 보다 정교화하기 위해서 mathematical morphology 기술들이 개발되었다. Morphology까지 거친 이미지들을 이용하면 물체를 구분하고, 물체를 인식할 수 있는데, 그 전에 픽셀들을 객체 단위로 구분하여야 한다. 하나의 객체를 구성하는 픽셀들은 이미지에서 서로 연결된 형태로 나타나게 되는데 이와 같이 서로 연결된 유사 픽셀들을 그룹핑하여 객체를 구분하는 분석 방법이 CCA 알고리즘이다. 여기서, 상기한 CCA 알고리즘에 대하여 좀 더 구체적으로 살펴보면, 다음과 같다. The CCA algorithm has developed thresholding-based binarization techniques for finding and analyzing objects in the input image, and mathematical morphology techniques have been developed to remove noise from the binarization results and refine the results . Morphology Even rough images can distinguish objects and recognize objects. Before that, pixels must be separated into objects. The pixels constituting one object are displayed in a form connected to each other in the image. The CCA algorithm is an analysis method of grouping similar pixels connected to each other and distinguishing objects. Here, the CCA algorithm will be described in more detail as follows.
CCA 알고리즘은, 공간 필터링 방식을 수행하는 미디안(Median) 필터를 이용하여 객체 이외의 배경 영역(노이즈)을 제거할 수 있다. 여기서, 미디안 필터는 마스크 사이즈를 결정하고, 결정된 마스크 사이즈에 해당하는 이웃 픽셀 값들을 크기 순서로 정렬하고, 그 중 중간 값을 선택하는 역할을 한다. 다만, 배경영역 제거부(32)에서 미디안 필터만을 사용한다면, 깊이 이미지에 포함된 객체들의 경계가 무너질 것이다.The CCA algorithm can remove a background area (noise) other than an object by using a median filter that performs a spatial filtering method. Here, the median filter determines the mask size, arranges the neighboring pixel values corresponding to the determined mask size in order of magnitude, and selects a middle value among them. However, if only the median filter is used in the background
따라서, 배경영역 제거부(32)는 미디안 필터 이외에 모폴로지 침식(Erosion) 알고리즘 및 모폴로지 팽창(Dilation) 알고리즘을 추가적으로 이용할 수도 있다. 모폴로지 침식 알고리즘은 객체나 작은 크기의 파티클(Particle)로부터 레이어(Layer)를 벗기거나, 이미지에 존재하는 부적절한 픽셀 또는 작은 크기의 파티클을 제거하는 역할을 한다. 이와 반대로, 모폴로지 팽창 연산은 객체나 작은 크기의 파티클로부터 레이어를 확장시키거나, 모폴로지 침식 알고리즘에 의해 작아진 파티클을 원래 사이즈로 확장시키는 역할을 한다.Accordingly, the background
배경영역 제거부(32)는 상기 획득된 깊이 이미지에 모폴로지 침식 알고리즘을 적용한 후, 공간 필터링으로서 미디안 필터를 적용하고 나서, 모폴로지 팽창(dilation) 알고리즘을 적용함으로서 효과적으로 깊이 이미지의 노이즈를 최소화 시킬 수 있다. The background
결국, 배경영역 제거부(32)는 탐지된 객체를 기준으로 한 주변 배경 영역을 제거한 후, 배경 영역이 제거된 이미지를 천장 영역 제거부(33)로 제공한다. As a result, the background
천장 영역 제거부(33)는 상기 배경영역 제거부(32)를 통해 배경영역이 제거된 이미지로부터 도 3 (c)와 같이 천장 영역을 제거한다. 즉, 배경영역 제거부(32)에서 CCA 알고리즘을 수행한 후 객체 영역을 제외한 나머지 배경영역을 제거하더라도 객체의 머리 위쪽 부분은 객체 영역이라고 판단하여 제거되지 않을 확률이 높다. 따라서, 천장 영역 제거부(33)에서 평면 방정식을 통해 천장 영역을 계산하여 천장 영역을 제거하는 것이다. The ceiling
지면 영역 제거부(34)는 도 3 (c)와 같이 상기 천장 영역 제거부(33)를 통해 천장 영역이 제거된 이미지로부터 객체를 기준으로 한 지면 영역을 도 3 (d)와 같이 제거하게 된다. 즉, 상기 배경영역 제거부(32)에서 CCA 알고리즘 동작 후 객체 영역을 제외한 나머지 영역을 제거하더라도 객체의 신발 아래쪽 부분은 객체 영역이라고 판단하여 제거되지 않을 확률이 높기 때문에 평면 방정식을 통해 지면 영역을 계산하여 지면 영역을 제거하는 것이다. The floor
상기한 천장 영역 제거부(33) 및 지면 영역 제거부(34)에서 천장 및 지면 영역의 제거하는 방법을 좀 더 구체적으로 살펴보면, 먼저, 배경영역 제거부(31)에서 CCA 알고리즘을 통해 배경 영역이 제거된 깊이 이미지를 3차원 좌표로 변환하고, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정한다. The method of removing the ceiling area and the ground area in the ceiling
그리고, 천장 및 지면으로부터 특정 임계치까지를 평면이라고 정하고, 계산된 평면에서 임계치에 포함되는 점의 개수를 구한다.Then, from the ceiling and the ground to a specific threshold, a plane is defined, and the number of points included in the threshold in the calculated plane is obtained.
이어, 이와 같은 동작을 일정 횟수 반복하고, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거하는 것이다. Then, such an operation is repeated a predetermined number of times, and the plane including the most points among the results of repetition is determined as the ground and the ceiling, and the corresponding region is removed.
상기에서는 천장 영역을 제거한 후, 지면 영역을 제거하는 순서로 설명하였으나, 지면 영역을 먼저 제거한 후, 천장 영역을 제거하는 순서로 동작할 수도 있음을 이해해야 할 것이다. In the above description, the ground area is removed after removing the ceiling area. However, it should be understood that the ground area may be removed first, and then the ceiling area may be removed.
객체 추출부(35)는 상기와 같이 천장 영역과 지면 영역이 제거된 이미지로부터 실질적인 객체만을 추출하게 되는 것이다.
The
상기와 같은 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 장치의 동작과 상응하는 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 방법에 대하여 첨부된 도 4를 참조하여 단계적으로 설명해 보기로 하자. A 3D depth image-based object separation method according to the present invention, corresponding to the operation of the 3D depth image-based object separation apparatus according to the present invention, will be described step by step with reference to FIG.
도 4는 본 발명에 따른 3D 깊이 이미지 기반 객체 분리 방법은, 먼저, 3D 이미지 센서 또는 3D 카메라를 통해 획득된 3D 깊이 이미지가 입력되면(S401), 입력되는 3D 깊이 이미지의 이미지 상태를 판단한다. 즉, 입력되는 3D 깊이 이미지에 노이즈가 포함되어 있는지를 판단한다(S402). 4 is a flowchart illustrating a 3D depth image-based object separation method according to an exemplary embodiment of the present invention. Referring to FIG. 4, a 3D depth image obtained through a 3D image sensor or a 3D camera is input (S401). That is, it is determined whether noise is contained in the input 3D depth image (S402).
판단 결과, 이미지 상태가 좋지 않을 경우 즉, 노이즈가 많거나 배경이 복잡한 상황인 경우 이하의 객체 분리 동작을 수행한다. 만약, 이미지 상태가 좋은 경우 별도의 객체 분리 동작을 수행하지 않고 해당 이미지로부터 객체를 바로 추출하여(S407) 추출된 객체를 이용하여 행위 인지 등 다양한 동작을 수행하는 것이다. As a result of the determination, when the image state is not good, that is, when there is a lot of noise or a complex background, the following object separation operation is performed. If the image state is good, an object is immediately extracted from the image without performing a separate object separation operation (S407), and various operations such as an operation using the extracted object are performed.
상기 S402 단계에서, 입력되는 3D 깊이 이미지에 노이즈가 포함되어 있는 경우, 입력되는 깊이 이미지로부터 깊이 정보를 이용하여 깊이 이미지내 객체들의 위치 및 객체의 수를 탐지한 후, 탐지된 객체의 좌표값을 획득한다(S403). 여기서, 객체들의 위치 및 객체의 수를 탐지하는 방법으로, 객체 검출 속도가 빠른 딥러닝 기반 객체 탐지 방법을 사용할 수 있다.If the input 3D depth image includes noise, the position and the number of objects in the depth image are detected using the depth information from the input depth image, and then the coordinates of the detected object are detected (S403). Here, as a method of detecting the positions of objects and the number of objects, a deep learning based object detection method with a high object detection speed can be used.
상기 S403단계에서 객체 위치 및 객체수를 탐지한 후, 탐지된 객체에 대한 좌표값을 기준으로 하여 CCA 알고리즘을 수행하여 깊이 이미지의 노이즈(배경 영역)을 제거한다(S404). 즉, CCA 알고리즘은, 상기 S403단계에서 획득한 해당 객체의 좌표값에 해당되는 픽셀을 기준으로 연결된 유사 픽셀값을 분석하여 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하여 탐지된 객체를 기준으로 한 주변 배경 영역을 제거하는 것이다. In step S403, the object position and the number of objects are detected, and then the noise (background area) of the depth image is removed by performing the CCA algorithm based on the coordinate values of the detected object (S404). That is, the CCA algorithm analyzes the similar pixel values based on the pixels corresponding to the coordinate values of the object acquired in the step S403, and performs grouping between pixels having similar pixel values, The background area is removed.
이어, S404단계에서 CCA 알고리즘을 통해 배경영역(노이즈)이 제거되면, 배경 영역이 제거된 이미지로부터 평면 방정식을 이용하여 천장 영역을 제거한다(S405). 즉, 상기 S404단게에서 CCA 알고리즘을 통해 배경영역이 제거된 이미지로부터 도 3 (c)와 같이 천장 영역을 제거한다. 여기서, CCA 알고리즘을 수행한 후 객체 영역을 제외한 나머지 배경영역을 제거하더라도 객체의 머리 위쪽 부분은 객체 영역이라고 판단하여 제거되지 않을 확률이 높기 때문에 평면 방정식을 통해 천장 영역을 계산하여 천장 영역을 제거하는 것이다. If the background area (noise) is removed through the CCA algorithm in step S404, the ceiling area is removed from the image from which the background area is removed (step S405). That is, the ceiling area is removed from the image in which the background area is removed through the CCA algorithm in step S404 as shown in FIG. 3 (c). Here, even if the background area excluding the object area is removed after performing the CCA algorithm, since the upper part of the object is determined as the object area and the probability of not being removed is high, the ceiling area is calculated through the plane equation to remove the ceiling area will be.
S405 단계에서, 천장 영역이 제거되면, 천장 영역이 제거된 이미지로부터 객체를 기준으로 한 지면 영역을 도 3 (d)와 같이 제거하게 된다(S406). 즉, 상기 S404단계에서 CCA 알고리즘 수행 후 객체 영역을 제외한 나머지 영역을 제거하더라도 객체의 신발 아래쪽 부분은 객체 영역이라고 판단하여 제거되지 않을 확률이 높기 때문에 평면 방정식을 통해 지면 영역을 계산하여 지면 영역을 제거하는 것이다. In step S405, when the ceiling area is removed, the ground area based on the object is removed from the image in which the ceiling area is removed (S406) as shown in FIG. That is, even if the remaining area excluding the object area is removed after performing the CCA algorithm in step S404, since the lower part of the object is determined to be the object area and the probability of not being removed is high, the ground area is calculated through the plane equation, .
상기한 천장 영역 및 지면 영역의 제거하는 방법은, 먼저 CCA 알고리즘을 통해 배경 영역이 제거된 깊이 이미지를 3차원 좌표로 변환하고, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정한다. In the method of removing the ceiling area and the ground area, first, the depth image from which the background area is removed is transformed into three-dimensional coordinates through the CCA algorithm, arbitrary three points among the three-dimensional coordinates are selected, Determine the plane.
그리고, 천장 및 지면으로부터 특정 임계치까지를 평면이라고 정하고, 계산된 평면에서 임계치에 포함되는 점의 개수를 구한 후, 이와 같은 동작을 일정 횟수 반복하고, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거하는 것이다. Then, the number of points included in the threshold is calculated from the ceiling and the ground to a specific threshold, and the number of points included in the threshold is calculated. Then, the above operation is repeated a predetermined number of times, Is determined by the floor and the ceiling, and the area is removed.
상기의 실시예에서는 천장 영역을 먼저 제거한 후, 지면 영역을 제거하는 순서로 설명하였으나, 지면 영역을 먼저 제거한 후, 천장 영역을 제거할 수도 있음을 이해해야 할 것이다. In the above embodiment, the ceiling area is removed first and then the ground area is removed. However, it should be understood that the ceiling area may be removed after the ground area is removed first.
이와 같이, S405, S406 단계를 통해 천장 영역과 지면 영역이 제거되면 실질적인 객체만이 추출되는 것이다(S407).
If the ceiling area and the ground area are removed through steps S405 and S406, only the substantial objects are extracted (S407).
본 발명에 따른 3D 깊이 이미지 기반 객체 분리 장치 및 방법을 실시예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.Although the apparatus and method for separating 3D deep image based objects according to the present invention have been described with reference to the embodiments, the scope of the present invention is not limited to the specific embodiments, Various modifications, alterations, and alterations can be made within the scope of the present invention.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
Therefore, the embodiments described in the present invention and the accompanying drawings are intended to illustrate rather than limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings . The scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.
10 : 이미지 입력부
20 : 이미지 상태 판단부
30 : 객체 분리부
31 : 객체 탐지부
32 : 배경영역 제거부
33 : 천장 영역 제거부
34 : 지면 영역 제거부
35 : 객체 추출부10: Image input unit
20: image state determination unit
30: Object separation unit
31: object detection unit
32: Background area removal
33: Ceiling area removal
34: ground area removal
35: object extracting unit
Claims (12)
3D 깊이 이미지를 입력하는 이미지 입력부; 및
입력된 3D 깊이 이미지의 깊이 정보를 이용하여 객체 위치 및 객체 수를 탐지한 후, 탐지된 객체들에 대한 픽셀값들중 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하고, 그룹핑된 객체 영역 이외의 배경 영역 및 천장 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 객체 분리부를 포함하되,
상기 객체 분리부는 CCA(Connected Component Analysis) 방식을 이용하여 배경 영역을 제거하는 배경 영역 제거부를 포함하고,
상기 배경 영역 제거부는 상기 3D 깊이 이미지에서 탐지된 객체에 대하여 모폴로지 침식 알고리즘을 적용한 후, 상기 모폴로지 침식 알고리즘이 적용된 상기 3D 깊이 이미지에 대하여 공간 필터링으로 미디안 필터를 적용하여 결정된 마스크 사이즈에 해당하는 이웃 픽셀값들을 크기 순서로 정렬하고 중간값을 선택한 다음, 모폴로지 팽창 알고리즘을 적용하여, 상기 객체를 제외한 배경 영역을 제거하는 것인 3D 깊이 이미지 기반 객체 분리 장치.
A 3D depth image-based object separation apparatus,
An image input unit for inputting a 3D depth image; And
After detecting the object position and the number of objects using the depth information of the input 3D depth image, grouping between pixels having similar pixel values among the pixel values of the detected objects is performed, And an object separating unit for sequentially removing the area, the ceiling, and the ground area to extract a final object,
Wherein the object separating unit includes a background area removing unit for removing a background area using a CCA (Connected Component Analysis)
Wherein the background region removing unit applies a morphology erosion algorithm to the object detected in the 3D depth image and then applies a median filter to the 3D depth image to which the morphology erosion algorithm is applied, Values are sorted in order of magnitude, an intermediate value is selected, and a morphology expansion algorithm is applied to remove the background area excluding the object.
상기 이미지 입력부로부터 입력되는 3D 깊이 이미지의 상태를 판단하여 해당 3D 깊이 이미지에 노이즈가 포함된 경우, 해당 3D 깊이 이미지를 객체 분리부로 제공하는 이미지 상태 판단부를 더 포함하는 것인 3D 깊이 이미지 기반 객체 분리 장치.
The method according to claim 1,
Further comprising an image state determination unit for determining a state of a 3D depth image input from the image input unit and providing the 3D depth image to an object separation unit when noise is included in the 3D depth image, Device.
상기 객체 분리부는,
노이즈가 포함된 3D 깊이 이미지로부터 객체의 위치 및 객체 수를 탐지하는 객체 탐지부 및
상기 배경 영역 제거부를 통해 배경 영역이 제거된 이미지로부터 천장 영역 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 천장 및 지면 영역 제거부를 포함하는 것인 3D 깊이 이미지 기반 객체 분리 장치.
3. The method of claim 2,
Wherein the object separator comprises:
An object detection unit for detecting the position of the object and the number of objects from the 3D depth image including the noise;
And a ceiling and ground area removing unit for sequentially removing the ceiling area and the ground area from the image from which the background area is removed through the background area removing unit to extract the final object.
상기 객체 탐지부는, 입력되는 3D 깊이 이미지의 깊이 정보를 통해 딥러닝 객체 탐지 방식을 이용하여 객체의 위치 및 객수를 탐지하여 객체의 위치 좌표값을 획득하여 저장하는 것인 3D 깊이 이미지 기반 객체 분리 장치.
The method of claim 3,
Wherein the object detection unit detects the position and the number of the object using the deep running object detection method through the depth information of the input 3D depth image and acquires and stores the position coordinate value of the object, .
상기 천장 및 지면 영역 제거부는, 배경영역 제거부에서 배경 영역이 제거된 깊이 이미지를 3차원 좌표로 변환한 후, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정하고,
천장 및 지면으로부터 특정 임계치까지를 평면이라고 정하고, 계산된 평면에서 임계치에 포함되는 점의 개수를 산출하며,
상기 동작을 일정 횟수 반복하여, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거하는 것인 3D 깊이 이미지 기반 객체 분리 장치.
The method of claim 3,
The ceiling and floor area removing unit may convert the depth image from which the background area is removed in the background area removing unit into three-dimensional coordinates, arbitrarily select three points among the three-dimensional coordinates, determine a plane using the plane equation ,
From the ceiling and the ground to a specific threshold is defined as a plane, the number of points included in the threshold in the calculated plane is calculated,
And repeating the operation a predetermined number of times to determine a plane including a greatest number of points of the number of repetitions as a ground and a ceiling to remove the corresponding region.
3D 깊이 이미지를 입력하는 단계; 및
입력된 3D 깊이 이미지의 깊이 정보를 이용하여 객체 위치 및 객체 수를 탐지한 후, 탐지된 객체들에 대한 픽셀값들중 유사 픽셀값을 가지는 픽셀간 그룹핑을 수행하고, 그룹핑된 객체 영역 이외의 배경 영역 및 천장 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 단계를 포함하되,
상기 객체를 추출하는 단계는 CCA(Connected Component Analysis) 방식을 이용하여 배경 영역(노이즈)을 제거하는 단계를 포함하고,
상기 배경 영역을 제거하는 단계는,
상기 3D 깊이 이미지에서 탐지된 객체에 대하여 모폴로지 침식 알고리즘을 적용한 후, 상기 모폴로지 침식 알고리즘이 적용된 상기 3D 깊이 이미지에 대하여 공간 필터링으로 미디안 필터를 적용하여 결정된 마스크 사이즈에 해당하는 이웃 픽셀값들을 크기 순서로 정렬하고 중간값을 선택한 다음, 모폴로지 팽창 알고리즘을 적용하여, 상기 객체를 제외한 노이즈(배경 영역)을 제거하는 것인 3D 깊이 이미지 기반 객체 분리 방법.
A 3D depth image-based object separation method,
Inputting a 3D depth image; And
After detecting the object position and the number of objects using the depth information of the input 3D depth image, grouping between pixels having similar pixel values among the pixel values of the detected objects is performed, Removing the area, the ceiling, and the land area sequentially to extract a final object,
The step of extracting the object includes a step of removing a background area (noise) using a CCA (Connected Component Analysis) method,
Wherein removing the background region comprises:
Applying a morphology erosion algorithm to the detected object in the 3D depth image, applying a median filter to the 3D depth image to which the morphology erosion algorithm is applied, by spatial filtering, Sorting, selecting a median value, and applying a morphology expansion algorithm to remove noise (background area) excluding the object.
상기 입력되는 3D 깊이 이미지의 상태를 판단하는 단계를 더 포함하고, 상기 판단 결과, 해당 3D 깊이 이미지에 노이즈가 포함된 경우, 노이즈가 포함된 해당 3D 깊이 이미지를 이용하여 상기 객체를 추출하는 단계를 수행하는 것인 3D 깊이 이미지 기반 객체 분리 방법.
8. The method of claim 7,
Further comprising the step of determining the state of the input 3D depth image and extracting the object using the 3D depth image including the noise when noise is included in the 3D depth image as a result of the determination A method for separating 3D depth image based objects.
상기 객체를 추출하는 단계는,
노이즈가 포함된 3D 깊이 이미지로부터 객체의 위치 및 객체 수를 탐지하는 단계 및
상기 배경 영역이 제거된 이미지로부터 천장 영역 및 지면 영역을 순차적으로 제거하여 최종적인 객체를 추출하는 단계를 포함하는 것인 3D 깊이 이미지 기반 객체 분리 방법.
9. The method of claim 8,
Wherein the step of extracting the object comprises:
Detecting the position of the object and the number of objects from the 3D depth image including the noise; and
And sequentially removing the ceiling area and the ground area from the image from which the background area is removed to extract the final object.
상기 객체의 위치 및 객체 수를 탐지하는 단계는, 입력되는 3D 깊이 이미지의 깊이 정보를 통해 딥러닝 객체 탐지 방식을 이용하여 객체의 위치 및 객수를 탐지하여 객체의 위치 좌표값을 획득하여 저장하는 것인 3D 깊이 이미지 기반 객체 분리 방법.
10. The method of claim 9,
The step of detecting the position and the number of objects of the object may include detecting the position and the number of the object using the depth learning object detection method through the depth information of the input 3D depth image to acquire and store the position coordinate value of the object In depth image based object separation method.
상기 객체를 추출하는 단계는,
상기 배경영역 제거된 깊이 이미지를 3차원 좌표로 변환한 후, 3차원 좌표들 중 임의로 3개 점을 선택하여 평면 방정식을 이용하여 평면을 결정하는 단계;
천장 및 지면으로부터 특정 임계치까지를 평면이라고 결정하고, 상기 계산된 평면에서 임계치에 포함되는 점의 개수를 산출하는 단계; 및
상기 단계들을 일정 횟수 반복하여, 반복 횟수 개의 결과 중 가장 점을 많이 포함하는 평면을 지면 그리고 천장으로 결정하여 해당 영역을 제거하는 단계를 포함하는 것인 3D 깊이 이미지 기반 객체 분리 방법. 10. The method of claim 9,
Wherein the step of extracting the object comprises:
Selecting the arbitrary three points among the three-dimensional coordinates, and determining a plane using the plane equation, after converting the depth-removed depth image into three-dimensional coordinates;
Determining a plane from the ceiling and the ground to a specific threshold value, and calculating the number of points included in the threshold in the calculated plane; And
And repeating the steps a predetermined number of times to determine a plane including a greatest number of points among the number of repetitions as a ground and a ceiling to remove the corresponding region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170145949A KR101967858B1 (en) | 2017-11-03 | 2017-11-03 | Apparatus and method for separating objects based on 3D depth image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170145949A KR101967858B1 (en) | 2017-11-03 | 2017-11-03 | Apparatus and method for separating objects based on 3D depth image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101967858B1 true KR101967858B1 (en) | 2019-04-11 |
Family
ID=66167149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170145949A KR101967858B1 (en) | 2017-11-03 | 2017-11-03 | Apparatus and method for separating objects based on 3D depth image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101967858B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102144474B1 (en) * | 2019-07-26 | 2020-08-14 | 한국전기연구원 | Method for detecting injurious insect in image |
KR20210081527A (en) * | 2019-12-24 | 2021-07-02 | 동의대학교 산학협력단 | Apparatus and method for improving the performance of stereo-based ROI detection algorithm |
KR102495817B1 (en) * | 2022-01-19 | 2023-02-07 | 에이아이다이콤 (주) | A method of recognizing wire harness 3D profile based on machine learning |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110051416A (en) * | 2009-11-10 | 2011-05-18 | 삼성전자주식회사 | Image processing apparatus and method |
US20140139633A1 (en) * | 2012-11-21 | 2014-05-22 | Pelco, Inc. | Method and System for Counting People Using Depth Sensor |
KR20160011523A (en) * | 2014-07-22 | 2016-02-01 | 주식회사 에스원 | Device and method surveiling innormal behavior using 3d image information |
KR101755023B1 (en) * | 2015-12-31 | 2017-07-06 | 주식회사 에스원 | 3d motion recognition apparatus and method |
-
2017
- 2017-11-03 KR KR1020170145949A patent/KR101967858B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110051416A (en) * | 2009-11-10 | 2011-05-18 | 삼성전자주식회사 | Image processing apparatus and method |
US20140139633A1 (en) * | 2012-11-21 | 2014-05-22 | Pelco, Inc. | Method and System for Counting People Using Depth Sensor |
KR20160011523A (en) * | 2014-07-22 | 2016-02-01 | 주식회사 에스원 | Device and method surveiling innormal behavior using 3d image information |
KR101755023B1 (en) * | 2015-12-31 | 2017-07-06 | 주식회사 에스원 | 3d motion recognition apparatus and method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102144474B1 (en) * | 2019-07-26 | 2020-08-14 | 한국전기연구원 | Method for detecting injurious insect in image |
KR20210081527A (en) * | 2019-12-24 | 2021-07-02 | 동의대학교 산학협력단 | Apparatus and method for improving the performance of stereo-based ROI detection algorithm |
KR102430120B1 (en) | 2019-12-24 | 2022-08-05 | 동의대학교 산학협력단 | Apparatus and method for improving the performance of stereo-based ROI detection algorithm |
KR102495817B1 (en) * | 2022-01-19 | 2023-02-07 | 에이아이다이콤 (주) | A method of recognizing wire harness 3D profile based on machine learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Islam et al. | Real time hand gesture recognition using different algorithms based on American sign language | |
Goyal et al. | Sign language recognition system for deaf and dumb people | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
CN109684959B (en) | Video gesture recognition method and device based on skin color detection and deep learning | |
Rahim et al. | Hand gesture recognition based on optimal segmentation in human-computer interaction | |
Abate et al. | BIRD: Watershed based iris detection for mobile devices | |
CN106326860A (en) | Gesture recognition method based on vision | |
Kalsh et al. | Sign language recognition system | |
CN106709518A (en) | Android platform-based blind way recognition system | |
KR101967858B1 (en) | Apparatus and method for separating objects based on 3D depth image | |
KR101737430B1 (en) | A method of detecting objects in the image with moving background | |
She et al. | A real-time hand gesture recognition approach based on motion features of feature points | |
Raheja et al. | Hand gesture pointing location detection | |
CN111222379A (en) | Hand detection method and device | |
CN107272899B (en) | VR (virtual reality) interaction method and device based on dynamic gestures and electronic equipment | |
KR101962872B1 (en) | Smart recognition system and method using hand motion tracking | |
Raj et al. | Model for object detection using computer vision and machine learning for decision making | |
CN104751513A (en) | Human skeleton model establishing method and device | |
JP2014199506A (en) | Object detection device, object method of detection, and program | |
KR101931220B1 (en) | Apparatus and Method for Body Components Detection | |
KR20200010658A (en) | Method for identifing person, computing system and program using the same | |
JP5217917B2 (en) | Object detection and tracking device, object detection and tracking method, and object detection and tracking program | |
US20230186478A1 (en) | Segment recognition method, segment recognition device and program | |
KR101614798B1 (en) | Non-contact multi touch recognition method and system using color image analysis | |
KR101357581B1 (en) | A Method of Detecting Human Skin Region Utilizing Depth Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |