[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101501487B1 - Depth information based Head detection apparatus and method thereof - Google Patents

Depth information based Head detection apparatus and method thereof Download PDF

Info

Publication number
KR101501487B1
KR101501487B1 KR1020130084841A KR20130084841A KR101501487B1 KR 101501487 B1 KR101501487 B1 KR 101501487B1 KR 1020130084841 A KR1020130084841 A KR 1020130084841A KR 20130084841 A KR20130084841 A KR 20130084841A KR 101501487 B1 KR101501487 B1 KR 101501487B1
Authority
KR
South Korea
Prior art keywords
user
head
area
depth image
region
Prior art date
Application number
KR1020130084841A
Other languages
Korean (ko)
Other versions
KR20150010193A (en
Inventor
안양근
정광모
박영충
최광순
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130084841A priority Critical patent/KR101501487B1/en
Publication of KR20150010193A publication Critical patent/KR20150010193A/en
Application granted granted Critical
Publication of KR101501487B1 publication Critical patent/KR101501487B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 머리 검출 기술에 관한 것으로서, 보다 상세하게는 깊이 카메라에서 촬영된 깊이 영상에서 머리 인식 범위와 인식 정밀도를 향상시켜 인식 범위 내에 있는 다수의 머리를 검출할 수 있는 기술에 관한 것이다. 이를 위한, 본 발명의 일 면에 따른 깊이 영상 기반 머리 검출장치는 깊이 영상에서 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최 상단의 픽셀을 검출하고, 검출된 최 상단의 픽셀을 중심으로 적어도 하나 이상의 관심 영역을 생성하는 영상 처리부; 및
상기 적어도 하나 이상의 관심 영역 중에서 기 설정된 조건을 만족하는 사용자 머리 영역을 검출하는 머리 영역 결정부를 포함한다.
The present invention relates to a head detection technique, and more particularly, to a technique capable of detecting a plurality of heads within a recognition range by improving a head recognition range and a recognition accuracy in a depth image photographed by a depth camera. To this end, a depth image-based head detecting apparatus according to an aspect of the present invention detects a user area based on depth information data in a depth image, searches for a length direction from an upper end of the depth image, An image processing unit for detecting pixels and generating at least one region of interest around the detected uppermost pixel; And
And a head area determination unit for detecting a user head area that satisfies predetermined conditions among the at least one area of interest.

Description

깊이 영상 기반 머리 검출방법 및 장치 {Depth information based Head detection apparatus and method thereof}[0001] The present invention relates to a depth-based head detection apparatus and method,

본 발명은 머리 검출 기술에 관한 것으로서, 보다 상세하게는 깊이 카메라에서 촬영된 깊이 영상에서 머리 인식 범위와 인식 정밀도를 향상시켜 인식 범위 내에 있는 다수의 머리를 검출할 수 있는 기술에 관한 것이다.The present invention relates to a head detection technique, and more particularly, to a technique capable of detecting a plurality of heads within a recognition range by improving a head recognition range and a recognition accuracy in a depth image photographed by a depth camera.

다양한 이미징(imaging) 시스템들 및 이미지 처리 애플리케이션들에서, 소스 이미지의 인간 머리의 위치 및/또는 배향을 자동으로 인지하는 것이 유리하다. 예를 들어, 사용자는 이미징 디바이스의 범위 내에서 그의 머리를 이동시킴으로써 컴퓨터 시스템에서 실행중인 프로그램, 예를 들어, 비디오 게임 프로그램과 상호작용할 수 있다. 대안적으로, 이러한 머리 인식 방법은 또한 포트러처(portraiture)를 위해 최적화하도록 유효 구경(aperture), 노출 시간, 초점 심도와 같은 파라미터들을 조정하기 위해 이미징 디바이스에서 이용될 수 있다.In various imaging systems and image processing applications, it is advantageous to automatically recognize the position and / or orientation of the human head of the source image. For example, a user may interact with a program running on a computer system, e.g., a video game program, by moving his head within range of the imaging device. Alternatively, such a head recognition method may also be used in an imaging device to adjust parameters such as effective aperture, exposure time, depth of focus, to optimize for portraiture.

컴퓨터 시스템들과의 상호작용, 및 특히, 데이터 및 커맨드들의 입력은 일반적으로 알려진 이슈이다.Interaction with computer systems and, in particular, input of data and commands is a generally known issue.

종래에는, 이러한 상호작용은 사용자의 물리적 작용에 응답하여 신호를 생성하는 키보드들, 마우스들, 스크롤 휠들, 펜들, 터치-스크린들, 조이스틱들, 게임 패드들 등과 같은 물리적 입력 디바이스를 통해 발생하였다. 그러나 이러한 물리적 입력 디바이스들은 다수의 단점들을 갖는다. 예를 들어, 이들은 3-차원 "가상 리얼리티(virtual reality)" 환경들과 같은 일부 애플리케이션들에서 어색하고 부족한 현실성을 느끼게 하는 제한된 양의 상이한 입력 신호들만을 제공할 수 있다. 게다가 이들은 휴대하기 쉽고 그들의 계속되는 이용은 심지어Conventionally, this interaction has occurred through physical input devices such as keyboards, mice, scroll wheels, pens, touch-screens, joysticks, game pads, etc., that generate signals in response to a user's physical actions. However, these physical input devices have a number of disadvantages. For example, they can provide only a limited amount of different input signals that make them feel awkward and scarce in some applications, such as three-dimensional "virtual reality" environments. Moreover, they are easy to carry and their continued use is even more

RSI(Repetitive Strain Injury)와 같은 사용자의 건강에 대해 부정적인 결과들을 유발할 수 있다.Negative effects on the user's health, such as RSI (Repetitive Strain Injury).

대안적인 입력 디바이스들 및 방법들 역시 알려져 있다. 예를 들어, 음성 인식을 위한 실제 시스템들이 이용 가능하다. 그러나 음성 인식은 사용자에 의한 빠르고, 간결하고 반복적 입력들이 요구되는 액션 게임들과 같은 일부 애플리케이션 들에서 실제적인 대안은 아니다. 또한, 그들의 유효성은 배경 잡음에 의해 악영향을 받고, 이들은 일반적으로 특정한 사용자의 음성 커맨드를 인식하기 위한 학습 기간(learning period)을 요구한다.Alternative input devices and methods are also known. For example, real systems for speech recognition are available. However, speech recognition is not a practical alternative in some applications, such as action games where fast, concise and repetitive inputs are required by the user. In addition, their effectiveness is adversely affected by background noise, and they typically require a learning period to recognize a particular user's voice command.

다른 대안은 이미지 인식이다. 그들의 가장 단순한 형태에서, 이미지 인식 시스템들은 바코드들과 같은 대조적인 컬러(contrasting colour)들의 이진 패턴들을 인식하고, 이 패턴들을 처리를 위해 이진 신호들로 변환한다.Another alternative is image recognition. In their simplest form, image recognition systems recognize binary patterns of contrasting colors, such as bar codes, and convert these patterns into binary signals for processing.

보다 진보된 이미지 인식 시스템들은 이미지들에서 더 복잡한 패턴들을 인식하고, 그에 응답하여 매우 다양한 신호들을 생성할 수 있다. 이미징 시스템의 범위 내에서 사용자의 제스처(gesture)들을 인식하기 위해 예를 들어, 미국 특허 번호 제6256033호에서 이러한 이미지 인식 시스템들이 제안되었다. 그러나 종래의 이미징 시스템들은 심도(depth)의 인식이 없으며 단지 상기 사용자의 2D 프로젝션만 생성할 수 있다. 그 결과, 사용자 제스처들의 인식은 본질적으로 결점이 있고, 가능한 입력들의 범위로 제한되며, 가능한 인식 실수들로 혼란스러워(riddle) 진다. 특히, 이러한 시스템들은 사용자를 그의 배경으로부터 분리하는 문제들을 갖는다.More advanced image recognition systems are able to recognize more complex patterns in images and produce a wide variety of signals in response thereto. Such image recognition systems have been proposed, for example, in U.S. Patent No. 6256033 to recognize gestures of a user within the scope of an imaging system. However, conventional imaging systems have no depth recognition and can only generate the 2D projection of the user. As a result, the perception of user gestures is inherently flawed, limited by the range of possible inputs, and riddled with possible recognition errors. In particular, such systems have problems separating the user from his background.

그러나 3D 이미징 시스템들의 개발은 예를 들어, 더 나은 사용자 제스처 인식을 허용하는 형상 인식 방법들 및 디바이스를 개발할 수 있는 가능성을 제공한다. 하나의 이러한 3D 이미징 시스템은 G.Yahav, G.J.Iddam 및 D.Mandelboum의 "3D Imaging Camera for Gaming Application"에 개시되었다. 이 논문에 개시된 3D 이미징 시스템은 3D 이미징 시스템의 범위 내의 객체들로부터 반사되는 광의 파두(wavefront)의 형상으로부터 심도 지각(depth perception)이 획득되는 이른바 "타임 오브 플라이트(Time-Of-Flight)" 또는 TOF 타입이다. 그러나 스테레오 카메라들, LIDAR, 레이더, 소나(sonar) 등과 같은 다른 타입들의 이미징 시스템들이 또한 제안되었다.However, the development of 3D imaging systems, for example, provides the possibility to develop shape recognition methods and devices that allow for better user gesture recognition. One such 3D imaging system is disclosed in G. Yahav, G. J. Iddam and D. Mandelboum, "3D Imaging Camera for Gaming Application ". The 3D imaging system disclosed in this paper is a so-called " Time-Of-Flight "in which a depth perception is obtained from the shape of the wavefront of light reflected from objects within the 3D imaging system TOF type. However, other types of imaging systems have also been proposed, such as stereo cameras, LIDAR, radar, sonar, and the like.

예를 들어, 국제 특허 출원 WO 2008/128568 A1에서, 3D 이미지에서 인간 몸과 같은 대상(subject)을 선택하고 머리를 포함하는 복수의 개별 영역들로 이 대상을 단편화(segment)하기 위해 장면의 3D 이미지를 포착하는 것이 제안되었다.For example, in International Patent Application WO 2008/128568 A1, in order to select a subject such as a human body in a 3D image and to segment this object into a plurality of individual regions including the head, It has been proposed to capture images.

미국 특허 US 7,203,356에서는, 다양한 대안들 중에서, 3D 이미징 시스템에 의해 포착되는 소스 이미지에서 인간 머리의 위치를 결정하기 위해 타원 또는 타원체 맞춤(fitting)을 이용하는 것이 제안되었다. 그러나 이 종래 기술은 머리를 모델링하는 타원 또는 타원체의 파라미터가 어떻게 획득되는지를 개시하지 않는다.In US 7,203,356, among the various alternatives, it has been proposed to use an ellipse or ellipsoidal fitting to determine the position of the human head in the source image captured by the 3D imaging system. However, this prior art does not disclose how parameters of an ellipse or ellipsoid that models the head are obtained.

본 발명은 상술한 문제점을 해결하기 위하여, 조명의 변화가 있거나, 충분한 조명이 주어지지 않는 환경에서도 카메라 인식 범위 내에 있는 모든 사용자의 머리를 추적하여 검출할 수 있는 머리 검출 방법을 제공하는 것을 목적으로 한다.The object of the present invention is to provide a head detecting method capable of tracking and detecting the head of all users in a camera recognition range even in an environment where there is a change in illumination or in a situation where sufficient illumination is not given do.

전술한 목적을 달성하기 위한 본 발명의 일면에 따른 깊이 영상 기반 머리 검출장치는 전경 및 배경에 대한 깊이 정보 데이터를 포함하는 깊이 영상에서 다수 사용자의 머리를 검출하는 장치에 관한 것으로서,According to an aspect of the present invention, there is provided an apparatus for detecting a head of a plurality of users in a depth image including depth information data for foreground and background,

상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최 상단의 픽셀을 검출하고, 검출된 최 상단의 픽셀을 중심으로 적어도 하나 이상의 관심 영역을 생성하는 영상 처리부; 및 상기 적어도 하나 이상의 관심 영역 중에서 기 설정된 조건을 만족하는 사용자 머리 영역을 검출하는 머리 영역 결정부를 포함한다. Detecting a user area on the basis of the depth information data in the depth image, detecting a top pixel in the user area by searching in a longitudinal direction from an upper end of the depth image, An image processor for generating at least one region of interest; And a head area determination unit for detecting a user head area that satisfies a predetermined condition among the at least one area of interest.

바람직하게, 상기 영상 처리부는 상기 깊이 영상의 상단의 좌측 또는 우측에서부터 기 설정된 일정 간격으로 길이 방향으로 탐색하여 상기 사용자 영역의 최 상단에 위치하는 적어도 하나의 픽셀을 검출할 수 있다.Preferably, the image processor detects at least one pixel positioned at the uppermost end of the user area by searching in the longitudinal direction at predetermined intervals from the left or right of the upper end of the depth image.

일 예로, 상기 관심 영역은 상기 최 상단의 픽셀이 갖는 깊이 정보 데이터에 기초하여 그 크기가 결정될 수 있다.For example, the size of the ROI may be determined based on depth information data of the uppermost pixel.

일 예로, 상기 기 설정된 조건은 상기 관심 영역 내를 차지하는 상기 사용자 영역의 비율이 제1 설정 값 이상인 제1 조건, 상기 관심 영역 내의 중심 점 위치에 상기 사용자 영역이 위치해야 하는 제2 조건, 상기 관심 영역의 아래에 상기 사용자 영역이 위치해야 하는 제3 조건, 상기 관심 영역 내를 차지하는 상기 사용자 영역이 상기 관심 영역 내의 중심 점 위치를 기준으로 좌우 대칭을 만족해야 하는 제4 조건 중 적어도 하나를 포함한다.For example, the predetermined condition may include a first condition that a ratio of the user area occupying the ROI is equal to or greater than a first set value, a second condition that the user area should be located at a center point position within the ROI, A fourth condition that the user region should be located below the region, and a fourth condition that the user region occupying the region of interest must satisfy the left-right symmetry with respect to the center point position in the region of interest .

한편, 머리 영역 결정부는 제1 사용자 머리 영역을 검출하면, 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터를 삭제하는 것을 특징으로 한다. Meanwhile, when the head area determining unit detects the first user head area, the head area determining unit deletes the depth information data for the user area corresponding to the first user head area.

이때, 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터가 삭제된 상태에서 상기 제1 사용자 머리 영역과 다른 제2 사용자 머리 영역에 대한 검출이 수행될 수 있다.At this time, the detection of the second user's head area other than the first user's head area may be performed in a state where the depth information data for the user area corresponding to the first user's head area is deleted.

바람직하게, 상기 영상 처리부는 상기 깊이 영상에서 깊이 정보에 기초하여 전경과 배경을 분리하는 전/배경 분리부와, 배경이 분리된 상기 사용자 영역에서 최 상단에 위치하는 픽셀을 검출하는 최고점 검출부와, 상기 최고점을 중심으로 머리 영역 검출을 위한 후보 영역을 생성하는 관심 영역 설정부를 포함할 수 있다.Preferably, the image processing unit includes a foreground / background separator for separating the foreground and the background from the depth image based on the depth information, a peak detector for detecting a pixel located at the top of the user area, And a region of interest setting unit for generating a candidate region for head region detection around the highest point.

전경 및 배경에 대한 깊이 정보 데이터를 포함하는 깊이 영상에서 다수 사용자의 머리를 검출하는 방법에 있어서, 본 발명의 다른 면에 따른 깊이 영상 기반 머리 검출방법은 상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최 상단의 픽셀을 검출하고, 검출된 최 상단의 픽셀을 중심으로 적어도 하나 이상의 관심 영역을 생성하는 영상 처리 단계; 및 상기 적어도 하나 이상의 관심 영역 중에서 기 설정된 조건을 만족하는 사용자 머리 영역을 검출하는 머리 영역 결정 단계를 포함한다.A depth image-based head detection method according to another aspect of the present invention is a method for detecting a head of a plurality of users in a depth image including depth information data on foreground and background, An image processing step of detecting a user area, searching for the topmost pixel in the user area by searching in the longitudinal direction from the top of the depth image, and generating at least one ROI around the detected topmost pixel; And a head region determination step of detecting a user head region that satisfies predetermined conditions among the at least one region of interest.

바람직하게, 상기 영상 처리 단계는 상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 전경과 배경을 분리하여, 사용자 영역을 검출하는 단계와, 상기 깊이 영상의 상단의 좌측 또는 우측에서부터 기 설정된 일정 간격으로 길이 방향으로 탐색하여 상기 사용자 영역의 최 상단에 위치하는 적어도 하나의 픽셀을 검출하는 단계를 포함한다.Preferably, the image processing step includes the steps of: detecting a user area by separating foreground and background based on the depth information data from the depth image; And detecting at least one pixel located at the uppermost end of the user area.

일 예로, 상기 관심 영역은 상기 최 상단의 픽셀이 갖는 깊이 정보 데이터에 기초하여 그 크기가 결정되는 것이다.For example, the size of the ROI is determined based on the depth information data of the uppermost pixel.

상술한 바와 같이 본 발명에 따르면, 카메라 인식 범위 내에 있는 모든 사용자의 머리를 추적하여 다수의 피사체가 동시에 촬영된 상태에서도 모든 사용자의 머리를 검출할 수 있는 효과가 있다. As described above, according to the present invention, the head of all the users in the camera recognition range can be tracked, and the head of all users can be detected even when a plurality of subjects are simultaneously photographed.

또한, 깊이 카메라에 의해 촬영된 영상에서 피사체와 카메라 사이의 깊이 정보를 활용하여 사용자의 머리를 검출하므로 조명이 없거나, 조명이 변화하는 환경에도 강인한 머리 검출 솔루션을 제공할 수 있다.In addition, since the user's head is detected by utilizing the depth information between the subject and the camera in the image photographed by the depth camera, it is possible to provide a strong head detection solution even in an environment where no illumination or illumination changes.

도 1은 본 발명의 실시예에 따른 깊이 영상 기반 머리 검출장치의 블록 구성도.
도 2는 도 1의 영상 처리부의 내부 구성을 도시한 블록 구성도.
도 3은 깊이 영상에서 전/배경 분리 결과, 사용자 영역만 분리된 영상을 도시한 예시도.
도 4a 및 도 4b는 도 3의 분리된 영상에서 좌측 상단을 기준으로 사용자 영역을 탐색하는 과정을 도시한 예시도.
도 5는 도 4의 사용자 영역 탐색 결과, 머리 검출을 위한 관심 영역이 생성되는 과정을 도시한 예시도.
도 6a 내지 도 6c는 도 5의 관심 영역에서 머리 영역을 결정하는 과정을 도시한 예시도.
도 7a 및 도 7b는 머리 영역이 검출된 사용자 영역에 대해 깊이 정보를 삭제한 후, 처음부터 머리 검출을 위한 사용자 영역을 재탐색하는 과정을 도시한 예시도.
도 8은 본 발명의 실시예에 따른 깊이 영상 기반 머리 검출방법을 도시한 흐름도.
1 is a block diagram of a depth image-based head detection apparatus according to an embodiment of the present invention;
FIG. 2 is a block diagram showing an internal configuration of the image processing unit of FIG. 1. FIG.
FIG. 3 is a diagram illustrating an image obtained by separating only a user region as a result of foreground / background separation in a depth image. FIG.
4A and 4B are views illustrating a process of searching for a user area based on the left upper end of the separated image of FIG.
FIG. 5 is a diagram illustrating a user area search result of FIG. 4, illustrating a process of creating a region of interest for hair detection; FIG.
6A to 6C are diagrams illustrating a process of determining a head region in the ROI of FIG. 5;
FIGS. 7A and 7B are diagrams illustrating a process of searching for a user area for head detection from the beginning after deleting depth information for a user area in which a head area is detected; FIG.
8 is a flowchart illustrating a depth image-based head detection method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가급적 동일한 부호를 부여하고 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, like reference numerals refer to like elements throughout. In the drawings, like reference numerals are used to denote like elements, and in the description of the present invention, In the following description, a detailed description of the present invention will be omitted.

도 1은 본 발명의 실시예에 따른 깊이 영상 기반 머리 검출장치의 블록 구성도이다.1 is a block diagram of a depth image-based head detection apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 깊이 영상 기반 머리 검출장치는 깊이 영상 입력부(110), 영상 처리부(120), 머리 영역 결정부(130)를 포함하여 구성된다. Referring to FIG. 1, a depth image-based head detection apparatus according to an embodiment of the present invention includes a depth image input unit 110, an image processing unit 120, and a head area determination unit 130.

깊이 영상 입력부(110)에는 단말에 탑재된 깊이 카메라에서 촬영된 영상 데이터가 입력된다. 깊이 카메라(Depth camera)는 장면 내의 객체와의 거리 정보를 생성한다. 일 예로, Time-of-Flight(TOF) 기술을 이용하는 카메라가 대표적이다. 깊이 카메라는 적외선 혹은 광 신호를 장면에 방사하고, 그 신호가 물체에 반사되어 돌아오는 위상차를 이용하여 거리를 측정하여 깊이 영상으로 출력한다. The depth image input unit 110 receives image data captured by a depth camera mounted on the terminal. Depth cameras generate distance information to objects in a scene. An example is a camera using Time-of-Flight (TOF) technology. The depth camera emits an infrared or optical signal to the scene, measures the distance using the phase difference that the signal returns to the object, and outputs it as a depth image.

영상 처리부(120)는 상기 깊이 영상 입력부(110)에 입력된 깊이 영상에서 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최 상단의 픽셀을 검출하고, 검출된 최 상단의 픽셀을 중심으로 적어도 하나 이상의 관심 영역을 생성한다. 여기서 사용자 영역은 전경과 배경이 함께 촬영된 깊이 영상에서 배경 영역이 분리된 영상을 의미한다.The image processing unit 120 detects a user area on the basis of the depth information data in the depth image input to the depth image input unit 110, searches in the longitudinal direction from the top of the depth image, And generates at least one region of interest around the detected uppermost pixel. Here, the user area means an image in which a background area is separated from a depth image in which foreground and background are taken together.

상기와 같은 기능을 수행하는 영상 처리부(120)의 구체 구성을 도 2를 참조하여 구체적으로 설명한다. 도 2는 도 1의 영상 처리부의 내부 구성을 도시한 블록 구성도이다. A specific configuration of the image processing unit 120 performing the above functions will be described in detail with reference to FIG. 2 is a block diagram showing an internal configuration of the image processing unit of FIG.

상기 영상 처리부(120)는 도 2에 도시된 바와 같이, 전/배경 분리부(121), 최고점 검출부(122), 관심 영역 설정부(123)를 포함하여 구성될 수 있다.2, the image processing unit 120 may include a foreground / background separating unit 121, a peak detecting unit 122, and a region of interest setting unit 123.

전/배경 분리부(121)는 깊이 카메라에서 촬영된 영상에서 획득된 픽셀 단위의 깊이 정보 데이터를 이용하여 객체(전경)와 배경을 분리한다. 이는 촬영된 깊이 영상에서 사용자 영역 부분을 추출하기 위한 것으로서, 깊이 카메라가 처음 구동할 때 촬영된 초기 영상을 저장하고, 처리 대상이 되는 현재 영상과의 차 영상을 이용하여 배경을 제거하는 방법을 사용한다. 배경이 분리되어 사용자 영역만 남은 깊이 영상은 도 3에 도시된 바와 같다.The foreground / background separator 121 separates the object (foreground) and the background using the depth information data of each pixel obtained in the image photographed by the depth camera. This is for extracting the user area part from the photographed depth image. It stores the initial image taken when the depth camera is driven for the first time and removes the background by using the difference image with the current image to be processed do. The depth image in which the background is separated and only the user area is left is as shown in FIG.

최고점 검출부(122)는 사용자 영역만 남은 깊이 영상에서 사용자 영역에 해당하는 픽셀 중, 최고점 픽셀을 검출한다. 구체적으로, 상기 최고점 검출부(122)는 상기 깊이 영상의 상단의 좌측 또는 우측에서부터 기 설정된 일정 간격으로 길이 방향으로 탐색하여 상기 사용자 영역의 최 상단에 위치하는 적어도 하나의 픽셀을 검출한다.The peak detecting unit 122 detects a peak pixel among the pixels corresponding to the user area in the depth image remaining in the user area only. Specifically, the peak detecting unit 122 detects at least one pixel located at the uppermost end of the user region by searching in the longitudinal direction at predetermined predetermined intervals from the left or right of the upper end of the depth image.

일 예로, 도 4a에 도시된 바와 같이 최고점 검출부(122)는 깊이 영상 좌측 상단에서부터 일정 간격으로 길이 방향으로 픽셀을 탐색한다. 여기서, 상기 깊이 영상은 이진화되어 있으므로, 사용자 영역과 그 이외의 영역(분리된 배경 영역), 즉 각 영역에 해당하는 픽셀은 서로 다른 이진화 된 값을 가질 것이다.For example, as shown in FIG. 4A, the peak detecting unit 122 searches pixels in the longitudinal direction at regular intervals from the upper left corner of the depth image. Here, since the depth image is binarized, the user region and the other regions (separated background regions), that is, pixels corresponding to the respective regions, will have different binarized values.

최고점 검출부(122)는 길이 방향으로 픽셀 값을 탐색하여, 사용자 영역에 해당하는 픽셀 중에서 최고 높이(y축 방향) 값을 갖는 픽셀을 검출한다. 도 4b를 참조하면, 사용자 영역(흰색 영역)에서 최고 점(붉은 색 원으로 표시)은 길이 방향으로 탐색 결과 존재하지 않을 수도 있는데, 만약 존재하게 된다면 어느 하나의 길이 방향의 탐색 결과, 그 길이 방향에서는 하나의 값만이 검출될 것이다. The peak detecting unit 122 detects a pixel having a maximum height (y-axis direction) among the pixels corresponding to the user region by searching for pixel values in the longitudinal direction. Referring to FIG. 4B, the highest point (indicated by a red circle) in the user area (white area) may not exist in the longitudinal direction, and if it exists, the search result in any one of the longitudinal directions, Only one value will be detected.

관심 영역 설정부(123)는 검출된 최고점을 기준으로 머리 영역의 후보 영역이 되는 관심 영역을 생성한다. 여기서, 관심 영역은 검출된 최고점을 기준으로 생성된 다각형을 의미한다. 일 예로, 상기 관심 영역은 도 5에 도시된 바와 같이 사각형으로 생성될 수 있으며, 검출된 최고점 마다 관심 영역은 생성된다. The ROI setting unit 123 creates ROIs that are candidates for the head region based on the detected peak. Here, the ROI refers to a polygon generated based on the detected peak. For example, the ROI may be generated as a rectangle as shown in FIG. 5, and a ROI is generated for each detected peak.

이때, 상기 관심 영역은 카메라와 사용자 사이의 거리에 따라 다른 크기를 가지도록 사전에 정의될 수 있다. 즉, 상기 관심 영역은 검출된 최고점 픽셀이 갖는 깊이 정보 데이터에 기초하여 그 크기가 결정될 수 있다. At this time, the region of interest may be defined in advance to have a different size depending on the distance between the camera and the user. That is, the size of the ROI can be determined based on the depth information data of the detected peak pixel.

머리 영역 결정부(130)는 머리 영역에 대한 후보 영역, 즉 적어도 하나 이상의 관심 영역 중에서 어느 하나를 머리 영역으로 결정한다. 이때, 머리 영역 결정부(130)는 기 설정된 조건에 기초하여, 상기 조건을 만족하는 관심 영역을 머리 영역으로 결정한다. The head area determination unit 130 determines one of the candidate areas for the head area, that is, at least one area of interest, as the head area. At this time, the head area determination unit 130 determines, as a head area, a region of interest that satisfies the above conditions based on a predetermined condition.

여기서, 상기 조건은 아래와 같은데, 그 조건이 어떠한 의미를 갖는지는 도 6a 내지 도 6c를 참조하여 설명한다. 도 6a 내지 도 6c는 도 5의 관심 영역에서 머리 영역을 결정하는 과정을 도시한 예시도이다.
Here, the above conditions are as follows, and what meaning the conditions have will be described with reference to Figs. 6A to 6C. FIGS. 6A to 6C are views illustrating a process of determining a head region in the ROI of FIG. 5. FIG.

(a) 상기 관심 영역 내를 차지하는 상기 사용자 영역의 비율이 제1 설정 값 이상인 제1 조건(a) determining whether a ratio of the user area occupying the ROI is greater than or equal to a first set value,

(b) 상기 관심 영역 내의 중심 점 위치에 상기 사용자 영역이 위치해야 하는 제2 조건(b) a second condition that the user area should be located at a center point position in the ROI

(c) 상기 관심 영역의 아래에 상기 사용자 영역이 위치해야 하는 제3 조건,(c) a third condition under which the user region should be located below the region of interest,

(d)상기 관심 영역 내를 차지하는 상기 사용자 영역이 상기 관심 영역 내의 중심 점 위치를 기준으로 좌우 대칭을 만족해야 하는 제4 조건
(d) a fourth condition that the user region occupying the region of interest must satisfy the left-right symmetry with respect to the center point position in the region of interest;

제1 조건First condition

관심 영역 내를 차지하는 사용자 영역의 비율이 제1 설정 값 이상이어야 머리 영역으로 결정될 수 있다. 예컨대, 상기 제1 설정 값은 70%로 정의될 수 있는데, 도 6a에 도시된 관심 영역의 경우, 그 내부를 차지하는 사용자 영역(흰색 영역)의 비율이 70% 이상이 아니므로 머리 영역으로 결정될 수 없다.
The ratio of the user area occupying the ROIs must be equal to or greater than the first set value to be determined as the head ROIs. For example, the first set value may be defined as 70%. In the case of the ROI shown in FIG. 6A, the ratio of the user area (white area) occupying the ROI is not more than 70% none.

제2 조건Second condition

관심 영역 내의 중심 점 위치에 사용자 영역이 위치해야 머리 영역으로 결정될 수 있다. 도 6a에 도시된 관심 영역의 중심 점(붉은 색 점으로 표시)이 사용자 영역(흰색 영역)에 위치하고 있으므로 상기 관심 영역은 제2 조건을 만족한다.
The user area must be positioned at the center point position within the ROI area, so that the ROI area can be determined. Since the center point (indicated by a red dot) of the ROI shown in FIG. 6A is located in the user area (white area), the ROI satisfies the second condition.

제3 조건Third condition

사람의 머리는 몸과 연결되어 있으므로 머리의 아래 부분에는 항상 사용자 영역(흰색 영역)이 존재해야 한다. 일 예로, 도 6b에 도시된 관심 영역의 경우, 관심 영역의 아래(관심 영역을 형성하는 사각형 외곽선 중에서 아래 선분의 중심이 사용자 영역에 위치하는지 여부로 판단)에 사용자 영역이 위치하지 않으므로 머리 영역으로 결정될 수 없다.
Since the human head is connected to the body, the user area (white area) must always exist in the lower part of the head. For example, in the case of the region of interest shown in FIG. 6B, since the user region is not positioned below the region of interest (whether the center of the lower segment is located in the user region among the rectangular outlines forming the region of interest) Can not be determined.

제4 조건Fourth condition

관심 영역 내를 차지하는 사용자 영역이 관심 영역 내의 중심 점 위치를 기준으로 좌우 대칭을 만족해야 머리 영역으로 결정될 수 있다.
The user region occupying the region of interest must satisfy the symmetry with respect to the center point position in the region of interest so that it can be determined as the head region.

머리 영역 결정부(130)는 상술한 제1 내지 제4 조건을 모두 만족하는 관심 영역을 머리 영역으로 결정할 수 있고, 혹은 상기 제1 내지 제4 조건을 선별적으로 선택하여 선택된 조건을 만족하는 경우 머리 영역으로 결정할 수도 있다. 당업자의 기술 수준에서 얼마든지 변경하여 적용 가능하나, 머리 영역 결정의 정확성을 높이기 위해서는 상술한 제1 내지 제4 조건을 모두 만족하는 관심 영역을 후보 영역으로 결정하는 것이 바람직할 것이다. The head area determination unit 130 may determine a region of interest that satisfies all of the first to fourth conditions as a head region or if the first to fourth conditions are selectively selected and the selected condition is satisfied It can also be determined as the head area. However, in order to improve the accuracy of the head area determination, it is desirable to determine a region of interest satisfying all of the first to fourth conditions described above as the candidate region.

또한, 상기 머리 영역 결정부(130)는 제1 사용자 머리 영역을 검출하면, 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터를 삭제한다.If the head area determination unit 130 detects the first user head area, the depth information data for the user area corresponding to the first user head area is deleted.

그리고 상기 머리 영역 결정부(130)는 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터가 삭제된 상태에서 상기 제1 사용자 머리 영역과 다른 제2 사용자 머리 영역에 대한 검출이 수행한다. The header region determination unit 130 determines whether the first user header region is different from the first user header region in a state where the depth information data for the user region corresponding to the first user header region is deleted do.

도 7a을 참조하면, 머리 영역 결정부(130)가 제1 사용자에 대한 머리 영역(제1 사용자 머리 영역)의 검출이 완료되면, 상기 제1 사용자에 대한 깊이 정보 데이터를 삭제하는데, 여기서 깊이 정보 데이터는 붉은 색 실선으로 표시되어 있다. Referring to FIG. 7A, when the head area determining unit 130 detects the head area (first user head area) for the first user, it deletes the depth information data for the first user, Data is shown in red solid lines.

실험적 데이터를 토대로, 사람의 몸은 머리의 약 3배 정도의 크기를 가진다고 가정한다. 따라서, 검출된 머리 영역(붉은 색 도형 중, 가운데 사각형)을 기준으로 양 옆에 머리 영역 크기의 사각형을 더한 폭이 사람의 몸이라 가정하고, 이에 해당하는 깊이 정보 데이터를 삭제한다. Based on experimental data, it is assumed that the human body has about three times the size of the head. Therefore, it is assumed that the human body has a width obtained by adding squares of the head region size on both sides of the detected head region (middle rectangle among red shapes), and deletes the corresponding depth information data.

도 7b를 참조하면, 삭제된 영역을 제외한 나머지 영역 들에 대해 최고점 검출, 관심 영역 설정, 머리 영역 결정의 과정이 반복적으로 수행되는 것을 알 수 있다. Referring to FIG. 7B, it can be seen that the process of detecting the peak, the region of interest, and the determination of the head region are repeatedly performed for the remaining regions except for the deleted region.

최고점 검출부(122)는 최고점 검출을 위한 길이 방향의 탐색을 깊이 영상의 처음(좌측 상단에서 다시 시작)부터 다시 시작하는데, 이는 머리 영역 검출이 완료된 제1 사용자가 있는 위치 부근에 다른 사용자가 있음에도 불구하고, 이를 누락하는 경우를 회피하기 위함이다. The peak detection unit 122 restarts the search for the peak direction for the detection of the longitudinal direction from the beginning of the depth image (starting from the upper left corner again), even though there is another user in the vicinity of the position where the first user has completed the head region detection And to avoid the case of missing it.

즉, 제1 사용자의 머리 검출이 완료되면, 제1 사용자가 위치한 영역 이후 영역부터 탐색을 할 수도 있지만, 이 경우 동일 위치에 여러 사람이 있는 경우, 머리 검출에 누락이 발생할 수 있으므로 이를 회피하기 위해 다시 처음부터 탐색을 시작하는 것이다. That is, if the first user's head detection is completed, the first user can search from the area after the area where the first user is located. However, in this case, if there are several persons at the same position, I will start searching again from the beginning.

전술한 깊이 영상 기반 머리 검출장치가 구체적으로 어떻게 사용자의 머리를 검출하는 지에 대해 도 8을 참조하여 설명하도록 한다. 도 8은 본 발명의 실시예에 따른 깊이 영상 기반 머리 검출방법을 도시한 흐름도이다.How the depth image-based head detection apparatus described above specifically detects the user's head will be described with reference to FIG. 8 is a flowchart illustrating a depth image-based head detection method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 깊이 영상 기반 머리 검출방법은 깊이 영상 데이터 입력 단계(S110), 전/배경 분리를 이용하여 사용자 영역을 분리하는 단계(S120), 깊이 영상의 상단을 기준으로 사용자 영역에서 최고점을 검출하는 단계(S130), 탐색 결과 검출된 최고점이 있는지 여부를 확인하는 단계(S140), 최고점이 검출되면, 검출된 최고점을 기준으로 관심 영역을 설정하는 단계(S150), 관심 영역에서 머리 영역을 결정하는 단계(S160), 결정된 머리 영역에 해당하는 깊이 정보 데이터를 삭제하는 단계(S170)를 포함한다.Referring to FIG. 8, a depth image-based head detection method according to an embodiment of the present invention includes a step of inputting depth image data (S110), a step of separating a user area using foreground / background separation (S120) A step S140 of detecting the highest point in the user area on the basis of the detected maximum point, a step S140 of checking whether the highest point is detected in the search result, (S160) of determining a head region in the ROI, and deleting the depth information data corresponding to the determined head region (S170).

깊이 정보 기반 머리 검출방법을 제공하기 위한 각 단계가 구체적으로 어떻게 구성되는지에 대해서는 앞서 머리 검출장치에서 설명하였으므로 그 구체적인 방법에 대해서는 생략하기로 한다. The detailed configuration of each step for providing the depth information-based head detection method has already been described in the head detection apparatus, and thus a detailed method thereof will be omitted.

이상, 본 발명의 바람직한 실시예를 통하여 본 발명의 구성을 상세히 설명하였으나, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 명세서에 개시된 내용과는 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is to be understood that the invention may be embodied in other specific forms. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

Claims (11)

전경 및 배경에 대한 깊이 정보 데이터를 포함하는 깊이 영상에서 다수 사용자의 머리를 검출하는 장치에 있어서,
상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최 상단의 픽셀을 검출하고, 검출된 최 상단의 픽셀을 기준으로 적어도 하나 이상의 관심 영역을 생성하는 영상 처리부; 및 상기 적어도 하나 이상의 관심 영역 중에서 기 설정된 조건을 만족하는 사용자 머리 영역을 검출하는 머리 영역 결정부를 포함하되,
상기 머리 영역 결정부는,
제1 사용자 머리 영역을 검출하면, 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터를 삭제하는 것
인 깊이 영상 기반 머리 검출장치.
An apparatus for detecting a head of a plurality of users in a depth image including depth information data for foreground and background,
Detecting a user area on the basis of the depth information data in the depth image, detecting a topmost pixel in the user area by searching in a longitudinal direction from an upper end of the depth image, An image processor for generating at least one region of interest; And a head area determination unit for detecting a user head area that satisfies predetermined conditions among the at least one area of interest,
The head area determination unit determines,
And deleting the depth information data for the user area corresponding to the first user head area when the first user head area is detected
Depth image based head detection device.
제1항에 있어서, 상기 영상 처리부는,
상기 깊이 영상의 상단의 좌측 또는 우측에서부터 기 설정된 일정 간격으로 길이 방향으로 탐색하여 상기 사용자 영역의 최 상단에 위치하는 적어도 하나의 픽셀을 검출하는 것
인 깊이 영상 기반 머리 검출장치.

The image processing apparatus according to claim 1,
Detecting at least one pixel located at the uppermost end of the user area by searching in the longitudinal direction at predetermined predetermined intervals from the left or right of the upper end of the depth image
Depth image based head detection device.

제1항에 있어서, 상기 관심 영역은,
상기 최상단의 픽셀이 갖는 깊이 정보 데이터에 기초하여 그 크기가 결정되는 것
인 깊이 영상 기반 머리 검출장치.
2. The apparatus of claim 1,
The size of which is determined based on the depth information data of the uppermost pixel
Depth image based head detection device.
제1항에 있어서, 상기 기 설정된 조건은,
(a) 상기 관심 영역 내를 차지하는 상기 사용자 영역의 비율이 제1 설정 값 이상인 제1 조건
(b) 상기 관심 영역 내의 중심 점 위치에 상기 사용자 영역이 위치해야 하는 제2 조건,
(c) 상기 관심 영역의 아래에 상기 사용자 영역이 위치해야 하는 제3 조건,
(d) 상기 관심 영역 내를 차지하는 상기 사용자 영역이 상기 관심 영역 내의 중심 점 위치를 기준으로 좌우 대칭을 만족해야 하는 제4 조건 중 적어도 하나를 포함하는 것
인 깊이 영상 기반 머리 검출장치.
2. The method according to claim 1,
(a) determining whether a ratio of the user area occupying the ROI is greater than or equal to a first set value,
(b) a second condition that the user area should be located at a center point position within the ROI,
(c) a third condition under which the user region should be located below the region of interest,
(d) a fourth condition that the user region occupying the ROI must satisfy a left-right symmetry with respect to a center point position in the ROI
Depth image based head detection device.
삭제delete 제1항에 있어서,
상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터가 삭제된 상태에서 상기 제1 사용자 머리 영역과 다른 제2 사용자 머리 영역에 대한 검출이 수행되는 것
인 깊이 영상 기반 머리 검출장치.
The method according to claim 1,
The detection is performed on the second user head area different from the first user head area in a state where the depth information data for the user area corresponding to the first user head area is deleted
Depth image based head detection device.
제1항에 있어서, 상기 영상 처리부는,
상기 깊이 영상에서 깊이 정보에 기초하여 전경과 배경을 분리하는 전/배경 분리부와,
배경이 분리된 상기 사용자 영역에서 최 상단에 위치하는 픽셀을 검출하는 최고점 검출부와,
상기 최고점을 중심으로 머리 영역 검출을 위한 후보 영역을 생성하는 관심 영역 설정부를 포함하는 것
인 깊이 영상 기반 머리 검출장치.
The image processing apparatus according to claim 1,
A foreground / background separator for separating foreground and background based on depth information in the depth image,
A peak detecting unit for detecting a pixel located at the uppermost position in the user area from which the background is separated;
And a region of interest setting unit for generating a candidate region for head region detection around the highest point
Depth image based head detection device.
전경 및 배경에 대한 깊이 정보 데이터를 포함하는 깊이 영상에서 다수 사용자의 머리를 검출하는 방법에 있어서,
상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 사용자 영역을 검출하고, 상기 깊이 영상의 상단에서부터 길이 방향으로 탐색하여 상기 사용자 영역에서 최상단의 픽셀을 검출하고, 검출된 최상단의 픽셀을 기준으로 적어도 하나 이상의 관심 영역을 생성하는 영상 처리 단계; 및 상기 적어도 하나 이상의 관심 영역 중에서 기 설정된 조건을 만족하는 사용자 머리 영역을 검출하는 머리 영역 결정 단계를 포함하되,
상기 머리 영역 결정 단계는,
제1 사용자 머리 영역을 검출하면, 상기 제1 사용자 머리 영역에 해당하는 사용자 영역에 대한 상기 깊이 정보 데이터를 삭제하는 것
인 깊이 영상 기반 머리 검출방법.
A method for detecting a head of a plurality of users in a depth image including depth information data for foreground and background,
Detecting a user region based on the depth information data in the depth image, detecting a top pixel in the user region by searching in a longitudinal direction from an upper end of the depth image, detecting at least one or more An image processing step of generating a region of interest; And a head area determination step of detecting a user head area satisfying predetermined conditions among the at least one area of interest,
Wherein the head area determination step comprises:
And deleting the depth information data for the user area corresponding to the first user head area when the first user head area is detected
Depth image based head detection method.
제8항에 있어서, 상기 영상 처리 단계는,
상기 깊이 영상에서 상기 깊이 정보 데이터에 기초하여 전경과 배경을 분리하여, 사용자 영역을 검출하는 단계와,
상기 깊이 영상의 상단의 좌측 또는 우측에서부터 기 설정된 일정 간격으로 길이 방향으로 탐색하여 상기 사용자 영역의 최 상단에 위치하는 적어도 하나의 픽셀을 검출하는 단계를 포함하는 것
인 깊이 영상 기반 머리 검출방법.
9. The image processing method according to claim 8,
Separating foreground and background based on the depth information data in the depth image to detect a user area,
And detecting at least one pixel located at the uppermost end of the user area by searching in the longitudinal direction at predetermined predetermined intervals from the left or right of the upper end of the depth image
Depth image based head detection method.
제8항에 있어서, 상기 관심 영역은,
상기 최상단의 픽셀이 갖는 깊이 정보 데이터에 기초하여 그 크기가 결정되는 것
인 깊이 영상 기반 머리 검출방법.
9. The apparatus of claim 8,
The size of which is determined based on the depth information data of the uppermost pixel
Depth image based head detection method.
제8항에 있어서, 상기 기 설정된 조건은,
(a) 상기 관심 영역 내를 차지하는 상기 사용자 영역의 비율이 제1 설정 값 이상인 제1 조건
(b) 상기 관심 영역 내의 중심 점 위치에 상기 사용자 영역이 위치해야 하는 제2 조건,
(c) 상기 관심 영역의 아래에 상기 사용자 영역이 위치해야 하는 제3 조건,
(d) 상기 관심 영역 내를 차지하는 상기 사용자 영역이 상기 관심 영역 내의 중심 점 위치를 기준으로 좌우 대칭을 만족해야 하는 제4 조건 중 적어도 하나를 포함하는 것
인 깊이 영상 기반 머리 검출방법.
9. The method according to claim 8,
(a) determining whether a ratio of the user area occupying the ROI is greater than or equal to a first set value,
(b) a second condition that the user area should be located at a center point position within the ROI,
(c) a third condition under which the user region should be located below the region of interest,
(d) a fourth condition that the user region occupying the ROI must satisfy a left-right symmetry with respect to a center point position in the ROI
Depth image based head detection method.
KR1020130084841A 2013-07-18 2013-07-18 Depth information based Head detection apparatus and method thereof KR101501487B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130084841A KR101501487B1 (en) 2013-07-18 2013-07-18 Depth information based Head detection apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130084841A KR101501487B1 (en) 2013-07-18 2013-07-18 Depth information based Head detection apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20150010193A KR20150010193A (en) 2015-01-28
KR101501487B1 true KR101501487B1 (en) 2015-03-12

Family

ID=52482071

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130084841A KR101501487B1 (en) 2013-07-18 2013-07-18 Depth information based Head detection apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR101501487B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160118783A (en) 2015-04-03 2016-10-12 한화테크윈 주식회사 Method and Apparatus for counting the number of person
KR101860562B1 (en) 2015-09-11 2018-05-23 한국전자통신연구원 Device and method for recognizing main user
KR101711328B1 (en) * 2016-02-26 2017-03-03 경성대학교 산학협력단 Method for classifying children and adult by using head and body height in images obtained from camera such as CCTV
KR101892093B1 (en) * 2016-11-08 2018-08-28 한국전자통신연구원 Apparatus and method for estimating of user pointing gesture
KR102117050B1 (en) * 2017-09-08 2020-05-29 삼성전자주식회사 Electronic device and method for human segmentation in image
KR102258114B1 (en) * 2019-01-24 2021-05-31 한국전자통신연구원 apparatus and method for tracking pose of multi-user

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156939A (en) * 2005-12-07 2007-06-21 Honda Motor Co Ltd Person detector, person detection method, and person detection program
JP2007164720A (en) * 2005-12-16 2007-06-28 Internatl Business Mach Corp <Ibm> Head detecting device, head detecting method, and head detecting program
KR20120130090A (en) * 2009-12-28 2012-11-28 소프트키네틱 소프트웨어 Head recognition method
KR101283262B1 (en) * 2011-10-21 2013-07-11 한양대학교 산학협력단 Method of image processing and device thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156939A (en) * 2005-12-07 2007-06-21 Honda Motor Co Ltd Person detector, person detection method, and person detection program
JP2007164720A (en) * 2005-12-16 2007-06-28 Internatl Business Mach Corp <Ibm> Head detecting device, head detecting method, and head detecting program
KR20120130090A (en) * 2009-12-28 2012-11-28 소프트키네틱 소프트웨어 Head recognition method
KR101283262B1 (en) * 2011-10-21 2013-07-11 한양대학교 산학협력단 Method of image processing and device thereof

Also Published As

Publication number Publication date
KR20150010193A (en) 2015-01-28

Similar Documents

Publication Publication Date Title
US10599228B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
KR101501487B1 (en) Depth information based Head detection apparatus and method thereof
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP6129309B2 (en) Gesture based user interface
JP6204659B2 (en) Video processing apparatus and video processing method
EP2973390B1 (en) Depth image processing
CN106326832B (en) Device and method for processing image based on object region
WO2013180151A1 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
US20210149478A1 (en) Silhouette-based limb finder determination
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
JP5964603B2 (en) Data input device and display device
JP5555193B2 (en) Data processing apparatus, data processing system, and program
JP2017199278A (en) Detection device, detection method, and program
EP3206188A1 (en) Method and system for realizing motion-sensing control based on intelligent device, and intelligent device
JP6230666B2 (en) Data input device, data input method, and data input program
KR101909326B1 (en) User interface control method and system using triangular mesh model according to the change in facial motion
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP5713655B2 (en) Video processing apparatus, video processing method, and program
JP6836985B2 (en) Programs, devices and methods for estimating the context of human behavior from captured images
US20230306788A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium
KR102430273B1 (en) Wide viewing angle stereo camera- based first person vision system and image processing method using the same
KR101545408B1 (en) Method for detecting profile line and device for detecting profile line
JP2534517B2 (en) Three-dimensional position detection method
JP2022177392A (en) Control program, method for control, and information processor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171207

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190304

Year of fee payment: 5