KR101543150B1 - Apparatus for gesture recognition and method thereof - Google Patents
Apparatus for gesture recognition and method thereof Download PDFInfo
- Publication number
- KR101543150B1 KR101543150B1 KR1020140023682A KR20140023682A KR101543150B1 KR 101543150 B1 KR101543150 B1 KR 101543150B1 KR 1020140023682 A KR1020140023682 A KR 1020140023682A KR 20140023682 A KR20140023682 A KR 20140023682A KR 101543150 B1 KR101543150 B1 KR 101543150B1
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- template
- user
- score
- templates
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 행동 인식 장치 및 그의 행동 인식 방법에 관한 것이다.The present invention relates to a behavior recognition apparatus and a behavior recognition method thereof.
이미지 기반에서의 사람의 행동을 인식하기 위해서는 기계 학습(machine learning) 알고리즘 기반의 분류기를 사용하는 방법과 행동 이미지 기반의 매칭(matching) 알고리즘을 사용하는 방법의 크게 두 가지의 방법이 있다. 전자의 경우는 외란이 많은 환경에서도 강인하게 행동을 인식할 수 있는 장점이 있으나, 행동을 인식하기 위한 훈련과정이 길어서 기 정의된 행동에 대해서만 인식하는 것이 가능하다는 단점이 있다. 따라서, 이미지 기반의 매칭 알고리즘을 사용하되, 행동 등록이 간단하면서도 사람의 행동을 정확하게 인식하기 위한 방법이 필요하다.There are two methods of recognizing human behavior in the image-based method: a method using a classifier based on a machine learning algorithm and a method using a behavior image-based matching algorithm. In the former case, it has the advantage of recognizing the action robustly even in a disturbed environment, but it has a drawback that it is possible to recognize only the predefined action because the training process for recognizing the action is long. Therefore, there is a need for a method that uses an image-based matching algorithm but recognizes the behavior of a person with a simple behavior registration.
본 발명은 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있는 행동 인식 장치 및 그의 행동 인식 방법을 제공한다.The present invention provides a behavior recognition apparatus and a behavior recognition method capable of recognizing user's behavior robust to distance and rotation.
본 발명에 의한 행동 인식 장치의 행동 인식 방법은 사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득 단계; 데이터 저장부에 행동 템플릿이 존재하는 지의 여부를 확인하는 행동 템플릿 확인 단계; 상기 데이터 취득 단계에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하고, 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키는 매칭 단계; 및 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 행동 추정 단계를 포함하는 것을 특징으로 한다. A behavior recognition method of a behavior recognition apparatus according to the present invention includes: a data acquisition step of acquiring joint information and depth information of a user; A behavior template checking step of checking whether a behavior template exists in the data storage unit; A matching step of creating an input action template from the joint information and depth information of the user acquired in the data acquiring step and matching the input action template with a plurality of behavior templates stored in the data storage unit; And a behavior estimation step of outputting a behavior having a behavior template most similar to the input behavior template and estimating a behavior of the user.
상기 데이터 취득 단계에서는 깊이 카메라를 이용하여 사용자의 관절 정보와 깊이 정보를 취득할 수 있다.In the data acquiring step, the joint information and the depth information of the user can be acquired using the depth camera.
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성할 수 있다. In the behavior template checking step, the behavior template may be formed as an image by connecting the positions of the respective joints with straight lines around the reference point of the user's body.
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿이 존재하지 않으면, 상기 행동 인식 장치는 등록 모드로 전환하여 행동 템플릿을 등록할 수 있다.If the behavior template does not exist in the behavior template confirmation step, the behavior recognition apparatus can switch to the registration mode and register the behavior template.
상기 매칭 단계에서는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아낼 수 있다.In the matching step, an input behavior template is matched with a plurality of stored behavior templates to calculate respective similar scores, and a behavior template having a maximum score among the plurality of behavior templates can be found.
상기 매칭 단계에서는 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교할 수 있다.In the matching step, the similarity of the plurality of behavior templates is compared to calculate a minimum acceptable score, so that the score of the behavior template having the maximum score is compared with the minimum acceptable score.
상기 행동 추정 단계에서는 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정할 수 있다.In the behavior estimation step, if the score of the behavior template having the maximum score is larger than the minimum allowable score, the action represented by the behavior template having the maximum score may be output to estimate the behavior of the user.
상기 매칭 단계 후에는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 필터링 단계를 더 포함할 수 있다.And after the matching step, filtering the estimated result using the sliding window filter to prevent the user's behavior estimation from being misjudged.
상기 슬라이딩 윈도우 필터는 일정 시간 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위 내에서 가장 많이 추정된 결과를 출력할 수 있다.The sliding window filter can output the most estimated result within a certain range based on the result estimated in the past including the estimated result within a predetermined time.
더불어, 본 발명에 의한 행동 인식 장치는 사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득부; 상기 사용자의 행동에 따른 복수의 행동 템플릿이 저장된 데이터 저장부; 상기 데이터 취득부에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 추정부를 포함하는 것을 특징으로 한다.In addition, the behavior recognition apparatus according to the present invention includes: a data acquisition unit for acquiring joint information and depth information of a user; A data storage unit for storing a plurality of behavior templates according to the behavior of the user; A behavior template generation unit that generates an input behavior template from the joint information and depth information of the user acquired by the data acquisition unit; And an estimator for matching the input behavior template with a plurality of behavior templates stored in the data storage unit and outputting a behavior having a behavior template most similar to the input behavior template to estimate a behavior of the user .
상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성할 수 있다.The action template may be formed as an image by connecting the positions of the respective joints with a straight line around the reference point of the user's body.
상기 추정부는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내고, 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하며, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정할 수 있다.Wherein the estimating unit calculates a similarity score by matching an input action template with a plurality of stored behavior templates, finds a behavior template having a maximum score among the plurality of behavior templates, and compares the similarities of the plurality of behavior templates with each other, Compares the score of the behavioral template having the maximum score with the minimum acceptable score, and if the score of the behavioral template with the maximum score is greater than the minimum acceptable score, The behavior can be output to estimate the user's behavior.
본 발명의 일 실시예에 따른 행동 인식 장치 및 그의 행동 인식 방법은 상대적으로 움직임이 많은 팔과 다리의 관절 정보와 깊이 정보를 이용하여 사용자의 행동을 추정하므로, 행동 인식률을 높일 수 있다. The behavior recognition apparatus and the behavior recognition method according to an embodiment of the present invention can increase the behavior recognition rate by estimating the behavior of the user by using the joint information and the depth information of the arms and legs having relatively many movements.
또한, 본 발명의 일 실시예에 따른 행동 인식 장치 및 그의 행동 인식 방법은 사용자의 관절 정보와 깊이 정보를 이용하여 행동 템플릿을 생성하므로, 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있다.In addition, the behavior recognition apparatus and the behavior recognition method according to an embodiment of the present invention generate a behavior template using the joint information and the depth information of the user, so that the behavior of the user can be recognized robustly with distance and rotation.
도 1은 본 발명의 일 실시예에 따른 행동 인식 장치를 도시한 블럭도이다.
도 2는 행동 템플릿 생성부에 의해 생성된 행동 템플릿을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법을 도시한 순서도이다.
도 4는 도 3의 단계를 구체적으로 도시한 순서도이다.
도 5a 내지 도 5d는 본 발명에 따른 행동 인식 장치의 행동 인식 방법의 실험결과를 나타낸 도면이다.1 is a block diagram illustrating a behavior recognition apparatus according to an embodiment of the present invention.
2 is a diagram showing a behavior template generated by the behavior template generating unit.
3 is a flowchart illustrating a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention.
Fig. 4 is a flowchart specifically showing the steps of Fig. 3. Fig.
5A to 5D are diagrams showing experimental results of the behavior recognition method of the behavior recognition apparatus according to the present invention.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.
DETAILED DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
도 1은 본 발명의 일 실시예에 따른 행동 인식 장치를 도시한 블럭도이다. 도 2는 행동 템플릿 생성부에 의해 생성된 행동 템플릿을 도시한 도면이다.1 is a block diagram illustrating a behavior recognition apparatus according to an embodiment of the present invention. 2 is a diagram showing a behavior template generated by the behavior template generating unit.
도 1을 참조하면, 본 발명의 일 실시예에 따른 행동 인식 장치(100)는 데이터 취득부(110), 데이터 저장부(120), 행동 템플릿 생성부(130) 및 행동 행동 추정부(140)를 포함한다. 상기 행동 인식 장치(100)는 사용자의 관절 정보와 깊이 정보를 입력받아 사용자의 행동을 인식하는 장치이다.1, a
상기 데이터 취득부(110)는 사용자의 관절 정보와 깊이 정보를 취득한다. 상기 데이터 취득부(110)는 깊이 카메라에서 제공되는 관절 추적 정보를 이용하여 사용자의 관절 정보와 깊이 정보를 취득할 수 있다. 이러한 깊이 카메라는 실시간으로 RCB 컬러 영상, 깊이 영상 및 관절 추적 정보를 획득할 수 있다. 이와 같이, 본 발명에 따른 행동 인식 장치(100)는 사람의 몸 중에서 상대적으로 움직임이 많은 팔과 다리의 관절 정보에 가중치를 둠으로써, 행동 인식률을 높일 수 있다. The
상기 데이터 저장부(120)는 상기 데이터 취득부(110)에서 취득한 정보를 저장한다. 구체적으로, 상기 데이터 저장부(120)는 상기 데이터 취득부(110)에서 취득된 사용자의 관절 정보와 깊이 정보를 저장한다. 또한, 상기 데이터 저장부(120)에는 행동 템플릿(gesture template)이 저장되어 있다. 이러한 행동 템플릿은 사용자의 행동을 인식하기 위한 기본적인 정보이며, 사용자의 다양한 행동을 인식하기 위해 상기 데이터 저장부(120)에는 다양한 행동 템플릿이 저장되어 있다. 또한, 상기 데이터 저장부(120)에는 일정한 주기에 따라 생성된 여러 장의 행동 템플릿을 하나의 세트로 묶어서, 이를 행동 템플릿 세트로 정의하여 저장할 수 있다. The
상기 행동 템플릿 생성부(130)는 사용자의 관절 정보와 깊이 정보를 입력받아, 이를 행동 템플릿으로 생성한다. 또한, 상기 행동 템플릿 생성부(130)는 데이터 저장부(120)에 저장할 행동 템플릿을 생성하거나, 현재 입력되는 사용자의 정보를 입력받아 입력 행동 템플릿을 생성할 수 있다. 여기서, 행동 템플릿은 일정한 시간(t)마다 사용자의 관절 정보를 일정한 크기를 가진 이미지로 만든 것이다. 구체적으로 행동 템플릿은 사용자의 중심점(moment point)을 기준으로 각 관절의 위치를 특정 스칼라(scalar) 값을 가지는 직선으로 연결하여 이를 이미지로 만든 것이다. 하지만, 사람의 관절 정보는 깊이 카메라의 위치와 관점에 따라서 2D 이미지로 투영되는 좌표 값이 달라지게 된다. 따라서, 상기 행동 템플릿 생성부(130)는 깊이 정보를 이용하여 변환(translation)과 회전(rotation)에 강인한 행동 템플릿을 생성한다. 즉, 상기 행동 템플릿 생성부(130)는 변환에 강인한 행동 템플릿을 생성하기 위해 변환 연산과, 회전에 강인한 행동 템플릿을 생성하기 위해 회전 연산을 수행한다. 먼저, 상기 행동 템플릿 생성부(130)는 입력된 사용자의 관절 정보와 깊이 정보를 가지고 거리에 따른 인체 비율의 스케일(scale)을 구하는 변환 연산을 수행한다. 또한, 상기 행동 템플릿 생성부(130)는 회전 연산을 수행하기 위해 먼저, 사용자의 관절 정보 중에서 중심점과 양 어깨 점의 깊이 정보를 이용하여 노멀 벡터를 계산한다. 여기서, 노멀 벡터를 계산할 때에는 깊이 정보의 스케일이 관절의 위치 값보다 매우 크기 때문에 앞서 설명한 변환 연산을 통해 표준화(normalization) 작업을 수행한 뒤 외적으로 계산한다. 그리고 나서, 상기 행동 템플릿 생성부(130)는 행동으로 등록되는 템플릿의 노멀 벡터와 입력된 정보에 따라 계산된 노멀 벡터의 회전 차이를 계산하여 보정한다. 여기서, 관절 위치의 회전 연산은 변환 연산 후에 수행하게 되는데, 관절의 위치가 중심점을 기준으로 표현되기 때문에 XY평면에서의 위치는 고정이 된다. 따라서, 상기 행동 템플릿 생성부(130)는 ZY평면에서의 회전만 계산하여 보정한다. 이러한 회전 연산의 수식은 다음 수학식1과 같다.The behavior
[수학식 1][Equation 1]
여기서, θ는 행동으로 등록되는 템플릿의 노멀 벡터(Nref)와 입력된 정보에 따라 계산된 노멀 벡터(Nin)로 구할 수 있다. 따라서, 상기 행동 템플릿 생성부(130)는 2D 이미지에 투영되는 x축의 좌표(x)만 회전 연산을 하여 관절의 위치(x’)를 보정할 수 있다. 즉, 상기와 같은 연산에 의해 생성된 행동 템플릿은 도 2에 도시된 바와 같이 표현된다. Here,? Can be obtained by a normal vector (Nref) of a template registered as an action and a normal vector (Nin) calculated according to the input information. Accordingly, the behavior
상기 행동 추정부(140)는 상기 행동 템플릿 생성부(130)에서 생성된 입력 행동 템플릿을 상기 데이터 저장부(120)에 저장된 행동 템플릿과 비교하여, 사용자의 행동을 추정한다. 즉, 상기 행동 추정부(140)는 현재 입력된 입력 행동 템플릿이 데이터 저장부(120)에 저장된 행동 템플릿과 유사한지의 여부를 확인하여 사용자의 행동을 추정하는 것이다. The
구체적으로, 상기 행동 추정부(140)는 템플릿 매칭 알고리즘을 이용하여, 입력된 행동 템플릿과 상기 데이터 저장부(120)에 저장된 행동 템플릿을 매칭시켜 유사 스코어(similarity score)를 계산한다. 또한, 행동 추정부(140)는 행동간의 유사성이 높게 되면 잘못된 추정을 하게 될 확률이 높아지므로, 네거티브 템플릿 리젝션(negative template rejection) 알고리즘을 추가로 사용하여 오추정의 확률을 줄일 수 있다. 여기서, 네거티브 템플릿 리젝션 알고리즘은 행동 템플릿 세트 내에 존재하는 정의된 행동들의 유사성을 비교하여 각 행동들에 최소 허용 스코어(minimum acceptance score)를 계산하여, 상기 유사 스코어를 계산할 때 기준 값으로 사용한다. 즉, 상기 행동 추정부(140)는 입력 행동 템플릿을 저장된 행동 템플릿과 비교하여 유사도가 가장 큰 행동을 추정하였을 때, 최소 허용 스코어를 넘지 못하면 추정 값을 반환하지 않는다. 더불어, 상기 행동 추정부(140)는 연속적인 행동을 취하면서 추정이 잘못되거나 추정되지 않는 것을 방지하기 위해 슬라이딩 윈도우 필터(sliding window filter)를 적용한다. 여기서, 슬라이딩 윈도우 필터는 일정 시간(t) 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위(윈도우 크기) 내에서 가장 많이 추정된 결과를 출력하는 것이다.
Specifically, the
이와 같이, 본 발명에 따른 행동 인식 장치(100)는 상대적으로 움직임이 많은 팔과 다리의 관절 정보와 깊이 정보를 이용하여 사용자의 행동을 추정하므로, 행동 인식률을 높일 수 있다. As described above, the
또한, 본 발명에 따른 행동 인식 장치(100)는 사용자의 관절 정보와 깊이 정보를 이용하여 행동 템플릿을 생성하므로, 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있다.
Also, the
도 3은 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법을 도시한 순서도이다. 도 4는 도 3의 단계를 구체적으로 도시한 순서도이다. 3 is a flowchart illustrating a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention. Fig. 4 is a flowchart specifically showing the steps of Fig. 3. Fig.
도 3을 참조하면, 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법은 데이터 취득 단계(S10), 행동 템플릿 확인 단계(S20), 매칭 단계(S30), 필터링 단계(S40) 및 행동 추정 단계(S50)를 포함한다. 이하에서는 도 3의 각 단계들을 도 1 및 도 4를 참조하여 설명하기로 한다.Referring to FIG. 3, a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention includes a data acquisition step S10, a behavior template confirmation step S20, a matching step S30, a filtering step S40, And estimating step S50. Hereinafter, the respective steps of FIG. 3 will be described with reference to FIGS. 1 and 4. FIG.
상기 데이터 취득 단계(S10)에서는 데이터 취득부(110)가 사용자의 관절 정보와 깊이 정보를 취득하는 단계이다. 상기 데이터 취득부(110)는 깊이 카메라에서 제공되는 관절 추적 정보를 이용하여 사용자의 관절 정보와 깊이 정보를 취득한다. In the data acquiring step (S10), the
상기 행동 템플릿 확인 단계(S20)에서는 상기 데이터 취득 단계(S10)에서 취득한 정보를 입력으로 받고, 행동 템플릿의 존재 유무를 확인하는 단계이다. In the behavior template checking step (S20), the information obtained in the data obtaining step (S10) is received as an input, and the existence of a behavior template is confirmed.
먼저, 상기 행동 템플릿 확인 단계(S20)에서 상기 행동 인식 장치(100)는 데이터 저장부(120)에 행동 템플릿이 저장되어 있지 않다면, 행동 템플릿 등록 모드로 전환하여 행동 템플릿을 등록한다(S21). 또한, 상기 행동 인식 장치(100)는 데이터 저장부(120)에 행동 템플릿이 저장되어 있다면, 행동 인식 모드로 전환하여 사용자의 행동을 인식하기 시작한다.First, in the behavior template recognition step S20, if the behavior template is not stored in the
상기 매칭 단계(S30)는 상기 데이터 취득 단계(S10)에서 취득한 사용자의 관절 정보와 깊이 정보를 입력받아 데이터 저장부(120)에 저장된 행동 템플릿과 매칭시키는 단계이다. 먼저, 상기 매칭 단계(S30)에서는 상기 행동 템플릿 생성부(130)가 상기 데이터 취득 단계(S10)에서 취득한 사용자의 관절 정보와 깊이 정보를 입력받아, 입력 행동 템플릿을 생성한다. 상기 행동 템플릿 생성부(130)는 깊이 정보를 이용하여 변환(translation)과 회전(rotation)에 강인한 입력 행동 템플릿을 생성한다. 즉, 상기 행동 템플릿 생성부(130)는 변환에 강인한 행동 템플릿을 생성하기 위해 변환 연산과, 회전에 강인한 행동 템플릿을 생성하기 위해 회전 연산을 수행한다. 상기 행동 템플릿 생성부(130)가 변환 연산 및 회전 연산에 의해 행동 템플릿을 생성하는 방법은 상기에서 설명한 바와 동일하므로, 자세한 설명은 생략하기로 한다.The matching step S30 is a step of receiving the joint information and the depth information of the user acquired in the data acquiring step (S10) and matching with the behavior template stored in the
다음으로, 행동 추정부(140)는 템플릿 매칭 알고리즘을 이용하여, 입력 행동 템플릿과 상기 데이터 저장부에 저장된 행동 템플릿을 매칭시켜 유사 스코어를 계산한다(S31). 또한, 행동 추정부(140)는 행동간의 유사성이 높게 되면 잘못된 추정을 하게 될 확률이 높아지므로, 네거티브 템플릿 리젝션(negative template rejection) 알고리즘을 추가로 사용하여 오추정의 확률을 줄일 수 있다. 여기서, 네거티브 템플릿 리젝션 알고리즘은 행동 템플릿 세트 내에 존재하는 정의된 행동들의 유사성을 비교하여 각 행동들에 최소 허용 스코어를 계산하여, 상기 유사 스코어를 계산할 때 기준 값으로 사용한다. 다음으로, 상기 행동 추정부(140)는 저장된 행동 템플릿 모두와 입력 행동 템플릿과의 유사 스코어를 계산했는지 확인한다(S32). 만약, 상기 행동 추정부(140)는 저장된 행동 템플릿과 입력 행동 템플릿과의 유사 스코어를 모두 계산한 것으로 판단되면, 그 중에서 최대 스코어를 갖는 행동을 추정한다(S33). 그러나, 유사도가 가장 큰 행동을 추정하였을 때, 그 행동의 스코어 값이 최소 허용 스코어를 넘지 못하면 추정 값을 반환하지 않는다. Next, the
상기 필터링 단계(S40)는 상기 행동 추정부(140)가 슬라이딩 윈도우 필터를 적용하여, 사용자의 행동 추정이 잘못되거나 추정되지 않는 것을 방지하는 단계이다. 여기서, 슬라이딩 윈도우 필터는 일정 시간(t) 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위(윈도우 크기) 내에서 가장 많이 추정된 결과를 출력하는 것이다. In the filtering step S40, the
상기 행동 추정 단계(S50)에서 상기 행동 추정부(140)는 상기 필터링 단계(S40)를 거쳐서 출력된 결과에 따라 사용자의 행동을 추정하게 된다.
In the behavior estimation step S50, the
상기와 같은 행동 인식 장치의 행동 인식 방법의 정확도를 확인하기 위하여 다음과 같은 실험을 하였다. 도 5a 내지 도 5d는 본 발명에 따른 행동 인식 장치의 행동 인식 방법의 실험결과를 나타낸 도면이다.In order to confirm the accuracy of the behavior recognition method of the above-described behavior recognition apparatus, the following experiment was performed. 5A to 5D are diagrams showing experimental results of the behavior recognition method of the behavior recognition apparatus according to the present invention.
먼저, 실험의 목표는 인식률 85% 이상, 오 인식률 10% 이하로 성능을 확인하기 위해 임의의 3가지 행동을 등록하고 무작위로 100회 행동을 취하여 결과를 확인하였다. 또한, 3가지 행동은 다음 표 1과 같이 정의하였다.First, the goal of the experiment was to register random 3 kinds of behaviors to confirm the performance with recognition rate of 85% or more and false recognition rate of 10% or less and confirm the results by taking 100 random actions. In addition, the three behaviors are defined as shown in Table 1 below.
또한, 정확한 성능 평가를 위하여 행동을 등록한 사람과 실험을 수행한 사람을 다르게 하였으며, 각 행동 템플릿은 1초마다 한번씩 총 8개의 행동 템플릿 이미지로 생성하였다. Also, for the accurate performance evaluation, the person who registered the behavior and the person who carried out the experiment were different, and each action template was created with a total of 8 behavior template images once every second.
도 5a 내지 도 5c에 도시된 바와 같이, 상기 행동 인식 장치(100)는 “Hello”(도 5a), “SOS”(도 5b) 및 “None”(도 5c)으로 정의된 행동을 정확하게 인식하였다. 또한, 도 5d에 도시된 바와 같이, 상기 행동 인식 장치(100)는 변환과 회전에 강인하게 행동이 인식되는 것을 확인할 수 있다. 5A to 5C, the
더불어, 상기 행동 인식 장치의 각 행동별 인식률은 다음 표 2와 같다. In addition, the recognition rate of each behavior of the behavior recognition apparatus is shown in Table 2 below.
[표 2][Table 2]
상기 표 2와 같이, “Hello” 동작에 대해서만 오 인식률이 조금 높았고 나머지 동작에 대해서는 거의 정확하게 인식하는 것을 볼 수 있다. 즉, 전체 행동에 대한 인식률은 약 86.67%이고, 오 인식률은 4.44%이다. 따라서, 본 발명에 따른 행동 인식 장치의 실험 목표를 만족하는 것을 알 수 있다. As shown in Table 2, it can be seen that the recognition rate is slightly higher only for the " Hello " operation, and the remaining operations are recognized almost accurately. That is, the recognition rate for all actions is about 86.67% and the false recognition rate is 4.44%. Therefore, it can be seen that the experimental target of the behavior recognition apparatus according to the present invention is satisfied.
이상에서 설명한 것은 본 발명에 의한 행동 인식 장치 및 그의 행동 인식 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.It is to be understood that the present invention is not limited to the above-described embodiment, and that various modifications and changes may be made without departing from the scope of the present invention as defined in the appended claims. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
100: 행동 인식 장치 110: 데이터 취득부
120: 데이터 저장부 130: 행동 템플릿 생성부
140: 행동 추정부100: a behavior recognition device 110: a data acquisition unit
120: Data storage unit 130: Action template generation unit
140: Behavior Assessment Government
Claims (12)
데이터 저장부에 행동 템플릿이 존재하는 지의 여부를 확인하는 행동 템플릿 확인 단계;
상기 데이터 취득 단계에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하고, 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키는 매칭 단계;
상기 매칭 단계 후에는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 필터링 단계; 및
상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 행동 추정 단계를 포함하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.A data acquiring step of acquiring joint information and depth information of a user;
A behavior template checking step of checking whether a behavior template exists in the data storage unit;
A matching step of creating an input action template from the joint information and depth information of the user acquired in the data acquiring step and matching the input action template with a plurality of behavior templates stored in the data storage unit;
A filtering step of filtering an estimated result using a sliding window filter to prevent a user's behavioral estimation from being misjudged after the matching step; And
And a behavior estimation step of outputting a behavior having a behavior template most similar to the input behavior template and estimating a behavior of the user.
상기 데이터 취득 단계에서는 깊이 카메라를 이용하여 사용자의 관절 정보와 깊이 정보를 취득하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 1,
And acquiring joint information and depth information of a user by using a depth camera in the data acquiring step.
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성한 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 1,
Wherein the behavior template is formed as an image by linearly connecting the positions of the joints around the reference point of the user's body in the behavior template checking step.
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿이 존재하지 않으면, 상기 행동 인식 장치는 등록 모드로 전환하여 행동 템플릿을 등록하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 1,
And if the behavior template does not exist in the behavior template recognition step, the behavior recognition apparatus switches to the registration mode and registers the behavior template.
상기 매칭 단계에서는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 1,
Wherein the matching step matches an input action template with a plurality of stored behavior templates to calculate respective similar scores, and finds a behavior template having a maximum score among the plurality of behavior templates.
상기 매칭 단계에서는 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.6. The method of claim 5,
Wherein the matching step compares the similarity of the plurality of behavior templates to calculate a minimum acceptable score, and compares the score of the behavior template having the maximum score with the minimum acceptable score.
상기 행동 추정 단계에서는 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 6,
Wherein in the behavior estimation step, if the score of the behavior template having the maximum score is larger than the minimum allowable score, the behavior estimation unit estimates the behavior of the user by outputting the behavior represented by the behavior template having the maximum score Recognition method.
상기 슬라이딩 윈도우 필터는 일정 시간 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위 내에서 가장 많이 추정된 결과를 출력하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.The method according to claim 1,
Wherein the sliding window filter outputs the most estimated result within a certain range based on a result estimated in the past including a result estimated within a predetermined time.
상기 사용자의 행동에 따른 복수의 행동 템플릿이 저장된 데이터 저장부;
상기 데이터 취득부에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및
상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 추정부를 포함하고,
상기 추정부는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 것을 특징으로 하는 행동 인식 장치.A data acquisition unit for acquiring joint information and depth information of a user;
A data storage unit for storing a plurality of behavior templates according to the behavior of the user;
A behavior template generation unit that generates an input behavior template from the joint information and depth information of the user acquired by the data acquisition unit; And
And an estimation unit for matching the input behavior template with a plurality of behavior templates stored in the data storage unit and outputting a behavior having a behavior template most similar to the input behavior template,
Wherein the estimating unit filters the estimated result using a sliding window filter to prevent a user's behavior estimation from being misjudged.
상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성한 것을 특징으로 하는 행동 인식 장치.11. The method of claim 10,
Wherein the behavior template is formed as an image by connecting the positions of the respective joints with a straight line around the reference point of the user's body.
상기 추정부는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내고,
상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하며,
상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정하는 것을 특징으로 하는 행동 인식 장치.11. The method of claim 10,
Wherein the estimating unit matches an input behavior template with a plurality of stored behavior templates to calculate respective similar scores, finds a behavior template having a maximum score among the plurality of behavior templates,
Compares the similarity of the plurality of behavioral templates to compute a minimum acceptable score to compare whether the score of the behavioral template with the maximum score is greater than a minimum acceptable score,
And when the score of the behavior template having the maximum score is larger than the minimum allowable score, the behavior estimation means estimates the behavior of the user by outputting the behavior represented by the behavior template having the maximum score.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140023682A KR101543150B1 (en) | 2014-02-27 | 2014-02-27 | Apparatus for gesture recognition and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140023682A KR101543150B1 (en) | 2014-02-27 | 2014-02-27 | Apparatus for gesture recognition and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101543150B1 true KR101543150B1 (en) | 2015-08-07 |
Family
ID=53886711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140023682A KR101543150B1 (en) | 2014-02-27 | 2014-02-27 | Apparatus for gesture recognition and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101543150B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564043A (en) * | 2018-04-17 | 2018-09-21 | 中国民航大学 | A kind of Human bodys' response method based on time-space distribution graph |
KR20230040708A (en) | 2021-09-16 | 2023-03-23 | 현대자동차주식회사 | Action recognition apparatus and method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012066026A (en) * | 2010-09-27 | 2012-04-05 | Sony Corp | Information processing device and method, and program |
-
2014
- 2014-02-27 KR KR1020140023682A patent/KR101543150B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012066026A (en) * | 2010-09-27 | 2012-04-05 | Sony Corp | Information processing device and method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564043A (en) * | 2018-04-17 | 2018-09-21 | 中国民航大学 | A kind of Human bodys' response method based on time-space distribution graph |
CN108564043B (en) * | 2018-04-17 | 2021-08-31 | 中国民航大学 | Human body behavior recognition method based on space-time distribution diagram |
KR20230040708A (en) | 2021-09-16 | 2023-03-23 | 현대자동차주식회사 | Action recognition apparatus and method |
US11907771B2 (en) | 2021-09-16 | 2024-02-20 | Hyundai Motor Company | Action recognition device and action recognition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5772821B2 (en) | Facial feature point position correction apparatus, face feature point position correction method, and face feature point position correction program | |
JP4985516B2 (en) | Information processing apparatus, information processing method, and computer program | |
CN110147721B (en) | Three-dimensional face recognition method, model training method and device | |
US9286694B2 (en) | Apparatus and method for detecting multiple arms and hands by using three-dimensional image | |
US9978119B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
CN108717531B (en) | Human body posture estimation method based on Faster R-CNN | |
JP4951498B2 (en) | Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program | |
US9916495B2 (en) | Face comparison device, method, and recording medium | |
CN110688929B (en) | Human skeleton joint point positioning method and device | |
JP4709668B2 (en) | 3D object recognition system | |
RU2016137779A (en) | TRACKING A LOOK BASED ON ADAPTIVE HOMOGRAPHIC COMPARISON | |
KR20120048370A (en) | Object pose recognition apparatus and method using the same | |
CN107423306B (en) | Image retrieval method and device | |
CN108345821B (en) | Face tracking method and device | |
US20190266734A1 (en) | Information processing device, information processing method, and recording medium | |
US20200364444A1 (en) | Information processing apparatus and method of authentication | |
JP2015028702A (en) | Information processor, information processing method, and program | |
JP2017091377A (en) | Attitude estimation device, attitude estimation method, and attitude estimation program | |
WO2014112346A1 (en) | Device for detecting feature-point position, method for detecting feature-point position, and program for detecting feature-point position | |
JP2017123087A (en) | Program, device and method for calculating normal vector of planar object reflected in continuous photographic images | |
JP2011215716A (en) | Position estimation device, position estimation method and program | |
KR101543150B1 (en) | Apparatus for gesture recognition and method thereof | |
JP2019012497A (en) | Portion recognition method, device, program, and imaging control system | |
KR101001184B1 (en) | Iterative 3D head pose estimation method using a face normal vector | |
KR20200057572A (en) | Hand recognition augmented reality-intraction apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190725 Year of fee payment: 5 |