[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101543150B1 - Apparatus for gesture recognition and method thereof - Google Patents

Apparatus for gesture recognition and method thereof Download PDF

Info

Publication number
KR101543150B1
KR101543150B1 KR1020140023682A KR20140023682A KR101543150B1 KR 101543150 B1 KR101543150 B1 KR 101543150B1 KR 1020140023682 A KR1020140023682 A KR 1020140023682A KR 20140023682 A KR20140023682 A KR 20140023682A KR 101543150 B1 KR101543150 B1 KR 101543150B1
Authority
KR
South Korea
Prior art keywords
behavior
template
user
score
templates
Prior art date
Application number
KR1020140023682A
Other languages
Korean (ko)
Inventor
주진선
김민영
이세린
이동성
명현
김한근
이상원
김영재
Original Assignee
주식회사 에스원
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원, 한국과학기술원 filed Critical 주식회사 에스원
Priority to KR1020140023682A priority Critical patent/KR101543150B1/en
Application granted granted Critical
Publication of KR101543150B1 publication Critical patent/KR101543150B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a motion recognition apparatus resistant to distance and rotation, which is capable of recognizing the motion of a user, and to a motion recognition method thereof. According to an embodiment of the present invention, the motion recognition method comprises: a data acquisition step of acquiring joint information and depth information of a user; a motion template confirmation step of confirming whether a motion template exists in a data storage unit; a matching step of generating an input motion template from the joint information and the depth information acquired in the data acquisition step and matches the input motion template with a plurality of motion templates stored in the data storage unit; and a motion estimation step of estimating a motion of the user by outputting a motion having the most similar motion template with the input motion template.

Description

행동 인식 장치 및 그의 행동 인식 방법{Apparatus for gesture recognition and method thereof}[0001] Apparatus for gesture recognition and method [0002]

본 발명은 행동 인식 장치 및 그의 행동 인식 방법에 관한 것이다.The present invention relates to a behavior recognition apparatus and a behavior recognition method thereof.

이미지 기반에서의 사람의 행동을 인식하기 위해서는 기계 학습(machine learning) 알고리즘 기반의 분류기를 사용하는 방법과 행동 이미지 기반의 매칭(matching) 알고리즘을 사용하는 방법의 크게 두 가지의 방법이 있다. 전자의 경우는 외란이 많은 환경에서도 강인하게 행동을 인식할 수 있는 장점이 있으나, 행동을 인식하기 위한 훈련과정이 길어서 기 정의된 행동에 대해서만 인식하는 것이 가능하다는 단점이 있다. 따라서, 이미지 기반의 매칭 알고리즘을 사용하되, 행동 등록이 간단하면서도 사람의 행동을 정확하게 인식하기 위한 방법이 필요하다.There are two methods of recognizing human behavior in the image-based method: a method using a classifier based on a machine learning algorithm and a method using a behavior image-based matching algorithm. In the former case, it has the advantage of recognizing the action robustly even in a disturbed environment, but it has a drawback that it is possible to recognize only the predefined action because the training process for recognizing the action is long. Therefore, there is a need for a method that uses an image-based matching algorithm but recognizes the behavior of a person with a simple behavior registration.

한국공개특허공보 10-2013-0117553(2013.10.28)Korean Patent Publication No. 10-2013-0117553 (Oct. 28, 2013)

본 발명은 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있는 행동 인식 장치 및 그의 행동 인식 방법을 제공한다.The present invention provides a behavior recognition apparatus and a behavior recognition method capable of recognizing user's behavior robust to distance and rotation.

본 발명에 의한 행동 인식 장치의 행동 인식 방법은 사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득 단계; 데이터 저장부에 행동 템플릿이 존재하는 지의 여부를 확인하는 행동 템플릿 확인 단계; 상기 데이터 취득 단계에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하고, 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키는 매칭 단계; 및 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 행동 추정 단계를 포함하는 것을 특징으로 한다. A behavior recognition method of a behavior recognition apparatus according to the present invention includes: a data acquisition step of acquiring joint information and depth information of a user; A behavior template checking step of checking whether a behavior template exists in the data storage unit; A matching step of creating an input action template from the joint information and depth information of the user acquired in the data acquiring step and matching the input action template with a plurality of behavior templates stored in the data storage unit; And a behavior estimation step of outputting a behavior having a behavior template most similar to the input behavior template and estimating a behavior of the user.

상기 데이터 취득 단계에서는 깊이 카메라를 이용하여 사용자의 관절 정보와 깊이 정보를 취득할 수 있다.In the data acquiring step, the joint information and the depth information of the user can be acquired using the depth camera.

상기 행동 템플릿 확인 단계에서 상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성할 수 있다. In the behavior template checking step, the behavior template may be formed as an image by connecting the positions of the respective joints with straight lines around the reference point of the user's body.

상기 행동 템플릿 확인 단계에서 상기 행동 템플릿이 존재하지 않으면, 상기 행동 인식 장치는 등록 모드로 전환하여 행동 템플릿을 등록할 수 있다.If the behavior template does not exist in the behavior template confirmation step, the behavior recognition apparatus can switch to the registration mode and register the behavior template.

상기 매칭 단계에서는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아낼 수 있다.In the matching step, an input behavior template is matched with a plurality of stored behavior templates to calculate respective similar scores, and a behavior template having a maximum score among the plurality of behavior templates can be found.

상기 매칭 단계에서는 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교할 수 있다.In the matching step, the similarity of the plurality of behavior templates is compared to calculate a minimum acceptable score, so that the score of the behavior template having the maximum score is compared with the minimum acceptable score.

상기 행동 추정 단계에서는 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정할 수 있다.In the behavior estimation step, if the score of the behavior template having the maximum score is larger than the minimum allowable score, the action represented by the behavior template having the maximum score may be output to estimate the behavior of the user.

상기 매칭 단계 후에는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 필터링 단계를 더 포함할 수 있다.And after the matching step, filtering the estimated result using the sliding window filter to prevent the user's behavior estimation from being misjudged.

상기 슬라이딩 윈도우 필터는 일정 시간 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위 내에서 가장 많이 추정된 결과를 출력할 수 있다.The sliding window filter can output the most estimated result within a certain range based on the result estimated in the past including the estimated result within a predetermined time.

더불어, 본 발명에 의한 행동 인식 장치는 사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득부; 상기 사용자의 행동에 따른 복수의 행동 템플릿이 저장된 데이터 저장부; 상기 데이터 취득부에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 추정부를 포함하는 것을 특징으로 한다.In addition, the behavior recognition apparatus according to the present invention includes: a data acquisition unit for acquiring joint information and depth information of a user; A data storage unit for storing a plurality of behavior templates according to the behavior of the user; A behavior template generation unit that generates an input behavior template from the joint information and depth information of the user acquired by the data acquisition unit; And an estimator for matching the input behavior template with a plurality of behavior templates stored in the data storage unit and outputting a behavior having a behavior template most similar to the input behavior template to estimate a behavior of the user .

상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성할 수 있다.The action template may be formed as an image by connecting the positions of the respective joints with a straight line around the reference point of the user's body.

상기 추정부는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내고, 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하며, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정할 수 있다.Wherein the estimating unit calculates a similarity score by matching an input action template with a plurality of stored behavior templates, finds a behavior template having a maximum score among the plurality of behavior templates, and compares the similarities of the plurality of behavior templates with each other, Compares the score of the behavioral template having the maximum score with the minimum acceptable score, and if the score of the behavioral template with the maximum score is greater than the minimum acceptable score, The behavior can be output to estimate the user's behavior.

본 발명의 일 실시예에 따른 행동 인식 장치 및 그의 행동 인식 방법은 상대적으로 움직임이 많은 팔과 다리의 관절 정보와 깊이 정보를 이용하여 사용자의 행동을 추정하므로, 행동 인식률을 높일 수 있다. The behavior recognition apparatus and the behavior recognition method according to an embodiment of the present invention can increase the behavior recognition rate by estimating the behavior of the user by using the joint information and the depth information of the arms and legs having relatively many movements.

또한, 본 발명의 일 실시예에 따른 행동 인식 장치 및 그의 행동 인식 방법은 사용자의 관절 정보와 깊이 정보를 이용하여 행동 템플릿을 생성하므로, 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있다.In addition, the behavior recognition apparatus and the behavior recognition method according to an embodiment of the present invention generate a behavior template using the joint information and the depth information of the user, so that the behavior of the user can be recognized robustly with distance and rotation.

도 1은 본 발명의 일 실시예에 따른 행동 인식 장치를 도시한 블럭도이다.
도 2는 행동 템플릿 생성부에 의해 생성된 행동 템플릿을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법을 도시한 순서도이다.
도 4는 도 3의 단계를 구체적으로 도시한 순서도이다.
도 5a 내지 도 5d는 본 발명에 따른 행동 인식 장치의 행동 인식 방법의 실험결과를 나타낸 도면이다.
1 is a block diagram illustrating a behavior recognition apparatus according to an embodiment of the present invention.
2 is a diagram showing a behavior template generated by the behavior template generating unit.
3 is a flowchart illustrating a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention.
Fig. 4 is a flowchart specifically showing the steps of Fig. 3. Fig.
5A to 5D are diagrams showing experimental results of the behavior recognition method of the behavior recognition apparatus according to the present invention.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.
DETAILED DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명의 일 실시예에 따른 행동 인식 장치를 도시한 블럭도이다. 도 2는 행동 템플릿 생성부에 의해 생성된 행동 템플릿을 도시한 도면이다.1 is a block diagram illustrating a behavior recognition apparatus according to an embodiment of the present invention. 2 is a diagram showing a behavior template generated by the behavior template generating unit.

도 1을 참조하면, 본 발명의 일 실시예에 따른 행동 인식 장치(100)는 데이터 취득부(110), 데이터 저장부(120), 행동 템플릿 생성부(130) 및 행동 행동 추정부(140)를 포함한다. 상기 행동 인식 장치(100)는 사용자의 관절 정보와 깊이 정보를 입력받아 사용자의 행동을 인식하는 장치이다.1, a behavior recognition apparatus 100 according to an exemplary embodiment of the present invention includes a data acquisition unit 110, a data storage unit 120, a behavior template generation unit 130, a behavior behavior estimation unit 140, . The behavior recognition apparatus 100 is a device that receives user's joint information and depth information and recognizes a user's behavior.

상기 데이터 취득부(110)는 사용자의 관절 정보와 깊이 정보를 취득한다. 상기 데이터 취득부(110)는 깊이 카메라에서 제공되는 관절 추적 정보를 이용하여 사용자의 관절 정보와 깊이 정보를 취득할 수 있다. 이러한 깊이 카메라는 실시간으로 RCB 컬러 영상, 깊이 영상 및 관절 추적 정보를 획득할 수 있다. 이와 같이, 본 발명에 따른 행동 인식 장치(100)는 사람의 몸 중에서 상대적으로 움직임이 많은 팔과 다리의 관절 정보에 가중치를 둠으로써, 행동 인식률을 높일 수 있다. The data acquisition unit 110 acquires joint information and depth information of the user. The data acquisition unit 110 may acquire joint information and depth information of the user using the joint tracking information provided by the depth camera. This depth camera can acquire RCB color image, depth image and joint tracking information in real time. As described above, the behavior recognition apparatus 100 according to the present invention can increase the behavior recognition rate by weighting the joint information of the arms and legs, which are relatively moved in the human body.

상기 데이터 저장부(120)는 상기 데이터 취득부(110)에서 취득한 정보를 저장한다. 구체적으로, 상기 데이터 저장부(120)는 상기 데이터 취득부(110)에서 취득된 사용자의 관절 정보와 깊이 정보를 저장한다. 또한, 상기 데이터 저장부(120)에는 행동 템플릿(gesture template)이 저장되어 있다. 이러한 행동 템플릿은 사용자의 행동을 인식하기 위한 기본적인 정보이며, 사용자의 다양한 행동을 인식하기 위해 상기 데이터 저장부(120)에는 다양한 행동 템플릿이 저장되어 있다. 또한, 상기 데이터 저장부(120)에는 일정한 주기에 따라 생성된 여러 장의 행동 템플릿을 하나의 세트로 묶어서, 이를 행동 템플릿 세트로 정의하여 저장할 수 있다. The data storage unit 120 stores the information acquired by the data acquisition unit 110. Specifically, the data storage unit 120 stores the joint information and the depth information of the user acquired by the data acquisition unit 110. In addition, the data storage unit 120 stores a gesture template. The behavior template is basic information for recognizing the behavior of the user. Various behavior templates are stored in the data storage unit 120 to recognize various behaviors of the user. In the data storage unit 120, a plurality of action templates generated according to a predetermined period may be grouped into a set and defined as a set of behavior templates.

상기 행동 템플릿 생성부(130)는 사용자의 관절 정보와 깊이 정보를 입력받아, 이를 행동 템플릿으로 생성한다. 또한, 상기 행동 템플릿 생성부(130)는 데이터 저장부(120)에 저장할 행동 템플릿을 생성하거나, 현재 입력되는 사용자의 정보를 입력받아 입력 행동 템플릿을 생성할 수 있다. 여기서, 행동 템플릿은 일정한 시간(t)마다 사용자의 관절 정보를 일정한 크기를 가진 이미지로 만든 것이다. 구체적으로 행동 템플릿은 사용자의 중심점(moment point)을 기준으로 각 관절의 위치를 특정 스칼라(scalar) 값을 가지는 직선으로 연결하여 이를 이미지로 만든 것이다. 하지만, 사람의 관절 정보는 깊이 카메라의 위치와 관점에 따라서 2D 이미지로 투영되는 좌표 값이 달라지게 된다. 따라서, 상기 행동 템플릿 생성부(130)는 깊이 정보를 이용하여 변환(translation)과 회전(rotation)에 강인한 행동 템플릿을 생성한다. 즉, 상기 행동 템플릿 생성부(130)는 변환에 강인한 행동 템플릿을 생성하기 위해 변환 연산과, 회전에 강인한 행동 템플릿을 생성하기 위해 회전 연산을 수행한다. 먼저, 상기 행동 템플릿 생성부(130)는 입력된 사용자의 관절 정보와 깊이 정보를 가지고 거리에 따른 인체 비율의 스케일(scale)을 구하는 변환 연산을 수행한다. 또한, 상기 행동 템플릿 생성부(130)는 회전 연산을 수행하기 위해 먼저, 사용자의 관절 정보 중에서 중심점과 양 어깨 점의 깊이 정보를 이용하여 노멀 벡터를 계산한다. 여기서, 노멀 벡터를 계산할 때에는 깊이 정보의 스케일이 관절의 위치 값보다 매우 크기 때문에 앞서 설명한 변환 연산을 통해 표준화(normalization) 작업을 수행한 뒤 외적으로 계산한다. 그리고 나서, 상기 행동 템플릿 생성부(130)는 행동으로 등록되는 템플릿의 노멀 벡터와 입력된 정보에 따라 계산된 노멀 벡터의 회전 차이를 계산하여 보정한다. 여기서, 관절 위치의 회전 연산은 변환 연산 후에 수행하게 되는데, 관절의 위치가 중심점을 기준으로 표현되기 때문에 XY평면에서의 위치는 고정이 된다. 따라서, 상기 행동 템플릿 생성부(130)는 ZY평면에서의 회전만 계산하여 보정한다. 이러한 회전 연산의 수식은 다음 수학식1과 같다.The behavior template generating unit 130 receives the joint information and the depth information of the user, and generates the behavior template. In addition, the behavior template generating unit 130 may generate an action template to be stored in the data storage unit 120, or may generate an input action template by receiving information of a currently input user. Here, the action template is to make the joint information of the user at a constant time (t) into an image having a constant size. Specifically, the behavior template connects the position of each joint with a straight line having a specific scalar value based on the moment point of the user, and creates an image of the motion template. However, according to the position and the viewpoint of the depth camera of the human joint information, the coordinate values projected to the 2D image are different. Accordingly, the behavior template generating unit 130 generates a behavior template robust against translation and rotation using depth information. That is, the behavior template generating unit 130 performs a transformation operation to generate a robust behavior template and a rotation operation to generate a rotation-resistant behavior template. First, the behavior template generating unit 130 performs a transformation operation to obtain a scale of a human body ratio according to a distance, using the joint information and the depth information of the inputted user. In order to perform the rotation operation, the behavior template generation unit 130 calculates the normal vector using the center point and the depth information of both shoulder points in the joint information of the user. Here, when the normal vector is calculated, the scale of the depth information is much larger than the position value of the joint. Therefore, the normalization operation is performed through the conversion operation described above and then externally calculated. Then, the behavior template generating unit 130 calculates and corrects the rotation difference between the normal vector of the template registered as the action and the normal vector calculated according to the input information. Here, the rotation calculation of the joint position is performed after the conversion operation. Since the position of the joint is expressed based on the center point, the position in the XY plane is fixed. Therefore, the behavior template generating unit 130 calculates and corrects only the rotation in the ZY plane. The formula of such a rotation operation is expressed by the following equation (1).

[수학식 1][Equation 1]

Figure 112014019771420-pat00001
Figure 112014019771420-pat00001

Figure 112014019771420-pat00002
Figure 112014019771420-pat00002

여기서, θ는 행동으로 등록되는 템플릿의 노멀 벡터(Nref)와 입력된 정보에 따라 계산된 노멀 벡터(Nin)로 구할 수 있다. 따라서, 상기 행동 템플릿 생성부(130)는 2D 이미지에 투영되는 x축의 좌표(x)만 회전 연산을 하여 관절의 위치(x’)를 보정할 수 있다. 즉, 상기와 같은 연산에 의해 생성된 행동 템플릿은 도 2에 도시된 바와 같이 표현된다. Here,? Can be obtained by a normal vector (Nref) of a template registered as an action and a normal vector (Nin) calculated according to the input information. Accordingly, the behavior template generation unit 130 may correct the position (x ') of the joint by rotating only the x-axis coordinate (x) projected on the 2D image. That is, the behavior template generated by the above operation is expressed as shown in FIG.

상기 행동 추정부(140)는 상기 행동 템플릿 생성부(130)에서 생성된 입력 행동 템플릿을 상기 데이터 저장부(120)에 저장된 행동 템플릿과 비교하여, 사용자의 행동을 추정한다. 즉, 상기 행동 추정부(140)는 현재 입력된 입력 행동 템플릿이 데이터 저장부(120)에 저장된 행동 템플릿과 유사한지의 여부를 확인하여 사용자의 행동을 추정하는 것이다. The behavior estimator 140 compares the input behavior template generated by the behavior template generator 130 with the behavior template stored in the data storage unit 120, and estimates the behavior of the user. That is, the behavior estimator 140 estimates the behavior of the user by confirming whether the input behavior template currently input is similar to the behavior template stored in the data storage unit 120.

구체적으로, 상기 행동 추정부(140)는 템플릿 매칭 알고리즘을 이용하여, 입력된 행동 템플릿과 상기 데이터 저장부(120)에 저장된 행동 템플릿을 매칭시켜 유사 스코어(similarity score)를 계산한다. 또한, 행동 추정부(140)는 행동간의 유사성이 높게 되면 잘못된 추정을 하게 될 확률이 높아지므로, 네거티브 템플릿 리젝션(negative template rejection) 알고리즘을 추가로 사용하여 오추정의 확률을 줄일 수 있다. 여기서, 네거티브 템플릿 리젝션 알고리즘은 행동 템플릿 세트 내에 존재하는 정의된 행동들의 유사성을 비교하여 각 행동들에 최소 허용 스코어(minimum acceptance score)를 계산하여, 상기 유사 스코어를 계산할 때 기준 값으로 사용한다. 즉, 상기 행동 추정부(140)는 입력 행동 템플릿을 저장된 행동 템플릿과 비교하여 유사도가 가장 큰 행동을 추정하였을 때, 최소 허용 스코어를 넘지 못하면 추정 값을 반환하지 않는다. 더불어, 상기 행동 추정부(140)는 연속적인 행동을 취하면서 추정이 잘못되거나 추정되지 않는 것을 방지하기 위해 슬라이딩 윈도우 필터(sliding window filter)를 적용한다. 여기서, 슬라이딩 윈도우 필터는 일정 시간(t) 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위(윈도우 크기) 내에서 가장 많이 추정된 결과를 출력하는 것이다.
Specifically, the behavior estimator 140 calculates a similarity score by matching the input behavior template with the behavior template stored in the data storage unit 120 using a template matching algorithm. In addition, the behavior estimator 140 may reduce the probability of false estimation by additionally using a negative template rejection algorithm because the likelihood of incorrect estimation becomes high as the similarity between actions becomes high. Here, the negative template rejection algorithm compares the similarities of the defined behaviors existing in the behavior template set, calculates a minimum acceptance score for each action, and uses the minimum acceptance score as a reference value when calculating the similar score. That is, the behavior estimating unit 140 does not return the estimated value if the input behavior template is compared with the stored behavior template, and when the behavior having the greatest similarity is estimated, if the minimum acceptable score is not exceeded. In addition, the behavior estimator 140 applies a sliding window filter to prevent the estimation from being erroneous or unexpected while taking continuous action. Here, the sliding window filter outputs the most estimated results within a certain range (window size) based on the results estimated in the past including the estimated results within the predetermined time (t).

이와 같이, 본 발명에 따른 행동 인식 장치(100)는 상대적으로 움직임이 많은 팔과 다리의 관절 정보와 깊이 정보를 이용하여 사용자의 행동을 추정하므로, 행동 인식률을 높일 수 있다. As described above, the behavior recognition apparatus 100 according to the present invention estimates the behavior of the user by using the joint information and the depth information of the arms and legs, which have relatively many movements, so that the behavior recognition rate can be increased.

또한, 본 발명에 따른 행동 인식 장치(100)는 사용자의 관절 정보와 깊이 정보를 이용하여 행동 템플릿을 생성하므로, 거리와 회전에 강인하게 사용자의 행동을 인식할 수 있다.
Also, the behavior recognition apparatus 100 according to the present invention generates a behavior template using the joint information and the depth information of the user, so that the behavior recognition apparatus 100 can recognize the behavior of the user robustly to the distance and the rotation.

도 3은 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법을 도시한 순서도이다. 도 4는 도 3의 단계를 구체적으로 도시한 순서도이다. 3 is a flowchart illustrating a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention. Fig. 4 is a flowchart specifically showing the steps of Fig. 3. Fig.

도 3을 참조하면, 본 발명의 일 실시예에 따른 행동 인식 장치의 행동 인식 방법은 데이터 취득 단계(S10), 행동 템플릿 확인 단계(S20), 매칭 단계(S30), 필터링 단계(S40) 및 행동 추정 단계(S50)를 포함한다. 이하에서는 도 3의 각 단계들을 도 1 및 도 4를 참조하여 설명하기로 한다.Referring to FIG. 3, a behavior recognition method of a behavior recognition apparatus according to an embodiment of the present invention includes a data acquisition step S10, a behavior template confirmation step S20, a matching step S30, a filtering step S40, And estimating step S50. Hereinafter, the respective steps of FIG. 3 will be described with reference to FIGS. 1 and 4. FIG.

상기 데이터 취득 단계(S10)에서는 데이터 취득부(110)가 사용자의 관절 정보와 깊이 정보를 취득하는 단계이다. 상기 데이터 취득부(110)는 깊이 카메라에서 제공되는 관절 추적 정보를 이용하여 사용자의 관절 정보와 깊이 정보를 취득한다. In the data acquiring step (S10), the data acquiring unit 110 acquires the joint information and depth information of the user. The data acquisition unit 110 acquires the joint information and the depth information of the user using the joint tracking information provided by the depth camera.

상기 행동 템플릿 확인 단계(S20)에서는 상기 데이터 취득 단계(S10)에서 취득한 정보를 입력으로 받고, 행동 템플릿의 존재 유무를 확인하는 단계이다. In the behavior template checking step (S20), the information obtained in the data obtaining step (S10) is received as an input, and the existence of a behavior template is confirmed.

먼저, 상기 행동 템플릿 확인 단계(S20)에서 상기 행동 인식 장치(100)는 데이터 저장부(120)에 행동 템플릿이 저장되어 있지 않다면, 행동 템플릿 등록 모드로 전환하여 행동 템플릿을 등록한다(S21). 또한, 상기 행동 인식 장치(100)는 데이터 저장부(120)에 행동 템플릿이 저장되어 있다면, 행동 인식 모드로 전환하여 사용자의 행동을 인식하기 시작한다.First, in the behavior template recognition step S20, if the behavior template is not stored in the data storage unit 120, the behavior recognition apparatus 100 switches to the behavior template registration mode and registers a behavior template (S21). Also, if the behavior recognition apparatus 100 stores the behavior template in the data storage unit 120, the behavior recognition apparatus 100 switches to the behavior recognition mode and starts to recognize the behavior of the user.

상기 매칭 단계(S30)는 상기 데이터 취득 단계(S10)에서 취득한 사용자의 관절 정보와 깊이 정보를 입력받아 데이터 저장부(120)에 저장된 행동 템플릿과 매칭시키는 단계이다. 먼저, 상기 매칭 단계(S30)에서는 상기 행동 템플릿 생성부(130)가 상기 데이터 취득 단계(S10)에서 취득한 사용자의 관절 정보와 깊이 정보를 입력받아, 입력 행동 템플릿을 생성한다. 상기 행동 템플릿 생성부(130)는 깊이 정보를 이용하여 변환(translation)과 회전(rotation)에 강인한 입력 행동 템플릿을 생성한다. 즉, 상기 행동 템플릿 생성부(130)는 변환에 강인한 행동 템플릿을 생성하기 위해 변환 연산과, 회전에 강인한 행동 템플릿을 생성하기 위해 회전 연산을 수행한다. 상기 행동 템플릿 생성부(130)가 변환 연산 및 회전 연산에 의해 행동 템플릿을 생성하는 방법은 상기에서 설명한 바와 동일하므로, 자세한 설명은 생략하기로 한다.The matching step S30 is a step of receiving the joint information and the depth information of the user acquired in the data acquiring step (S10) and matching with the behavior template stored in the data storage unit 120. [ First, in the matching step S30, the behavior template generating unit 130 receives the joint information and depth information of the user acquired in the data acquiring step (S10), and generates an input action template. The behavior template generating unit 130 generates an input action template robust against translation and rotation using depth information. That is, the behavior template generating unit 130 performs a transformation operation to generate a robust behavior template and a rotation operation to generate a rotation-resistant behavior template. Since the behavior template generating unit 130 generates a behavior template by a conversion operation and a rotation operation are the same as those described above, a detailed description will be omitted.

다음으로, 행동 추정부(140)는 템플릿 매칭 알고리즘을 이용하여, 입력 행동 템플릿과 상기 데이터 저장부에 저장된 행동 템플릿을 매칭시켜 유사 스코어를 계산한다(S31). 또한, 행동 추정부(140)는 행동간의 유사성이 높게 되면 잘못된 추정을 하게 될 확률이 높아지므로, 네거티브 템플릿 리젝션(negative template rejection) 알고리즘을 추가로 사용하여 오추정의 확률을 줄일 수 있다. 여기서, 네거티브 템플릿 리젝션 알고리즘은 행동 템플릿 세트 내에 존재하는 정의된 행동들의 유사성을 비교하여 각 행동들에 최소 허용 스코어를 계산하여, 상기 유사 스코어를 계산할 때 기준 값으로 사용한다. 다음으로, 상기 행동 추정부(140)는 저장된 행동 템플릿 모두와 입력 행동 템플릿과의 유사 스코어를 계산했는지 확인한다(S32). 만약, 상기 행동 추정부(140)는 저장된 행동 템플릿과 입력 행동 템플릿과의 유사 스코어를 모두 계산한 것으로 판단되면, 그 중에서 최대 스코어를 갖는 행동을 추정한다(S33). 그러나, 유사도가 가장 큰 행동을 추정하였을 때, 그 행동의 스코어 값이 최소 허용 스코어를 넘지 못하면 추정 값을 반환하지 않는다. Next, the behavior estimation unit 140 calculates a similar score by matching the input action template and the behavior template stored in the data storage unit using the template matching algorithm (S31). In addition, the behavior estimator 140 may reduce the probability of false estimation by additionally using a negative template rejection algorithm because the likelihood of incorrect estimation becomes high as the similarity between actions becomes high. Here, the negative template rejection algorithm compares the similarities of the defined behaviors existing in the set of behavior templates, calculates a minimum acceptable score for each of the behaviors, and uses it as a reference value when calculating the similar score. Next, the behavior estimating unit 140 determines whether the similar scores of all the stored behavior templates and the input behavior templates have been calculated (S32). If it is determined that the similarity score between the stored behavior template and the input action template has been calculated, the behavior estimating unit 140 estimates a behavior having a maximum score among the calculated behavior templates (S33). However, when estimating the behavior with the greatest similarity, it does not return the estimate if the score of the behavior does not exceed the minimum acceptable score.

상기 필터링 단계(S40)는 상기 행동 추정부(140)가 슬라이딩 윈도우 필터를 적용하여, 사용자의 행동 추정이 잘못되거나 추정되지 않는 것을 방지하는 단계이다. 여기서, 슬라이딩 윈도우 필터는 일정 시간(t) 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위(윈도우 크기) 내에서 가장 많이 추정된 결과를 출력하는 것이다. In the filtering step S40, the behavior estimator 140 applies a sliding window filter to prevent the user's behavior estimation from being erroneous or unexpected. Here, the sliding window filter outputs the most estimated results within a certain range (window size) based on the results estimated in the past including the estimated results within the predetermined time (t).

상기 행동 추정 단계(S50)에서 상기 행동 추정부(140)는 상기 필터링 단계(S40)를 거쳐서 출력된 결과에 따라 사용자의 행동을 추정하게 된다.
In the behavior estimation step S50, the behavior estimation unit 140 estimates the behavior of the user according to the result output through the filtering step S40.

상기와 같은 행동 인식 장치의 행동 인식 방법의 정확도를 확인하기 위하여 다음과 같은 실험을 하였다. 도 5a 내지 도 5d는 본 발명에 따른 행동 인식 장치의 행동 인식 방법의 실험결과를 나타낸 도면이다.In order to confirm the accuracy of the behavior recognition method of the above-described behavior recognition apparatus, the following experiment was performed. 5A to 5D are diagrams showing experimental results of the behavior recognition method of the behavior recognition apparatus according to the present invention.

먼저, 실험의 목표는 인식률 85% 이상, 오 인식률 10% 이하로 성능을 확인하기 위해 임의의 3가지 행동을 등록하고 무작위로 100회 행동을 취하여 결과를 확인하였다. 또한, 3가지 행동은 다음 표 1과 같이 정의하였다.First, the goal of the experiment was to register random 3 kinds of behaviors to confirm the performance with recognition rate of 85% or more and false recognition rate of 10% or less and confirm the results by taking 100 random actions. In addition, the three behaviors are defined as shown in Table 1 below.

행동behavior 동작action “Hello”"Hello" 오른손을 흔듬Shake the right hand “SOS”"SOS" 양팔을 머리위로 흔듬Shake your arms above your head “None”"None" 아무 동작을 취하지 않는 상태No action taken

또한, 정확한 성능 평가를 위하여 행동을 등록한 사람과 실험을 수행한 사람을 다르게 하였으며, 각 행동 템플릿은 1초마다 한번씩 총 8개의 행동 템플릿 이미지로 생성하였다. Also, for the accurate performance evaluation, the person who registered the behavior and the person who carried out the experiment were different, and each action template was created with a total of 8 behavior template images once every second.

도 5a 내지 도 5c에 도시된 바와 같이, 상기 행동 인식 장치(100)는 “Hello”(도 5a), “SOS”(도 5b) 및 “None”(도 5c)으로 정의된 행동을 정확하게 인식하였다. 또한, 도 5d에 도시된 바와 같이, 상기 행동 인식 장치(100)는 변환과 회전에 강인하게 행동이 인식되는 것을 확인할 수 있다. 5A to 5C, the behavior recognition apparatus 100 correctly recognizes the behavior defined by "Hello" (FIG. 5A), "SOS" (FIG. 5B), and "None" . In addition, as shown in FIG. 5D, the behavior recognition apparatus 100 can confirm that the behavior is recognized robustly with respect to transformation and rotation.

더불어, 상기 행동 인식 장치의 각 행동별 인식률은 다음 표 2와 같다. In addition, the recognition rate of each behavior of the behavior recognition apparatus is shown in Table 2 below.

[표 2][Table 2]

Figure 112014019771420-pat00003
Figure 112014019771420-pat00003

상기 표 2와 같이, “Hello” 동작에 대해서만 오 인식률이 조금 높았고 나머지 동작에 대해서는 거의 정확하게 인식하는 것을 볼 수 있다. 즉, 전체 행동에 대한 인식률은 약 86.67%이고, 오 인식률은 4.44%이다. 따라서, 본 발명에 따른 행동 인식 장치의 실험 목표를 만족하는 것을 알 수 있다. As shown in Table 2, it can be seen that the recognition rate is slightly higher only for the " Hello " operation, and the remaining operations are recognized almost accurately. That is, the recognition rate for all actions is about 86.67% and the false recognition rate is 4.44%. Therefore, it can be seen that the experimental target of the behavior recognition apparatus according to the present invention is satisfied.

이상에서 설명한 것은 본 발명에 의한 행동 인식 장치 및 그의 행동 인식 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.It is to be understood that the present invention is not limited to the above-described embodiment, and that various modifications and changes may be made without departing from the scope of the present invention as defined in the appended claims. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

100: 행동 인식 장치 110: 데이터 취득부
120: 데이터 저장부 130: 행동 템플릿 생성부
140: 행동 추정부
100: a behavior recognition device 110: a data acquisition unit
120: Data storage unit 130: Action template generation unit
140: Behavior Assessment Government

Claims (12)

사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득 단계;
데이터 저장부에 행동 템플릿이 존재하는 지의 여부를 확인하는 행동 템플릿 확인 단계;
상기 데이터 취득 단계에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하고, 상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키는 매칭 단계;
상기 매칭 단계 후에는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 필터링 단계; 및
상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 행동 추정 단계를 포함하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
A data acquiring step of acquiring joint information and depth information of a user;
A behavior template checking step of checking whether a behavior template exists in the data storage unit;
A matching step of creating an input action template from the joint information and depth information of the user acquired in the data acquiring step and matching the input action template with a plurality of behavior templates stored in the data storage unit;
A filtering step of filtering an estimated result using a sliding window filter to prevent a user's behavioral estimation from being misjudged after the matching step; And
And a behavior estimation step of outputting a behavior having a behavior template most similar to the input behavior template and estimating a behavior of the user.
제 1 항에 있어서,
상기 데이터 취득 단계에서는 깊이 카메라를 이용하여 사용자의 관절 정보와 깊이 정보를 취득하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 1,
And acquiring joint information and depth information of a user by using a depth camera in the data acquiring step.
제 1 항에 있어서,
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성한 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 1,
Wherein the behavior template is formed as an image by linearly connecting the positions of the joints around the reference point of the user's body in the behavior template checking step.
제 1 항에 있어서,
상기 행동 템플릿 확인 단계에서 상기 행동 템플릿이 존재하지 않으면, 상기 행동 인식 장치는 등록 모드로 전환하여 행동 템플릿을 등록하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 1,
And if the behavior template does not exist in the behavior template recognition step, the behavior recognition apparatus switches to the registration mode and registers the behavior template.
제 1 항에 있어서,
상기 매칭 단계에서는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 1,
Wherein the matching step matches an input action template with a plurality of stored behavior templates to calculate respective similar scores, and finds a behavior template having a maximum score among the plurality of behavior templates.
제 5 항에 있어서,
상기 매칭 단계에서는 상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
6. The method of claim 5,
Wherein the matching step compares the similarity of the plurality of behavior templates to calculate a minimum acceptable score, and compares the score of the behavior template having the maximum score with the minimum acceptable score.
제 6 항에 있어서,
상기 행동 추정 단계에서는 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 6,
Wherein in the behavior estimation step, if the score of the behavior template having the maximum score is larger than the minimum allowable score, the behavior estimation unit estimates the behavior of the user by outputting the behavior represented by the behavior template having the maximum score Recognition method.
삭제delete 제 1 항에 있어서,
상기 슬라이딩 윈도우 필터는 일정 시간 내에서 추정된 결과를 포함해 과거에 추정되었던 결과를 바탕으로 일정 범위 내에서 가장 많이 추정된 결과를 출력하는 것을 특징으로 하는 행동 인식 장치의 행동 인식 방법.
The method according to claim 1,
Wherein the sliding window filter outputs the most estimated result within a certain range based on a result estimated in the past including a result estimated within a predetermined time.
사용자의 관절 정보와 깊이 정보를 취득하는 데이터 취득부;
상기 사용자의 행동에 따른 복수의 행동 템플릿이 저장된 데이터 저장부;
상기 데이터 취득부에서 취득한 사용자의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및
상기 입력 행동 템플릿을 상기 데이터 저장부에 저장된 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 가장 유사한 행동 템플릿을 갖는 행동을 출력하여, 사용자의 행동을 추정하는 추정부를 포함하고,
상기 추정부는 사용자의 행동 추정이 오추정되는 것을 방지하기 위해 슬라이딩 윈도우 필터를 사용하여 추정된 결과를 필터링하는 것을 특징으로 하는 행동 인식 장치.
A data acquisition unit for acquiring joint information and depth information of a user;
A data storage unit for storing a plurality of behavior templates according to the behavior of the user;
A behavior template generation unit that generates an input behavior template from the joint information and depth information of the user acquired by the data acquisition unit; And
And an estimation unit for matching the input behavior template with a plurality of behavior templates stored in the data storage unit and outputting a behavior having a behavior template most similar to the input behavior template,
Wherein the estimating unit filters the estimated result using a sliding window filter to prevent a user's behavior estimation from being misjudged.
제 10 항에 있어서,
상기 행동 템플릿은 사용자의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성한 것을 특징으로 하는 행동 인식 장치.
11. The method of claim 10,
Wherein the behavior template is formed as an image by connecting the positions of the respective joints with a straight line around the reference point of the user's body.
제 10 항에 있어서,
상기 추정부는 입력 행동 템플릿을 저장된 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 갖는 행동 템플릿을 찾아내고,
상기 복수의 행동 템플릿들의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 큰지 비교하며,
상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어 보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 사용자의 행동을 추정하는 것을 특징으로 하는 행동 인식 장치.
11. The method of claim 10,
Wherein the estimating unit matches an input behavior template with a plurality of stored behavior templates to calculate respective similar scores, finds a behavior template having a maximum score among the plurality of behavior templates,
Compares the similarity of the plurality of behavioral templates to compute a minimum acceptable score to compare whether the score of the behavioral template with the maximum score is greater than a minimum acceptable score,
And when the score of the behavior template having the maximum score is larger than the minimum allowable score, the behavior estimation means estimates the behavior of the user by outputting the behavior represented by the behavior template having the maximum score.
KR1020140023682A 2014-02-27 2014-02-27 Apparatus for gesture recognition and method thereof KR101543150B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140023682A KR101543150B1 (en) 2014-02-27 2014-02-27 Apparatus for gesture recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140023682A KR101543150B1 (en) 2014-02-27 2014-02-27 Apparatus for gesture recognition and method thereof

Publications (1)

Publication Number Publication Date
KR101543150B1 true KR101543150B1 (en) 2015-08-07

Family

ID=53886711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140023682A KR101543150B1 (en) 2014-02-27 2014-02-27 Apparatus for gesture recognition and method thereof

Country Status (1)

Country Link
KR (1) KR101543150B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564043A (en) * 2018-04-17 2018-09-21 中国民航大学 A kind of Human bodys' response method based on time-space distribution graph
KR20230040708A (en) 2021-09-16 2023-03-23 현대자동차주식회사 Action recognition apparatus and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (en) * 2010-09-27 2012-04-05 Sony Corp Information processing device and method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (en) * 2010-09-27 2012-04-05 Sony Corp Information processing device and method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564043A (en) * 2018-04-17 2018-09-21 中国民航大学 A kind of Human bodys' response method based on time-space distribution graph
CN108564043B (en) * 2018-04-17 2021-08-31 中国民航大学 Human body behavior recognition method based on space-time distribution diagram
KR20230040708A (en) 2021-09-16 2023-03-23 현대자동차주식회사 Action recognition apparatus and method
US11907771B2 (en) 2021-09-16 2024-02-20 Hyundai Motor Company Action recognition device and action recognition method

Similar Documents

Publication Publication Date Title
JP5772821B2 (en) Facial feature point position correction apparatus, face feature point position correction method, and face feature point position correction program
JP4985516B2 (en) Information processing apparatus, information processing method, and computer program
CN110147721B (en) Three-dimensional face recognition method, model training method and device
US9286694B2 (en) Apparatus and method for detecting multiple arms and hands by using three-dimensional image
US9978119B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
CN108717531B (en) Human body posture estimation method based on Faster R-CNN
JP4951498B2 (en) Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program
US9916495B2 (en) Face comparison device, method, and recording medium
CN110688929B (en) Human skeleton joint point positioning method and device
JP4709668B2 (en) 3D object recognition system
RU2016137779A (en) TRACKING A LOOK BASED ON ADAPTIVE HOMOGRAPHIC COMPARISON
KR20120048370A (en) Object pose recognition apparatus and method using the same
CN107423306B (en) Image retrieval method and device
CN108345821B (en) Face tracking method and device
US20190266734A1 (en) Information processing device, information processing method, and recording medium
US20200364444A1 (en) Information processing apparatus and method of authentication
JP2015028702A (en) Information processor, information processing method, and program
JP2017091377A (en) Attitude estimation device, attitude estimation method, and attitude estimation program
WO2014112346A1 (en) Device for detecting feature-point position, method for detecting feature-point position, and program for detecting feature-point position
JP2017123087A (en) Program, device and method for calculating normal vector of planar object reflected in continuous photographic images
JP2011215716A (en) Position estimation device, position estimation method and program
KR101543150B1 (en) Apparatus for gesture recognition and method thereof
JP2019012497A (en) Portion recognition method, device, program, and imaging control system
KR101001184B1 (en) Iterative 3D head pose estimation method using a face normal vector
KR20200057572A (en) Hand recognition augmented reality-intraction apparatus and method

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190725

Year of fee payment: 5