[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100839536B1 - System and method for facial region/hair information extraction, character generation - Google Patents

System and method for facial region/hair information extraction, character generation Download PDF

Info

Publication number
KR100839536B1
KR100839536B1 KR1020060129007A KR20060129007A KR100839536B1 KR 100839536 B1 KR100839536 B1 KR 100839536B1 KR 1020060129007 A KR1020060129007 A KR 1020060129007A KR 20060129007 A KR20060129007 A KR 20060129007A KR 100839536 B1 KR100839536 B1 KR 100839536B1
Authority
KR
South Korea
Prior art keywords
image
face
region
aam
hair
Prior art date
Application number
KR1020060129007A
Other languages
Korean (ko)
Inventor
김대진
최승진
김효정
김상기
박성수
이선호
전봉진
정석주
Original Assignee
주식회사 케이티
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티, 포항공과대학교 산학협력단 filed Critical 주식회사 케이티
Priority to KR1020060129007A priority Critical patent/KR100839536B1/en
Application granted granted Critical
Publication of KR100839536B1 publication Critical patent/KR100839536B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

An apparatus and a method for extracting facial feature, an apparatus and a method for extracting hair, and a system and a method for generating a photographic character are provided to offer the preprocessing of accurate face recognition and face normalizing, thereby improving face recognition performance even in a change of lighting and a pose and extracting physiognomic information for a physiognomic service. A system for generating a photographic character comprises an image input unit(10), a facial region detecting unit(20), a facial feature extracting unit(30), a hair extracting unit(40), and a photographic character generating unit(50). The facial region detecting unit detects a facial region image from an image received from the outside. The facial feature extracting unit applies IPCA(Incremental Principal Component Analysis) to an AAM(Active Appearance Model) for the facial region image detected in the facial region detecting unit to update learned AAM basis and extract facial feature, and normalizes the facial region image based on the position of the extracted facial feature. The hair extracting unit acquires an image patch corresponding a background region and an image patch corresponding to a head region in a face peripheral image received from the outside and removes the background region using the color histogram information of each image patch and a probability analysis scheme to extract a hair image. The photographic character generating unit matches the facial region image normalized in the facial feature extracting unit and the hair image extracted in the hair extracting unit to generate a photographic character.

Description

얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법{System and method for facial region/hair information extraction, character generation}Facial feature extraction apparatus and method, hair extraction apparatus and method, real character generation system and method {System and method for facial region / hair information extraction, character generation}

도 1 은 본 발명에 따른 실사 캐릭터 생성 시스템의 일실시예 전체 구성도, 1 is an overall configuration diagram of an embodiment of a live action character generation system according to the present invention;

도 2 는 본 발명에 따른 실사 캐릭터 생성 방법에 대한 일실시예 흐름도, 2 is a flowchart illustrating an embodiment of the method for generating a photorealistic character according to the present invention;

도 3 은 본 발명에 따른 얼굴 특징점 추출 장치의 일실시예 구성도,3 is a block diagram of an embodiment of a facial feature point extraction apparatus according to the present invention;

도 4 는 본 발명에 따른 얼굴 특징점 추출 방법에 대한 일실시예 흐름도, 4 is a flowchart illustrating an embodiment of a method for extracting facial feature points according to the present invention;

도 5 는 본 발명의 얼굴 특징점 추출 방법에 따른 특징점들의 위치와 얼굴 정규화 영상의 예를 보여주는 일실시예 설명도, 5 is an explanatory diagram illustrating an example of positions of feature points and an example of a face normalized image according to a method for extracting feature points of the present invention;

도 6 은 본 발명에 따른 머리카락 추출 장치 및 방법을 나타낸 일실시예 설명도, 6 is a diagram illustrating an embodiment of a hair extraction apparatus and method according to the present invention;

도 7 은 본 발명의 실시예에 따른 실사 캐릭터 생성 과정을 보여주는 설명도이다. 7 is an explanatory diagram showing a process of generating a live-action character according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

10 : 영상 입력부 20 : 얼굴 영역 추출부10: image input unit 20: face region extraction unit

30 : 얼굴 특징점 추출부 31 : 모델 피팅부30: facial feature point extraction unit 31: model fitting unit

32 : 피팅 정확도 판단부 33 : 기저 업데이트 판단부32: fitting accuracy determination unit 33: basis update determination unit

34 : 기저 업데이트부 35 : 정규화부34: base updater 35: normalizer

40 : 머리카락 추출부 41 : 배경영역 제거부40: hair extraction unit 41: background area removal unit

42 : 머리카락 영역 추출부 50 : 실사 캐릭터 생성부42: hair region extraction unit 50: live action character generator

본 발명은 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 보다 상세하게는 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 영상)을 추출하고, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락 영상을 추출하며, 이렇게 얻어진 얼굴 영상과 머리카락 영상을 이용하여 실사 캐릭터를 생성, 제작할 수 있는, 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention relates to a facial feature extraction apparatus and its method, a hair extraction apparatus and its method, a live-action character generation system and the method, and a computer-readable recording medium recording a program for realizing the above methods. Extracts facial feature points (images of faces such as eyes, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.) Facial feature point extraction apparatus and method for extracting hair images reliably regardless of the shape, color, and shape of various hairs and generating and producing photorealistic characters using the obtained facial images and hair images. Extraction apparatus and method, real character generation system and method and realizing the above methods It relates to a computer-readable recording medium recording the program.

최근 들어, 포탈 서비스, 인터넷 채팅, 인터넷 방송, 온라인 게임, 캐릭터 등의 다양한 컨텐츠를 제공하는 사이트들 중 자신이 선호하는 캐릭터를 사전에 정의되어 있는 다양한 모양의 도안을 조합하여 자신의 특징을 나타내는 캐릭터를 완 성하고, 이를 정해진 애니메이션 동작에 적용하는 방법이 일반적으로 활용되고 있다. 또한, 자신의 사진을 전문 디자이너에 의해 일부 자동화 또는 전체가 수작업에 의해 캐릭터를 생성해주고, 이를 아바타로 제공할 수 있는 서비스가 생겨나고 있다. In recent years, a character that represents his or her own character by combining a variety of patterns in advance with a favorite character among sites that provide various contents such as portal services, internet chat, internet broadcasting, online games, and characters. In general, a method of completing a method and applying it to a predetermined animation motion is generally used. In addition, a service has been created in which a professional designer can create a character by a part of automation or the whole manual work and provide it as an avatar.

그러나, 상기의 방법들은 자신만의 고유의 캐릭터라고 보기 어렵다. 또한, 실시간으로 처리가 불가능하고, 제작비용이 비싸기 때문에 사용에 제한이 있었다. However, the above methods are hardly seen as their own characters. In addition, there is a limit to use because it is impossible to process in real time and the production cost is high.

캐릭터 생성시에는 얼굴 영상의 특징점과 머리카락 영역의 추출을 통해 이를 정합하여 생성하는데, 상기의 문제점들은 결국 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에 강인하면서도 신뢰성 있게 얼굴 영상의 특징점을 추출할 수 없다는 점으로부터 비롯된다. 또한, 다양한 머리카락의 모양과 색의 변화에도 신뢰성 있게 머리카락을 추출할 수 없다는 이유 역시 그 원인이 된다. When generating a character, the feature points of the face image and the hair region are extracted and generated. The above problems are solved by various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). It comes from the fact that it is impossible to extract the feature points of the face image robustly and reliably. In addition, the reason that the hair can not be reliably extracted even in the change of the shape and color of various hair is also the cause.

일반적으로, 얼굴 영상은 개인의 특징을 잘 표현할 수 있는 정보로서, 이를 실제 얼굴 영상 정보를 이용한 특징점 추출 및 캐릭터 생성은 얼굴인식, 관상정보 서비스를 위한 전처리, 기반기술을 제공함은 물론 사실적인 요소가 바로 적용됨으로써, 기존의 가상 캐릭터에 단순함이나 자신과의 차이점과 같은 문제점을 극복함으로써 자신을 표현하는 가장 효과적인 방식이 될 수 있다.In general, face images are information that can express personal characteristics well, and feature point extraction and character generation using real face image information provide face recognition, preprocessing for coronary information service, and basic technology as well as realistic elements. By being applied immediately, it can be the most effective way of expressing itself by overcoming problems such as simplicity or difference from the existing virtual character.

하지만, 종래의 템플리트 매칭, 곡선 추적 알고리즘 등과 같은 추출 방법에서, 얼굴의 다양한 특징점을 모두 추출하기 위해서는, 얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등에 따라 처리속도가 많이 걸리고, 성능이 크게 저하되는 문제점이 있었다.However, in a conventional extraction method such as template matching and curve tracking algorithm, in order to extract all the various feature points of the face, the processing speed takes a lot depending on the change in the size of the face, the change of pose, the wearing of glasses and accessories, the change of lighting, etc. There was a problem that performance is greatly reduced.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출하기 위한, 얼굴 특징점 추출 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, facial features (eye, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting changes, etc.) It is an object of the present invention to provide a facial feature point extracting apparatus and a method thereof, and a computer-readable recording medium having recorded thereon a program for realizing the method.

또한, 본 발명은, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출하기 위한, 머리카락 추출 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 다른 목적이 있다. In addition, the present invention can be read by a computer recording a hair extracting apparatus and method for extracting hair reliably regardless of the shape, color, and shape of various hairs while being robust to light changes. Another purpose is to provide a record carrier.

또한, 본 발명은 상기 추출된 얼굴 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작하기 위한, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다. In addition, the present invention provides a computer-readable recording system for generating a real character using the extracted facial feature point and hair extraction information, a real character character generation system and method thereof, and a program for realizing the method. Another purpose is to provide the medium.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 실사 캐릭터 생성 시스템은, 실사 캐릭터 생성 시스템에 있어서, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하기 위한 얼굴영역 검출 수단; 상기 얼굴영역 검출 수단에서 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하고, 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하기 위한 얼굴 특징점 추출 수단; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하고서 상기 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하기 위한 머리카락 추출 수단; 및 상기 얼굴 특징점 추출 수단에서 정규화한 얼굴영역 영상과 상기 머리카락 추출 수단에서 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하기 위한 실사 캐릭터 생성 수단을 포함한다.A live action character generation system of the present invention for achieving the above object comprises: a face area detection means for detecting a face area image from an image input from the outside; The facial feature image is extracted by updating the learned AAM basis by applying IPCA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the face region image detected by the face region detecting means. Face feature point extracting means for normalizing the face region image based on a position of? Color histogram information and probability of each image patch are obtained by obtaining an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around the face from the image received from the outside (hereinafter, referred to as a peripheral image). Hair extracting means for extracting a hair image by removing a background area using a conventional analysis method; And live-action character generation means for generating a live-action character by matching the face region image normalized by the facial feature point extraction means and the hair image extracted by the hair extraction means.

한편, 본 발명의 얼굴 특징점 추출 장치는, 얼굴 특징점 추출 장치에 있어서, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅 수단; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 모델 피팅 수단에서 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하기 위한 피팅 정확도 판단 수단; 상기 피팅 정확도 판단 수단에서 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하기 위한 정규화 수단; 상기 피팅 정확도 판단 수단에서 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하기 위한 기저 업데이트 판단 수단; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하기 위한 기저 업데이트 수단을 포함한다.Meanwhile, the facial feature extraction apparatus of the present invention is a facial feature extraction apparatus for obtaining an AAM parameter for minimizing a difference between a facial region image composed of an AAM (Active Appearance Model) and a facial region image of an image input from the outside. Model fitting means; Based on the difference between the face region image of the image received from the outside and the face region image reproduced by using the AAM parameter acquired by the model fitting means, the fitting accuracy is determined, the face feature point with high fitting accuracy is output, and the AAM base update is induced. Fitting accuracy determination means for; Normalization means for normalizing the face region image by obtaining position coordinates of a facial feature point output from the fitting accuracy determining means, extracting texture information therein; A basis update determining means for determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting accuracy determination means determines that the fitting is correct; And a basis updating means for adding a face region image of the image received from the outside to the previously learned AAM basis using an incremental principal component analysis (IPCA).

한편, 본 발명의 머리카락 추출 장치는, 머리카락 추출 장치에 있어서, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서 획득한 배경영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 해당 배경영역을 제거하되, 상기 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하는 배경영역 제거 수단; 및 상기 얼굴주변 영상에서 획득한 머리영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 머리카락영역을 추출하되, 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여 해당 머리카락 영상을 추출하는 머리카락영역 추출 수단을 포함한다.Meanwhile, the hair extracting apparatus of the present invention, in the hair extracting apparatus, corresponds to a background region obtained from an image obtained by normalizing a face periphery including a head region and a background region from an image received from the outside (hereinafter, referred to as a face peripheral image). The background region is removed by using color histogram information and a probabilistic analysis method on an image patch, and an approximate probability value of each color at all points (pixels) of the image around the face [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] if it is lower than a predetermined threshold value; And extracting a hair region using color histogram information and a probabilistic analysis method on an image patch corresponding to a head region obtained from the surrounding face image, and extracting the hair region from each point (pixel) of the surrounding face image from which the background region is removed. Approximate probability of color [Note; Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is higher than a predetermined threshold. Means;

한편, 본 발명의 실사 캐릭터 생성 방법은, 실사 캐릭터 생성 방법에 있어서, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 단계; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 단계; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 단계; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 단계; 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 단계; 및 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 단계를 포함한다.On the other hand, the live-action character generation method of the present invention, a live-action character generation method comprising the steps of: detecting a face region image from an image received from the outside; Extracting a facial feature point by updating an learned AAM basis by applying an incremental principal component analysis (IPCA) to an active appearance model (AAM) on the detected face region image; Normalizing the face region image based on the position of the extracted facial feature point; Obtaining an image patch corresponding to a background area and an image patch corresponding to a head area from an image normalized to a face periphery from an image received from the outside (hereinafter, referred to as a peripheral image); Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of the acquired image patches; And generating a live-action character by matching the normalized face region image with the extracted hair image.

한편, 본 발명의 얼굴 특징점 추출 방법은, 얼굴 특징점 추출 방법에 있어서, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 단계; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 단계; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 단계; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 단계; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 단계를 포함한다.Meanwhile, in the facial feature point extraction method, in the facial feature point extraction method, acquiring an AAM parameter that minimizes a difference between a face region image composed of an AAM (Active Appearance Model) and a face region image of an image input from the outside. ; Determining a fitting accuracy based on a difference between a face region image of the image received from the outside and a face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; Normalizing the face region image by obtaining position coordinates of the output facial feature points and extracting texture information therein; Determining whether the AAM basis is updated by measuring an AAM error of a face region image of an image received from the outside when the fitting is determined to be correct; And adding a face region image of the image received from the outside to the previously learned AAM basis using an incremental principal component analysis (IPCA).

한편, 본 발명의 머리카락 추출 방법은, 머리카락 추출 방법에 있어서, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 단계; 및 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 단계를 포함한다.On the other hand, the hair extraction method of the present invention, in the hair extraction method, each point at every point (pixel) of the image (hereinafter referred to as a face peripheral image) normalized around the face including the head region and the background region from the image input from the outside Approximate probability of color [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face image, and if the threshold value is lower than the predetermined threshold, determining that the background area is not the background area and removing the background area; And an approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed. Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is determined as the hair area when extracting the corresponding hair image. Include.

한편, 본 발명은, 프로세서를 구비한 실사 캐릭터 생성 시스템에, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 기능; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 기능; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 기능; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 기능; 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 기능; 및 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, a live-action character generation system having a processor, the function of detecting a face region image from an image received from the outside; Extracting facial feature points by applying an ACA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the detected face region image to update the learned AAM basis; Normalizing the face region image based on the position of the extracted facial feature point; A function of acquiring an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around a face (hereinafter, referred to as a peripheral image) from the image received from the outside; Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of each acquired image patch; And a computer-readable recording medium having recorded thereon a program for realizing a function of generating a real character by matching the normalized face region image with the extracted hair image.

한편, 본 발명은, 프로세서를 구비한 얼굴 특징점 추출 장치에, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 기능; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 기능; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 기능; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 기능; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, a facial feature point extraction apparatus having a processor, the function for obtaining an AAM parameter for minimizing the difference between the face region image composed of the AAM (Active Appearance Model) and the image received from the outside; Determining a fitting accuracy based on a difference between the face region image of the image input from the outside and the face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; Obtaining a position coordinate of the output facial feature point and extracting texture information therein to normalize the face region image; Determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting is determined to be correct; And a computer readable recording medium recording a program for realizing a function of adding a face region image of the image input from the outside to an AAM basis previously learned using an incremental principal component analysis (IPCA).

한편, 본 발명은, 프로세서를 구비한 머리카락 추출 장치에, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 기능; 및 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, in the hair extraction apparatus provided with a processor, each color at every point (pixel) of the image (hereinafter, the peripheral image of the face) normalized around the face including the head region and the background region from the image input from the outside Approximate probability of [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] is less than a predetermined threshold, and determines that the background area is not the background area, and removes the background area; And an approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed. Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is determined as the hair area, and the hair image is extracted. A computer readable recording medium having recorded thereon a program for realization is provided.

본 발명은 머리카락을 포함한 얼굴 영역 추출 및 실사 캐릭터 생성에 관한 것으로서, 얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보) 추출과, 조명변화에 강인하면서도 다양한 머리카락의 모양과 색의 변화에도 신뢰성 있는 머리카락 추출과, 이렇게 얻어진 추출된 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작하는 것이다. The present invention relates to the extraction of facial regions including hair and the creation of live-action characters, which are characterized by facial feature points (eyes, nose, mouth, jawline, etc.) that are robust to face size changes, pose changes, whether glasses and jewelry are worn, lighting changes, etc. Facial feature position information), hair extraction that is robust against changes in illumination, and reliable for changes in the shape and color of various hairs, and real-life characters are generated and produced using the extracted feature points and hair extraction information thus obtained.

이를 위해, 본 발명에서는 기존의 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용시켜, 학습된 AAM 기저(Basis)를 업데이트함으로써 조명, 사용자 등 다양한 변화에 강인한 얼굴 특징점 추출 결과를 얻을 수 있고, 배경 모델링과 머리카락 모델링에 의해 조명변화에 강인하면서도 다양한 머리카락의 색, 형태에 무관하게 신뢰성 있게 머리카락 영역을 추출하며, 이를 정합하여 실사 캐릭터를 생성ㆍ제작한다. To this end, in the present invention, by applying the Incremental Principal Component Analysis (IPCA) to the existing AAM (Active Appearance Model), by updating the learned AAM basis (Basis) to obtain a facial feature point extraction result that is robust to various changes, such as lighting, user It is able to reliably extract the hair area regardless of the color and shape of various hairs while being robust to lighting changes by background modeling and hair modeling, and generate and produce live-action characters by matching them.

본 발명에 따르면, 정확한 얼굴인식의 전처리 및 얼굴정규화를 제공함으로써, 조명 및 포즈변화에도 강인한 얼굴 인식 성능 향상 및 얼굴 모델링, 얼굴의 특징점의 형태에 따른 관상서비스를 위한 관상정보추출이 가능하고, 머리카락 추출 모듈에 의해 실사 머리카락을 합성함으로써 보다 사실적인 얼굴 모델링, 캐릭터 생성을 구현할 수 있으며, 실사 캐릭터 생성 모듈에 의해 고객 이미지의 실사 캐릭터 를 실시간으로 자동 생성함으로써, 캐릭터 생성비용 및 생성시간을 효과적으로 줄일 수 있고, 고객의 캐릭터 이미지를 이용하여 맞춤형 상품을 제작 가능한 효과를 얻을 수 있다. According to the present invention, by providing the pre-processing and face normalization of the accurate face recognition, it is possible to improve the face recognition performance that is robust to lighting and pose changes, face modeling, coronary information extraction for coronary services according to the shape of the facial feature point, hair Real-life face modeling and character generation can be realized by synthesizing live-action hair by the extraction module.Real-time character generation module can automatically generate real-time character of customer image in real time, effectively reducing character creation cost and creation time. In addition, it is possible to obtain an effect that can produce a customized product using the character image of the customer.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명에 따른 실사 캐릭터 생성 시스템의 일실시예 전체 구성도이다. 1 is a block diagram of an embodiment of a live action character generation system according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 실사 캐릭터 생성 시스템은, 크게 영상 입력부(10), 얼굴영역 검출부(20), 얼굴 특징점 추출부(30), 머리카락 추출부(40), 실사 캐릭터 생성부(50)로 이루어진다. 이때, 얼굴영역 검출부(20)는 영상 입력부(10)에서 얼굴영역의 위치와 크기를 검출하는 것으로, 본 발명에서는 얼굴영역 검출 방법으로 공지의 방식을 이용한다. As shown in FIG. 1, the live action character generation system according to the present invention includes an image input unit 10, a face region detection unit 20, a facial feature point extractor 30, a hair extractor 40, and a live action character generation. Part 50 is made. In this case, the face area detection unit 20 detects the position and size of the face area in the image input unit 10. In the present invention, a face area detection method uses a known method.

실사 캐릭터 생성부(50)는 얼굴 특징점 추출부(30)에서 얻어진 얼굴 정규화 영상과 머리카락 추출부(40)에서 얻어진 머리카락 추출 영상을 정합함으로써 최종 실사 캐릭터를 얻는다.The live-action character generation unit 50 obtains the final live-action character by matching the face normalized image obtained by the facial feature point extraction unit 30 with the hair extraction image obtained by the hair extraction unit 40.

이를 구체적으로 살펴보면, 영상 입력부(10)를 통해 입력된 입력영상에서 얼굴영역의 위치와 크기를 검출하기 위한 얼굴영역 검출부(20)와, 얼굴영역 검출부(20)에서 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화하기 위한 얼굴 특징점 추출부(30)와, 정규화된 영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 배경영역 및 머리영역으로 확실시되는 작은 이미지 패치를 얻어, 이 패치의 히스토그램 정보와 확률적 해석 방법을 통해 배경영역을 제거하고 실사 머리카락을 추출하기 위한 머리카락 추출부(40)와, 얼굴 특징점 추출부(30)에서 정규화된 얼굴 정규화 영상과 머리카락 추출부(40)에서 추출된 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성하기 위한 실사 캐릭터 생성부(50)를 포함한다. Specifically, the face region detector 20 for detecting the position and size of the face region in the input image input through the image input unit 10, and the AAM (AAM) within the face region detected by the face region detector 20. Applying Incremental Principal Component Analysis (IPCA) to an Active Appearance Model (IPCA) to update the learned AAM Basis to extract facial feature points with high fitting accuracy, and to normalize faces based on the location of the extracted feature points From the feature point extractor 30 and the normalized image (the image normalized only around the face including the hair in the input image input through the image input unit 10), a small image patch that is assured as the background region and the head region is obtained. Hair extraction unit 40 for removing background area and extracting live hair through histogram information and probabilistic analysis method of patches, and face It includes a live-action character generation unit 50 for generating a live-action character by matching the face normalized image normalized by the feature point extraction unit 30 and the live-action hair image extracted by the hair extraction unit 40.

이와 같은 구성을 갖는 본 발명에 따른 실사 캐릭터 생성 시스템의 동작을 살펴보면 도 2와 같다. Looking at the operation of the live-action character generation system according to the present invention having such a configuration as shown in FIG.

도 2에 도시된 바와 같이, 먼저 영상 입력부(10)를 통해 영상이 입력되면(201), 얼굴영역 검출부(20)는 공지의 얼굴영역 검출 방식을 이용하여 입력된 입력영상에서 얼굴영역의 위치와 크기를 검출하고(202), 얼굴 특징점 추출부(30)에서는 얼굴영역 검출부(20)에서 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화한다(203). As shown in FIG. 2, when an image is first input through the image input unit 10 (201), the face region detection unit 20 determines the position of the face region in the input image input using a known face region detection method. In step 202, the facial feature point extractor 30 applies an incremental principal component analysis (IPCA) to an AAM (Active Appearance Model) within the face region detected by the face region detector 20, thereby learning the AAM. By updating the basis, a facial feature point with high fitting accuracy is extracted, and the face is normalized based on the position of the extracted feature point (203).

또한, 머리카락 추출부(40)에서는 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 컬러 히스토그램 정보와 확률적 해석 방법을 통해 배경영역을 제거하고 실사 머리카락을 추출한다(204). In addition, the hair extractor 40 extracts the background region from the normalized input image (the image normalized only around the face including the hair in the input image input through the image input unit 10) through color histogram information and a probabilistic analysis method. Remove and extract live hair (204).

이후, 실사 캐릭터 생성부(50)에서는 얼굴 특징점 추출부(30)에서 정규화된 얼굴 정규화 영상과 머리카락 추출부(40)에서 추출된 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성한다(205). Thereafter, the live action character generator 50 generates a live action character by matching the face normalized image normalized by the facial feature point extractor 30 and the live hair image extracted by the hair extractor 40 (205).

상기 얼굴 특징점 추출 과정(203) 및 머리카락 추출 과정(204)에 대해서는 하기에서 보다 상세하게 설명하기로 한다.The facial feature point extraction process 203 and the hair extraction process 204 will be described in more detail below.

먼저, 얼굴 특징점 추출부(30) 및 얼굴 특징점 추출 과정(203)에 대해 살펴보기로 한다. First, the facial feature point extractor 30 and the facial feature point extraction process 203 will be described.

도 3 은 본 발명에 따른 얼굴 특징점 추출 장치의 일실시예 구성도이다. 3 is a block diagram of an embodiment of a facial feature point extraction apparatus according to the present invention.

얼굴 특징점 추출부(30)는 얼굴영역 검출부(20)에 의해 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화한다. 이때, 얼굴 특징점을 추출함에 있어서, AAM 기저(Basis) 업데이트를 통해, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출할 수 있다. The facial feature point extractor 30 applies an IPA (Incremental Principal Component Analysis) to an AAM (Active Appearance Model) in the face region detected by the face region detector 20, thereby updating the learned AAM basis. A facial feature point with high fitting accuracy is extracted, and the face is normalized based on the location of the extracted feature point. At this time, in extracting facial feature points, the facial feature points (eyes, noses) that are robust to various environmental changes (face size change, pose change, wearing glasses and accessories, lighting change, etc.) through AAM Basis update Facial feature position information of the face, such as a mouth, a jawline, etc.) can be extracted.

도 3에 도시된 바와 같이, 얼굴 특징점 추출부(30)는, AAM으로 구성한 얼굴 영상과 입력 얼굴 영상의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅부(31)와, 입력영상과 AAM 파라미터로 재생한 영상의 차이를 통해 피팅의 정확도를 판단하여, 피팅 정확도가 높은 얼굴 특징점을 출력하고 기저 업데이트를 유도하는 피팅 정확도 판단부(32)와, 얼굴 윤곽상에 존재하는 얼굴 특징점의 좌표를 구해서, 그 내부에 있는 텍스처 정보를 추출하는 정규화부(35)와, 피팅이 정확한 경우, 현재 입력영상의 AAM 에러를 측정하여 AAM 기저(Basis) 업데이트 여부를 판정하기 위한 기저 업데이트 판단부(33)와, IPCA(Incremental Principal Component Analysis)를 사용하여 현재 입력영상을 기존 학습된 기저(Basis)에 추가하는 기저 업데이트부(34)를 포함한다. As shown in FIG. 3, the facial feature point extractor 30 may include a model fitting unit 31 for obtaining an AAM parameter for minimizing a difference between a face image composed of AAM and an input face image, and an input image and an AAM parameter. The accuracy of the fitting is judged based on the difference of the images reproduced by using the image, and the fitting accuracy judging unit 32 which outputs the facial feature point with high fitting accuracy and induces the base update is obtained, and the coordinates of the facial feature points existing on the face contour are obtained. A normalization unit 35 for extracting texture information therein, and a base update determination unit 33 for determining whether to update the AAM basis by measuring the AAM error of the current input image when the fitting is correct. And a base updater 34 that adds a current input image to an existing learned basis using an incremental principal component analysis (IPCA).

여기서, 사용되는 주요 알고리즘은 AAM(Active Appearance Model)과 IPCA(Incremental Principal Component Analysis)이다. Here, the main algorithms used are Active Appearance Model (AAM) and Incremental Principal Component Analysis (IPCA).

AAM에서는 대상물(본 발명에서는 얼굴)을 형태(Shape)와 텍스처(Texture)로 나누어 모델링하며, 기본적으로 얼굴 학습 데이터를 이용하여 평균 얼굴을 구성하고 외부에서 들어오는 영상 내의 얼굴 영역을 정해주면 그 얼굴에 비슷하게 수렴할 때까지 평균 얼굴의 형태와 텍스처의 파라미터가 변해가도록 설계한다. 이때, 형태와 텍스처 각각은 PCA(Principal Component Analysis)로 모델링된다. In AAM, objects (faces in the present invention) are modeled by dividing them into shapes and textures.By using face learning data, an average face is composed and a face area within an image from outside is defined. Similarly, the parameters of the shape and texture of the average face change until they converge. At this time, each of the shape and texture is modeled by PCA (Principal Component Analysis).

따라서, AAM은 대상물의 다양한 변형을 유연하게 표현할 수 있다는 장점이 있으므로, 얼굴 추적, 얼굴 특징점 추출, 표정 인식 등 다양한 분야에 적용되어 사용되고 있다. Therefore, the AAM has the advantage of being able to flexibly express various deformations of the object, and has been applied to various fields such as face tracking, facial feature point extraction, and facial expression recognition.

하지만, AAM에서 형태와 텍스처 각각의 PCA 모델은 학습에 이용한 얼굴 데이터에 의존하기 때문에, 학습에 이용한 데이터와 크게 다른 얼굴 입력영상이 들어올 경우, 기존의 학습된 모델로는 새로운 얼굴 입력영상을 잘 표현하지 못하는 경우가 발생하게 된다. However, since each PCA model of shapes and textures in AAM depends on the face data used for training, when a face input image comes in significantly different from the data used for training, the existing trained model expresses a new face input image well. If you can't do that.

따라서, 본 발명에서는 기존의 AAM에 IPCA를 적용시켜, 학습된 AAM 기저(Basis)를 업데이트함으로써, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보) 추출 결과를 얻을 수 있다.Therefore, in the present invention, by applying the IPCA to the existing AAM, by updating the learned AAM Basis, it is robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). The result of extracting facial feature points (feature location information of the face such as eyes, nose, mouth, and jawline) can be obtained.

상기와 같은 구성을 갖는 본 발명에 따른 얼굴 특징점 추출부(30)의 동작을 살펴보면 도 4와 같다. Looking at the operation of the facial feature point extraction unit 30 according to the present invention having the configuration as described above is as shown in FIG.

먼저, 영상 입력부(10)에서는 정지영상 혹은 움직임 영상의 경우 프레임 단위의 영상을 얼굴영역 검출부(20)로 전달한다(401). First, in the case of a still image or a motion image, the image input unit 10 transmits an image of a frame unit to the face region detector 20 (401).

이후, 얼굴영역 검출부(20)에서는 입력영상에서 얼굴영역을 검출하여 얼굴 특징점 추출부(30)로 검출한 얼굴의 크기와 위치 정보를 제공한다(402). Thereafter, the face region detector 20 detects the face region from the input image and provides the size and position information of the face detected by the face feature point extractor 30 (402).

그러면, 얼굴 특징점 추출부(30)의 모델 피팅부(31)에서는 AAM으로 구성한 얼굴 영상과 입력 얼굴 영상의 차이를 최소화하는 AAM 파라미터를 획득한다(403). 이때, AAM 파라미터를 획득하는 과정은, 하나의 영상 내에서 정해진 수치 이하로 에러 값이 내려갈 때까지 반복적으로 AAM 파라미터를 변화시키면서 수행된다. Then, the model fitting unit 31 of the facial feature point extractor 30 obtains an AAM parameter for minimizing the difference between the face image composed of the AAM and the input face image (403). At this time, the process of acquiring the AAM parameter is performed while repeatedly changing the AAM parameter until the error value falls below a predetermined value in one image.

이렇게 구해진 AAM 파라미터로 표현되는 얼굴 영상 영역 내의 텍스처 정보를 피팅 정확도 판단부(32)로 넘긴다. 왜냐하면, 피팅이 정확하지 않은 영상을 이용하여 AAM 기저 업데이트를 수행할 경우, 오히려 기존의 모델이 더 나쁘게 변경될 수 있으므로 현재 입력영상이 정확하게 피칭되었는가를 판단해야 한다. The texture information in the face image region represented by the AAM parameter thus obtained is passed to the fitting accuracy determiner 32. This is because when the AAM base update is performed using an incorrect image of the fitting, the existing model may be changed even worse, so it is necessary to determine whether the current input image is pitched correctly.

따라서, 피팅 정확도 판단부(32)에서는 얼굴 영상 내의 텍스처 정보와 AAM 파라미터로 재생한 영상의 텍스처와의 차이 값으로부터 피팅의 정확도를 판단한다(404). Therefore, the fitting accuracy determination unit 32 determines the accuracy of the fitting from the difference value between the texture information in the face image and the texture of the image reproduced by the AAM parameter (404).

판단 결과, 피팅이 정확한 경우에는, 피팅 결과가 좋은 영상에 대해 기저 업데이트를 유도한다. 이때, 피팅 정확도가 높은 얼굴 특징점을 출력하여, 정규화부(35)에서 얼굴 윤곽상에 존재하는 얼굴 특징점의 좌표를 구해서 그 내부에 있는 텍스처 정보를 추출할 수 있도록 한다. As a result of the determination, if the fitting is correct, the base update is induced for an image having a good fitting result. At this time, by outputting a facial feature point with high fitting accuracy, the normalization unit 35 obtains the coordinates of the facial feature point existing on the facial contour and extracts texture information therein.

판단 결과, 피팅이 정확하지 않은 경우에는, 현재 프레임의 영상에서 기저 업데이트를 수행하지 않고 다음 프레임으로 넘어가게 된다(401). As a result of the determination, if the fitting is not correct, the process proceeds to the next frame without performing the base update on the image of the current frame (401).

이후, 기저 업데이트 판단부(33)에서는 현재 입력영상의 AAM 에러를 측정하여 에러가 미리 정해진 수치보다 클 때만 기저 업데이트를 수행토록 한다(하기의 [수학식 1] 참조)(405). 여기서, 에러가 작다는 것은 현재 학습된 기저값으로 충분히 입력영상을 표현할 수 있다는 것이므로 AAM 기저 업데이트를 수행하지 않고, 에러가 클 때만 AAM 기저를 업데이트하는 것이다. Thereafter, the base update determiner 33 measures the AAM error of the current input image so as to perform the base update only when the error is larger than a predetermined value (see Equation 1 below) (405). Here, since the error is small, the input image can be sufficiently represented by the currently learned base value. Therefore, the AAM basis is updated only when the error is large without performing the AAM base update.

마지막으로, 기저 업데이트부(34)에서는 IPCA를 사용하여 현재 입력영상을 기존에 학습된 기저에 추가한다(406). 이때, 기저가 추가될 경우, 학습 데이터의 평균, 분산, 기저벡터, Eigen-value가 변하게 된다. 이때, 기저 업데이트 과정은 하기의 수학식을 통해 보다 상세하게 설명하기로 한다. Finally, the base updater 34 adds the current input image to the previously learned base using IPCA (406). In this case, when the basis is added, the average, variance, basis vector, and Eigen-value of the training data change. At this time, the basis update process will be described in more detail through the following equation.

우선, 기저 업데이트에 대한 판단 조건으로, 하기의 [수학식 1]에서와 같이 현재 입력영상의 AAM 에러를 측정하여 에러가 미리 정해진 수치보다 클 때만 기저 업데이트를 수행토록 한다. First, as a determination condition for the base update, as shown in Equation 1 below, the AAM error of the current input image is measured to perform the base update only when the error is larger than a predetermined value.

Figure 112006093227643-pat00001
Figure 112006093227643-pat00001

삭제delete

상기 [수학식 1]에서 I(x)는 입력영상, I re (x)는 AAM 파라미터로 재생한 영상, σ는 픽셀의 분산, c 1 은 피팅 정확도 판단을 위한 임계치 값이다. 즉, 입력영상과 AAM 파라미터로 재생한 영상의 차이가 임계치를 넘을 경우, 잘못 피팅된 경우라고 판단하여 기저 업데이트를 수행하지 않으며, 임계치를 넘지 않을 경우에만 기저 업데이트 과정을 수행하게 된다. In Equation 1, I (x) is an input image, I re (x) is an image reproduced with an AAM parameter, σ is a variance of pixels, and c 1 is a threshold value for determining fitting accuracy. That is, if the difference between the input image and the image reproduced with the AAM parameter exceeds the threshold value, it is determined that it is a wrong fit and does not perform the base update, and the base update process is performed only when the threshold value is not exceeded.

Figure 112006093227643-pat00002
Figure 112006093227643-pat00002

상기 [수학식 2]에서 n은 현재 AAM 학습에 사용된 학습 데이터의 개수이며,

Figure 112006093227643-pat00003
는 현재 학습데이터의 평균, x n +1 은 현재 프레임의 입력영상,
Figure 112006093227643-pat00004
는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 평균을 나타낸다. In Equation 2, n is the number of learning data currently used for AAM learning.
Figure 112006093227643-pat00003
Is the average of the current learning data, x n +1 is the input image of the current frame,
Figure 112006093227643-pat00004
Represents the average of new learning data when the current input image is added to AAM learning.

여기서, 새로운 학습 데이터의 평균

Figure 112006093227643-pat00005
는 다음 입력영상에서 현재 학습 데이터의 평균으로 사용된다. Where the average of the new training data
Figure 112006093227643-pat00005
Is used as the average of the current learning data in the next input image.

Figure 112006093227643-pat00006
Figure 112006093227643-pat00006

상기 [수학식 3]은 현재 입력영상이 추가되었을 경우의 Covariance 행렬을 나타낸다. n은 현재 AAM 학습에 사용된 학습데이터의 개수이며,

Figure 112006093227643-pat00007
는 현재 학습데이터의 평균, I(x)는 현재 프레임의 입력영상, C는 현재 학습데이터의 Covariance 행렬, C`는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 Covariance 행렬을 나타낸다.Equation 3 shows a covariance matrix when a current input image is added. n is the number of learning data currently used for AAM learning.
Figure 112006093227643-pat00007
Is the average of the current training data, I (x) is the input image of the current frame, C is the covariance matrix of the current training data, and C` is the covariance matrix of the new training data when the current input image is added to AAM learning.

Figure 112006093227643-pat00008
Figure 112006093227643-pat00008

현재 프레임의 입력영상 I(x)는 학습된 AAM 텍스처 공간에서 위 식과 같이 나타난다. U는 현재 학습된 기저벡터의 집합이고, a n+1 은 입력영상을 현재 학습된 공간에 투영했을 때의 파라미터 벡터이며,

Figure 112006093227643-pat00009
는 현재 학습데이터의 평균, I(x)은 현재 입력영상이다. The input image I (x) of the current frame appears as shown above in the learned AAM texture space. U is a set of currently learned basis vectors, a n + 1 is a parameter vector when the input image is projected onto the currently learned space,
Figure 112006093227643-pat00009
Is the mean of the current learning data, I (x) is the current input image.

Figure 112006093227643-pat00010
Figure 112006093227643-pat00010

AAM 텍스처 공간상에 나타나는 입력영상 벡터의 파라미터 벡터 a n+ 1 를 다시 영상 공간으로 복원하면 상기 [수학식 5]와 같이 표현된다. 이때, 복원과정에서 필연적으로 원본 영상과의 차이가 발생하게 된다. When the parameter vector a n + 1 of the input image vector appearing in the AAM texture space is restored to the image space, it is expressed as Equation 5 above. In this case, a difference from the original image is inevitably generated during the restoration process.

Figure 112006093227643-pat00011
Figure 112006093227643-pat00011

상기 [수학식 6]에서 b n +1 은 입력영상이 학습된 기저(Basis)로 표현되지 않는 여분 벡터를 나타낸다. 이때, 이 여분 벡터가 작을 경우에는 입력영상이 학습된 Basis로 잘 표현된다는 의미이므로, 업데이트를 수행하지 않고 과정을 끝낸다. 하 지만, 여분 벡터가 클 경우에는 기저 벡터를 업데이트해야 입력영상을 잘 표현할 수 있으므로 업데이트 과정을 계속 수행한다.In Equation 6, b n +1 represents an extra vector that is not represented as a learned basis (Basis). In this case, when the extra vector is small, it means that the input image is well represented by the learned Basis, and thus the process is completed without updating. However, if the extra vector is large, the base vector must be updated to represent the input image well, so the update process continues.

Figure 112006093227643-pat00012
Figure 112006093227643-pat00012

상기 [수학식 7]에서 U는 현재 학습된 기저벡터의 집합이고,

Figure 112006093227643-pat00013
는 정규화한 여분 벡터 b n +1 이며, R은 회전 행렬, U`는 입력영상이 적용된 새로운 기저행렬이다. 즉, 현재 영상에서 기존 Basis로 표현되지 않는 부분만을 새로운 Basis에 추가하여 전체 기저값을 회전한 것이 새로운 기저 벡터의 집합이 되는 것이다.In Equation 7, U is a set of currently learned basis vectors,
Figure 112006093227643-pat00013
Is the normalized extra vector b n +1 , R is the rotation matrix, and U` is the new base matrix to which the input image is applied. In other words, a new basis is a set of new basis vectors by adding only a portion of the current image that is not represented by the existing basis to the new basis.

Figure 112006093227643-pat00014
Figure 112006093227643-pat00014

기존 AAM 텍스처 모델에 새로운 입력영상의 파라미터 벡터가 추가되었을 경우의 eigenproblem은 상기 [수학식 8]과 같이 표현된다. C`는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 Covariance 행렬을 나타내며, U`는 입력영상이 적용된 새로운 기저행렬, 그리고

Figure 112006093227643-pat00015
는 eigenvalue 행렬이다.When the parameter vector of the new input image is added to the existing AAM texture model, eigenproblem is expressed as shown in [Equation 8]. C` represents the Covariance Matrix of the new training data when the current input image is added to the AAM learning, U` new base matrix is applied to the input image, and
Figure 112006093227643-pat00015
Is the eigenvalue matrix.

Figure 112006093227643-pat00016
Figure 112006093227643-pat00016

상기 [수학식 3]과 [수학식 7]을 상기 [수학식 8]에 대입했을 경우, 상기 [수학식 9]가 도출된다. 이것은 R에 대한 eigenproblem이므로, 이 식을 풀면, R 행렬을 구할 수 있다. 또한, 이렇게 구한 R을 상기 [수학식 7]에 대입하면 새로운 입력영상이 적용된 새로운 기저행렬 U`를 구하게 된다. When [Equation 3] and [Equation 7] are substituted into [Equation 8], the above [Equation 9] is derived. Since this is the eigenproblem for R , solving this equation gives us the R matrix. In addition, substituting the obtained R into Equation 7 yields a new base matrix U` to which a new input image is applied.

도 5 는 본 발명의 얼굴 특징점 추출 방법에 따른 특징점들의 위치와 얼굴 정규화 영상의 예를 보여주는 일실시예 설명도이다. 5 is an explanatory diagram illustrating an example of positions of feature points and an example of a face normalized image according to the method for extracting feature points of the present invention.

본 발명에서 사용한 얼굴에서 구하고자 하는 특징점들의 위치와 실제 입력영상에서 검출된 얼굴영역에 대해서 AMM과 IPCA를 적용하여 얻어진 특징점들의 위치(5a)와 이를 이용한 얼굴 정규화 결과(5b)이다.The position 5a of the feature points obtained by applying the AMM and the IPCA to the position of the feature points to be obtained from the face used in the present invention and the face region detected in the actual input image, and the face normalization result 5b using the same.

이제, 머리카락 추출부(40) 및 머리카락 추출 과정(204)에 대해 살펴보기로 한다. Now, the hair extractor 40 and the hair extraction process 204 will be described.

도 6에 도시된 바와 같이, 히스토그램의 색상값이 배경영역에 분포되는 정도에 따른 근사적 확률값을 바탕으로 배경영역을 판별하여, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)으로부터 배경영역을 제거하기 위한 배경영역 제거부(41)와, 배경영역이 제거된 영상에서 히스토그램의 색상값이 머리카락영역에 분포되는 정도에 따른 근사적 확률값을 바탕으로 머리카락영역을 판별하여, 실사 머리카락 영상을 추출하기 위한 머리카락영역 추출부(42)를 포함한다.As shown in FIG. 6, the background region is determined based on an approximate probability value according to the degree of the color value of the histogram being distributed in the background region, and the normalized input image (in the input image input through the image input unit 10). Background region removal unit 41 for removing the background region from the normalized area around the face including the hair, and an approximate probability value according to the degree to which the histogram color value is distributed in the hair region in the image from which the background region is removed. A hair region extracting unit 42 for determining a hair region based on the ground and extracting a live hair image is included.

여기서, 배경영역 제거부(41)에서 사용되는 근사적 확률값은, 패치 영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 나타내는 확률값(H1)을 전체 입력영상의 히스토그램을 구한 후 정규화하여 얻은 확률값(H2)으로 나눈 값으로, 하나의 히스토그램의 색상값이 배경영역에서 분포하는 정도를 나타낸다. Here, the approximate probability value used in the background region removal unit 41 is a probability value (H2) obtained by normalizing the histogram of the patch region and normalizing a probability value (H1) representing the frequency of occurrence of each histogram after obtaining a histogram of the entire input image. Divided by), the color value of one histogram is distributed in the background area.

따라서, 배경영역 제거부(41)는, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 배경영역에 확실하게 속하는 작은 이미지 패치(즉, 정규화된 입력영상에서 사람의 어깨위, 귀 바깥쪽 이미지 영역에서 배경영역에 확실하게 속하는 작은 이미지 패치)를 얻어, 이 패치의 컬러 히스토그램과 정보와 확률적 해석 방법을 통해 배경영역을 제거하되, 정규화된 입력영상의 모든 점에서 각 색상의 근사적 확률값(H1/H2)이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별한다. Therefore, the background region removal unit 41 is a small image patch (i.e., the image region reliably belonging to the background region) in the normalized input image (the image normalized only around the face including the hair in the input image input through the image input unit 10). From the normalized input image, we obtain a small image patch that clearly belongs to the background region on the human shoulder and outside the ear, and remove the background region using the color histogram, information, and probabilistic analysis of the patch. If the approximate probability value H1 / H2 of each color is lower than a predetermined threshold at all points of the normalized input image, it is determined that it is not a background area.

또한, 머리카락영역 추출부(42)에서 사용되는 근사적 확률값은, 패치 영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 나타내는 확률값(H1)을 전체 입력영상의 히스토그램을 구한 후 정규화하여 얻은 확률값(H2)으로 나눈 값으로, 하나의 히스토그램의 색상값이 머리카락영역에서 분포하는 정도를 나타낸다. In addition, the approximate probability value used in the hair region extraction unit 42 is a probability value obtained by normalizing the histogram of the patch region to obtain a histogram of the entire input image after obtaining a histogram of the entire input image (H2). Divided by), and represents the degree to which the color value of one histogram is distributed in the hair region.

따라서, 머리카락영역 추출부(42)는, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 머리카락영역에 확실하게 속하는 작은 이미지 패치(즉, 배경영역이 제거된 영상에서 얼굴의 최상위 부분에서 머리영역으로 확실시되는 작은 이미지 패치)를 얻어, 이 패치의 컬러 히스토그램과 정보와 확률적 해석 방법을 통해 머리카락영역을 추출하되, 정규화된 입력영상의 모든 점에서 각 색상의 근사적 확률값(H1/H2)이 소정의 임계치보다 높은 영역을 머리카락영역으로 판별하여 실사 머리카락을 추출한다. Therefore, the hair region extracting unit 42 is a small image patch (i.e., a small image patch reliably belonging to the hair region) in the normalized input image (the image normalized only around the face including the hair in the input image input through the image input unit 10). In the image from which the background area is removed, a small image patch that is sure to be the head area at the top of the face) is extracted, and the hair area is extracted through the color histogram, information, and probabilistic analysis method of the patch. At every point, the area of the approximate probability (H1 / H2) of each color higher than the predetermined threshold is discriminated as the hair area to extract the live hair.

머리카락 추출부(40)에서는 칼라 이미지 정보, 즉 R-G-B 값을 이용하며 입력영상과 최종결과물 역시 모두 칼라 이미지로 나타난다. The hair extraction unit 40 uses color image information, that is, R-G-B value, and both the input image and the final result are also represented as color images.

배경영역 제거부(41)는 머리카락영역 추출을 위한 전처리 단계로서, 주어진 입력영상으로부터 배경영역을 제거하는 기능을 가지며, 이는 입력영상에서 사람의 어깨위 귀 바깥쪽 이미지영역에서 배경영역에 확실하게 속하는 작은 이미지 패치를 얻어내고, 이 패치의 칼라 히스토그램 정보와 확률적 해석 방법을 통해 구현된다. The background region removing unit 41 is a preprocessing step for extracting a hair region, and has a function of removing a background region from a given input image, which reliably belongs to the background region in the image region outside the ear on the human shoulder in the input image. A small image patch is obtained and implemented through color histogram information and probabilistic interpretation of the patch.

이를 살펴보면, 우선 패치영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 확률로 표시하고, 이와 동일하게 전체 입력영상의 히스토그램을 구한 후 정규화하여 역시 확률값을 얻는다. 이때, 패치 영역의 히스토그램의 확률값(H1)을 전체 입력영상의 히스토그램의 확률값(H2)으로 나눈 값은 한 히스토그램의 색상값이 배경영역에 얼마만큼 분포하는 가에 대한 근사적 확률값이 된다. 즉, 배경영역이 아닌 얼굴영역에서의 한 지점의 색상은 배경영역에 속하지 않으므로 위의 (H1/H2)값이 매우 낮게 될 것이고, 이와 반대로 배경영역의 한 지점의 색상은 (H1/H2)이 비교적 높은 값을 갖게 될 것이다. 그러므로, 입력영상의 모든 점에서 각 색상의 (H1/H2)을 이용하여 미리 설정한 임계값보다 낮으면 배경영역이 아니라 고 판별한다. In this regard, first, the histogram of the patch region is normalized to display the frequency of occurrence of each histogram as a probability. Likewise, the histogram of the entire input image is obtained and then normalized to obtain a probability value. In this case, a value obtained by dividing the probability value H1 of the histogram of the patch region by the probability value H2 of the histogram of the entire input image is an approximate probability value of how much the color value of one histogram is distributed in the background region. That is, since the color of one point in the face area that is not the background area does not belong to the background area, the value of (H1 / H2) above will be very low, whereas the color of one point of the background area is (H1 / H2). It will have a relatively high value. Therefore, if it is lower than the preset threshold value by using (H1 / H2) of each color at every point of the input image, it is determined that it is not a background area.

머리카락영역 추출부(42)는 배경영역 제거부(41)를 통해 배경영역이 제거된 영상에서 얼굴의 최상위부분에서 머리영역으로 확실시되는 작은 이미지 패치를 구하고, 위의 배경영역 제거부(41)에서 제시한 방법을 이미지 패치의 칼라 히스토그램정보에 적용하여 이제 임계점보다 높은 영역만을 머리카락영역으로 판별함으로써 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출할 수 있다.The hair region extracting unit 42 obtains a small image patch that is secured to the head region at the top of the face in the image from which the background region is removed through the background region removing unit 41, and the background region removing unit 41 obtains By applying the proposed method to the color histogram information of the image patch, it is possible to reliably extract hair regardless of the shape, color, and shape of various hairs while being robust to lighting changes by distinguishing only the area above the critical point as the hair area.

도 7은 실사 캐릭터 추출을 응용한 예로서, 입력영상에서 얼굴 특징점을 추출하고 실시 머리카락을 추출하여, 정규화된 얼굴 정규화 영상과 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 과정을 보여준다.7 is an example of applying live-action character extraction, and shows a process of generating a live-action character by extracting facial feature points from the input image and extracting the real hair, matching the normalized face normalized image with the live-hair hair image.

본 발명의 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

상기와 같은 본 발명은, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출할 수 있는 효과가 있다. As described above, the present invention is characterized by facial feature points (eye, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). ) Can extract the effect.

또한, 본 발명은, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출할 수 있는 효과가 있다. In addition, the present invention has the effect of being able to extract hair reliably regardless of the shape, color, and shape of various hairs while being robust to lighting changes.

또한, 본 발명은, 추출된 얼굴 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작할 수 있는 효과가 있다. In addition, the present invention has the effect of generating and producing a live-action character using extracted facial feature points and hair extraction information.

따라서, 본 발명은, 정확한 얼굴인식의 전처리 및 얼굴정규화를 제공함으로써, 조명 및 포즈변화에도 강인한 얼굴 인식 성능 향상 및 얼굴 모델링, 얼굴의 특징점의 형태에 따른 관상서비스를 위한 관상정보추출이 가능하고, 머리카락 추출 모듈에 의해 실사 머리카락을 합성함으로써 보다 사실적인 얼굴 모델링, 캐릭터 생성을 구현할 수 있으며, 실사 캐릭터 생성 모듈에 의해 고객 이미지의 실사 캐릭터를 실시간으로 자동 생성함으로써, 캐릭터 생성비용 및 생성시간을 효과적으로 줄일 수 있고, 고객의 캐릭터 이미지를 이용하여 맞춤형 상품의 제작이 가능한 이점 이 있다. Accordingly, the present invention, by providing the pre-processing and face normalization of the accurate face recognition, it is possible to improve the face recognition performance, face modeling, and coronary information extraction for the coronary service according to the shape of the facial feature point, which is robust to lighting and pose changes, The realistic hair modeling and character generation can be realized by synthesizing the photorealistic hair with the hair extraction module, and the real-time character generation module automatically generates real-time character of the customer image, effectively reducing the character creation cost and creation time. And, there is an advantage that can produce a customized product using the customer's character image.

Claims (31)

실사 캐릭터 생성 시스템에 있어서,In the live-action character generation system, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하기 위한 얼굴영역 검출 수단;Face region detection means for detecting a face region image from an image received from the outside; 상기 얼굴영역 검출 수단에서 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하고, 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하기 위한 얼굴 특징점 추출 수단;The facial feature image is extracted by updating the learned AAM basis by applying IPCA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the face region image detected by the face region detecting means. Face feature point extracting means for normalizing the face region image based on a position of? 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하고서 상기 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하기 위한 머리카락 추출 수단; 및Color histogram information and probability of each image patch are obtained by obtaining an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around the face from the image received from the outside (hereinafter, referred to as a peripheral image). Hair extracting means for extracting a hair image by removing a background area using a conventional analysis method; And 상기 얼굴 특징점 추출 수단에서 정규화한 얼굴영역 영상과 상기 머리카락 추출 수단에서 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하기 위한 실사 캐릭터 생성 수단Photorealistic character generation means for generating a photorealistic character by matching the facial region image normalized by the facial feature point extraction means and the hair image extracted by the hair extraction means 을 포함하는 실사 캐릭터 생성 시스템.Photorealistic character generation system comprising a. 제 1 항에 있어서,The method of claim 1, 상기 얼굴 특징점 추출 수단은,The facial feature point extracting means, 상기 AAM으로 구성한 얼굴영역 영상과 상기 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅 수단;Model fitting means for obtaining an AAM parameter for minimizing a difference between a face region image composed of the AAM and a face region image of an image input from the outside; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 모델 피팅 수단에서 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하기 위한 피팅 정확도 판단 수단;Based on the difference between the face region image of the image received from the outside and the face region image reproduced by using the AAM parameter acquired by the model fitting means, the fitting accuracy is determined, the face feature point with high fitting accuracy is output, and the AAM base update is induced. Fitting accuracy determination means for; 상기 피팅 정확도 판단 수단에서 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하기 위한 정규화 수단;Normalization means for normalizing the face region image by obtaining position coordinates of a facial feature point output from the fitting accuracy determining means, extracting texture information therein; 상기 피팅 정확도 판단 수단에서 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하기 위한 기저 업데이트 판단 수단; 및A basis update determining means for determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting accuracy determination means determines that the fitting is correct; And 상기 IPCA를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하기 위한 기저 업데이트 수단Basis update means for adding the face region image of the image received from the outside using the IPCA to the previously learned AAM basis 을 포함하는 실사 캐릭터 생성 시스템.Photorealistic character generation system comprising a. 제 2 항에 있어서,The method of claim 2, 상기 모델 피팅 수단은,The model fitting means, 상기 AAM으로 구성한 얼굴영역 영상과 상기 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이가 소정의 수치 이하로 에러값이 내려갈 때까지 상기 AAM 파라미터를 변화시켜 상기 AAM 파라미터를 획득하는 것을 특징으로 하는 실사 캐릭터 생성 시스템.Photorealistic character characterized in that to obtain the AAM parameter by changing the AAM parameter until the difference between the face region image composed of the AAM and the face region image of the image received from the outside falls below a predetermined value Generating system. 제 2 항에 있어서,The method of claim 2, 상기 피팅 정확도 판단 수단은,The fitting accuracy determination means, 상기 피팅 정확도를 판단한 결과에 따라 그 피팅 정확도가 낮은 얼굴 특징점에 대해서는 AAM 기저 업데이트를 유도하지 않는 것을 특징으로 하는 실사 캐릭터 생성 시스템.And based on the result of determining the fitting accuracy, the AAM basis update is not induced for a facial feature point having a low fitting accuracy. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 얼굴주변 영상은,The face surrounding image, 상기 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상인 것을 특징으로 하는 실사 캐릭터 생성 시스템.Photorealistic character generation system, characterized in that the normalized surrounding the face including the head region and the background region from the image received from the outside. 제 5 항에 있어서,The method of claim 5, wherein 상기 머리카락 추출 수단은,The hair extracting means, 상기 획득한 배경영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 해당 배경영역을 제거하되, 상기 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하는 배경영역 제거 수단; 및The background area is removed using color histogram information and a probabilistic analysis method for the image patch corresponding to the acquired background area, and approximate probability values of each color at all points (pixels) of the image around the face [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] if it is lower than a predetermined threshold value; And 상기 획득한 머리영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 머리카락영역을 추출하되, 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여 해당 머리카락 영상을 추출하는 머리카락영역 추출 수단An approximate probability value of each color is extracted from all points (pixels) of the peripheral image of the face from which the background region is removed by using color histogram information and a probabilistic analysis method on an image patch corresponding to the acquired head region. [week; Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is higher than a predetermined threshold. Way 을 포함하는 실사 캐릭터 생성 시스템.Photorealistic character generation system comprising a. 제 6 항에 있어서,The method of claim 6, 상기 배경영역 판별을 위한 근사적 확률값은,The approximate probability value for determining the background area is 상기 획득한 배경영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하는 실사 캐릭터 생성 시스템.And a probability value representing a frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the acquired background region, divided by a probability value obtained by normalizing the entire histogram of the image around the face. 삭제delete 제 7 항에 있어서,The method of claim 7, wherein 상기 획득한 배경영역에 해당되는 이미지 패치는, 상기 얼굴주변 영상에서 사람의 어깨위, 귀 바깥쪽 이미지 부분을 포함하는 것을 특징으로 하는 실사 캐릭터 생성 시스템.The image patch corresponding to the acquired background region, the live action character generation system, characterized in that it comprises the image portion on the shoulder of the person, the outside of the ear in the peripheral face image. 제 6 항에 있어서,The method of claim 6, 상기 머리카락영역 판별을 위한 근사적 확률값은,The approximate probability value for determining the hair region is 상기 획득한 머리영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 배경영역이 제거된 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하는 실사 캐릭터 생성 시스템.The probability value indicating the frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the obtained head region is divided by the probability value obtained by normalizing the entire histogram of the image around the face from which the background region is removed. Character generation system. 제 10 항에 있어서,The method of claim 10, 상기 획득한 머리영역에 해당되는 이미지 패치는,The image patch corresponding to the obtained head region, 상기 배경영역이 제거된 얼굴주변 영상에서 얼굴의 최상위 이미지 부분을 포함하는 것을 특징으로 하는 실사 캐릭터 생성 시스템.Photorealistic character generation system, characterized in that it comprises a top image portion of the face in the peripheral image is removed from the background area. 얼굴 특징점 추출 장치에 있어서,In the facial feature extraction apparatus, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅 수단;Model fitting means for obtaining an AAM parameter for minimizing a difference between a face region image composed of an AAM (Active Appearance Model) and a face region image of an image input from the outside; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 모델 피팅 수단에서 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하기 위한 피팅 정확도 판단 수단;Based on the difference between the face region image of the image received from the outside and the face region image reproduced by using the AAM parameter acquired by the model fitting means, the fitting accuracy is determined, the face feature point with high fitting accuracy is output, and the AAM base update is induced. Fitting accuracy determination means for; 상기 피팅 정확도 판단 수단에서 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하기 위한 정규화 수단;Normalization means for normalizing the face region image by obtaining position coordinates of a facial feature point output from the fitting accuracy determining means, extracting texture information therein; 상기 피팅 정확도 판단 수단에서 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하기 위한 기저 업데이트 판단 수단; 및A basis update determining means for determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting accuracy determination means determines that the fitting is correct; And IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하기 위한 기저 업데이트 수단Basis update means for adding the face region image of the image received from the outside to the previously learned AAM basis using Incremental Principal Component Analysis (IPCA) 을 포함하는 얼굴 특징점 추출 장치.Facial feature point extraction apparatus comprising a. 제 12 항에 있어서,The method of claim 12, 상기 모델 피팅 수단은,The model fitting means, 상기 AAM으로 구성한 얼굴영역 영상과 상기 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이가 소정의 수치 이하로 에러값이 내려갈 때까지 상기 AAM 파라미터를 변화시켜 상기 AAM 파라미터를 획득하는 것을 특징으로 하는 얼굴 특징점 추출 장치.The AAM parameter is obtained by changing the AAM parameter until the difference between the face region image composed of the AAM and the face region image of the image input from the outside falls below a predetermined value. Extraction device. 제 12 항에 있어서,The method of claim 12, 상기 피팅 정확도 판단 수단은,The fitting accuracy determination means, 상기 피팅 정확도를 판단한 결과에 따라 그 피팅 정확도가 낮은 얼굴 특징점에 대해서는 AAM 기저 업데이트를 유도하지 않는 것을 특징으로 하는 얼굴 특징점 추출 장치.And the AAM basis update is not induced for a facial feature point having a low fitting accuracy according to the result of determining the fitting accuracy. 제 12 항 내지 제 14 항 중 어느 한 항에 있어서,The method according to any one of claims 12 to 14, 상기 기저 업데이트 수단은,The base update means, 상기 외부로부터 입력받은 영상의 얼굴영역 영상에 대해 기존 AAM 기저로 표현되지 않는 부분을 새로운 AAM 기저에 추가하여 전체 기저값을 회전해 새로운 기저 벡터의 집합을 설정하여 기저 업데이트를 수행하는 것을 특징으로 하는 얼굴 특징점 추출 장치.A basis update is performed by adding a portion of the face region image of the image received from the outside to a new AAM basis by adding a portion to the new AAM basis to set a set of new basis vectors by rotating the entire basis value. Facial feature point extraction device. 머리카락 추출 장치에 있어서,In the hair extraction device, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서 획득한 배경영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 해당 배경영역을 제거하되, 상기 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하는 배경영역 제거 수단; 및Color histogram information about the image patch corresponding to the background area obtained from the image normalized around the face including the head region and the background region from the image input from the outside (hereinafter, referred to as the peripheral image), and the background using the probabilistic analysis method. An approximate probability value of each color is removed at all points (pixels) of the surrounding image of the face. Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] if it is lower than a predetermined threshold value; And 상기 얼굴주변 영상에서 획득한 머리영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 머리카락영역을 추출하되, 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여 해당 머리카락 영상을 추출하는 머리카락영역 추출 수단The hair region is extracted using color histogram information and a probabilistic analysis method on the image patch corresponding to the head region obtained from the surrounding face image, and each color is extracted at every point (pixel) of the surrounding face image from which the background region is removed. Approximate probability of [Note; Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is higher than a predetermined threshold. Way 을 포함하는 머리카락 추출 장치.Hair extraction device comprising a. 제 16 항에 있어서,The method of claim 16, 상기 배경영역 판별을 위한 근사적 확률값은,The approximate probability value for determining the background area is 상기 획득한 배경영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하는 머리카락 추출 장치.And a probability value representing a frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the acquired background region, divided by a probability value obtained by normalizing the entire histogram of the surrounding image. 제 17 항에 있어서,The method of claim 17, 상기 획득한 배경영역에 해당되는 이미지 패치는, 상기 얼굴주변 영상에서 사람의 어깨위, 귀 바깥쪽 이미지 부분을 포함하는 것을 특징으로 하는 머리카락 추출 장치.The image patch corresponding to the acquired background region, the hair extraction device, characterized in that including the image portion on the shoulder of the person, the outside of the ear in the peripheral face image. 제 16 항에 있어서,The method of claim 16, 상기 머리카락영역 판별을 위한 근사적 확률값은,The approximate probability value for determining the hair region is 상기 획득한 머리영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 배경영역이 제거된 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하는 머리카락 추출 장치.A probability value representing the frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the acquired head region, and the hair divided by a probability value obtained by normalizing the entire histogram of the face image from which the background region is removed. Extraction device. 제 19 항에 있어서,The method of claim 19, 상기 획득한 머리영역에 해당되는 이미지 패치는,The image patch corresponding to the obtained head region, 상기 배경영역이 제거된 얼굴주변 영상에서 얼굴의 최상위 이미지 부분을 포함하는 것을 특징으로 하는 머리카락 추출 장치.Hair extraction apparatus, characterized in that it comprises a top image portion of the face in the peripheral face image is removed from the background area. 실사 캐릭터 생성 방법에 있어서,In the live-action character generation method, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 단계;Detecting a face region image from an image received from the outside; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 단계;Extracting a facial feature point by updating an learned AAM basis by applying an incremental principal component analysis (IPCA) to an active appearance model (AAM) on the detected face region image; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 단계;Normalizing the face region image based on the position of the extracted facial feature point; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 단계;Obtaining an image patch corresponding to a background area and an image patch corresponding to a head area from an image normalized to a face periphery from an image received from the outside (hereinafter, referred to as a peripheral image); 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 단계; 및Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of the acquired image patches; And 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 단계Generating a photo-realistic character by matching the normalized face region image with the extracted hair image 를 포함하는 실사 캐릭터 생성 방법.Photorealistic character generation method comprising a. 제 21 항에 있어서,The method of claim 21, 상기 얼굴 특징점을 추출하는 단계는,Extracting the facial feature point, 상기 AAM으로 구성한 얼굴영역 영상과 상기 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 단계;Obtaining an AAM parameter for minimizing a difference between a face region image composed of the AAM and a face region image of an image input from the outside; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 단계;Determining a fitting accuracy based on a difference between a face region image of the image received from the outside and a face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 단계;Normalizing the face region image by obtaining position coordinates of the output facial feature points and extracting texture information therein; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 단계; 및Determining whether the AAM basis is updated by measuring an AAM error of a face region image of an image received from the outside when the fitting is determined to be correct; And 상기 IPCA를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 단계Adding a face region image of the image received from the outside to the previously learned AAM basis using the IPCA; 를 포함하는 실사 캐릭터 생성 방법.Photorealistic character generation method comprising a. 제 21 항 또는 제 22 항에 있어서,The method of claim 21 or 22, 상기 머리카락 영상을 추출하는 단계는,Extracting the hair image, 상기 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 단계; 및Approximate probability value of each color at all points (pixels) of the surrounding image of the face [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face image, and if the threshold value is lower than the predetermined threshold, determining that the background area is not the background area and removing the background area; And 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 단계Approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed [Note; Where the approximate probability value represents the degree to which the color value of the histogram is distributed in the hair region in the face image from which the background region has been removed] is determined as the hair region, and the hair image is extracted. 를 포함하는 실사 캐릭터 생성 방법.Photorealistic character generation method comprising a. 얼굴 특징점 추출 방법에 있어서,In the facial feature point extraction method, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 단계;Obtaining an AAM parameter for minimizing a difference between a face region image composed of an AAM (Active Appearance Model) and a face region image of an image input from the outside; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 단계;Determining a fitting accuracy based on a difference between a face region image of the image received from the outside and a face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 단계;Normalizing the face region image by obtaining position coordinates of the output facial feature points and extracting texture information therein; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 단계; 및Determining whether the AAM basis is updated by measuring an AAM error of a face region image of an image received from the outside when the fitting is determined to be correct; And IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 단계Adding a face region image of the image received from the outside to the previously learned AAM basis using incremental principal component analysis (IPCA); 를 포함하는 얼굴 특징점 추출 방법.Facial feature point extraction method comprising a. 제 24 항에 있어서,The method of claim 24, 상기 AAM 파라미터를 획득하는 단계는,Obtaining the AAM parameter, 상기 AAM으로 구성한 얼굴영역 영상과 상기 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이가 소정의 수치 이하로 에러값이 내려갈 때까지 상기 AAM 파라미터를 변화시켜 상기 AAM 파라미터를 획득하는 것을 특징으로 하는 얼굴 특징점 추출 방법.The AAM parameter is obtained by changing the AAM parameter until the difference between the face region image composed of the AAM and the face region image of the image input from the outside falls below a predetermined value. Extraction method. 머리카락 추출 방법에 있어서,In the hair extraction method, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 단계; 및Approximate probability value of each color at all points (pixels) of the normalized image around the face including the head region and the background region from the image input from the outside (hereinafter, the face peripheral image) [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face image, and if the threshold value is lower than the predetermined threshold, determining that the background area is not the background area and removing the background area; And 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 단계Approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed [Note; Where the approximate probability value represents the degree to which the color value of the histogram is distributed in the hair region in the face image from which the background region has been removed] is determined as the hair region, and the hair image is extracted. 를 포함하는 머리카락 추출 방법.Hair extraction method comprising a. 제 26 항에 있어서,The method of claim 26, 상기 배경영역 판별을 위한 근사적 확률값은, 상기 획득한 배경영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하며,The approximate probability value for discriminating the background area is a probability value representing the frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the obtained background area, divided by the probability value obtained by normalizing the entire histogram of the image around the face. Characterized in that the value, 상기 획득한 배경영역에 해당되는 이미지 패치는, 상기 얼굴주변 영상에서 사람의 어깨위, 귀 바깥쪽 이미지 부분을 포함하는 것을 특징으로 하는 머리카락 추출 방법.The image patch corresponding to the acquired background region, the hair extraction method, characterized in that it comprises the image portion on the shoulder of the person, the outside of the ear in the peripheral face image. 제 26 항에 있어서,The method of claim 26, 상기 머리카락영역 판별을 위한 근사적 확률값은, 상기 획득한 머리영역에 해당되는 이미지 패치의 히스토그램을 정규화하여 얻은 각 히스토그램의 발생빈도를 나타내는 확률값을, 상기 배경영역이 제거된 얼굴주변 영상 전체 히스토그램을 정규화하여 얻은 확률값으로 나눈 값인 것을 특징으로 하며,The approximate probability value for determining the hair region is a probability value representing the frequency of occurrence of each histogram obtained by normalizing the histogram of the image patch corresponding to the acquired hair region, and normalizing the entire histogram of the surrounding image where the background region is removed. Characterized in that divided by the probability value obtained by 상기 획득한 머리영역에 해당되는 이미지 패치는, 상기 배경영역이 제거된 얼굴주변 영상에서 얼굴의 최상위 이미지 부분을 포함하는 것을 특징으로 하는 머리카락 추출 방법.The image patch corresponding to the acquired head region, the hair extraction method, characterized in that it comprises a top image portion of the face in the peripheral image from which the background region is removed. 프로세서를 구비한 실사 캐릭터 생성 시스템에,In the live-action character generation system provided with a processor, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 기능;Detecting a face region image from an image received from the outside; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 기능;Extracting facial feature points by applying an ACA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the detected face region image to update the learned AAM basis; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 기능;Normalizing the face region image based on the position of the extracted facial feature point; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 기능;A function of acquiring an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around a face (hereinafter, referred to as a peripheral image) from the image received from the outside; 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 기능; 및Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of each acquired image patch; And 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 기능A function of generating a live-action character by matching the normalized face region image with the extracted hair image 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this. 프로세서를 구비한 얼굴 특징점 추출 장치에,In a facial feature point extraction device having a processor, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 기능;Obtaining an AAM parameter for minimizing a difference between a face region image composed of an AAM (Active Appearance Model) and a face region image of an image input from the outside; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 기능;Determining a fitting accuracy based on a difference between the face region image of the image input from the outside and the face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 기능;Obtaining a position coordinate of the output facial feature point and extracting texture information therein to normalize the face region image; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 기능; 및Determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting is determined to be correct; And IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 기능A function of adding the face region image of the image input from the outside to the previously learned AAM base using Incremental Principal Component Analysis (IPCA) 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this. 프로세서를 구비한 머리카락 추출 장치에,In the hair extraction device equipped with a processor, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 기능; 및Approximate probability value of each color at all points (pixels) of the normalized image around the face including the head region and the background region from the image input from the outside (hereinafter, the face peripheral image) [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] is less than a predetermined threshold, and determines that the background area is not the background area, and removes the background area; And 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 기능Approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed [Note; Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair region in the face image from which the background region has been removed. 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this.
KR1020060129007A 2006-12-15 2006-12-15 System and method for facial region/hair information extraction, character generation KR100839536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060129007A KR100839536B1 (en) 2006-12-15 2006-12-15 System and method for facial region/hair information extraction, character generation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060129007A KR100839536B1 (en) 2006-12-15 2006-12-15 System and method for facial region/hair information extraction, character generation

Publications (1)

Publication Number Publication Date
KR100839536B1 true KR100839536B1 (en) 2008-06-19

Family

ID=39771832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060129007A KR100839536B1 (en) 2006-12-15 2006-12-15 System and method for facial region/hair information extraction, character generation

Country Status (1)

Country Link
KR (1) KR100839536B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033349B1 (en) 2009-03-24 2011-05-09 아주대학교산학협력단 Vision watching System and Method for safety hat
WO2012005499A2 (en) * 2010-07-06 2012-01-12 한국전자통신연구원 Method and apparatus for generating avatar
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
CN110969631A (en) * 2019-11-25 2020-04-07 杭州趣维科技有限公司 Fine photo hair dyeing method and system
CN111652974A (en) * 2020-06-15 2020-09-11 腾讯科技(深圳)有限公司 Method, device and equipment for constructing three-dimensional face model and storage medium
CN112053315A (en) * 2020-09-14 2020-12-08 北京百度网讯科技有限公司 Method and apparatus for processing character image data
KR102538783B1 (en) * 2022-09-27 2023-06-01 주식회사 미러로이드 Apparatus and method for generating a hairless head person image for a virtual hair styling experience

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316845A (en) 1998-03-02 1999-11-16 Fuji Photo Film Co Ltd Method and device for extracting main object
JP2000339471A (en) 1999-05-31 2000-12-08 Matsushita Electric Ind Co Ltd Method and device for extracting picture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316845A (en) 1998-03-02 1999-11-16 Fuji Photo Film Co Ltd Method and device for extracting main object
JP2000339471A (en) 1999-05-31 2000-12-08 Matsushita Electric Ind Co Ltd Method and device for extracting picture

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033349B1 (en) 2009-03-24 2011-05-09 아주대학교산학협력단 Vision watching System and Method for safety hat
WO2012005499A2 (en) * 2010-07-06 2012-01-12 한국전자통신연구원 Method and apparatus for generating avatar
WO2012005499A3 (en) * 2010-07-06 2012-03-29 한국전자통신연구원 Method and apparatus for generating avatar
KR101500798B1 (en) * 2010-07-06 2015-03-10 한국전자통신연구원 Method and apparatus for making avatar
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
KR101998112B1 (en) 2017-08-09 2019-07-10 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
CN110969631A (en) * 2019-11-25 2020-04-07 杭州趣维科技有限公司 Fine photo hair dyeing method and system
CN110969631B (en) * 2019-11-25 2023-04-11 杭州小影创新科技股份有限公司 Method and system for dyeing hair by refined photos
CN111652974A (en) * 2020-06-15 2020-09-11 腾讯科技(深圳)有限公司 Method, device and equipment for constructing three-dimensional face model and storage medium
CN111652974B (en) * 2020-06-15 2023-08-25 腾讯科技(深圳)有限公司 Method, device, equipment and storage medium for constructing three-dimensional face model
CN112053315A (en) * 2020-09-14 2020-12-08 北京百度网讯科技有限公司 Method and apparatus for processing character image data
KR102538783B1 (en) * 2022-09-27 2023-06-01 주식회사 미러로이드 Apparatus and method for generating a hairless head person image for a virtual hair styling experience

Similar Documents

Publication Publication Date Title
CN109376582B (en) Interactive face cartoon method based on generation of confrontation network
EP2718902B1 (en) Generation of avatar reflecting player appearance
CN112419170B (en) Training method of shielding detection model and beautifying processing method of face image
KR100839536B1 (en) System and method for facial region/hair information extraction, character generation
US7764828B2 (en) Method, apparatus, and computer program for processing image
CN110659582A (en) Image conversion model training method, heterogeneous face recognition method, device and equipment
KR102400609B1 (en) A method and apparatus for synthesizing a background and a face by using deep learning network
CN111062328B (en) Image processing method and device and intelligent robot
CN108734078B (en) Image processing method, image processing apparatus, electronic device, storage medium, and program
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
CN110796089A (en) Method and apparatus for training face-changing model
WO2019142127A1 (en) Method and system of creating multiple expression emoticons
CN111008935A (en) Face image enhancement method, device, system and storage medium
CN114549557A (en) Portrait segmentation network training method, device, equipment and medium
KR20080060007A (en) Apparatus and method for detecting feature vector and apparatus and method for recognizing face from an image using the same
CN113128373A (en) Color spot scoring method based on image processing, color spot scoring device and terminal equipment
CN109858355A (en) Image processing method and Related product
CN111723688B (en) Human body action recognition result evaluation method and device and electronic equipment
CN106778751B (en) Non-facial ROI (region of interest) identification method and device
Montazeri et al. Automatic extraction of eye field from a gray intensity image using intensity filtering and hybrid projection function
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
CN111145082A (en) Face image processing method and device, electronic equipment and storage medium
CN111582120A (en) Method and terminal device for capturing eyeball activity characteristics
CN115131853A (en) Face key point positioning method and device, electronic equipment and storage medium
CN114067277A (en) Pedestrian image recognition method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130603

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150605

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160809

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170605

Year of fee payment: 10