KR100839536B1 - System and method for facial region/hair information extraction, character generation - Google Patents
System and method for facial region/hair information extraction, character generation Download PDFInfo
- Publication number
- KR100839536B1 KR100839536B1 KR1020060129007A KR20060129007A KR100839536B1 KR 100839536 B1 KR100839536 B1 KR 100839536B1 KR 1020060129007 A KR1020060129007 A KR 1020060129007A KR 20060129007 A KR20060129007 A KR 20060129007A KR 100839536 B1 KR100839536 B1 KR 100839536B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- face
- region
- aam
- hair
- Prior art date
Links
- 210000004209 hair Anatomy 0.000 title claims abstract description 130
- 230000001815 facial effect Effects 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000000605 extraction Methods 0.000 title claims description 69
- 238000000513 principal component analysis Methods 0.000 claims abstract description 22
- 230000002093 peripheral effect Effects 0.000 claims abstract description 20
- 238000004458 analytical method Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 230000001939 inductive effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 abstract description 24
- 239000000284 extract Substances 0.000 abstract description 8
- 238000007781 pre-processing Methods 0.000 abstract description 5
- 210000003128 head Anatomy 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000001331 nose Anatomy 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
도 1 은 본 발명에 따른 실사 캐릭터 생성 시스템의 일실시예 전체 구성도, 1 is an overall configuration diagram of an embodiment of a live action character generation system according to the present invention;
도 2 는 본 발명에 따른 실사 캐릭터 생성 방법에 대한 일실시예 흐름도, 2 is a flowchart illustrating an embodiment of the method for generating a photorealistic character according to the present invention;
도 3 은 본 발명에 따른 얼굴 특징점 추출 장치의 일실시예 구성도,3 is a block diagram of an embodiment of a facial feature point extraction apparatus according to the present invention;
도 4 는 본 발명에 따른 얼굴 특징점 추출 방법에 대한 일실시예 흐름도, 4 is a flowchart illustrating an embodiment of a method for extracting facial feature points according to the present invention;
도 5 는 본 발명의 얼굴 특징점 추출 방법에 따른 특징점들의 위치와 얼굴 정규화 영상의 예를 보여주는 일실시예 설명도, 5 is an explanatory diagram illustrating an example of positions of feature points and an example of a face normalized image according to a method for extracting feature points of the present invention;
도 6 은 본 발명에 따른 머리카락 추출 장치 및 방법을 나타낸 일실시예 설명도, 6 is a diagram illustrating an embodiment of a hair extraction apparatus and method according to the present invention;
도 7 은 본 발명의 실시예에 따른 실사 캐릭터 생성 과정을 보여주는 설명도이다. 7 is an explanatory diagram showing a process of generating a live-action character according to an embodiment of the present invention.
* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing
10 : 영상 입력부 20 : 얼굴 영역 추출부10: image input unit 20: face region extraction unit
30 : 얼굴 특징점 추출부 31 : 모델 피팅부30: facial feature point extraction unit 31: model fitting unit
32 : 피팅 정확도 판단부 33 : 기저 업데이트 판단부32: fitting accuracy determination unit 33: basis update determination unit
34 : 기저 업데이트부 35 : 정규화부34: base updater 35: normalizer
40 : 머리카락 추출부 41 : 배경영역 제거부40: hair extraction unit 41: background area removal unit
42 : 머리카락 영역 추출부 50 : 실사 캐릭터 생성부42: hair region extraction unit 50: live action character generator
본 발명은 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 보다 상세하게는 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 영상)을 추출하고, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락 영상을 추출하며, 이렇게 얻어진 얼굴 영상과 머리카락 영상을 이용하여 실사 캐릭터를 생성, 제작할 수 있는, 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention relates to a facial feature extraction apparatus and its method, a hair extraction apparatus and its method, a live-action character generation system and the method, and a computer-readable recording medium recording a program for realizing the above methods. Extracts facial feature points (images of faces such as eyes, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.) Facial feature point extraction apparatus and method for extracting hair images reliably regardless of the shape, color, and shape of various hairs and generating and producing photorealistic characters using the obtained facial images and hair images. Extraction apparatus and method, real character generation system and method and realizing the above methods It relates to a computer-readable recording medium recording the program.
최근 들어, 포탈 서비스, 인터넷 채팅, 인터넷 방송, 온라인 게임, 캐릭터 등의 다양한 컨텐츠를 제공하는 사이트들 중 자신이 선호하는 캐릭터를 사전에 정의되어 있는 다양한 모양의 도안을 조합하여 자신의 특징을 나타내는 캐릭터를 완 성하고, 이를 정해진 애니메이션 동작에 적용하는 방법이 일반적으로 활용되고 있다. 또한, 자신의 사진을 전문 디자이너에 의해 일부 자동화 또는 전체가 수작업에 의해 캐릭터를 생성해주고, 이를 아바타로 제공할 수 있는 서비스가 생겨나고 있다. In recent years, a character that represents his or her own character by combining a variety of patterns in advance with a favorite character among sites that provide various contents such as portal services, internet chat, internet broadcasting, online games, and characters. In general, a method of completing a method and applying it to a predetermined animation motion is generally used. In addition, a service has been created in which a professional designer can create a character by a part of automation or the whole manual work and provide it as an avatar.
그러나, 상기의 방법들은 자신만의 고유의 캐릭터라고 보기 어렵다. 또한, 실시간으로 처리가 불가능하고, 제작비용이 비싸기 때문에 사용에 제한이 있었다. However, the above methods are hardly seen as their own characters. In addition, there is a limit to use because it is impossible to process in real time and the production cost is high.
캐릭터 생성시에는 얼굴 영상의 특징점과 머리카락 영역의 추출을 통해 이를 정합하여 생성하는데, 상기의 문제점들은 결국 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에 강인하면서도 신뢰성 있게 얼굴 영상의 특징점을 추출할 수 없다는 점으로부터 비롯된다. 또한, 다양한 머리카락의 모양과 색의 변화에도 신뢰성 있게 머리카락을 추출할 수 없다는 이유 역시 그 원인이 된다. When generating a character, the feature points of the face image and the hair region are extracted and generated. The above problems are solved by various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). It comes from the fact that it is impossible to extract the feature points of the face image robustly and reliably. In addition, the reason that the hair can not be reliably extracted even in the change of the shape and color of various hair is also the cause.
일반적으로, 얼굴 영상은 개인의 특징을 잘 표현할 수 있는 정보로서, 이를 실제 얼굴 영상 정보를 이용한 특징점 추출 및 캐릭터 생성은 얼굴인식, 관상정보 서비스를 위한 전처리, 기반기술을 제공함은 물론 사실적인 요소가 바로 적용됨으로써, 기존의 가상 캐릭터에 단순함이나 자신과의 차이점과 같은 문제점을 극복함으로써 자신을 표현하는 가장 효과적인 방식이 될 수 있다.In general, face images are information that can express personal characteristics well, and feature point extraction and character generation using real face image information provide face recognition, preprocessing for coronary information service, and basic technology as well as realistic elements. By being applied immediately, it can be the most effective way of expressing itself by overcoming problems such as simplicity or difference from the existing virtual character.
하지만, 종래의 템플리트 매칭, 곡선 추적 알고리즘 등과 같은 추출 방법에서, 얼굴의 다양한 특징점을 모두 추출하기 위해서는, 얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등에 따라 처리속도가 많이 걸리고, 성능이 크게 저하되는 문제점이 있었다.However, in a conventional extraction method such as template matching and curve tracking algorithm, in order to extract all the various feature points of the face, the processing speed takes a lot depending on the change in the size of the face, the change of pose, the wearing of glasses and accessories, the change of lighting, etc. There was a problem that performance is greatly reduced.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출하기 위한, 얼굴 특징점 추출 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, facial features (eye, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting changes, etc.) It is an object of the present invention to provide a facial feature point extracting apparatus and a method thereof, and a computer-readable recording medium having recorded thereon a program for realizing the method.
또한, 본 발명은, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출하기 위한, 머리카락 추출 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 다른 목적이 있다. In addition, the present invention can be read by a computer recording a hair extracting apparatus and method for extracting hair reliably regardless of the shape, color, and shape of various hairs while being robust to light changes. Another purpose is to provide a record carrier.
또한, 본 발명은 상기 추출된 얼굴 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작하기 위한, 실사 캐릭터 생성 시스템 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다. In addition, the present invention provides a computer-readable recording system for generating a real character using the extracted facial feature point and hair extraction information, a real character character generation system and method thereof, and a program for realizing the method. Another purpose is to provide the medium.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기 목적을 달성하기 위한 본 발명의 실사 캐릭터 생성 시스템은, 실사 캐릭터 생성 시스템에 있어서, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하기 위한 얼굴영역 검출 수단; 상기 얼굴영역 검출 수단에서 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하고, 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하기 위한 얼굴 특징점 추출 수단; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하고서 상기 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하기 위한 머리카락 추출 수단; 및 상기 얼굴 특징점 추출 수단에서 정규화한 얼굴영역 영상과 상기 머리카락 추출 수단에서 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하기 위한 실사 캐릭터 생성 수단을 포함한다.A live action character generation system of the present invention for achieving the above object comprises: a face area detection means for detecting a face area image from an image input from the outside; The facial feature image is extracted by updating the learned AAM basis by applying IPCA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the face region image detected by the face region detecting means. Face feature point extracting means for normalizing the face region image based on a position of? Color histogram information and probability of each image patch are obtained by obtaining an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around the face from the image received from the outside (hereinafter, referred to as a peripheral image). Hair extracting means for extracting a hair image by removing a background area using a conventional analysis method; And live-action character generation means for generating a live-action character by matching the face region image normalized by the facial feature point extraction means and the hair image extracted by the hair extraction means.
한편, 본 발명의 얼굴 특징점 추출 장치는, 얼굴 특징점 추출 장치에 있어서, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅 수단; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 모델 피팅 수단에서 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하기 위한 피팅 정확도 판단 수단; 상기 피팅 정확도 판단 수단에서 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하기 위한 정규화 수단; 상기 피팅 정확도 판단 수단에서 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하기 위한 기저 업데이트 판단 수단; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하기 위한 기저 업데이트 수단을 포함한다.Meanwhile, the facial feature extraction apparatus of the present invention is a facial feature extraction apparatus for obtaining an AAM parameter for minimizing a difference between a facial region image composed of an AAM (Active Appearance Model) and a facial region image of an image input from the outside. Model fitting means; Based on the difference between the face region image of the image received from the outside and the face region image reproduced by using the AAM parameter acquired by the model fitting means, the fitting accuracy is determined, the face feature point with high fitting accuracy is output, and the AAM base update is induced. Fitting accuracy determination means for; Normalization means for normalizing the face region image by obtaining position coordinates of a facial feature point output from the fitting accuracy determining means, extracting texture information therein; A basis update determining means for determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting accuracy determination means determines that the fitting is correct; And a basis updating means for adding a face region image of the image received from the outside to the previously learned AAM basis using an incremental principal component analysis (IPCA).
한편, 본 발명의 머리카락 추출 장치는, 머리카락 추출 장치에 있어서, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서 획득한 배경영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 해당 배경영역을 제거하되, 상기 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하는 배경영역 제거 수단; 및 상기 얼굴주변 영상에서 획득한 머리영역에 해당되는 이미지 패치에 관한 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 머리카락영역을 추출하되, 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여 해당 머리카락 영상을 추출하는 머리카락영역 추출 수단을 포함한다.Meanwhile, the hair extracting apparatus of the present invention, in the hair extracting apparatus, corresponds to a background region obtained from an image obtained by normalizing a face periphery including a head region and a background region from an image received from the outside (hereinafter, referred to as a face peripheral image). The background region is removed by using color histogram information and a probabilistic analysis method on an image patch, and an approximate probability value of each color at all points (pixels) of the image around the face [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] if it is lower than a predetermined threshold value; And extracting a hair region using color histogram information and a probabilistic analysis method on an image patch corresponding to a head region obtained from the surrounding face image, and extracting the hair region from each point (pixel) of the surrounding face image from which the background region is removed. Approximate probability of color [Note; Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is higher than a predetermined threshold. Means;
한편, 본 발명의 실사 캐릭터 생성 방법은, 실사 캐릭터 생성 방법에 있어서, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 단계; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 단계; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 단계; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 단계; 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 단계; 및 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 단계를 포함한다.On the other hand, the live-action character generation method of the present invention, a live-action character generation method comprising the steps of: detecting a face region image from an image received from the outside; Extracting a facial feature point by updating an learned AAM basis by applying an incremental principal component analysis (IPCA) to an active appearance model (AAM) on the detected face region image; Normalizing the face region image based on the position of the extracted facial feature point; Obtaining an image patch corresponding to a background area and an image patch corresponding to a head area from an image normalized to a face periphery from an image received from the outside (hereinafter, referred to as a peripheral image); Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of the acquired image patches; And generating a live-action character by matching the normalized face region image with the extracted hair image.
한편, 본 발명의 얼굴 특징점 추출 방법은, 얼굴 특징점 추출 방법에 있어서, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 단계; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 단계; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 단계; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 단계; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 단계를 포함한다.Meanwhile, in the facial feature point extraction method, in the facial feature point extraction method, acquiring an AAM parameter that minimizes a difference between a face region image composed of an AAM (Active Appearance Model) and a face region image of an image input from the outside. ; Determining a fitting accuracy based on a difference between a face region image of the image received from the outside and a face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; Normalizing the face region image by obtaining position coordinates of the output facial feature points and extracting texture information therein; Determining whether the AAM basis is updated by measuring an AAM error of a face region image of an image received from the outside when the fitting is determined to be correct; And adding a face region image of the image received from the outside to the previously learned AAM basis using an incremental principal component analysis (IPCA).
한편, 본 발명의 머리카락 추출 방법은, 머리카락 추출 방법에 있어서, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 단계; 및 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 단계를 포함한다.On the other hand, the hair extraction method of the present invention, in the hair extraction method, each point at every point (pixel) of the image (hereinafter referred to as a face peripheral image) normalized around the face including the head region and the background region from the image input from the outside Approximate probability of color [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face image, and if the threshold value is lower than the predetermined threshold, determining that the background area is not the background area and removing the background area; And an approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed. Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is determined as the hair area when extracting the corresponding hair image. Include.
한편, 본 발명은, 프로세서를 구비한 실사 캐릭터 생성 시스템에, 외부로부터 입력받은 영상으로부터 얼굴영역 영상을 검출하는 기능; 상기 검출한 얼굴영역 영상에 대해 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용해 학습된 AAM 기저(Basis)를 업데이트시켜 얼굴 특징점을 추출하는 기능; 상기 추출한 얼굴 특징점의 위치를 토대로 상기 얼굴영역 영상을 정규화하는 기능; 상기 외부로부터 입력받은 영상으로부터 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)에서, 배경영역에 해당되는 이미지 패치 및 머리영역에 해당되는 이미지 패치를 획득하는 기능; 상기 획득한 각각의 이미지 패치의 컬러 히스토그램 정보와 확률적 해석 방식을 사용해 배경영역을 제거하여 머리카락 영상을 추출하는 기능; 및 상기 정규화한 얼굴영역 영상과 상기 추출한 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, a live-action character generation system having a processor, the function of detecting a face region image from an image received from the outside; Extracting facial feature points by applying an ACA (Incremental Principal Component Analysis) to the AAM (Active Appearance Model) on the detected face region image to update the learned AAM basis; Normalizing the face region image based on the position of the extracted facial feature point; A function of acquiring an image patch corresponding to a background region and an image patch corresponding to a head region from an image normalized around a face (hereinafter, referred to as a peripheral image) from the image received from the outside; Extracting a hair image by removing a background area by using color histogram information and a probabilistic analysis method of each acquired image patch; And a computer-readable recording medium having recorded thereon a program for realizing a function of generating a real character by matching the normalized face region image with the extracted hair image.
한편, 본 발명은, 프로세서를 구비한 얼굴 특징점 추출 장치에, AAM(Active Appearance Model)으로 구성한 얼굴영역 영상과 외부로부터 입력받은 영상의 얼굴영역 영상간의 차이를 최소화하는 AAM 파라미터를 획득하는 기능; 상기 외부로부터 입력받은 영상의 얼굴영역 영상과 상기 획득한 AAM 파라미터를 사용해 재생한 얼굴영역 영상간의 차이를 통해 피팅 정확도를 판단해 피팅 정확도가 높은 얼굴 특징점을 출력하고 AAM 기저 업데이트를 유도하는 기능; 상기 출력한 얼굴 특징점의 위치 좌표를 구해 그 내부에 있는 텍스처 정보를 추출하여 상기 얼굴영역 영상을 정규화하는 기능; 상기 피팅이 정확한 것으로 판단한 경우에 상기 외부로부터 입력받은 영상의 얼굴영역 영상의 AAM 에러를 측정하여 AAM 기저 업데이트 여부를 판정하는 기능; 및 IPCA(Incremental Principal Component Analysis)를 사용하여 상기 외부로부터 입력받은 영상의 얼굴영역 영상을 기 학습된 AAM 기저에 추가하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, a facial feature point extraction apparatus having a processor, the function for obtaining an AAM parameter for minimizing the difference between the face region image composed of the AAM (Active Appearance Model) and the image received from the outside; Determining a fitting accuracy based on a difference between the face region image of the image input from the outside and the face region image reproduced using the obtained AAM parameter, outputting a facial feature point having a high fitting accuracy, and inducing an AAM basis update; Obtaining a position coordinate of the output facial feature point and extracting texture information therein to normalize the face region image; Determining whether the AAM basis is updated by measuring an AAM error of a face region image of the image received from the outside when the fitting is determined to be correct; And a computer readable recording medium recording a program for realizing a function of adding a face region image of the image input from the outside to an AAM basis previously learned using an incremental principal component analysis (IPCA).
한편, 본 발명은, 프로세서를 구비한 머리카락 추출 장치에, 외부로부터 입력받은 영상으로부터 머리영역 및 배경영역을 포함하는 얼굴 주변을 정규화한 영상(이하 얼굴주변 영상)의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 얼굴주변 영상에서 그 히스토그램의 색상값이 배경영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별하여, 해당 배경영역을 제거하는 기능; 및 상기 배경영역이 제거된 얼굴주변 영상의 모든 점(픽셀)에서 각 색상의 근사적 확률값[주; 여기서의 근사적 확률값은 배경영역이 제거된 얼굴주변 영상에서 그 히스토그램의 색상값이 머리카락영역에 분포되는 정도를 나타냄]이 소정의 임계치보다 높으면 머리카락영역으로 판별하여, 해당 머리카락 영상을 추출하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, the present invention, in the hair extraction apparatus provided with a processor, each color at every point (pixel) of the image (hereinafter, the peripheral image of the face) normalized around the face including the head region and the background region from the image input from the outside Approximate probability of [Note; Wherein the approximate probability value indicates the degree to which the color value of the histogram is distributed in the background area in the face surrounding image] is less than a predetermined threshold, and determines that the background area is not the background area, and removes the background area; And an approximate probability value of each color at all points (pixels) of the image around the face from which the background region is removed. Here, the approximate probability value indicates the degree to which the color value of the histogram is distributed in the hair area in the face image from which the background area is removed] is determined as the hair area, and the hair image is extracted. A computer readable recording medium having recorded thereon a program for realization is provided.
본 발명은 머리카락을 포함한 얼굴 영역 추출 및 실사 캐릭터 생성에 관한 것으로서, 얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보) 추출과, 조명변화에 강인하면서도 다양한 머리카락의 모양과 색의 변화에도 신뢰성 있는 머리카락 추출과, 이렇게 얻어진 추출된 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작하는 것이다. The present invention relates to the extraction of facial regions including hair and the creation of live-action characters, which are characterized by facial feature points (eyes, nose, mouth, jawline, etc.) that are robust to face size changes, pose changes, whether glasses and jewelry are worn, lighting changes, etc. Facial feature position information), hair extraction that is robust against changes in illumination, and reliable for changes in the shape and color of various hairs, and real-life characters are generated and produced using the extracted feature points and hair extraction information thus obtained.
이를 위해, 본 발명에서는 기존의 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용시켜, 학습된 AAM 기저(Basis)를 업데이트함으로써 조명, 사용자 등 다양한 변화에 강인한 얼굴 특징점 추출 결과를 얻을 수 있고, 배경 모델링과 머리카락 모델링에 의해 조명변화에 강인하면서도 다양한 머리카락의 색, 형태에 무관하게 신뢰성 있게 머리카락 영역을 추출하며, 이를 정합하여 실사 캐릭터를 생성ㆍ제작한다. To this end, in the present invention, by applying the Incremental Principal Component Analysis (IPCA) to the existing AAM (Active Appearance Model), by updating the learned AAM basis (Basis) to obtain a facial feature point extraction result that is robust to various changes, such as lighting, user It is able to reliably extract the hair area regardless of the color and shape of various hairs while being robust to lighting changes by background modeling and hair modeling, and generate and produce live-action characters by matching them.
본 발명에 따르면, 정확한 얼굴인식의 전처리 및 얼굴정규화를 제공함으로써, 조명 및 포즈변화에도 강인한 얼굴 인식 성능 향상 및 얼굴 모델링, 얼굴의 특징점의 형태에 따른 관상서비스를 위한 관상정보추출이 가능하고, 머리카락 추출 모듈에 의해 실사 머리카락을 합성함으로써 보다 사실적인 얼굴 모델링, 캐릭터 생성을 구현할 수 있으며, 실사 캐릭터 생성 모듈에 의해 고객 이미지의 실사 캐릭터 를 실시간으로 자동 생성함으로써, 캐릭터 생성비용 및 생성시간을 효과적으로 줄일 수 있고, 고객의 캐릭터 이미지를 이용하여 맞춤형 상품을 제작 가능한 효과를 얻을 수 있다. According to the present invention, by providing the pre-processing and face normalization of the accurate face recognition, it is possible to improve the face recognition performance that is robust to lighting and pose changes, face modeling, coronary information extraction for coronary services according to the shape of the facial feature point, hair Real-life face modeling and character generation can be realized by synthesizing live-action hair by the extraction module.Real-time character generation module can automatically generate real-time character of customer image in real time, effectively reducing character creation cost and creation time. In addition, it is possible to obtain an effect that can produce a customized product using the character image of the customer.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1 은 본 발명에 따른 실사 캐릭터 생성 시스템의 일실시예 전체 구성도이다. 1 is a block diagram of an embodiment of a live action character generation system according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 실사 캐릭터 생성 시스템은, 크게 영상 입력부(10), 얼굴영역 검출부(20), 얼굴 특징점 추출부(30), 머리카락 추출부(40), 실사 캐릭터 생성부(50)로 이루어진다. 이때, 얼굴영역 검출부(20)는 영상 입력부(10)에서 얼굴영역의 위치와 크기를 검출하는 것으로, 본 발명에서는 얼굴영역 검출 방법으로 공지의 방식을 이용한다. As shown in FIG. 1, the live action character generation system according to the present invention includes an
실사 캐릭터 생성부(50)는 얼굴 특징점 추출부(30)에서 얻어진 얼굴 정규화 영상과 머리카락 추출부(40)에서 얻어진 머리카락 추출 영상을 정합함으로써 최종 실사 캐릭터를 얻는다.The live-action
이를 구체적으로 살펴보면, 영상 입력부(10)를 통해 입력된 입력영상에서 얼굴영역의 위치와 크기를 검출하기 위한 얼굴영역 검출부(20)와, 얼굴영역 검출부(20)에서 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화하기 위한 얼굴 특징점 추출부(30)와, 정규화된 영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 배경영역 및 머리영역으로 확실시되는 작은 이미지 패치를 얻어, 이 패치의 히스토그램 정보와 확률적 해석 방법을 통해 배경영역을 제거하고 실사 머리카락을 추출하기 위한 머리카락 추출부(40)와, 얼굴 특징점 추출부(30)에서 정규화된 얼굴 정규화 영상과 머리카락 추출부(40)에서 추출된 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성하기 위한 실사 캐릭터 생성부(50)를 포함한다. Specifically, the
이와 같은 구성을 갖는 본 발명에 따른 실사 캐릭터 생성 시스템의 동작을 살펴보면 도 2와 같다. Looking at the operation of the live-action character generation system according to the present invention having such a configuration as shown in FIG.
도 2에 도시된 바와 같이, 먼저 영상 입력부(10)를 통해 영상이 입력되면(201), 얼굴영역 검출부(20)는 공지의 얼굴영역 검출 방식을 이용하여 입력된 입력영상에서 얼굴영역의 위치와 크기를 검출하고(202), 얼굴 특징점 추출부(30)에서는 얼굴영역 검출부(20)에서 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화한다(203). As shown in FIG. 2, when an image is first input through the image input unit 10 (201), the face
또한, 머리카락 추출부(40)에서는 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 컬러 히스토그램 정보와 확률적 해석 방법을 통해 배경영역을 제거하고 실사 머리카락을 추출한다(204). In addition, the
이후, 실사 캐릭터 생성부(50)에서는 얼굴 특징점 추출부(30)에서 정규화된 얼굴 정규화 영상과 머리카락 추출부(40)에서 추출된 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성한다(205). Thereafter, the live
상기 얼굴 특징점 추출 과정(203) 및 머리카락 추출 과정(204)에 대해서는 하기에서 보다 상세하게 설명하기로 한다.The facial feature
먼저, 얼굴 특징점 추출부(30) 및 얼굴 특징점 추출 과정(203)에 대해 살펴보기로 한다. First, the facial
도 3 은 본 발명에 따른 얼굴 특징점 추출 장치의 일실시예 구성도이다. 3 is a block diagram of an embodiment of a facial feature point extraction apparatus according to the present invention.
얼굴 특징점 추출부(30)는 얼굴영역 검출부(20)에 의해 검출된 얼굴영역 내에서 AAM(Active Appearance Model)에 IPCA(Incremental Principal Component Analysis)를 적용하여, 학습된 AAM 기저(Basis)를 업데이트함으로써 피팅 정확도가 높은 얼굴 특징점을 추출하고, 추출된 특징점의 위치를 기준으로 얼굴을 정규화한다. 이때, 얼굴 특징점을 추출함에 있어서, AAM 기저(Basis) 업데이트를 통해, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출할 수 있다. The facial
도 3에 도시된 바와 같이, 얼굴 특징점 추출부(30)는, AAM으로 구성한 얼굴 영상과 입력 얼굴 영상의 차이를 최소화하는 AAM 파라미터를 획득하기 위한 모델 피팅부(31)와, 입력영상과 AAM 파라미터로 재생한 영상의 차이를 통해 피팅의 정확도를 판단하여, 피팅 정확도가 높은 얼굴 특징점을 출력하고 기저 업데이트를 유도하는 피팅 정확도 판단부(32)와, 얼굴 윤곽상에 존재하는 얼굴 특징점의 좌표를 구해서, 그 내부에 있는 텍스처 정보를 추출하는 정규화부(35)와, 피팅이 정확한 경우, 현재 입력영상의 AAM 에러를 측정하여 AAM 기저(Basis) 업데이트 여부를 판정하기 위한 기저 업데이트 판단부(33)와, IPCA(Incremental Principal Component Analysis)를 사용하여 현재 입력영상을 기존 학습된 기저(Basis)에 추가하는 기저 업데이트부(34)를 포함한다. As shown in FIG. 3, the facial
여기서, 사용되는 주요 알고리즘은 AAM(Active Appearance Model)과 IPCA(Incremental Principal Component Analysis)이다. Here, the main algorithms used are Active Appearance Model (AAM) and Incremental Principal Component Analysis (IPCA).
AAM에서는 대상물(본 발명에서는 얼굴)을 형태(Shape)와 텍스처(Texture)로 나누어 모델링하며, 기본적으로 얼굴 학습 데이터를 이용하여 평균 얼굴을 구성하고 외부에서 들어오는 영상 내의 얼굴 영역을 정해주면 그 얼굴에 비슷하게 수렴할 때까지 평균 얼굴의 형태와 텍스처의 파라미터가 변해가도록 설계한다. 이때, 형태와 텍스처 각각은 PCA(Principal Component Analysis)로 모델링된다. In AAM, objects (faces in the present invention) are modeled by dividing them into shapes and textures.By using face learning data, an average face is composed and a face area within an image from outside is defined. Similarly, the parameters of the shape and texture of the average face change until they converge. At this time, each of the shape and texture is modeled by PCA (Principal Component Analysis).
따라서, AAM은 대상물의 다양한 변형을 유연하게 표현할 수 있다는 장점이 있으므로, 얼굴 추적, 얼굴 특징점 추출, 표정 인식 등 다양한 분야에 적용되어 사용되고 있다. Therefore, the AAM has the advantage of being able to flexibly express various deformations of the object, and has been applied to various fields such as face tracking, facial feature point extraction, and facial expression recognition.
하지만, AAM에서 형태와 텍스처 각각의 PCA 모델은 학습에 이용한 얼굴 데이터에 의존하기 때문에, 학습에 이용한 데이터와 크게 다른 얼굴 입력영상이 들어올 경우, 기존의 학습된 모델로는 새로운 얼굴 입력영상을 잘 표현하지 못하는 경우가 발생하게 된다. However, since each PCA model of shapes and textures in AAM depends on the face data used for training, when a face input image comes in significantly different from the data used for training, the existing trained model expresses a new face input image well. If you can't do that.
따라서, 본 발명에서는 기존의 AAM에 IPCA를 적용시켜, 학습된 AAM 기저(Basis)를 업데이트함으로써, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보) 추출 결과를 얻을 수 있다.Therefore, in the present invention, by applying the IPCA to the existing AAM, by updating the learned AAM Basis, it is robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). The result of extracting facial feature points (feature location information of the face such as eyes, nose, mouth, and jawline) can be obtained.
상기와 같은 구성을 갖는 본 발명에 따른 얼굴 특징점 추출부(30)의 동작을 살펴보면 도 4와 같다. Looking at the operation of the facial feature
먼저, 영상 입력부(10)에서는 정지영상 혹은 움직임 영상의 경우 프레임 단위의 영상을 얼굴영역 검출부(20)로 전달한다(401). First, in the case of a still image or a motion image, the
이후, 얼굴영역 검출부(20)에서는 입력영상에서 얼굴영역을 검출하여 얼굴 특징점 추출부(30)로 검출한 얼굴의 크기와 위치 정보를 제공한다(402). Thereafter, the
그러면, 얼굴 특징점 추출부(30)의 모델 피팅부(31)에서는 AAM으로 구성한 얼굴 영상과 입력 얼굴 영상의 차이를 최소화하는 AAM 파라미터를 획득한다(403). 이때, AAM 파라미터를 획득하는 과정은, 하나의 영상 내에서 정해진 수치 이하로 에러 값이 내려갈 때까지 반복적으로 AAM 파라미터를 변화시키면서 수행된다. Then, the
이렇게 구해진 AAM 파라미터로 표현되는 얼굴 영상 영역 내의 텍스처 정보를 피팅 정확도 판단부(32)로 넘긴다. 왜냐하면, 피팅이 정확하지 않은 영상을 이용하여 AAM 기저 업데이트를 수행할 경우, 오히려 기존의 모델이 더 나쁘게 변경될 수 있으므로 현재 입력영상이 정확하게 피칭되었는가를 판단해야 한다. The texture information in the face image region represented by the AAM parameter thus obtained is passed to the
따라서, 피팅 정확도 판단부(32)에서는 얼굴 영상 내의 텍스처 정보와 AAM 파라미터로 재생한 영상의 텍스처와의 차이 값으로부터 피팅의 정확도를 판단한다(404). Therefore, the fitting
판단 결과, 피팅이 정확한 경우에는, 피팅 결과가 좋은 영상에 대해 기저 업데이트를 유도한다. 이때, 피팅 정확도가 높은 얼굴 특징점을 출력하여, 정규화부(35)에서 얼굴 윤곽상에 존재하는 얼굴 특징점의 좌표를 구해서 그 내부에 있는 텍스처 정보를 추출할 수 있도록 한다. As a result of the determination, if the fitting is correct, the base update is induced for an image having a good fitting result. At this time, by outputting a facial feature point with high fitting accuracy, the
판단 결과, 피팅이 정확하지 않은 경우에는, 현재 프레임의 영상에서 기저 업데이트를 수행하지 않고 다음 프레임으로 넘어가게 된다(401). As a result of the determination, if the fitting is not correct, the process proceeds to the next frame without performing the base update on the image of the current frame (401).
이후, 기저 업데이트 판단부(33)에서는 현재 입력영상의 AAM 에러를 측정하여 에러가 미리 정해진 수치보다 클 때만 기저 업데이트를 수행토록 한다(하기의 [수학식 1] 참조)(405). 여기서, 에러가 작다는 것은 현재 학습된 기저값으로 충분히 입력영상을 표현할 수 있다는 것이므로 AAM 기저 업데이트를 수행하지 않고, 에러가 클 때만 AAM 기저를 업데이트하는 것이다. Thereafter, the
마지막으로, 기저 업데이트부(34)에서는 IPCA를 사용하여 현재 입력영상을 기존에 학습된 기저에 추가한다(406). 이때, 기저가 추가될 경우, 학습 데이터의 평균, 분산, 기저벡터, Eigen-value가 변하게 된다. 이때, 기저 업데이트 과정은 하기의 수학식을 통해 보다 상세하게 설명하기로 한다. Finally, the
우선, 기저 업데이트에 대한 판단 조건으로, 하기의 [수학식 1]에서와 같이 현재 입력영상의 AAM 에러를 측정하여 에러가 미리 정해진 수치보다 클 때만 기저 업데이트를 수행토록 한다. First, as a determination condition for the base update, as shown in Equation 1 below, the AAM error of the current input image is measured to perform the base update only when the error is larger than a predetermined value.
삭제delete
상기 [수학식 1]에서 I(x)는 입력영상, I re (x)는 AAM 파라미터로 재생한 영상, σ는 픽셀의 분산, c 1 은 피팅 정확도 판단을 위한 임계치 값이다. 즉, 입력영상과 AAM 파라미터로 재생한 영상의 차이가 임계치를 넘을 경우, 잘못 피팅된 경우라고 판단하여 기저 업데이트를 수행하지 않으며, 임계치를 넘지 않을 경우에만 기저 업데이트 과정을 수행하게 된다. In Equation 1, I (x) is an input image, I re (x) is an image reproduced with an AAM parameter, σ is a variance of pixels, and c 1 is a threshold value for determining fitting accuracy. That is, if the difference between the input image and the image reproduced with the AAM parameter exceeds the threshold value, it is determined that it is a wrong fit and does not perform the base update, and the base update process is performed only when the threshold value is not exceeded.
상기 [수학식 2]에서 n은 현재 AAM 학습에 사용된 학습 데이터의 개수이며, 는 현재 학습데이터의 평균, x n +1 은 현재 프레임의 입력영상, 는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 평균을 나타낸다. In Equation 2, n is the number of learning data currently used for AAM learning. Is the average of the current learning data, x n +1 is the input image of the current frame, Represents the average of new learning data when the current input image is added to AAM learning.
여기서, 새로운 학습 데이터의 평균 는 다음 입력영상에서 현재 학습 데이터의 평균으로 사용된다. Where the average of the new training data Is used as the average of the current learning data in the next input image.
상기 [수학식 3]은 현재 입력영상이 추가되었을 경우의 Covariance 행렬을 나타낸다. n은 현재 AAM 학습에 사용된 학습데이터의 개수이며, 는 현재 학습데이터의 평균, I(x)는 현재 프레임의 입력영상, C는 현재 학습데이터의 Covariance 행렬, C`는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 Covariance 행렬을 나타낸다.Equation 3 shows a covariance matrix when a current input image is added. n is the number of learning data currently used for AAM learning. Is the average of the current training data, I (x) is the input image of the current frame, C is the covariance matrix of the current training data, and C` is the covariance matrix of the new training data when the current input image is added to AAM learning.
현재 프레임의 입력영상 I(x)는 학습된 AAM 텍스처 공간에서 위 식과 같이 나타난다. U는 현재 학습된 기저벡터의 집합이고, a n+1 은 입력영상을 현재 학습된 공간에 투영했을 때의 파라미터 벡터이며, 는 현재 학습데이터의 평균, I(x)은 현재 입력영상이다. The input image I (x) of the current frame appears as shown above in the learned AAM texture space. U is a set of currently learned basis vectors, a n + 1 is a parameter vector when the input image is projected onto the currently learned space, Is the mean of the current learning data, I (x) is the current input image.
AAM 텍스처 공간상에 나타나는 입력영상 벡터의 파라미터 벡터 a n+ 1 를 다시 영상 공간으로 복원하면 상기 [수학식 5]와 같이 표현된다. 이때, 복원과정에서 필연적으로 원본 영상과의 차이가 발생하게 된다. When the parameter vector a n + 1 of the input image vector appearing in the AAM texture space is restored to the image space, it is expressed as Equation 5 above. In this case, a difference from the original image is inevitably generated during the restoration process.
상기 [수학식 6]에서 b n +1 은 입력영상이 학습된 기저(Basis)로 표현되지 않는 여분 벡터를 나타낸다. 이때, 이 여분 벡터가 작을 경우에는 입력영상이 학습된 Basis로 잘 표현된다는 의미이므로, 업데이트를 수행하지 않고 과정을 끝낸다. 하 지만, 여분 벡터가 클 경우에는 기저 벡터를 업데이트해야 입력영상을 잘 표현할 수 있으므로 업데이트 과정을 계속 수행한다.In Equation 6, b n +1 represents an extra vector that is not represented as a learned basis (Basis). In this case, when the extra vector is small, it means that the input image is well represented by the learned Basis, and thus the process is completed without updating. However, if the extra vector is large, the base vector must be updated to represent the input image well, so the update process continues.
상기 [수학식 7]에서 U는 현재 학습된 기저벡터의 집합이고, 는 정규화한 여분 벡터 b n +1 이며, R은 회전 행렬, U`는 입력영상이 적용된 새로운 기저행렬이다. 즉, 현재 영상에서 기존 Basis로 표현되지 않는 부분만을 새로운 Basis에 추가하여 전체 기저값을 회전한 것이 새로운 기저 벡터의 집합이 되는 것이다.In Equation 7, U is a set of currently learned basis vectors, Is the normalized extra vector b n +1 , R is the rotation matrix, and U` is the new base matrix to which the input image is applied. In other words, a new basis is a set of new basis vectors by adding only a portion of the current image that is not represented by the existing basis to the new basis.
기존 AAM 텍스처 모델에 새로운 입력영상의 파라미터 벡터가 추가되었을 경우의 eigenproblem은 상기 [수학식 8]과 같이 표현된다. C`는 현재 입력영상이 AAM 학습에 추가되었을 경우의 새로운 학습 데이터의 Covariance 행렬을 나타내며, U`는 입력영상이 적용된 새로운 기저행렬, 그리고 는 eigenvalue 행렬이다.When the parameter vector of the new input image is added to the existing AAM texture model, eigenproblem is expressed as shown in [Equation 8]. C` represents the Covariance Matrix of the new training data when the current input image is added to the AAM learning, U` new base matrix is applied to the input image, and Is the eigenvalue matrix.
상기 [수학식 3]과 [수학식 7]을 상기 [수학식 8]에 대입했을 경우, 상기 [수학식 9]가 도출된다. 이것은 R에 대한 eigenproblem이므로, 이 식을 풀면, R 행렬을 구할 수 있다. 또한, 이렇게 구한 R을 상기 [수학식 7]에 대입하면 새로운 입력영상이 적용된 새로운 기저행렬 U`를 구하게 된다. When [Equation 3] and [Equation 7] are substituted into [Equation 8], the above [Equation 9] is derived. Since this is the eigenproblem for R , solving this equation gives us the R matrix. In addition, substituting the obtained R into Equation 7 yields a new base matrix U` to which a new input image is applied.
도 5 는 본 발명의 얼굴 특징점 추출 방법에 따른 특징점들의 위치와 얼굴 정규화 영상의 예를 보여주는 일실시예 설명도이다. 5 is an explanatory diagram illustrating an example of positions of feature points and an example of a face normalized image according to the method for extracting feature points of the present invention.
본 발명에서 사용한 얼굴에서 구하고자 하는 특징점들의 위치와 실제 입력영상에서 검출된 얼굴영역에 대해서 AMM과 IPCA를 적용하여 얻어진 특징점들의 위치(5a)와 이를 이용한 얼굴 정규화 결과(5b)이다.The
이제, 머리카락 추출부(40) 및 머리카락 추출 과정(204)에 대해 살펴보기로 한다. Now, the
도 6에 도시된 바와 같이, 히스토그램의 색상값이 배경영역에 분포되는 정도에 따른 근사적 확률값을 바탕으로 배경영역을 판별하여, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)으로부터 배경영역을 제거하기 위한 배경영역 제거부(41)와, 배경영역이 제거된 영상에서 히스토그램의 색상값이 머리카락영역에 분포되는 정도에 따른 근사적 확률값을 바탕으로 머리카락영역을 판별하여, 실사 머리카락 영상을 추출하기 위한 머리카락영역 추출부(42)를 포함한다.As shown in FIG. 6, the background region is determined based on an approximate probability value according to the degree of the color value of the histogram being distributed in the background region, and the normalized input image (in the input image input through the image input unit 10). Background
여기서, 배경영역 제거부(41)에서 사용되는 근사적 확률값은, 패치 영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 나타내는 확률값(H1)을 전체 입력영상의 히스토그램을 구한 후 정규화하여 얻은 확률값(H2)으로 나눈 값으로, 하나의 히스토그램의 색상값이 배경영역에서 분포하는 정도를 나타낸다. Here, the approximate probability value used in the background
따라서, 배경영역 제거부(41)는, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 배경영역에 확실하게 속하는 작은 이미지 패치(즉, 정규화된 입력영상에서 사람의 어깨위, 귀 바깥쪽 이미지 영역에서 배경영역에 확실하게 속하는 작은 이미지 패치)를 얻어, 이 패치의 컬러 히스토그램과 정보와 확률적 해석 방법을 통해 배경영역을 제거하되, 정규화된 입력영상의 모든 점에서 각 색상의 근사적 확률값(H1/H2)이 소정의 임계치보다 낮으면 배경영역이 아니라고 판별한다. Therefore, the background
또한, 머리카락영역 추출부(42)에서 사용되는 근사적 확률값은, 패치 영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 나타내는 확률값(H1)을 전체 입력영상의 히스토그램을 구한 후 정규화하여 얻은 확률값(H2)으로 나눈 값으로, 하나의 히스토그램의 색상값이 머리카락영역에서 분포하는 정도를 나타낸다. In addition, the approximate probability value used in the hair
따라서, 머리카락영역 추출부(42)는, 정규화된 입력영상(영상 입력부(10)를 통해 입력된 입력영상에서 머리카락을 포함한 얼굴 주변만을 정규화한 영상)에서 머리카락영역에 확실하게 속하는 작은 이미지 패치(즉, 배경영역이 제거된 영상에서 얼굴의 최상위 부분에서 머리영역으로 확실시되는 작은 이미지 패치)를 얻어, 이 패치의 컬러 히스토그램과 정보와 확률적 해석 방법을 통해 머리카락영역을 추출하되, 정규화된 입력영상의 모든 점에서 각 색상의 근사적 확률값(H1/H2)이 소정의 임계치보다 높은 영역을 머리카락영역으로 판별하여 실사 머리카락을 추출한다. Therefore, the hair
머리카락 추출부(40)에서는 칼라 이미지 정보, 즉 R-G-B 값을 이용하며 입력영상과 최종결과물 역시 모두 칼라 이미지로 나타난다. The
배경영역 제거부(41)는 머리카락영역 추출을 위한 전처리 단계로서, 주어진 입력영상으로부터 배경영역을 제거하는 기능을 가지며, 이는 입력영상에서 사람의 어깨위 귀 바깥쪽 이미지영역에서 배경영역에 확실하게 속하는 작은 이미지 패치를 얻어내고, 이 패치의 칼라 히스토그램 정보와 확률적 해석 방법을 통해 구현된다. The background
이를 살펴보면, 우선 패치영역의 히스토그램을 정규화하여 각 히스토그램의 발생빈도를 확률로 표시하고, 이와 동일하게 전체 입력영상의 히스토그램을 구한 후 정규화하여 역시 확률값을 얻는다. 이때, 패치 영역의 히스토그램의 확률값(H1)을 전체 입력영상의 히스토그램의 확률값(H2)으로 나눈 값은 한 히스토그램의 색상값이 배경영역에 얼마만큼 분포하는 가에 대한 근사적 확률값이 된다. 즉, 배경영역이 아닌 얼굴영역에서의 한 지점의 색상은 배경영역에 속하지 않으므로 위의 (H1/H2)값이 매우 낮게 될 것이고, 이와 반대로 배경영역의 한 지점의 색상은 (H1/H2)이 비교적 높은 값을 갖게 될 것이다. 그러므로, 입력영상의 모든 점에서 각 색상의 (H1/H2)을 이용하여 미리 설정한 임계값보다 낮으면 배경영역이 아니라 고 판별한다. In this regard, first, the histogram of the patch region is normalized to display the frequency of occurrence of each histogram as a probability. Likewise, the histogram of the entire input image is obtained and then normalized to obtain a probability value. In this case, a value obtained by dividing the probability value H1 of the histogram of the patch region by the probability value H2 of the histogram of the entire input image is an approximate probability value of how much the color value of one histogram is distributed in the background region. That is, since the color of one point in the face area that is not the background area does not belong to the background area, the value of (H1 / H2) above will be very low, whereas the color of one point of the background area is (H1 / H2). It will have a relatively high value. Therefore, if it is lower than the preset threshold value by using (H1 / H2) of each color at every point of the input image, it is determined that it is not a background area.
머리카락영역 추출부(42)는 배경영역 제거부(41)를 통해 배경영역이 제거된 영상에서 얼굴의 최상위부분에서 머리영역으로 확실시되는 작은 이미지 패치를 구하고, 위의 배경영역 제거부(41)에서 제시한 방법을 이미지 패치의 칼라 히스토그램정보에 적용하여 이제 임계점보다 높은 영역만을 머리카락영역으로 판별함으로써 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출할 수 있다.The hair
도 7은 실사 캐릭터 추출을 응용한 예로서, 입력영상에서 얼굴 특징점을 추출하고 실시 머리카락을 추출하여, 정규화된 얼굴 정규화 영상과 실사 머리카락 영상을 정합하여 실사 캐릭터를 생성하는 과정을 보여준다.7 is an example of applying live-action character extraction, and shows a process of generating a live-action character by extracting facial feature points from the input image and extracting the real hair, matching the normalized face normalized image with the live-hair hair image.
본 발명의 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
상기와 같은 본 발명은, 다양한 환경변화(얼굴의 크기 변화, 포즈 변화, 안경 및 장신구의 착용 여부, 조명 변화 등)에도 강인한 얼굴의 특징점(눈, 코, 입, 턱선 등의 얼굴의 특징 위치 정보)을 추출할 수 있는 효과가 있다. As described above, the present invention is characterized by facial feature points (eye, nose, mouth, jawline, etc.) that are robust to various environmental changes (face size change, pose change, wearing glasses and jewelry, lighting change, etc.). ) Can extract the effect.
또한, 본 발명은, 조명 변화에 강인하면서도 다양한 머리카락의 모양과 색, 형태에 무관하게 신뢰성 있게 머리카락을 추출할 수 있는 효과가 있다. In addition, the present invention has the effect of being able to extract hair reliably regardless of the shape, color, and shape of various hairs while being robust to lighting changes.
또한, 본 발명은, 추출된 얼굴 특징점과 머리카락 추출 정보를 이용하여 실사 캐릭터를 생성ㆍ제작할 수 있는 효과가 있다. In addition, the present invention has the effect of generating and producing a live-action character using extracted facial feature points and hair extraction information.
따라서, 본 발명은, 정확한 얼굴인식의 전처리 및 얼굴정규화를 제공함으로써, 조명 및 포즈변화에도 강인한 얼굴 인식 성능 향상 및 얼굴 모델링, 얼굴의 특징점의 형태에 따른 관상서비스를 위한 관상정보추출이 가능하고, 머리카락 추출 모듈에 의해 실사 머리카락을 합성함으로써 보다 사실적인 얼굴 모델링, 캐릭터 생성을 구현할 수 있으며, 실사 캐릭터 생성 모듈에 의해 고객 이미지의 실사 캐릭터를 실시간으로 자동 생성함으로써, 캐릭터 생성비용 및 생성시간을 효과적으로 줄일 수 있고, 고객의 캐릭터 이미지를 이용하여 맞춤형 상품의 제작이 가능한 이점 이 있다. Accordingly, the present invention, by providing the pre-processing and face normalization of the accurate face recognition, it is possible to improve the face recognition performance, face modeling, and coronary information extraction for the coronary service according to the shape of the facial feature point, which is robust to lighting and pose changes, The realistic hair modeling and character generation can be realized by synthesizing the photorealistic hair with the hair extraction module, and the real-time character generation module automatically generates real-time character of the customer image, effectively reducing the character creation cost and creation time. And, there is an advantage that can produce a customized product using the customer's character image.
Claims (31)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060129007A KR100839536B1 (en) | 2006-12-15 | 2006-12-15 | System and method for facial region/hair information extraction, character generation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060129007A KR100839536B1 (en) | 2006-12-15 | 2006-12-15 | System and method for facial region/hair information extraction, character generation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100839536B1 true KR100839536B1 (en) | 2008-06-19 |
Family
ID=39771832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060129007A KR100839536B1 (en) | 2006-12-15 | 2006-12-15 | System and method for facial region/hair information extraction, character generation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100839536B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033349B1 (en) | 2009-03-24 | 2011-05-09 | 아주대학교산학협력단 | Vision watching System and Method for safety hat |
WO2012005499A2 (en) * | 2010-07-06 | 2012-01-12 | 한국전자통신연구원 | Method and apparatus for generating avatar |
KR20190016733A (en) * | 2017-08-09 | 2019-02-19 | 한국과학기술연구원 | Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method |
CN110969631A (en) * | 2019-11-25 | 2020-04-07 | 杭州趣维科技有限公司 | Fine photo hair dyeing method and system |
CN111652974A (en) * | 2020-06-15 | 2020-09-11 | 腾讯科技(深圳)有限公司 | Method, device and equipment for constructing three-dimensional face model and storage medium |
CN112053315A (en) * | 2020-09-14 | 2020-12-08 | 北京百度网讯科技有限公司 | Method and apparatus for processing character image data |
KR102538783B1 (en) * | 2022-09-27 | 2023-06-01 | 주식회사 미러로이드 | Apparatus and method for generating a hairless head person image for a virtual hair styling experience |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316845A (en) | 1998-03-02 | 1999-11-16 | Fuji Photo Film Co Ltd | Method and device for extracting main object |
JP2000339471A (en) | 1999-05-31 | 2000-12-08 | Matsushita Electric Ind Co Ltd | Method and device for extracting picture |
-
2006
- 2006-12-15 KR KR1020060129007A patent/KR100839536B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316845A (en) | 1998-03-02 | 1999-11-16 | Fuji Photo Film Co Ltd | Method and device for extracting main object |
JP2000339471A (en) | 1999-05-31 | 2000-12-08 | Matsushita Electric Ind Co Ltd | Method and device for extracting picture |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033349B1 (en) | 2009-03-24 | 2011-05-09 | 아주대학교산학협력단 | Vision watching System and Method for safety hat |
WO2012005499A2 (en) * | 2010-07-06 | 2012-01-12 | 한국전자통신연구원 | Method and apparatus for generating avatar |
WO2012005499A3 (en) * | 2010-07-06 | 2012-03-29 | 한국전자통신연구원 | Method and apparatus for generating avatar |
KR101500798B1 (en) * | 2010-07-06 | 2015-03-10 | 한국전자통신연구원 | Method and apparatus for making avatar |
KR20190016733A (en) * | 2017-08-09 | 2019-02-19 | 한국과학기술연구원 | Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method |
KR101998112B1 (en) | 2017-08-09 | 2019-07-10 | 한국과학기술연구원 | Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method |
CN110969631A (en) * | 2019-11-25 | 2020-04-07 | 杭州趣维科技有限公司 | Fine photo hair dyeing method and system |
CN110969631B (en) * | 2019-11-25 | 2023-04-11 | 杭州小影创新科技股份有限公司 | Method and system for dyeing hair by refined photos |
CN111652974A (en) * | 2020-06-15 | 2020-09-11 | 腾讯科技(深圳)有限公司 | Method, device and equipment for constructing three-dimensional face model and storage medium |
CN111652974B (en) * | 2020-06-15 | 2023-08-25 | 腾讯科技(深圳)有限公司 | Method, device, equipment and storage medium for constructing three-dimensional face model |
CN112053315A (en) * | 2020-09-14 | 2020-12-08 | 北京百度网讯科技有限公司 | Method and apparatus for processing character image data |
KR102538783B1 (en) * | 2022-09-27 | 2023-06-01 | 주식회사 미러로이드 | Apparatus and method for generating a hairless head person image for a virtual hair styling experience |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376582B (en) | Interactive face cartoon method based on generation of confrontation network | |
EP2718902B1 (en) | Generation of avatar reflecting player appearance | |
CN112419170B (en) | Training method of shielding detection model and beautifying processing method of face image | |
KR100839536B1 (en) | System and method for facial region/hair information extraction, character generation | |
US7764828B2 (en) | Method, apparatus, and computer program for processing image | |
CN110659582A (en) | Image conversion model training method, heterogeneous face recognition method, device and equipment | |
KR102400609B1 (en) | A method and apparatus for synthesizing a background and a face by using deep learning network | |
CN111062328B (en) | Image processing method and device and intelligent robot | |
CN108734078B (en) | Image processing method, image processing apparatus, electronic device, storage medium, and program | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN110796089A (en) | Method and apparatus for training face-changing model | |
WO2019142127A1 (en) | Method and system of creating multiple expression emoticons | |
CN111008935A (en) | Face image enhancement method, device, system and storage medium | |
CN114549557A (en) | Portrait segmentation network training method, device, equipment and medium | |
KR20080060007A (en) | Apparatus and method for detecting feature vector and apparatus and method for recognizing face from an image using the same | |
CN113128373A (en) | Color spot scoring method based on image processing, color spot scoring device and terminal equipment | |
CN109858355A (en) | Image processing method and Related product | |
CN111723688B (en) | Human body action recognition result evaluation method and device and electronic equipment | |
CN106778751B (en) | Non-facial ROI (region of interest) identification method and device | |
Montazeri et al. | Automatic extraction of eye field from a gray intensity image using intensity filtering and hybrid projection function | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN111145082A (en) | Face image processing method and device, electronic equipment and storage medium | |
CN111582120A (en) | Method and terminal device for capturing eyeball activity characteristics | |
CN115131853A (en) | Face key point positioning method and device, electronic equipment and storage medium | |
CN114067277A (en) | Pedestrian image recognition method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130603 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140603 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150605 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160809 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20170605 Year of fee payment: 10 |