KR102435893B1 - system for applying selective makeup effect through facial recognition of user - Google Patents
system for applying selective makeup effect through facial recognition of user Download PDFInfo
- Publication number
- KR102435893B1 KR102435893B1 KR1020210038343A KR20210038343A KR102435893B1 KR 102435893 B1 KR102435893 B1 KR 102435893B1 KR 1020210038343 A KR1020210038343 A KR 1020210038343A KR 20210038343 A KR20210038343 A KR 20210038343A KR 102435893 B1 KR102435893 B1 KR 102435893B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- unit
- facial
- makeup
- face
- Prior art date
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 177
- 230000000694 effects Effects 0.000 title claims abstract description 66
- 230000009471 action Effects 0.000 claims description 32
- 210000001508 eye Anatomy 0.000 claims description 18
- 239000002537 cosmetic Substances 0.000 claims description 13
- 238000007493 shaping process Methods 0.000 claims description 10
- 210000003491 skin Anatomy 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 210000004709 eyebrow Anatomy 0.000 claims description 8
- 210000001061 forehead Anatomy 0.000 claims description 8
- 238000007634 remodeling Methods 0.000 claims description 8
- 210000001747 pupil Anatomy 0.000 claims description 6
- 210000000216 zygoma Anatomy 0.000 claims description 6
- 210000003800 pharynx Anatomy 0.000 claims description 5
- 206010014970 Ephelides Diseases 0.000 claims description 4
- 208000003351 Melanosis Diseases 0.000 claims description 4
- 210000000720 eyelash Anatomy 0.000 claims description 4
- 210000000744 eyelid Anatomy 0.000 claims description 4
- 238000009472 formulation Methods 0.000 claims description 4
- 210000004209 hair Anatomy 0.000 claims description 4
- 239000004615 ingredient Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 239000011148 porous material Substances 0.000 claims description 4
- 238000012552 review Methods 0.000 claims description 4
- 208000002874 Acne Vulgaris Diseases 0.000 claims description 3
- 206010000496 acne Diseases 0.000 claims description 3
- 231100000241 scar Toxicity 0.000 claims description 3
- 208000032544 Cicatrix Diseases 0.000 claims description 2
- 230000037387 scars Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 24
- 210000000214 mouth Anatomy 0.000 description 17
- 230000003796 beauty Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 8
- 210000003467 cheek Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 3
- 235000014653 Carica parviflora Nutrition 0.000 description 2
- 244000132059 Carica parviflora Species 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 239000006071 cream Substances 0.000 description 2
- 239000007934 lip balm Substances 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 241001237961 Amanita rubescens Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Signal Processing (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
Abstract
본 발명은 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템에 관한 것으로서, 모바일 유닛으로부터 취득된 유저의 영상으로부터 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛; 검출된 유저의 페이스 영역으로부터 유저의 페이셜 파트를 개별적으로 추출하는 익스트랙팅 유닛; 및 추출된 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛을 포함하는 기술적 사상을 개시한다.The present invention relates to a system for applying a selective make-up effect through a user's facial recognition, comprising: a recording unit that selectively detects a user's face area from a user's image acquired from a mobile unit; an extracting unit for individually extracting the user's facial parts from the detected user's face regions; and an effecting unit that selectively applies a predetermined effect to each of the extracted user's facial parts.
Description
본 발명은 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템에 관한 것이다. 보다 자세하게는, 유저의 단말기로 촬영된 유저의 영상 또는 셀카 영상으로부터, 유저의 페이스를 인식하고 유저의 페이셜 파트 각각에 가상의 코스메틱 오브젝트를 선택적으로 적용하여 가상의 뷰티 메이크업을 구현하는 시스템에 관한 기술분야이다.The present invention relates to a system for applying a selective makeup effect through a user's facial recognition. More specifically, from the user's image or selfie image taken by the user's terminal, the user's face is recognized and a virtual cosmetic object is selectively applied to each of the user's facial parts to implement a virtual beauty makeup system. is the field
안면 인식 시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말한다. 이는 살아 있는 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다.A facial recognition system is a computer-aided application that automatically identifies each person through a digital image. This is done by comparing selected facial features appearing in the live image with a facial database.
안면 인식 기술은 AI기반의 생체인식 기술로서 사진이나 영상으로부터 얼굴의 특징적인 형상을 인식하여 데이터베이스에 저장하며, 이를 비교 분석하여 안면을 식별하는 기술이다. Face recognition technology is an AI-based biometric technology that recognizes the characteristic shape of a face from a photo or video, stores it in a database, and compares and analyzes it to identify a face.
최근에는 안면인식 기술을 활용한 분야가 뷰티 업계에서 활성화되고 있다. 특히, 뷰티 테크의 핵심이 되는 안면 인식 기술은 사람들의 안면 기능의 위치를 감지해, 헤어스타일이나 컨투어링 등 여러 가지 변화된 모습을 보여준다. 이러한 기술은 사람들이 더욱 더 정교하고 과학적으로 뷰티 트렌드에 접근할 수 있도록 한다.Recently, the field using facial recognition technology has been revitalized in the beauty industry. In particular, facial recognition technology, which is the core of beauty tech, detects the location of people's facial functions and shows various changes such as hairstyles and contouring. These technologies allow people to access beauty trends more sophisticated and scientifically.
이와 관련된 선행 특허문헌의 예로서 “이미지 처리 방법 및 장치, 전자 장치 및 컴퓨터-판독 가능 저장 매체 (공개번호 제10-2020-0044093호, 이하 특허문헌1이라 한다.)”이 존재한다.As examples of related prior patent documents, "image processing method and apparatus, electronic device and computer-readable storage medium (Publication No. 10-2020-0044093, hereinafter referred to as Patent Document 1)" exists.
특허문헌1에 따른 발명의 경우, 처리될 이미지에 대해 얼굴 인식이 수행되는 동작; 처리될 이미지가 인물 사진을 포함하는 것을 검출한 결과로써, 인물 사진의 촬영 거리가 획득되는 동작; 촬영 거리가 미리 설정된 거리 조건을 충족한다는 판단의 결과로써, 충족된 거리 조건과 매치되는 파라미터 관계가 획득되는 동작; 촬영 거리에 대응하는 뷰티 파라미터는 파라미터 관계에 따라 선택되는 동작; 및 뷰티 파라미터에 따라 인물 사진에 대해 뷰티 처리가 수행되는 동작을 포함한다.In the case of the invention according to Patent Document 1, the operation of performing face recognition on the image to be processed; obtaining, as a result of detecting that the image to be processed includes a portrait, a photographing distance of the portrait; obtaining, as a result of the determination that the shooting distance satisfies a preset distance condition, a parameter relationship matching the met distance condition; The beauty parameter corresponding to the shooting distance is selected according to the parameter relationship; and performing beauty processing on the portrait according to the beauty parameter.
또 다른 특허문헌의 예로서 “증강된 화장 서비스 제공 방법 (등록번호 제10-2158233호, 이하 특허문헌2이라 한다.)”이 존재한다.As an example of another patent document, "a method of providing an enhanced makeup service (registration number 10-2158233, hereinafter referred to as Patent Document 2)" exists.
특허문헌2에 따른 발명의 경우, 사용자 무선단말의 앱이 사용자 무선단말의 카메라부의 자동초점 촬영 상태에서 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 화장할 사용자 안면에 대응하는 안면 영역을 인식하고, 사용자 무선단말의 앱이 인식된 안면 영역에 형성된 사용자 안면의 기하학 구조를 해석한 사용자 안면 기하학구조 정보를 생성하여 지정된 저장영역에 저장하고, 사용자 안면 기하학 구조 상의 거리 산출을 위해 특정가능한 둘 이상의 특징 점을 결정하고, 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 둘 이상의 특정 점 간 거리를 포함하는 사용자 안면 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 안면 수치 정보를 결정하고, 사용자 무선단말의 앱이 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 지정된 운영서버로 전송하면, 운영서버에서 사용자 안면 기하학 구조 정보와 사용자 안면 수치 정보를 수신하고, 운영서버에서 사용자 안면 기하학 구조 정보와 일대일 축적의 사용자 안면 수치 정보를 이용하여 사용자의 실제 안면과 일대일 매칭되는 사용자 전용 화장의 3D 모델링 데이터를 생성하고, 운영서버에서 사용자의 실제 안면에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 화장을 적용하여 생성된 사용자 전용 화장 데이터를 확인하고, 운영서버에서 사용자 무선단말의 앱으로 사용자 전용 화장 데이터를 제공하면, 사용자 무선단말의 앱이 사용자 전용 화장 데이터를 수신하여 지정된 저장영역에 저장하고, 사용자 무선단말의 앱이 지정된 저장영역에 저장된 사용자 안면 기하학 구조 정보를 근거로 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식하며, 사용자 무선단말의 앱이 영상데이터에 존재하는 사용자의 안면 영역을 실시간 인식한 경우 영상데이터 상에서 인식된 사용자의 안면 영역에 사용자 전용 화장 데이터를 중첩 표시하여 사용자의 안면을 증강한다.In the case of the invention according to Patent Document 2, the app of the user's wireless terminal reads one or more image data included in the image data input in the auto-focus shooting state of the camera unit of the user's wireless terminal, and selects a facial area corresponding to the user's face to be made-up. Recognizes, generates and stores user facial geometry information that interprets the geometry of the user's face formed in the recognized facial area by the app of the user's wireless terminal, and stores it in a designated storage area. The above characteristic points are determined, and one or more of the focal lengths automatically determined in the autofocus process of the camera unit, the pixel distances between two or more specific points on the image data, and the camera specification information provided in the wireless terminal are substituted into the input values of the specified calculation formula. to determine the real-world and one-to-one accumulation of user facial numerical information about the user's facial geometry including the distance between two or more specific points, and the app of the user's wireless terminal stores the user's facial geometry information and the user's facial numerical information to the specified operating server When transmitted to, the operation server receives user facial geometry information and user facial numerical information, and the operation server uses the user facial geometry information and the user facial numerical information of one-to-one accumulation for users who match the user's real face one-to-one 3D modeling data of makeup is generated, and the user-only makeup data generated by applying the specified makeup to the user-only modeling data generated by one-to-one matching with the user's actual face in the operation server is checked, and the application of the user's wireless terminal in the operation server If the user-only makeup data is provided by the user wireless terminal app, the user wireless terminal app receives the user-only makeup data and stores it in the designated storage area, and the user wireless terminal's app receives the user's facial geometry information stored in the designated storage area for the camera unit. By reading the image data included in the image data input through the image data, it recognizes the user's facial area in the image data in real time. The user's face is augmented by superimposing user-only makeup data on the user's face area recognized on the image data.
또 다른 특허문헌의 예로서 “3D 얼굴인식 시스템 및 방법 (공개번호 제10-2020-0098875호, 이하 특허문헌3이라 한다.)”이 존재한다.As another example of the patent document, "3D face recognition system and method (Publication No. 10-2020-0098875, hereinafter referred to as Patent Document 3)" exists.
특허문헌3에 따른 발명의 경우, 웹 서비스를 통해 의뢰 영상을 입력하여, 의뢰 영상에 대한 얼굴 검색을 요청하는 검색 요청 단말기, 웹 서비스를 통해 얼굴 검색 요청을 접수하고, 의뢰 영상에 대하여 매칭 조건을 설정하여, 의뢰 영상에 대한 검색을 요청하는 검색 처리 단말기, 및 의뢰 영상에서 추출된 얼굴 영역으로부터 특징점을 추출하고 얼굴의 포즈 예측을 수행하여 생성한 예측 얼굴 포즈 정보와, 데이터베이스에 저장된 3차원 얼굴 모델링 정보를 이용한 3차원 얼굴 인식 과정에 따라 검색된 얼굴 관련 정보를 검색 처리 단말기로 전송하는 검색 서버부를 포함하며, 검색 처리 단말기는 웹 서비스를 통해 얼굴 관련 정보와 얼굴 관련 정보에 대한 감정서를 검색 요청 단말기로 전송한다.In the case of the invention according to Patent Document 3, a search request terminal that requests a face search for the requested image by inputting a requested image through a web service, receives a face search request through the web service, and sets matching conditions for the requested image Set, a search processing terminal that requests a search for the requested image, and predicted face pose information generated by extracting feature points from the facial region extracted from the requested image and performing pose prediction of the face, and 3D face modeling stored in the database and a search server unit that transmits face-related information found according to a three-dimensional face recognition process using information to a search processing terminal, wherein the search processing terminal sends an appraisal of face-related information and face-related information to a search request terminal through a web service send.
또 다른 특허문헌의 예로서 “영상을 위한 효과 공유 방법 및 시스템 (등록번호 제10-2199735호, 이하 특허문헌4이라 한다.)”이 존재한다.As another example of the patent document, "Effect sharing method and system for images (Registration No. 10-2199735, hereinafter referred to as Patent Document 4)" exists.
특허문헌4에 따른 발명의 경우, 전자 기기들에 표시된 영상을 편집하기 위한 영상 편집 기능을 제공하기 위해 전자 기기들에 설치 및 구동되는 어플리케이션을 통해 전자 기기들과 통신하는 단계, 전자 기기들 중 제1 전자 기기가 영상 편집 기능을 이용하여 영상에 적용한 효과 셋에 대한 공유 요청을 제1 전자 기기로부터 수신하는 단계, 공유 요청에 포함된 효과 셋의 식별자를 이용하여 효과 셋의 공유를 위한 링크를 생성하는 단계 및 생성된 링크를 제공하는 단계를 포함할 수 있다.In the case of the invention according to Patent Document 4, in order to provide an image editing function for editing an image displayed on the electronic devices, the step of communicating with the electronic devices through an application installed and driven in the electronic devices, the first of the electronic devices 1 Receiving, by the electronic device, a share request for an effect set applied to an image by using an image editing function from the first electronic device, and generating a link for sharing the effect set by using the identifier of the effect set included in the sharing request and providing the generated link.
그러나, 기존의 특허문헌들의 경우, 단말기로부터 촬영되는 사진이나 영상으로부터 사용자의 얼굴을 인식하며, 인식된 얼굴 부위에 뷰티 효과를 적용하는 기술을 포함하지만, 이때, 적용되는 뷰티 효과는 인식된 얼굴 부위에 이미지 보정 필터나 컬러 필터를 입히는 한정된 기술적 사상만을 개시하고 있다.However, in the case of existing patent documents, the user's face is recognized from a photo or image taken from the terminal, and a technique for applying a beauty effect to the recognized face part is included, but in this case, the applied beauty effect is the recognized face part Only a limited technical idea of applying an image correction filter or a color filter is disclosed.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.The selective makeup effecting application system through the user's facial recognition according to the present invention has been devised to solve the conventional problems as described above, and presents the following problems to be solved.
첫째, 유저의 단말기로부터 촬영되는 유저의 영상 정보를 수집하여, 유저의 얼굴을 인식하고자 한다.First, image information of a user photographed from a user's terminal is collected to recognize a user's face.
둘째, 인식된 유저의 얼굴의 부위에 따라 소정의 효과를 적용하여 가상의 메이크업을 구현하고자 한다.Second, it is intended to implement a virtual makeup by applying a predetermined effect according to the recognized part of the user's face.
셋째, 유저의 얼굴에 적용되는 가상의 메이크업은 가상의 코스메틱 오브젝트를 활용하고자 한다. Third, virtual makeup applied to the user's face intends to utilize a virtual cosmetic object.
본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.The selective makeup effecting application system through the user's facial recognition according to the present invention has the following problem solving means for the problems to be solved above.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템은 모바일 유닛으로부터 취득된 유저의 영상으로부터 상기 유저의 페이스 영역을 선택적으로 검출하는 레코그니션 유닛(recognition unit); 상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit); 및 상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛(effecting unit)을 포함하는 것을 특징으로 할 수 있다.According to the present invention, a system for applying selective makeup effecting through a user's facial recognition includes: a recognition unit for selectively detecting a user's face region from an image of the user acquired from a mobile unit; an extracting unit for individually extracting a facial part of the user from the face region of the user detected from the recording unit; and an effecting unit that selectively applies a predetermined effect to each of the facial parts of the user extracted from the extracting unit.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 레코그니션 유닛은, 상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부; 상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및 상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하는 것을 특징으로 할 수 있다.The registration unit of the system for applying selective makeup effecting through the user's facial recognition according to the present invention includes: a scan unit that scans the user's image from the mobile unit; a perceiving unit for recognizing an area in which a movement is captured from the user's image as the user's face area; and a detecting unit that separates the user's face area and the background area recognized by the perceiving unit to selectively detect the user's face area.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 퍼시빙부는, 서버로부터 미리 축적된 페이셜 패턴 정보를 제공받아, 상기 미리 축적된 페이셜 패턴 정보에 기초하여, 상기 유저의 영상으로부터 상기 소정의 시간 동안 상기 유저의 상기 소정의 무브먼트를 감지하여 상기 유저의 페이스 영역만을 선택적으로 인식하는 것을 특징으로 할 수 있다.The perceiving unit of the system for applying selective makeup effecting through facial recognition of a user according to the present invention receives facial pattern information accumulated in advance from a server, and based on the facial pattern information accumulated in advance, from the image of the user It may be characterized in that only the face area of the user is selectively recognized by sensing the predetermined movement of the user for a predetermined time.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 익스트랙팅 유닛은, 상기 익스트랙팅 유닛은, 상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부; 상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부; 및 상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부를 포함하는 것을 특징으로 할 수 있다.The extracting unit of the selective makeup effecting application system through the user's facial recognition according to the present invention, the extracting unit selects a three-dimensional face shape from the user's face region selectively detected by the detecting unit forming a shaping (shaping) unit; a tracking unit for selectively extracting the user's facial part from the three-dimensional face shape formed from the shaping unit; and an aligning unit by detecting an angle change of the facial part according to the predetermined movement of the user, and reflecting the change in the three-dimensional face shape.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 익스트랙팅 유닛은, 상기 트레킹부로부터 추출된 상기 페이셜 파트의 각각에 임의의 주소를 할당하여 개별적으로 저장하는 어드레스(address)부를 더 포함하는 것을 특징으로 할 수 있다.The extracting unit of the system for applying selective makeup effecting through the user's facial recognition according to the present invention is an address unit for allocating and individually storing an arbitrary address to each of the facial parts extracted from the tracking unit It may be characterized in that it further comprises.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 이펙팅 유닛은, 상기 유저로부터 미리 결정된 액션과 상호 연동되어, 상기 미리 결정된 액션에 의해 상기 페이셜 파트가 선택되도록 하는 유저 액션(user action)부; 및 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 상기 소정의 이펙트를 선택적으로 적용하는 어플라잉(applying)부를 포함하는 것을 특징으로 할 수 있다.The effecting unit of the system for applying selective makeup effecting through the user's facial recognition according to the present invention is a user action that interworks with a predetermined action from the user so that the facial part is selected by the predetermined action )wealth; and an applying unit for selectively applying the predetermined effect to the facial part selected by the predetermined action.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 어플라잉부는, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하는 메이크업(makeup)부를 포함하는 것을 특징으로 할 수 있다.The applying unit of the selective makeup effecting application system through the user's facial recognition according to the present invention, skin, eyes, eyebrows, nose, mouth, chin, forehead, pharyngeal or face type among the facial parts selected by the predetermined action It may be characterized in that it comprises a makeup (makeup) for applying a makeup effect to at least one of the outer appearance.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 어플라잉부는, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 피규레이션(figuration)부를 더 포함하는 것을 특징으로 할 수 있다.The applying unit of the selective makeup effecting application system through the user's facial recognition according to the present invention, skin, eyes, eyebrows, nose, mouth, chin, forehead, pharyngeal or face type among the facial parts selected by the predetermined action It may be characterized in that it further comprises a figure (figuration) for applying a figure effect so that at least one or more of the external appearance is tuned.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 메이크업부는, 미리 세팅된 가상의 코스메틱 오브젝트를 상기 페이셜 파트에 선택적으로 적용하는 것을 상기 메이크업 이펙트로 설정하는 것을 특징으로 할 수 있다.The makeup unit of the system for applying a selective makeup effect through a user's facial recognition according to the present invention may set the makeup effect to selectively apply a preset virtual cosmetic object to the facial part.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 미리 세팅된 가상의 코스메틱 오브젝트는, 상기 유저에 의해 임의 선택되어, 상기 페이셜 파트에 개별적으로 적용되는 것을 특징으로 할 수 있다.The preset virtual cosmetic object of the system for applying selective makeup effecting through the user's facial recognition according to the present invention may be arbitrarily selected by the user and applied individually to the facial part.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 미리 세팅된 가상의 코스메틱 오브젝트는, 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 따라, 각각 상이한 집군의 하위 코스메틱 오브젝트가 제시되고, 상기 유저에 의해 상기 하위 코스메틱 오브젝트의 일부가 선택되면, 선택된 상기 하위 코스메틱 오브젝트가 선택된 상기 페이셜 파트에 적용되는 것을 특징으로 할 수 있다.The preset virtual cosmetic object of the selective makeup effecting application system through the user's facial recognition according to the present invention, according to the facial part selected by the predetermined action, a sub-cosmetic object of a different group is presented, When a part of the lower cosmetic object is selected by the user, the selected lower cosmetic object may be applied to the selected facial part.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 하위 코스메틱 오브젝트는, 상기 유저에게 상기 하위 코스메틱 오브젝트의 브랜드, 컬러, 제형, 가격, 질감, 피부톤, 신상품, 리뷰수, 추천수 또는 성분 중 적어도 하나 이상을 제시하여, 상기 유저로 하여금 선택되도록 하는 것을 것을 특징으로 할 수 있다.The sub-cosmetic object of the selective makeup effecting application system through the user's facial recognition according to the present invention provides the user with the brand, color, formulation, price, texture, skin tone, new product, number of reviews, number of recommendations or ingredients of the sub-cosmetic object. It may be characterized in that by presenting at least one or more of the following, the user is selected.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 피규레이션부는, 미리 세팅된 가상의 파트 쉐입을 상기 페이셜 파트에 선택적으로 적용하는 것을 상기 피규레이션 이펙트로 설정하는 것을 특징으로 할 수 있다.The figure unit of the selective makeup effecting application system through the user's facial recognition according to the present invention, selectively applying a preset virtual part shape to the facial part may be characterized in that the figure effect is set. have.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 미리 세팅된 가상의 파트 쉐입은, 상기 유저에 의해 임의 선택되어, 상기 페이셜 파트에 개별적으로 적용되는 것을 특징으로 할 수 있다.The preset virtual part shape of the system for applying selective makeup effecting through a user's facial recognition according to the present invention may be arbitrarily selected by the user and applied individually to the facial part.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 미리 세팅된 가상의 파트 쉐입은, 상기 유저의 상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트와 관련된 상기 미리 세팅된 가상의 파트 쉐입 집군이 제시되고, 상기 유저는 상기 미리 세팅된 가상의 파트 쉐입 집군 중 어느 하나를 선택하면, 상기 유저의 상기 페이셜 파트는 상기 유저가 선택한 상기 미리 세팅된 가상의 파트 쉐입 집군 중 하나의 스타일로 튜닝되는 것을 특징으로 할 수 있다.The preset virtual part shape of the selective makeup effecting application system through the user's facial recognition according to the present invention is a group of the preset virtual part shapes related to the facial part selected by the predetermined action of the user is presented, and when the user selects any one of the preset virtual part shape collections, the facial part of the user is tuned to a style of one of the preset virtual part shape collections selected by the user. can be characterized as
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 상기 어플라잉부는, 상기 유저 액션부로부터 선택된 상기 페이셜 파트를 선택적으로 삭제하며, 삭제된 상기 페이셜 파트에는 미리 세팅된 가상의 파트 쉐입을 인풋하는 리모델링(remodeling)부를 더 포함하는 것을 특징으로 할 수 있다.The applying unit of the selective makeup effecting application system through the user's facial recognition according to the present invention selectively deletes the facial part selected from the user action unit, and a virtual part shape set in advance for the deleted facial part It may be characterized in that it further comprises a remodeling (remodeling) unit to input.
이상과 같은 구성의 본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템은 다음과 같은 효과를 제공한다.The selective makeup effecting application system through the user's facial recognition according to the present invention configured as described above provides the following effects.
첫째, 유저의 단말기로부터 유저의 영상 정보를 수집하여 유저의 페이스 영역만을 검출할 수 있게 된다.First, by collecting the user's image information from the user's terminal, it is possible to detect only the user's face area.
둘째, 유저의 페이스 영역으로부터 유저의 페이셜 파트를 추출하고, 유저의 페이셜 파트에 소정의 이펙트를 선택적으로 적용할 수 있게 된다.Second, it is possible to extract the user's facial part from the user's face area and selectively apply a predetermined effect to the user's facial part.
셋째, 유저의 선택에 따라 가상의 코스메틱 오브젝트를 적용하여 유저의 페이셜 파트의 각각에 가상의 뷰티 메이크업을 선택적으로 구현할 수 있게 된다.Third, it is possible to selectively implement virtual beauty makeup on each of the user's facial parts by applying a virtual cosmetic object according to the user's selection.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도1은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 개념도이다.
도2는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 블록도이다.
도3은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 레코그니션 유닛의 개념도이다.
도4는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 레코그니션 유닛의 블록도이다.
도5는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 익스트랙팅 유닛의 개념도이다.
도6은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 어드레스부의 개념도이다.
도7은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 익스트랙팅 유닛의 블록도이다.
도8은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 이펙팅 유닛의 개념도이다.
도9는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 어플라잉부의 개념도이다.
도10은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 리모델링부의 개념도이다.
도11은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 이펙팅 유닛의 블록도이다.
도12는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 스팟 커버링부의 개념도이다.1 is a conceptual diagram of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention.
2 is a block diagram of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention.
3 is a conceptual diagram of a registration unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention.
4 is a block diagram of a registration unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention.
5 is a conceptual diagram of an extracting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
6 is a conceptual diagram of an address part of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
7 is a block diagram of an extracting unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention.
8 is a conceptual diagram of an effecting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
9 is a conceptual diagram of the applying unit of the selective makeup effecting application system through the user's facial recognition according to an embodiment of the present invention.
10 is a conceptual diagram of a remodeling unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
11 is a block diagram of an effecting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
12 is a conceptual diagram of a spot covering unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The selective makeup effecting application system through the user's facial recognition according to the present invention can apply various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
도1은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 개념도이다. 도2는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 블록도이다. 도3은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 레코그니션 유닛의 개념도이다. 도4는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 레코그니션 유닛의 블록도이다. 도5는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 익스트랙팅 유닛의 개념도이다. 도6은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 어드레스부의 개념도이다. 도7은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 익스트랙팅 유닛의 블록도이다. 도8은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 이펙팅 유닛의 개념도이다. 도9는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 어플라잉부의 개념도이다. 도10은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 리모델링부의 개념도이다. 도11은 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 이펙팅 유닛의 블록도이다. 도12는 본 발명의 일 실시예에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 스팟 커버링부의 개념도이다.1 is a conceptual diagram of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention. 2 is a block diagram of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention. 3 is a conceptual diagram of a registration unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention. 4 is a block diagram of a registration unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention. 5 is a conceptual diagram of an extracting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention. 6 is a conceptual diagram of an address part of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention. 7 is a block diagram of an extracting unit of a system for applying a selective makeup effect through a user's facial recognition according to an embodiment of the present invention. 8 is a conceptual diagram of an effecting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention. 9 is a conceptual diagram of the applying unit of the selective makeup effecting application system through the user's facial recognition according to an embodiment of the present invention. 10 is a conceptual diagram of a remodeling unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention. 11 is a block diagram of an effecting unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention. 12 is a conceptual diagram of a spot covering unit of a system for applying selective makeup effecting through a user's facial recognition according to an embodiment of the present invention.
종래 기술들은 풀 프레임(full frame)으로서 유저의 안면을 일정한 틀에 맞추어진 상태로 셋팅, 변형, 색 변형 등에 해당하는바, 본인의 얼굴을 왜곡시키는 문제점이 있다. The prior art is a full frame (full frame), which corresponds to the setting, deformation, color deformation, etc. of the user's face in a state in which the user's face is adjusted to a certain frame, there is a problem of distorting the user's face.
종래 기술들은 유저의 얼굴을 그대로 살려 특정 부위만을 선택적으로 원하는 색조 혹은 원하는 화장 테크닉을 선택적으로 적용할 수 없는 문제점이 있었다. Conventional techniques have a problem in that it is impossible to selectively apply a desired color tone or a desired makeup technique to only a specific part by using the user's face as it is.
본원 발명은 위 종래기술들에 비하여, 사용자 혹은 유저의 얼굴을 그대로 반영하되, 본인이 직접 화장하는 것과 같이 실제 화장을 시도해볼 수 있고, 화장을 덧바르는 등의 효과를 낼 수 있게 된다.Compared with the prior art, the present invention reflects the user or the user's face as it is, but it is possible to try the actual makeup as if the person puts on makeup himself, and it is possible to achieve effects such as applying makeup.
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 경우, 도1에 도시된 바와 같이, 유저의 모바일 유닛(10)으로부터 유저의 영상으로부터 유저의 페이스 영역과 유저의 페이셜 파트를 추출하여, 페이셜 파트 각각에 가상의 메이크업 이펙트를 적용하는 기술을 개시하게 된다.In the case of the selective makeup effecting application system through the user's facial recognition according to the present invention, as shown in FIG. 1 , the user's face area and the user's facial parts are extracted from the user's image from the user's
여기서 말하는 모바일 유닛(10)은 유저의 단말기(휴대폰, PC, 태블릿pc) 등에 제공되어, 유저로 하여금 카메라를 실행하여 사진 또는 영상을 촬영하고 편집할 수 있는 어플리케이션, 앱 등으로 정의할 수 있다. The
즉, 모바일 유닛(10)에 상호 연동된 레코그니션 유닛(100), 익스트랙팅 유닛(200), 이펙팅 유닛(300)을 통해서 유저의 단말기로 촬영된 유저의 영상 또는 셀카 영상으로부터, 유저의 페이스를 인식하고 유저의 페이셜 파트 각각에 가상의 코스메틱 오브젝트(20)를 선택적으로 적용하여 가상의 뷰티 메이크업을 구현할 수 있게 된다.That is, from the user's image or selfie image captured by the user's terminal through the
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 경우, 도2에 도시된 바와 같이, 레코그니션 유닛(recognition unit, 100), 익스트랙팅 유닛(extracting unit, 200) 및 이펙팅 유닛(effecting unit, 300)을 포함하게 된다.In the case of the selective makeup effecting application system through the user's facial recognition according to the present invention, as shown in FIG. 2, a
먼저, 레코그니션 유닛(100)의 경우, 도3에 도시된 바와 같이, 모바일 유닛(10)으로부터 취득된 유저의 영상으로부터 유저의 페이스 영역을 선택적으로 검출하는 구성이다.First, in the case of the
레코그니션 유닛(100)은 유저로부터 유저의 단말기를 통해서 카메라가 실행될 때, 실시간으로 촬영되는 유저의 영상으로부터 유저의 페이스 영역만을 인식하고 검출하는 구성이다.The
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 레코그니션 유닛(100)의 경우, 도4에 도시된 바와 같이, 스캔(scan)부(110), 퍼시빙(perceiving)부(120), 및 디텍팅(detecting)부(130)를 포함하게 된다.In the case of the
먼저, 스캔부(110)의 경우, 모바일 유닛(10)으로부터 유저의 영상을 가져와서 스캔하는 구성이다.First, in the case of the
스캔부(110)는 유저의 단말기로부터 실시간으로 촬영되는 유저의 영상을 선별적으로 가져오며, 해당 영상으로부터 유저의 페이스 영역을 인식하기 위해 스캔하도록 한다.The
퍼시빙부(120)의 경우, 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 유저의 페이스 영역으로 인식하는 구성이다.In the case of the
퍼시빙부(120)는 유저의 영상 중, 유저의 페이스 영역을 인식하기 위해 유저의 소정의 무브먼트를 포착하여 이를 유저의 페이스 영역으로 정의하도록 한다.The perceiving
퍼시빙부(120)에서는 서버로부터 미리 축적된 페이셜 패턴 정보를 제공받아, 미리 축적된 페이셜 패턴 정보에 기초하여, 유저의 영상으로부터 소정의 시간 동안 유저의 소정의 무브먼트를 감지하여 유저의 페이스 영역만을 인식하게 된다.The perceiving
예컨대, 퍼시빙부(120)로부터 포착되는 소정의 무브먼트는 유저가 유저의 페이스를 촬영하거나 셀카를 찍을 때, 카메라를 실행한 상태에서 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 유저의 페이스를 이리 저리 움직일 때의 무브먼트로 정의하는 것이 바람직하다.For example, the predetermined movement captured from the
또한, 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾은 후에, 유저의 페이스가 고정되어 있다 하더라도 유저의 눈동자는 움직임이 발생하기 때문에, 유저의 눈동자의 깜빡임, 움직임을 통해서 소정의 무브먼트를 포착할 수 있게 된다.In addition, after the user finds an angle that allows the user's face to come out well, even if the user's face is fixed, the user's pupils move, so it is possible to capture a certain movement through the blinking and movement of the user's pupils. be able to
디텍팅부(130)의 경우, 퍼시빙부(120)로부터 인식된 유저의 페이스 영역과 백그라운드 영역을 분리하여, 유저의 페이스 영역을 선택적으로 검출하는 구성이다.The detecting
디텍팅부(130)에서는 유저의 영상 중 유저의 페이스 영역이 인식되면, 유저의 영상 중 페이스 영역을 제외한 부분은 백그라운드 영역으로 인식하고 분리하게 된다.When the
디텍팅부(130)에서는 유저의 페이스 영역과 백그라운드 영역이 각각 분리되면, 유저의 페이스 영역만을 선택적으로 검출하도록 한다.When the user's face area and the background area are separated from each other, the detecting
익스트랙팅 유닛(200)의 경우, 도5에 도시된 바와 같이, 레코그니션 유닛(100)으로부터 검출된 유저의 페이스 영역으로부터 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 구성이다.In the case of the extracting
익스트랙팅 유닛(200)에서 개별적으로 추출하는 유저의 페이셜 파트는, 유저의 얼굴 부위 각각으로 정의한다. The user's facial parts individually extracted by the extracting
예컨대, 익스트랙팅 유닛(200)에서 추출하는 유저의 페이셜 파트에는 유저의 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 입술, 치아, 얼굴형, 피부, 볼, 턱, 광대뼈, 이마, 머리카락 또는 귀 등이 포함된다.For example, the user's facial parts extracted by the extracting
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 익스트랙팅 유닛(200)의 경우, 도7에 도시된 바와 같이, 쉐이핑(shaping)부(210), 트레킹(tracking)부(220), 얼라이닝(aligning)부(230), 및 어드레스(address)부(240)를 포함하게 된다.In the case of the extracting
먼저, 쉐이핑부(210)의 경우, 디텍팅부(130)로부터 검출된 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 구성이다.First, in the case of the
쉐이핑부(210)에서는 유저의 페이스를 3차원의 페이스 쉐입으로 형성하는 것은 유저의 페이스의 윤곽에 따른 유저의 페이셜 파트를 추출하기 위해서이다.The
트레킹부(220)의 경우, 쉐이핑부(210)로부터 형성된 3차원의 페이스 쉐입으로부터 유저의 페이셜 파트를 선택적으로 추출하는 구성이다.In the case of the
트레킹부(220)에서 페이셜 파트를 선택적으로 추출하기 위해서 유저의 페이셜 파트를 추적하게 된다. 유저의 페이셜 파트를 추적하기 위해서 서버에 미리 축적된 페이셜 패턴 정보에 기초하여 추적하게 된다. The
미리 축적된 페이셜 패턴 정보에는 통상적인 사람의 얼굴의 비율에 대한 정보와, 얼굴의 형상 정보와 같은 얼굴이 가지는 전형적인 패턴 정보로 정의한다. The pre-accumulated facial pattern information is defined as information on a ratio of a normal human face and typical pattern information of a face, such as face shape information.
예컨대, 미리 축적된 페이셜 패턴 정보에는 얼굴은 크게 두 개의 눈이 좌우에 대칭되어 상부에 배치되며, 중앙에 코가 배치하고 하부에 입이 배치된다는 얼굴의 부위별 배치의 상호 관계가 포함된다. 또한, 얼굴에서 눈, 코, 입의 크기에 대한 비율, 눈과 코 사이의 거리 비율, 눈과 입 사이의 거리 비율, 코와 입 사이의 거리 비율, 이마로부터 눈과의 거리 비율 등의 비율에 대한 정보가 포함된다.For example, the pre-accumulated facial pattern information includes a correlation between the arrangement of each part of the face, such that the face has two eyes symmetrically arranged on the left and right, and the nose is arranged at the center and the mouth is arranged at the bottom. In addition, the ratio of the size of the face to the eyes, nose and mouth, the ratio of the distance between the eyes and the nose, the ratio of the distance between the eyes and the mouth, the ratio of the distance between the nose and the mouth, the ratio of the distance from the forehead to the eyes, etc. information about it is included.
얼라이닝부(230)의 경우, 유저의 소정의 무브먼트에 따른 페이셜 파트의 앵글 변화를 감지하여 3차원 페이스 쉐입에 반영하는 구성이다.In the case of the aligning
얼라이닝부(230)는 유저가 유저의 페이스가 잘 나오도록 하는 각도를 찾기 위해 소정의 무브먼트가 발생하기 때문에, 유저의 앵글 변화에 따른 유저의 페이셜 파트의 변화를 반영하기 위한 기능을 수행한다.The aligning
어드레스부(240)의 경우, 도6에 도시된 바와 같이, 트레킹부(220)로부터 추출된 페이셜 파트의 각각에 임의의 주소를 할당하여 개별적으로 저장하는 구성이다.In the case of the
어드레스부(240)는 추출된 페이셜 파트에 따라 임의로 분할하며, 분할된 페이셜 파트에 임의의 주소(A1, A2, A3,)를 랜덤하게 부여하여 유저의 페이셜 파트 정보를 개별적으로 저장하도록 한다.The
이펙팅 유닛(300)의 경우, 도8에 도시된 바와 같이, 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 구성이다.In the case of the effecting
이펙팅 유닛(300)을 통해 유저의 페이셜 파트에 적용되는 소정의 이펙트에는 메이크업 이펙트 또는 피규레이션 이펙트가 존재하며, 소정의 이펙트를 통해서 유저의 페이셜 파트 각각에 가상의 메이크업 또는 가상의 성형 또는 가상의 튜닝이 가능하게 된다.A makeup effect or a figure effect exists in a predetermined effect applied to the user's facial part through the effecting
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 이펙팅 유닛(300)의 경우, 도11에 도시된 바와 같이, 유저 액션(user action)부(310), 및 어플라잉(applying)부(320)를 포함하게 된다. In the case of the effecting
유저 액션부(310)의 경우, 도8에 도시된 바와 같이, 유저로부터 미리 결정된 액션과 상호 연동되어, 미리 결정된 액션에 의해 페이셜 파트가 선택되도록 하는 구성이다.In the case of the
유저 액션부(310)는 유저의 미리 결정된 액션에 따라서 소정의 이펙트를 적용하기 위한 것이다. 유저의 미리 결정된 액션은 유저가 유저의 단말기의 액정을 터치하거나, 음성 명령을 하거나, 단축어 등을 사용하여 유저로 하여금, 페이셜 파트를 선택하도록 하는 것이다. 예컨대, 유저가 유저의 단말기에 표시된 유저의 페이셜 파트 중 하나를 선택적으로 터치하면, 모바일 유닛(10)은 유저의 터치를 인식하여 이펙팅 유닛(300)에 전달하여 유저의 액션에 따라 소정의 이펙트 효과를 적용할 수 있게 된다.The
또한, 유저 액션부(310)에서는 하나의 페이셜 파트를 선택하여 소정의 이펙트가 단일 적용될 수 있으며, 다중의 페이셜 파트를 선택하여 소정의 이펙트가 다중 적용될 수도 있다.In addition, the
어플라잉부(320)의 경우, 도9에 도시된 바와 같이, 미리 결정된 액션에 의해 선택된 페이셜 파트에 소정의 이펙트를 선택적으로 적용하는 구성이다.In the case of the applying
본 발명에 따른 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템의 어플라잉부(320)의 경우, 도11에 도시된 바와 같이, 메이크업(makeup)부(321), 피규레이션(figuration)부(322), 리모델링(remodeling)부(323) 및 스팟 커버링부(324)를 포함하게 된다.In the case of the applying
먼저, 메이크업부(321)의 경우, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하는 구성이다.First, in the case of the
메이크업부(321)는 미리 세팅된 가상의 코스메틱 오브젝트(20)를 페이셜 파트에 선택적으로 적용하는 것을 메이크업 이펙트로 설정하게 된다.The
메이크업부(321)에서 메이크업 이펙트를 설정하기 위한 미리 세팅된 가상의 코스메틱 오브젝트(20)는 실제 존재하는 코스메틱을 가상 또는 온라인 상의 코스메틱 오브젝트으로 생성한 것이다. 미리 세팅된 가상의 코스메틱 오브젝트(20)에는 베이스 메이크업을 위한 프라이머, 베이스, 비비크림 씨씨크림, 파운데이션, 쿠션, 컨실러, 파우더, 립 메이크업을 위한 립스틱, 립틴트, 립글로스, 립라이너, 립밤, 아이 메이크업을 위한 아이라이너, 아이브로우, 아이섀도우, 마스카라, 윤곽 메이크업을 위한 블러셔, 치크, 하이라이터, 쉐딩, 컨투어링 등을 포함하는 것이 바람직하다.The virtual
이와 같은 미리 세팅된 가상의 코스메틱 오브젝트(20)는 유저에 의해 임의 선택되어, 유저의 페이셜 파트에 개별적으로 적용된다.Such a preset virtual
또한, 미리 세팅된 가상의 코스메틱 오브젝트(20)는 미리 결정된 액션에 의해 선택된 페이셜 파트에 따라서 각각 상이한 집군의 하위 코스메틱 오브젝트가 제시되며, 유저에 의해 하위 코스메틱 오브젝트의 일부가 선택되면, 선택된 하위 코스메틱 오브젝트가 선택된 페이셜 파트에 적용될 수 있다.In addition, as for the preset virtual
예컨대, 미리 결정된 액션에 의해 유저의 페이셜 파트 중 입술이 선택되면, 립 메이크업과 관련된 립스틱, 립틴트, 립글로스, 립라이너, 립밤 등이 제시되고, 유저가 이중에서 립 틴트를 선택하면 유저의 페이셜 파트 중 입술에 유저가 선택한 립 틴트가 적용될 수 있다.For example, when lips are selected from among the user's facial parts by a predetermined action, lipstick, lip tint, lip gloss, lip liner, lip balm, etc. related to lip makeup are presented. A lip tint selected by the user may be applied to the lips.
또한, 메이크업부(321)에서는 하위 코스메틱 오브젝트의 브랜드, 컬러, 제형, 가격, 질감, 피부톤, 신상품, 리뷰수, 추천수 또는 성분 중 적어도 하나 이상을 제시하여 유저로 하여금 하위 코스메틱 오브젝트를 선택되도록 한다.In addition, the
예컨대, 유저가 립 틴트를 선택하면, 메이크업부(321)에는 립 틴트의 브랜드, 컬러, 제형, 가격, 피부 톤, 신상품, 리뷰, 추천수, 성분에 따라 정렬된 데이터를 유저에게 제시하며, 유저가 코랄 컬러를 원할 경우, 컬러를 선택하여 코랄의 립 틴트를 선택하여 적용할 수 있도록 한다.For example, when the user selects a lip tint, the
피규레이션부(322)의 경우, 유저의 미리 결정된 액션에 의해 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 구성이다.In the case of the
피규레이션부(322)는 미리 세팅된 가상의 파트 쉐입을 페이셜 파트에 선택적으로 적용하는 것을 피규레이션 이펙트로 설정하는 구성이다.The
피규레이션부(322)에서 피규레이션 이펙트를 설정하기 위한 미리 세팅된 가상의 파트 쉐입은 페이셜 파트 중 피부를 매끈함, 톤업, 팔자 주름 삭제, 모공 삭제하거나, 페이셜 파트의 크기 조절, 선명도, 간격, 각도, 모양, 길이 등을 조절하는 것으로 정의할 수 있다.The preset virtual part shape for setting the figure effect in the
미리 세팅된 가상의 파트 쉐입은 유저에 의해 임의 선택되어, 페이셜 파트에 개별적으로 적용되는 것을 특징으로 한다.The preset virtual part shape is randomly selected by the user and is individually applied to the facial part.
또한, 미리 세팅된 가상의 파트 쉐입은 유저의 미리 결정된 액션에 의해 선택된 페이셜 파트와 관련된 미리 세팅된 가상의 파트 쉐입 집군이 제시되고, 유저는 미리 세팅된 가상의 파트 쉐입 집군 중 어느 하나를 선택하면, 유저의 페이셜 파트는 유저가 선택한 미리 세팅된 가상의 파트 쉐입 집군 중 하나의 스타일로 튜닝되는 것을 특징으로 한다.In addition, as for the preset virtual part shape, a preset virtual part shape collection related to the facial part selected by the user's predetermined action is presented, and the user selects any one of the preset virtual part shape collections. , characterized in that the user's facial part is tuned to a style from one of a group of preset virtual part shapes selected by the user.
예컨대, 유저가 페이셜 파트 중 입을 선택하면, 입과 관련된 미리 세팅된 가상의 파트 쉐입의 집군 되는 입술 모양, 입꼬리, 치아 미백, 입크기 등이 제시된다. 유저가 입술 모양, 입꼬리, 치아 미백, 입 크기 중 입꼬리를 선택하게 되면 입꼬리의 모양이 튜닝될 수 있도록 한다.For example, when the user selects a mouth among facial parts, a lip shape, corners of the mouth, teeth whitening, mouth size, etc. of preset virtual part shapes related to the mouth are presented. When the user selects the corner of the mouth among lip shape, corner of the mouth, teeth whitening, and mouth size, the shape of the corner of the mouth can be tuned.
리모델링부(323)의 경우, 도10에 도시된 바와 같이, 유저 액션부(310)로부터 선택된 페이셜 파트를 선택적으로 삭제하며, 삭제된 페이셜 파트에는 미리 세팅된 가상의 파트 쉐입을 인풋하는 구성이다.In the case of the
어플라잉부(320)에서는 유저의 페이셜 파트의 특정 부분으로부터 스팟 포인트를 찾아낸다.The applying
이때, 스팟 포인트는 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 중 그레이 레벨(gray level) 전형적인 패턴으로부터 벗어나 그레이 레벨의 변화가 있는 부분을 스팟 포인트라고 정의하게 된다.In this case, the spot point is defined as a spot point, which is a part of the user's facial part extracted from the extracting
예컨대, 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공자국 또는 흉터자국이 스팟 포인트로 검출될 수 있다.For example, spots, blemishes, freckles, acne, blemishes, age spots, pore marks, or scar marks present on the user's face may be detected as spot points.
어플라잉부(320)로부터 유저의 페이셜 파트 중 스팟 포인트가 검출되면, 해당 스팟 포인트는 다른 페이셜 파트와는 상이한 적용을 할 수 있도록 한다. 즉, 해당 스팟 포인트에는 다른 페이셜 파트와는 다르게 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 독립적으로 적용할 수 있도록 한다.When a spot point among the user's facial parts is detected from the applying
아울러, 스팟 포인트에 상이한 적용을 하는 것은 유저에 의해 선택 가능하도록 한다. 예컨대, 유저의 페이스 영역에 존재하는 하나의 점이 콤플렉스가 된다면 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 커버할 수 있지만, 만약 이 점이 유저의 페이스의 트레이드 마크일 경우, 유저는 이 스팟 포인트를 커버할 이유가 없기 때문이다. 따라서, 유저의 선택에 의해서 스팟 포인트에 상이한 적용을 할 수 있도록 하는 것이 바람직하다.In addition, different applications of the spot points are selectable by the user. For example, if a single point in the user's face area becomes a complex, it can be covered by strengthening the makeup effect or the figure effect. because there is no Therefore, it is desirable to allow different applications to the spot points according to the user's selection.
스팟 커버링부(324)의 경우, 도12에 도시된 바와 같이, 유저의 페이셜 파트의 특정 부분으로부터 스팟 포인트를 찾아내며, 유저로 하여금 스팟 포인트를 선택적으로 커버링할 수 있도록 한다.In the case of the
이때, 스팟 포인트는 익스트랙팅 유닛(200)으로부터 추출된 유저의 페이셜 파트 중 그레이 레벨(gray level) 전형적인 패턴으로부터 벗어나 그레이 레벨의 변화가 있는 부분을 스팟 포인트라고 정의하게 된다.In this case, the spot point is defined as a spot point, which is a part of the user's facial part extracted from the extracting
예컨대, 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공 또는 흉터 등이 스팟 포인트로 검출될 수 있다.For example, spots, blemishes, freckles, acne, blemishes, age spots, pores or scars present on the user's face may be detected as spot points.
스팟 커버링부(324)에서는 어플라잉부(320)로부터 유저의 페이셜 파트 중 스팟 포인트가 검출되면, 유저로 하여금 해당 스팟 포인트는 다른 페이셜 파트와는 상이한 적용을 할 수 있도록 한다. In the
즉, 스팟 커버링부(324)는 해당 스팟 포인트에는 다른 페이셜 파트와는 다르게 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 독립적으로 적용할 수 있도록 한다.That is, the
아울러, 스팟 커버링부(324)는 스팟 포인트에 상이한 적용을 하는 것은 유저에 의해 선택 가능하도록 한다. In addition, the
예컨대, 유저의 페이스 영역에 존재하는 하나의 점이 콤플렉스가 된다면 메이크업 이펙트 또는 피규레이션 이펙트를 강화시켜 커버할 수 있지만, 만약 이 점이 유저의 페이스의 트레이드 마크일 경우, 유저는 이 스팟 포인트를 커버할 이유가 없기 때문이다. 따라서, 유저의 선택에 의해서 스팟 포인트에 상이한 적용을 할 수 있도록 하는 것이 바람직하다.For example, if a single point in the user's face area becomes a complex, it can be covered by strengthening the makeup effect or the figure effect. because there is no Therefore, it is desirable to allow different applications to the spot points according to the user's selection.
본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.The scope of the present invention is determined by the matters described in the claims, and parentheses used in the claims are not described for selective limitation, but are used for clear components, and descriptions in parentheses are also interpreted as essential components. should be
10: 모바일 유닛 20: 가상의 코스메틱 오브젝트
100: 레코그니션 유닛 110: 스캔부
120: 퍼시빙부 130: 디텍팅부
200: 익스트랙팅 유닛 210: 쉐이핑부
220: 트레킹부 230: 얼라이닝부
240: 어드레스부 300: 이펙팅 유닛
310: 유저 액션부 320: 어플라잉부
321: 메이크업부 322: 피규레이션부
323: 리모델링부 324: 스팟 커버링부10: mobile unit 20: virtual cosmetic object
100: registration unit 110: scan unit
120: Perceiver 130: Detecting unit
200: extracting unit 210: shaping unit
220: trekking unit 230: aligning unit
240: address unit 300: effecting unit
310: user action unit 320: applying unit
321: makeup unit 322: figure unit
323: remodeling unit 324: spot covering unit
Claims (10)
상기 레코그니션 유닛으로부터 검출된 상기 유저의 페이스 영역으로부터 상기 유저의 페이셜 파트(facial part)를 개별적으로 추출하는 익스트랙팅 유닛(extracting unit); 및
상기 익스트랙팅 유닛으로부터 추출된 상기 유저의 상기 페이셜 파트 각각에 소정의 이펙트를 선택적으로 적용하는 이펙팅 유닛(effecting unit)을 포함하되,
상기 레코그니션 유닛은,
상기 모바일 유닛으로부터 상기 유저의 영상을 가져와서 스캔하는 스캔(scan)부;
상기 유저의 영상으로부터 소정의 무브먼트가 포착되는 영역을 상기 유저의 페이스 영역으로 인식하는 퍼시빙(perceiving)부; 및
상기 퍼시빙부로부터 인식된 상기 유저의 페이스 영역과 백그라운드 영역을 분리하여, 상기 유저의 페이스 영역을 선택적으로 검출하는 디텍팅(detecting)부를 포함하며,
상기 익스트랙팅 유닛은,
상기 디텍팅부로부터 선택적으로 검출된 상기 유저의 페이스 영역으로부터 3차원의 페이스 쉐입을 형성하는 쉐이핑(shaping)부;
상기 쉐이핑부로부터 형성된 상기 3차원의 페이스 쉐입으로부터 상기 유저의 페이셜 파트를 선택적으로 추출하는 트레킹(tracking)부;
상기 유저의 상기 소정의 무브먼트에 따른 상기 페이셜 파트의 앵글 변화를 감지하여, 상기 3차원의 페이스 쉐입에 반영하여 얼라이닝(aligning)부; 및
상기 트레킹부로부터 추출된 상기 페이셜 파트를 임의 분할하며, 상기 페이셜 파트 각각에 임의의 주소를 랜덤하게 부여하고 할당하여 개별적으로 저장하는 어드레스(address)부를 포함하며,
상기 이펙팅 유닛은,
상기 유저로부터 미리 결정된 액션이 입력되면, 상기 미리 결정된 액션에 의해 상기 페이셜 파트가 선택되도록 하는 유저 액션(user action)부; 및
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트에 상기 소정의 이펙트를 선택적으로 적용하는 어플라잉(applying)부를 포함하며,
상기 어플라잉부는,
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 코, 입, 턱, 이마, 인중 또는 얼굴형 중 적어도 하나 이상의 외형에 메이크업 이펙트를 적용하며, 미리 세팅된 가상의 코스메틱 오브젝트를 상기 페이셜 파트에 선택적으로 적용하는 것을 상기 메이크업 이펙트로 설정하는 메이크업(makeup)부;
상기 미리 결정된 액션에 의해 선택된 상기 페이셜 파트 중 피부, 눈, 눈썹, 속눈썹, 눈동자, 눈커풀, 애교살, 아이홀, 코, 콧망울, 콧대, 콧구멍, 인중, 입, 치아, 턱, 볼, 광대뼈, 이마, 귀, 머리카락 또는 얼굴형 중 적어도 하나 이상의 외형이 튜닝되도록 피규레이션 이펙트를 적용하는 피규레이션(figuration)부; 및
상기 유저의 상기 페이셜 파트로부터 스팟 포인트를 검출하며, 상기 스팟 포인트에 상기 메이크업 이펙트 또는 상기 피규레이션 이펙트를 독립적이고 상이하게 적용하여 상기 스팟 포인트를 선택적으로 커버링하는 스팟 커버링부를 포함하며,
상기 메이크업부는,
하위 코스메틱 오브젝트의 브랜드, 컬러, 제형, 가격, 질감, 피부톤, 신상품, 리뷰수, 추천수 또는 성분 적어도 하나 이상을 유저에게 선택적으로 제시하며,
상기 피규레이션부는,
미리 세팅된 가상의 파트 쉐입을 상기 페이셜 파트에 선택적으로 적용하여 상기 피규레이션 이펙트로 설정하며,
상기 스팟 포인트는,
상기 익스트랙팅 유닛으로부터 추출된 상기 페이셜 파트 중 그레이 레벨의 변화가 있는 부분으로, 상기 유저의 페이스에 존재하는 점, 기미, 주근깨, 여드름, 잡티, 검버섯, 모공 또는 흉터 중 적어도 하나 이상을 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템.
a recognition unit for selectively detecting a face region of the user from an image of the user acquired from the mobile unit;
an extracting unit for individually extracting a facial part of the user from the face region of the user detected from the recording unit; and
Including an effecting unit that selectively applies a predetermined effect to each of the facial parts of the user extracted from the extracting unit,
The registration unit is
a scan unit that scans the user's image from the mobile unit;
a perceiving unit for recognizing an area in which a movement is captured from the user's image as the user's face area; and
and a detecting unit that separates the user's face area and the background area recognized by the perceiving unit, and selectively detects the user's face area,
The extracting unit is
a shaping unit for forming a three-dimensional face shape from the user's face region selectively detected by the detecting unit;
a tracking unit for selectively extracting the user's facial part from the three-dimensional face shape formed from the shaping unit;
an aligning unit sensing an angle change of the facial part according to the predetermined movement of the user and reflecting the change in the three-dimensional face shape; and
arbitrarily dividing the facial parts extracted from the tracking unit, randomly assigning and allocating a random address to each of the facial parts and storing them individually It includes an address part,
The effecting unit,
when a predetermined action is input from the user, a user action unit configured to select the facial part according to the predetermined action; and
Comprising an applying unit for selectively applying the predetermined effect to the facial part selected by the predetermined action,
The applying unit,
Among the facial parts selected by the predetermined action, a makeup effect is applied to at least one appearance of skin, eyes, eyebrows, nose, mouth, chin, forehead, pharynx, or face shape, and a preset virtual cosmetic object is applied to the a makeup unit configured to selectively apply to the facial part as the makeup effect;
Among the facial parts selected by the predetermined action, skin, eyes, eyebrows, eyelashes, pupils, eyelids, cheekbones, eye holes, nose, nostrils, nose bridge, nostrils, pharynx, mouth, teeth, chin, cheeks, cheekbones , a figure (figuration) unit for applying a figure effect so that at least one of the appearance of the forehead, ear, hair, or face shape is tuned; and
and a spot covering part that detects a spot point from the facial part of the user and selectively covers the spot point by independently and differently applying the makeup effect or the figure effect to the spot point,
The makeup unit,
At least one or more of the brand, color, formulation, price, texture, skin tone, new product, number of reviews, recommendations, or ingredients of the sub-cosmetic object is selectively presented to the user,
The figure unit,
By selectively applying a preset virtual part shape to the facial part, it is set as the figure effect,
The spot point is
A part with a change in gray level among the facial parts extracted from the extracting unit, including at least one or more of points, freckles, freckles, acne, blemishes, age spots, pores, and scars present on the user's face Characterized in that, a system for applying a selective makeup effecting through the user's facial recognition.
서버로부터 미리 축적된 페이셜 패턴 정보를 제공받아, 상기 미리 축적된 페이셜 패턴 정보에 기초하여, 상기 유저의 영상으로부터 상기 소정의 시간 동안 상기 유저의 상기 소정의 무브먼트를 감지하여 상기 유저의 페이스 영역만을 선택적으로 인식하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템.
According to claim 1, wherein the perciting unit,
Receives facial pattern information accumulated in advance from the server, based on the facial pattern information accumulated in advance, detects the predetermined movement of the user from the image of the user for the predetermined time, and selects only the face area of the user Selective makeup effecting application system through the user's facial recognition, characterized in that it is recognized as
상기 유저 액션부로부터 선택된 상기 페이셜 파트를 선택적으로 삭제하며, 삭제된 상기 페이셜 파트에는 미리 세팅된 가상의 파트 쉐입을 인풋하는 리모델링(remodeling)부를 더 포함하는 것을 특징으로 하는, 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템.
According to claim 1, The applying unit,
Selectively deleting the facial part selected from the user action unit, and further comprising a remodeling unit for inputting a preset virtual part shape to the deleted facial part, through the user's facial recognition Selective makeup effecting application system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200099634 | 2020-08-10 | ||
KR1020200099634 | 2020-08-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220019610A KR20220019610A (en) | 2022-02-17 |
KR102435893B1 true KR102435893B1 (en) | 2022-08-24 |
Family
ID=80493420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210038343A KR102435893B1 (en) | 2020-08-10 | 2021-03-24 | system for applying selective makeup effect through facial recognition of user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102435893B1 (en) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101513151B1 (en) * | 2008-08-08 | 2015-04-20 | 소프트포럼 주식회사 | 3 System for providing internet service using three-dimensional avatar and method thereof |
KR20120066773A (en) * | 2010-12-15 | 2012-06-25 | 고스트리트(주) | A method of virtual make-up using mobile device |
KR101733512B1 (en) * | 2010-12-22 | 2017-05-10 | 에스케이플래닛 주식회사 | Virtual experience system based on facial feature and method therefore |
KR20160142742A (en) * | 2015-06-03 | 2016-12-13 | 삼성전자주식회사 | Device and method for providing makeup mirror |
CN109845250B (en) | 2016-10-18 | 2021-07-16 | 韩国斯诺有限公司 | Method and system for sharing effect of image |
CN107680128B (en) | 2017-10-31 | 2020-03-27 | Oppo广东移动通信有限公司 | Image processing method, image processing device, electronic equipment and computer readable storage medium |
KR102158233B1 (en) | 2018-01-11 | 2020-09-21 | 김지환 | Method for Providing Augmented Make-up Service |
KR20200098875A (en) | 2019-02-13 | 2020-08-21 | 주식회사 휴먼아이씨티 | System and method for providing 3D face recognition |
-
2021
- 2021-03-24 KR KR1020210038343A patent/KR102435893B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20220019610A (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11748980B2 (en) | Makeup evaluation system and operating method thereof | |
CN109690617B (en) | System and method for digital cosmetic mirror | |
JP3984191B2 (en) | Virtual makeup apparatus and method | |
JP6956389B2 (en) | Makeup support device and makeup support method | |
KR101733512B1 (en) | Virtual experience system based on facial feature and method therefore | |
EP0991011A2 (en) | Method and device for segmenting hand gestures | |
EP3579176A1 (en) | Makeup evaluation system and operation method thereof | |
JP2007213623A (en) | Virtual makeup device and method therefor | |
KR20090098798A (en) | Method and device for the virtual simulation of a sequence of video images | |
CN111783511A (en) | Beauty treatment method, device, terminal and storage medium | |
JP2020177620A (en) | Method of generating 3d facial model for avatar and related device | |
CN114187166A (en) | Image processing method, intelligent terminal and storage medium | |
KR20220026252A (en) | Mobile terminal, server and method for composing beauty style | |
KR101827998B1 (en) | Virtual experience system based on facial feature and method therefore | |
KR101719927B1 (en) | Real-time make up mirror simulation apparatus using leap motion | |
KR102435893B1 (en) | system for applying selective makeup effect through facial recognition of user | |
KR102372524B1 (en) | System for buying service of cosmetic object and applying selective makeup effect | |
KR20220080686A (en) | System for offering location of object through analyzing of user's preference data | |
KR102372522B1 (en) | System for applying selective makeup effect through sourcing of cosmetic object | |
KR102066892B1 (en) | Make-up evaluation system and operating method thereof | |
KR102372521B1 (en) | system for applying wearing effect during communication through facial recognition of user | |
KR102372523B1 (en) | Rewarding system for posting image with selectively applied makeup effects | |
KR101507410B1 (en) | Live make-up photograpy method and apparatus of mobile terminal | |
KR20220019612A (en) | system for applying selective makeup effect during communication through facial recognition of user | |
KR20220022431A (en) | System for applying selective makeup effect through recommending of cosmetic object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |