[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20210118149A - 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체 - Google Patents

메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체 Download PDF

Info

Publication number
KR20210118149A
KR20210118149A KR1020217026933A KR20217026933A KR20210118149A KR 20210118149 A KR20210118149 A KR 20210118149A KR 1020217026933 A KR1020217026933 A KR 1020217026933A KR 20217026933 A KR20217026933 A KR 20217026933A KR 20210118149 A KR20210118149 A KR 20210118149A
Authority
KR
South Korea
Prior art keywords
makeup
image
region
face
facial
Prior art date
Application number
KR1020217026933A
Other languages
English (en)
Inventor
샤오야 린
즈퉁 궈
쩌펑 뤄
샤오펑 루
이루 루
Original Assignee
선전 센스타임 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선전 센스타임 테크놀로지 컴퍼니 리미티드 filed Critical 선전 센스타임 테크놀로지 컴퍼니 리미티드
Publication of KR20210118149A publication Critical patent/KR20210118149A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06K9/00221
    • G06K9/00228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체를 제공하는바, 당해 방법은 수집한 얼굴 이미지를 전시하는 것; 하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택하는 것; 상기 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및 수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 포함한다.

Description

메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체
본 발명은 컴퓨터 기술 분야에 관한 것인바, 구체적으로는 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체에 관한 것이다.
화장의 지도와 연습은 얼굴에 화장품을 사용하는 화장 학습자의 실제의 조작에 의존한다. 화장하는 자의 경험과 기술적 스킬에는 일정한 요건이 있는바, 반복된 지도, 이해 및 연습이 필요하다.
이에 감안하여, 본 발명은 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체를 적어도 제공한다.
제1 의 양태에 따르면, 본 발명은 메이크업 처리 방법을 제공하는바, 당해 방법은,
수집한 얼굴 이미지를 전시하는 것;
하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택하는 것;
상기 얼굴 이미지 내에서 상기 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및
수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 포함한다.
상기의 방법을 채용하면, 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 얼굴 부위 영역의 메이크업 조작 내용을 지시함으로써, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시킬때까지, 사용자가 지시된 메이크업 조작 내용을 따라 메이크업 처리를 실행하고, 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하도록 하며, 또한 사용자가 검출된 픽셀 변화 정보에 기반하여 메이크업 처리 프로세스를 확정하고, 메이크업의 처리 과정이 보다 직관적으로 되도록 한다.
제2 의 양태에 따르면, 본 발명은 메이크업 처리 장치를 제공하는바, 당해 장치는,
수집한 얼굴 이미지를 전시하기 위한 전시 모듈;
하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택하기 위한 선택 모듈;
상기 얼굴 이미지 내에서 상기 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하기 위한 식별 모듈; 및
수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하기 위한 검출 모듈을 구비한다.
제3양태에 따르면, 본 발명은 전자 디바이스를 제공하는바, 당해 전자 디바이스는 프로세서, 메모리 및 버스를 구비하고, 상기 메모리에는 상기 프로세서에 의해 실행 가능한 기계 판독 가능 명령이 기억되어 있으며, 전자 디바이스가 구동될 때에, 상기 프로세서와 상기 메모리 사이는 버스를 통해 통신하고, 상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 때에, 상기의 제1 양태 또는 임의의 실시 형태에 기재된 메이크업 처리 방법의 단계가 실행된다.
제4양태에 따르면, 본 발명은 컴퓨터 판독 가능 기록 매체를 제공하는바, 당해 컴퓨터 판독 가능 기록 매체에는 컴퓨터 프로그램이 기억되어 있으며, 당해 컴퓨터 프로그램이 프로세서에 의해 실행될 때에, 상기의 제1 양태 또는 임의의 실시 형태에 기재된 메이크업 처리 방법의 단계가 실행된다.
이하, 본 발명의 상기의 목적, 특징 및 이점을 따라 명확히 하여 이해하기 쉽게 하기 위하여, 더 바람직한 실시예를 들어, 도면을 참조하여 상세하게 설명한다.
이하, 본 발명의 실시예의 기술적 해결책을 더 명확히 설명하기 위하여, 실시예에 사용할 필요가 있는 도면을 간단히 소개한다. 여기에서의 도면은 명세서에 병합되어 명세서의 일부를 구성하며, 이러한 도면은 본 발명에 일치하는 실시예를 제시하는 동시에, 명세서와 같이 본 발명의 기술적 해결책을 설명하기 위하여 사용된다. 이하의 도면은 본 발명이 특정의 실시예를 제시하는 것일 뿐이며, 따라서 범위를 한정하는 것으로 간주하여서는 안됨을 이해해야 한다. 당업자에 있어서 창조적인 작업 없이 이러한 도면에 기반하여 기타 관련되는 도면을 얻을 수 있다.
도 1은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법의 흐름을 나타내는 모식도이다.
도 2는 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 마크 정보를 전시하는 인터페이스를 나타내는 모식도이다.
도 3은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 비교의 인터페이스를 나타내는 모식도이다.
도 4는 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 완료 후의 인터페이스 표시도 이다.
도 5는 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 수집한 얼굴 이미지를 전시하는 흐름을 나타내는 모식도이다.
도 6은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 상세 정보를 표시하는 인터페이스를 나타내는 모식도이다.
도 7은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 흐름을 나타내는 모식도이다.
도 8은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 시도 인터페이스를 나타내는 모식도이다.
도 9는 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 흐름을 나타내는 모식도이다.
도 10은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 시도 프로세스의 흐름을 나타내는 모식도이다.
도 11은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법 중의 메이크업 시도 인터페이스를 나타내는 모식도이다.
도 12는 본 발명의 실시예에 의해 제공되는 메이크업 처리 장치의 구성을 나타내는 모식도이다.
도 13은 본 발명의 실시예에 의해 제공되는 전자 디바이스의 구성을 나타내는 모식도이다.
이하, 본 발명의 실시예의 목적, 기술적 해결책 및 이점을 더 명확히 하기 위하여, 발명의 실시예의 도면을 참조하여, 본 발명의 실시예의 기술적 해결책을 명확하고 완전히 설명한다. 물론, 설명하는 실시예는 모든 실시예가 아닌바, 본 발명의 일부 실시예에 지나지 않는다. 통상적으로 여기의 도면에서 설명되거나 도시되는 본 발명의 실시예의 구성 요소는 다양한 기타 구성으로 배치 및 설계될 수 있다. 따라서, 도면에 제공되는 본 발명의 실시예의 이하의 상세한 설명은 청구된 본 발명의 범위를 한정하는 것을 의도하는 것이 아니며, 단지 본 발명의 선택된 실시예를 나타낸다. 본 발명의 실시예에 기반하여 창조적인 작업 없이 당업자에 의해 얻을 수 있는 모든 실시예는 모두 본 발명의 보호 범위에 포함되는 것으로 한다.
현재, 화장은 이미 사용자의 일상 생활의 일부로 되어 있다. 사용자의 화장 과정은 복수의 메이크업 처리를 포함하며, 복수의 메이크업 처리를 실행함으로써, 얼굴의 렌더링, 페인트 및 정렬을 수행하여, 시각적인 감각을 미화하는 목적을 달성한다. 예시적으로, 복수의 메이크업은 베이스 메이크업, 눈썹 메이크업, 아이 메이크업, 립 메이크업 등을 포함할 수 있다.
화장 지도 분야에서는 사진, 텍스트 및 비디오를 사용하여 가르치는 방법으로, 이미지, 텍스트, 음성을 통해 화장 순서를 설명하여 화장 학습자를 지도할 수 있다. 이러한 가르침 방법은 이해나 학습의 장벽이 있으며, 화장의 실제 조작 및 연습을 직관적으로 실천하는 것이 불가능함과 동시에, 화장의 초보자에게는 이러한 화장 방법이 정말로 적합할 것인지 여부를 이해하는 것이 곤란하다. 따라서, 직관적이고 타깃적인 메이크업 처리 방법이 기대된다.
이에 감안하여, 본 발명에 의해 제공되는 메이크업 처리 방법에 따르면, 사용자는 각 메이크업 처리 후의 실시간 효과를 얻을 수 있으며, 화장 과정을 완료할 수 있다.
본 발명의 실시예의 이해를 쉽게 하기 위하여, 먼저 본 발명의 실시예에 의해 공개되는 메이크업 처리 방법을 상세하게 소개한다.
본 발명의 실시예에 의해 제공되는 메이크업 처리 방법은 표시 기능을 서포트하는 단말 디바이스에 적용될 수 있다. 예를 들면, 단말 디바이스는 컴퓨터, 스마트폰, 태블릿 컴퓨터, 휴대 정보 단말(Personal Digital Assistant, PDA), 스마트 텔레비전 등으로 있을 수 있는바, 본 발명은 이에 대해 한정하지 않는다.
도 1은 본 발명의 실시예에 의해 제공되는 메이크업 처리 방법의 흐름을 나타내는 모식도이며, 여기서, 당해 방법은 이하의 몇몇의 단계를 포함한다.
S101에 있어서, 수집한 얼굴 이미지를 전시한다.
S102에 있어서, 하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택한다.
S103에 있어서, 사용자가 선택한 제1 메이크업에 기반하여 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시한다.
S104에 있어서, 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정한다.
상기 단계를 통해, 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 얼굴 부위 영역의 메이크업 조작 내용을 지시함으로써, 사용자가 지시된 메이크업 조작 내용을 따라 메이크업 처리를 실행하고, 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하며, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하도록 하고, 또한 사용자가 검출된 픽셀 변화 정보에 기반하여 메이크업 처리 프로세스를 확정하도록 하여, 메이크업의 처리 과정이 더 직관적으로 되도록 한다.
이하, S101∼S104를 각각 설명한다.
S101의 경우, 본 발명의 실시예에 있어서, 단말 디바이스에 장착한 촬영 모듈을 이용하여 사용자의 얼굴 이미지를 수집하고, 수집한 얼굴 이미지를 단말 디바이스의 표시 모듈에 전시할 수 있다. 당해 얼굴 이미지는 한 장의 사진일 수도 있고, 비디오 스트림 중의 하나의 프레임 이미지일 수도 있는바, 본 발명은 이에 대해 한정하지 않는다.
S102의 경우, 본 발명의 실시예에 있어서, 메이크업은 베이스 메이크업, 아이 메이크업, 눈썹 메이크업, 립 메이크업 등일 수 있다.
예를 들면, 사용자에 의해 임의의 메이크업을 제1 메이크업으로 선택할 수 있다. 예를 들면, 사용자는 조작 인터페이스에서 수동으로 특정의 메이크업을 선택할 수 있다. 또한, 사용자는 음성 입력을 통해 특정의 메이크업을 선택할 수 있는바, 본 발명은 이에 대해 한정하지 않는다. 또한, 예를 들면, 단말 디바이스에 의해 화장 순서, 사용자의 습관 등을 따라 특정의 메이크업을 제1 메이크업으로 권장할 수 있다
S103의 경우,
얼굴 부위 영역은 얼굴 이미지 내의 제1 메이크업에 일치하는 영역이며, 예를 들면 제1 메이크업이 베이스 메이크업이면, 얼굴 부위 영역은 얼굴 영역의 전체일 수 있고, 제1 메이크업이 아이 메이크업이면, 얼굴 부위 영역은 눈 영역이며, 제1 메이크업이 눈썹 메이크업이면, 얼굴 부위 영역은 눈썹 영역일 수 있다.
단계S101에서 수집한 얼굴 이미지가 다르면, 단계S103에서 같은 제1 메이크업에 대응하는 얼굴 부위 영역의 형상, 위치 등의 특징이 다를 가능성이 있음을 이해할 수 있다. 즉, 본 발명에 의해 제공되는 메이크업 처리 방법은 각 사용자의 서로 다른 얼굴의 특징에 적용된다.
제1 메이크업이 눈썹 메이크업인 예를 들어 설명하면, 얼굴 이미지로부터 눈썹 영역을 식별하고, 눈썹 영역을 식별한 후에, 얼굴 부위 영역(눈썹 영역)의 메이크업 조작 내용을 지시할 수 있다. 예시적으로, 눈썹 영역의 메이크업 조작 내용은 눈썹 펜슬의 색을 선택하는 것, 눈썹 펜슬을 이용하여 눈썹의 윤곽을 그리는 것, 눈썹 분말을 사용하여 내부를 빈틈없이 칠하는 것, 눈썹 펜슬 피어스를 사용하여 눈썹을 자연스럽게 하는 것 등을 포함할 수 있지만, 이에 한정되지 않는다.
구체적으로, 다른 얼굴 부위 영역의 메이크업은 다른 메이크업 조작 내용에 대응되며, 또한 같은 얼굴 부위 영역의 메이크업은 메이크업 표시 효과에 따라 대응하는 메이크업 조작 내용이 다르기 때문에, 메이크업 조작 내용은 메이크업의 요구에 의해 설계될 수 있다.
가능한 일 실시 형태에 있어서, 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것은, 얼굴 부위 영역 내의 메이크업 조작 범위를 지시하기 위한 마크 정보를 전시하는 것을 포함한다.
본 발명의 실시예에 있어서, 메이크업 조작 범위는 메이크업 조작 내용에 대응하는 조작 영역이다. 여기서, 메이크업 조작 내용은 하나 또는 복수의 조작 단계를 포함할 수 있다. 예시적으로, 메이크업 조작 내용이 하나의 조작 단계일 경우, 당해 조작 단계에 대하여, 하나의 메이크업 조작 범위를 설정할 수 있다. 예를 들면, 메이크업 조작 내용이 아이라이너를 그리는 것이면, 대응하는 조작 단계는 속눈썹 뿌리부에 맞게 아이라이너를 안쪽에서 외측으로 그리는 것일 수 있고, 당해 조작 단계에 대응하는 메이크업 조작 범위는 윗 눈꺼풀 및 아래 눈꺼풀일 수 있다. 메이크업 조작 내용이 복수의 조작 단계를 포함할 경우, 각 조작 단계에 대하여 각각 하나의 메이크업 조작 범위를 설정할 수도 있고, 서로 다른 조작 단계에 대하여 다른 메이크업 조작 범위를 설정할 수도 있다. 예를 들면, 메이크업 조작 내용이 아이섀도우를 그리는 것이면, 대응하는 조작 단계는 색A의 아이섀도우를 이용하여 눈두덩이의 위치에서 프라이머를 만들고, 속눈썹 뿌리부에서 조금씩 복수회 천천히 번지기 시작하는 단계1; 색B의 아이섀도우를 이용하고, 위의 눈꺼풀의 속눈썹의 절반에 가까운 눈두덩이의 위치에서 조금씩 복수회 천천히 블렌딩하는 단계2를 포함할 수 있다. 구체적으로, 단계1과 단계2에 대하여, 같은 메이크업 조작 범위를 설정할 수 있다. 예를 들면, 눈두덩이의 위치를 단계1과 단계2의 메이크업 조작 범위로 설정할 수 있다. 또는 단계1과 단계2에 대하여, 각각 하나의 메이크업 조작 범위를 설정할 수 있다. 예를 들면, 눈두덩이의 위치를 단계1에 대응하는 메이크업 조작 범위로서 설정하고, 위의 눈꺼풀 위치의 속눈썹 반에 가까운 눈두덩이의 위치를 단계2에 대응하는 메이크업 조작 범위로서 설정할 수 있다. 여기서, 메이크업 조작 범위는 실제의 상황에 따라 설정할 수 있다.
예시적으로, 메이크업 조작 범위의 마크 정보는 메이크업 지침 그래픽 및/또는 작업 지침 그래픽을 포함할 수 있지만, 이에 한정되지 않는다.
도 2는 메이크업 처리 방법 중의 마크 정보를 전시하는 인터페이스를 나타내는 모식도이다. 도 2에는 눈썹 영역에 대응하는 메이크업 지침 그래픽 (22) (즉 도면에서 점선에서 구성된 그래픽스) 및 작업 지침 그래픽 (23) (즉 도면의 손 형상 그래픽스)이 포함되어 있다. 메이크업 지침 그래픽 (22)은 사용자가 메이크업 지침 그래픽에 대응하는 영역 내에서 메이크업 처리를 실행할 수 있음을 나타내고, 작업 지침 그래픽 (23)은 메이크업 지침 그래픽의 왼쪽 우측에서 오른쪽 아래 측으로 이동할 수 있으며, 사용자가 작업 지침 그래픽에 지시된 액션을 따라 메이크업 처리를 완료할 수 있도록 한다.
상기의 단계를 통해, 메이크업 조작 범위의 마크 정보를 전시함으로써, 사용자가 메이크업 조작 내용 및 메이크업 조작 범위의 마크 정보를 따라 직관적으로 메이크업 처리 조작을 완료하도록 하고, 메이크업 처리 과정이 한눈에 알 수 있도록 하며, 메이크업 처리 과정이 간단하여 조작해 쉬우므로, 사용자의 메이크업 처리의 효율을 향상시킬 수 있다.
S104의 경우,
본 발명의 실시예에 있어서, 사용자의 메이크업 처리 과정에서 대응하는 얼굴 부위 영역의 픽셀에 변화가 발생하기 때문에, 실시간으로 수집하는 얼굴 이미지에 기반하여 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 얼굴 부위 영역의 제1 메이크업의 처리가 완료된 것인지 여부를 판단할 수 있다.
본 발명의 실시예에 있어서, 단말 디바이스에 장착된 촬영 모듈을 이용하여 특정의 프레임 속도로 실시간으로 사용자의 얼굴 이미지를 수집하고, 수집한 얼굴 이미지를 실시간으로 단말 디바이스의 표시 모듈에 전시할 수 있다. 프레임 속도는 서로 다른 단말 디바이스의 하드웨어 수준에 따라 설정할 수 있다.
얼굴 부위 영역의 픽셀 변화 정보를 검출할 때에, 실시간으로 수집한 각 프레임 이미지를 검출할 수도 있고, 실시간으로 수집한 복수의 프레임 이미지에 대하여, n프레임의 각 프레임 이미지를 선택하여 검출할 수도 있는바, 여기서 n은 1보다 큰 양의 정수다.
가능한 일 실시 형태에 있어서, 얼굴 부위 영역의 픽셀 변화 정보를 검출하고, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은, 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 픽셀 변화 정보가 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 포함한다.
본 발명의 실시예에 있어서, 메이크업 조작 범위 내의 제1 이미지 영역은 제1 메이크업에 대응하는 얼굴 부위 영역일 수도 있고, 제1 메이크업에 대응하는 얼굴 부위 영역에서 선택한 일부의 영역일 수도 있다. 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보가 메이크업 효과 조건을 충족시키는 것이 검출되면, 제1 메이크업이 이미 완료된 것으로 간주되며, 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보가 메이크업 효과 조건을 충족시키지 않는 것이 검출되면, 제1 메이크업이 완료되지 않고 있는 것으로 간주된다. 예를 들면, 메이크업 효과 조건은 제1 이미지 영역 내의 복수의 픽셀 가중 평균 변화 값이 소정의 한계값에 도달한 것일 수 있으며, 당해 가중 평균 변화 값(복수의 픽셀 가중 평균 변화 값을 픽셀 변화 정보로 함)이 소정의 한계값에 도달한 것이 검출되면, 제1 메이크업이 이미 완료된 것으로 간주된다.
일 실시 형태에 있어서, 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 픽셀 변화 정보가 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은, 메이크업 조작 범위 내의 제1 이미지 영역과 얼굴 이미지의 제2 이미지 영역 사이의 픽셀 차이값을 검출하고, 픽셀 차이값이 제1 메이크업에 대응하는 제1 소정의 값보다 큰지 여부를 확정하는 것을 포함한다.
본 발명의 실시예에 있어서, 제2 이미지 영역은 얼굴 이미지 내의, 제1 메이크업에 대응하는 얼굴 부위 영역 이외의 임의의 영역일 수 있다. 예를 들면, 제1 메이크업에 일치하는 얼굴 부위 영역이 눈썹 영역이면, 제1 이미지 영역은 눈썹 영역에서 선택한 일부의 영역일 수 있고, 제2 이미지 영역은 얼굴 이미지 내의, 눈썹 영역 이외의 기타 임의의 영역일 수 있는바, 예를 들면 얼굴 영역, 이마 영역 등일 수 있다.
구체적으로 실시할 때에, 같은 시점에서 메이크업 조작 범위 내의 제1 이미지 영역과 제2 이미지 영역 사이의 픽셀 차이값이 제1 메이크업의 제1 소정의 값보다 큰 것이 검출되면, 제1 메이크업이 이미 완료된 것으로 간주한다. 여기서, 제1 소정의 값은 제1 메이크업의 메이크업 효과에 기반하여 확정할 수 있다. 당해 픽셀 차이값은 제1 이미지 영역 내 복수의 픽셀의 평균 값과 제2 이미지 영역 내의 복수의 픽셀의 평균 값 사이의 차이값일 수 있다.
상기 실시 형태에 있어서, 얼굴 이미지 내의 제1 메이크업 처리를 거친 후의 얼굴 부위 영역과 얼굴 이미지 내의 제1 메이크업 처리를 거치지 않은 제2 이미지 영역 사이의 픽셀 값이 다르기 때문에, 검출된 같은 시점에서의 얼굴 이미지 내의 서로 다른 영역 간의 픽셀 차이값에 기반하여 제1 메이크업의 메이크업 효과를 확정할 경우, 대조적이고 직관적이다.
다른 일 실시 형태에 있어서, 얼굴 이미지는 어느 기간 내에서 수집된 복수의 프레임 얼굴 이미지이며, 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 픽셀 변화 정보가 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은, 현재 프레임의 얼굴 이미지 내의 제1 이미지 영역과, 현재 프레임 앞의 기타 프레임의 얼굴 이미지 내의 제1 이미지 영역 사이의 픽셀 차이값을 검출하고, 픽셀 차이값이 제1 메이크업에 대응하는 제2 소정의 값보다 큰지 여부를 확정하는 것을 포함한다.
본 발명의 실시예에 있어서, 현재 프레임 앞의 기타 프레임의 얼굴 이미지는 제1 메이크업을 처리하기 전의 일 프레임의 얼굴 이미지 (즉 복수의 프레임 얼굴 이미지 중의 제1 프레임의 얼굴 이미지임)일 수도 있고, 현재 프레임으로부터의 시간 간격이 소정의 시간인 임의의 프레임일 수도 있다. 당해 소정의 시간은 당해 제1 메이크업 처리에 필요한 시간에 따라 확정할 수 있다. 예를 들면, 현재 프레임의 1분 전에 수집한 일 프레임의 얼굴 이미지, 현재 프레임의 2분 전에 수집한 일 프레임의 얼굴 이미지 등일 수 있다. 제2 소정의 값은 제1 메이크업의 메이크업 효과 및 선택한 다른 프레임의 얼굴 이미지에 대응하는 픽셀 값에 기반하여 확정할 수 있다.
상기 실시 형태에 있어서, 제1 메이크업 처리 과정에 있어서, 얼굴 이미지 내에서 서로 다른 시점에서의 제1 이미지 영역에 대응하는 픽셀 값이 다르기 때문에, 검출된 다른 시점에서의 얼굴 이미지 내의 동일 영역 간의 픽셀 차이값에 기반하여 제1 메이크업의 메이크업 효과를 확정할 경우, 정확도가 더 높다.
가능한 일 실시 형태에 있어서, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시키는 것을 확정한 후에, 당해 방법은, 복수의 메이크업 중에서 또 하나의 메이크업을 제2 메이크업으로 선택하는 것; 상기 얼굴 이미지 내에서 상기 제2 메이크업에 일치하는 새로운 얼굴 부위 영역을 식별하고, 상기 새로운 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및 상기 새로운 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제2 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 더 포함한다.
본 발명의 실시예에 있어서, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시키면, 제1 메이크업의 처리가 이미 완료된 것으로 간주되며, 또한 수집한 얼굴 이미지 내의 제2 메이크업에 대응하는 얼굴 부위 영역에 대하여 메이크업 조작 내용을 지시한다. 여기서 제2 메이크업은 화장 과정에서의 제1 메이크업 이외의 다른 메이크업일 수 있다. 예시적으로, 화장 과정이 베이스 메이크업, 눈썹 메이크업, 아이 메이크업, 립 메이크업, 세팅 메이크업을 포함하면, 제1 메이크업은 베이스 메이크업이며, 제2 메이크업은 눈썹 메이크업일 수 있다. 제1 메이크업이 완료된 후에, 수집한 얼굴 이미지 내의 제2 메이크업에 대응하는 얼굴 부위 영역에 대하여 메이크업 조작 내용을 지시할 수 있는다. 여기서, 제2 메이크업의 처리 과정은 제1 메이크업의 처리 과정과 유사한바, 구체적인 과정은 상기 제1 메이크업의 처리 과정을 참고할 수 있으며, 본 발명의 실시예는 여기에서 반복적으로 설명하지 않는다.
예시적으로, 아이 메이크업을 제3메이크업으로 설정하고, 립 메이크업을 제4메이크업으로 설정하며, 세팅 메이크업을 제5메이크업으로 설정할 수 있다. 제2 메이크업이 완료된 후에, 먼저 수집한 얼굴 이미지 내의 제3메이크업에 대응하는 얼굴 부위 영역에 대하여 메이크업 조작 내용을 지시하고, 화장 과정이 전부 완료될 때까지, 즉 제5메이크업이 완료될때까지 이렇게 반복한다. 여기서, 화장 과정에 포함되어 있는 구체적인 메이크업 조작 내용은 실제의 상황에 따라 설정할 수 있다.
상기 실시 형태에 있어서, 화장의 단계를 복수의 메이크업 처리 과정으로 분할하고, 각각 서로 다른 메이크업 처리를 실행하여 화장 과정을 완료함으로써, 상대적으로 복잡한 화장 처리 과정을 복수 상대적으로 간단한 메이크업 처리 과정으로 간소화하고, 초보자의 메이크업 처리의 연습을 편리하도록 하여, 연습의 난이도를 줄였다.
가능한 일 실시 형태에 있어서, 픽셀 변화 정보가 제1 메이크업의 메이크업 효과 조건을 충족시킨 후에, 당해 방법은 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시하는 것을 더 포함한다.
본 발명의 실시예에 있어서, 프롬프트 정보는 그래픽스, 텍스트, 음성, 이미지 등 정보 중 하나 또는 복수일 수 있다. 예를 들면, 프롬프트 정보는 "행복"의 이미지 또는 "메이크업이 이미 완료했습니다. 다음 조작을 실행해 주세요!" 등일 수 있다. 구체적으로, 프롬프트 정보의 형식 및 내용은 실제의 요건에 따라 설정할 수 있다.
상기 실시 형태에 있어서, 프롬프트 정보를 전시하고, 사용자에게 메이크업이 이미 완료한 것을 프롬프트함으로써, 사용자가 다음 조작을 실행할 수 있도록 하고, 사용자가 제1 메이크업의 완료 정보를 시의적절하게 취득할 수 없기에 제1 메이크업을 계속하여 처리하는데 낭비되는 시간을 줄일 수 있다.
가능한 일 실시 형태에 있어서, 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시하는 것은, 메이크업 처리 진행 상황의 표시 상태를 제1 상태로부터 제2 상태로 전환하는 것을 포함한다.
본 발명의 실시예에 있어서, 제1 상태는 제1 메이크업에 대응하는 상태일 수 있으며, 제2 상태는 제1 메이크업이 이미 완료된 상태일 수도 있고, 제2 메이크업에 대응하는 상태일 수도 있다. 예시적으로, 표시 상태를 제1 상태로부터 제2 상태로 전환할 때에, 표시 인터페이스에서 제1 상태에 대응하는 표시 내용을 직접 제2 상태에 대응하는 표시 내용으로 전환할 수 있다. 예를 들면, 제1 상태에 대응하는 표시 내용은 제1 메이크업에 대응하는 메이크업 조작 내용일 수 있고, 제2 상태에 대응하는 표시 내용은 제2 메이크업에 대응하는 메이크업 조작 내용일 수 있으며, 및/또는, 표시 상태는 그래픽스 요소일 수 있다. 이 경우, 제1 상태를 제2 상태로 전환할 때에, 표시 인터페이스에서 제1 상태에 대응하는 그래픽스를 제2 상태에 대응하는 그래픽스로 전환할 수 있다. 예를 들면, 도 2에 나타낸바와 같이, 도 2 내의 제1 상태에 대응하는 그래픽스가 미소 그래픽스 (21)이면, 제2 상태에 대응하는 그래픽스는 대소 그래픽스 또는 기타 상태의 이미지 등일 수 있고, 및/또는, 표시 상태는 또한 텍스트 요소일 수 있다. 이 경우, 제1 상태를 제2 상태로 전환할 때에, 표시 인터페이스에서 제1 상태에 대응하는 텍스트를 제2 상태에 대응하는 텍스트로 전환할 수 있다. 예를 들면, 제1 상태에 대응하는 텍스트가 "제1 상태 실행 중"이면, 제2 상태에 대응하는 텍스트 요소는 "제2 상태 실행 중"일 수 있다. 여기서, 표시 상태의 형식 및 내용은 실제의 요건에 따라 설정할 수 있다.
상기 실시 형태에 있어서, 메이크업 처리가 완료된 후에, 표시 상태를 변화함으로써, 사용자가 다음 조작을 실행하도록 프롬프트하기 때문에, 표시 효과가 더 유연하여 사용자의 체험을 개선했다.
가능한 일 실시 형태에 있어서, 당해 방법은 제1 트리거 조작에 응답하여, 메이크업 처리 전의 얼굴 이미지와 메이크업 처리 후의 얼굴 이미지를 표시함으로써, 메이크업 비교를 실행하는 것을 더 포함한다.
본 발명의 실시예에 있어서, 제1 트리거 조작은 메이크업 비교 영역을 클릭하는 것, 또는 소정의 트리거 음성 데이터를 수신한 것일 수 있다. 예를 들면, 트리거의 음성 데이터는 "메이크업 비교를 시작해 주세요!"일 수 있다. 제1 트리거 조작을 수신한 후에, 표시 인터페이스에 메이크업 처리 전의 얼굴 이미지 및 메이크업 처리 후의 얼굴 이미지 메이크업을 표시하여 비교를 실행한다.
도 2에 나타낸바와 같이, 도 2에 나타낸 인터페이스 모식도에는 인터페이스의 왼쪽에 위치하는 "오른쪽으로 당겨서 비교하세요"라고 하는 조작 옵션이 더 포함되어 있다. 사용자가 "오른쪽으로 당겨서 비교하세요"라고 하는 조작 옵션을 트리거 한 것이 수신되면, 인터페이스에 메이크업 처리 전의 얼굴 이미지 및, "오른쪽으로 당겨서 비교하세요”라고 하는 조작 옵션을 트리거하여 현재 시점의 얼굴 이미지를 표시한다. 즉, 사용자가 "오른쪽으로 당겨서 비교하세요”라고 하는 조작 옵션을 트리거 한 것에 응답하여 표시한 인터페이스 모식도는 도 3에 나타낸바와 같으며, 도면 내의 왼쪽 영역에는 메이크업 처리 전의 얼굴 이미지를 표시하고, 도면 내의 오른쪽 영역에는 메이크업 처리 후의 얼굴 이미지를 표시할 수 있다.
도 2 및 도 3에 나타낸 인터페이스 모식도에는 인터페이스의 왼쪽 아래측에 위치하는 조작 텍스트 표시 영역이 더 포함되어 있다. 당해 조작 텍스트 표시 영역에 표시한 것은 처리 대기 메이크업에 대응하는 조작 프롬프트 텍스트이다. 당해 인터페이스 모식도에는 인터페이스의 오른쪽 윗측에 위치하는 비디오 표시 영역 및 비디오 표시 영역의 아래측으로 위치하는 표시 상태 영역이 더 포함되어 있다. 여기서, 비디오 표시 영역에는 처리 대기 메이크업에 대응하는 조작 프롬프트 비디오를 표시할 수 있는다. 표시 상태 영역에는 처리 대기 메이크업의 표시 상태를 더 표시할 수 있고, 도면 내의 미소 그래픽스 (21)는 현재 시점에 대응하는 처리 대기 메이크업의 표시 상태이다. 당해 인터페이스 모식도에는 인터페이스의 오른쪽 아래측으로 위치하는 기초 기능 옵션이 더 포함되어 있다. 예를 들면 기초 기능 옵션은 시작/일시 정지 옵션, 사진 옵션, 촬영 옵션 및 설정 옵션을 포함한다.
상기 실시 형태에 있어서, 메이크업 처리 전의 얼굴 이미지와 메이크업 처리 후의 얼굴 이미지를 비교함으로써, 사용자가 메이크업 처리 전후의 얼굴 이미지를 직관적으로 보아서 메이크업 효과를 확정하도록 한다.
가능한 일 실시 형태에 있어서, 얼굴 부위 영역의 메이크업 조작 내용을 지시하는 것은, 처리 대기 메이크업의 조작 프롬프트 내용을 전시하는 것을 포함하되, 여기서 조작 프롬프트 내용은 조작 프롬프트 텍스트 및/또는 조작 프롬프트 비디오를 포함한다.
본 발명의 실시예에 있어서, 조작 프롬프트 비디오는 처리 대기 메이크업에 대응하는 비디오데이터이다. 예를 들면, 처리 대기 메이크업이 아이 메이크업이면, 조작 프롬프트 비디오는 아이 메이크업 비디오이며, 조작 프롬프트 텍스트는 아이 메이크업 프롬프트 텍스트일 수 있다.
본 발명의 실시예에 있어서, 메이크업 처리가 완료된 후에, 단말 디바이스의 표시 인터페이스에, 처리가 이미 완료된 메이크업의 기본 정보 및/또는 사용자의 기본 정보 및/또는 사용자가 당해 메이크업을 완료하는데 걸린 시간 및/또는 처리가 이미 완료된 메이크업에 맞는 얼굴의 다른 부위에 대응하는 메이크업을 표시할 수 있다. 여기서, 처리가 이미 완료된 메이크업의 기본 정보는 메이크업의 단계의 합계, 메이크업의 난이도 수준 등을 포함할 수 있다. 사용자의 기본 정보는 사용자 아이콘, 사용자 명칭, 사용자 수준(사용자 수준은 사용자가 메이크업을 완료한 횟수 또는 빈도), 사용자가 당해 메이크업을 완료하는 시간 등을 포함할 수 있다. 처리가 이미 완료된 메이크업이 아이 메이크업이면, 당해 메이크업에 맞는 얼굴의 다른 부위에 대응하는 메이크업은 립 메이크업 및/또는 눈썹 메이크업 등일 수 있다.
예시적으로, 도 4는 메이크업 처리 방법 중의 메이크업이 완료된 후의 인터페이스 표시도이다. 당해 도면에는 인터페이스의 왼쪽 윗측 영역에 위치하는 메이크업의 명칭 및 사용자가 당해 메이크업을 완료한 횟수가 포함되어 있다. 당해 도면에는 인터페이스의 아래 측 영역에 위치하는 정보 표시 영역 및 메이크업 권장 영역이 더 포함되어 있으며, 정보 표시 영역을 메이크업 권장 영역의 윗측에 설정할 수도 있고, 메이크업 권장 영역의 아래측으로 설정할 수도 있다. 도 4에 표시한 것은 정보 표시 영역이 메이크업 권장 영역의 윗측에 설정된 경우이다. 정보 표시 영역에서는 왼쪽에서 오른쪽의 순서로 사용자 아이콘, 사용자 명칭, 사용자가 메이크업을 완료한 시간, 사용자가 당해 메이크업을 완료하는데 걸린 시간, 사용자가 당해 메이크업을 완료하는데 처리한 단계의 수량 및 사용자 레벨이다. 메이크업 권장 영역에는 이미 완료된 메이크업에 맞는 얼굴의 다른 부위에 대응하는 다양한 권장 메이크업이 포함되어 있다.
상기 실시 형태에 있어서, 조작 프롬프트 텍스트 및/또는 조작 프롬프트 비디오를 전시함으로써, 사용자가 조작 프롬프트 텍스트 및/또는 조작 프롬프트 비디오를 따라 메이크업 처리를 실행하도록 할 수 있고, 초보자의 메이크업 처리의 학습 및/또는 연습을 편리하게 할 수 있다.
가능한 일 실시 형태에 있어서, 도 5에 나타낸바와 같이, 수집한 얼굴 이미지를 전시하는 것은 이하의 단계를 포함한다.
S500에 있어서, 얼굴 이미지를 수집한다.
S501에 있어서, 상기 얼굴 이미지에 기반하여 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다.
S502에 있어서, 메이크업 설명 정보에 기반하여 메이크업 상세 정보 인터페이스를 전시한다.
S503에 있어서, 메이크업 상세 정보 인터페이스의 메이크업 옵션이 트리거된 것에 응답하여, 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환하되, 여기서 메이크업 처리 인터페이스에는 수집한 얼굴 이미지가 전시되어 있다.
본 발명의 실시예에 있어서, 메이크업 처리 인터페이스 수집한 얼굴 이미지를 전시하기 전에, 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다. 메이크업 설명 정보는 메이크업 타입을 설명하는 정보일 수 있다. 여기서, 메이크업 설명 정보는 메이크업 타입 및 메이크업 타입에 대응하는 메이크업 효과에 기반하여 설정할 수 있다. 예를 들면, 메이크업 설명 정보는 하이드로겔 그로스 화장, 레트로 화장 등일 수 있다.
본 발명의 실시예에 있어서, 메이크업 설명 정보에 대한 트리거 조작을 실행할 수 있고, 메이크업 설명 정보에 대한 트리거 조작에 응답하여, 메이크업 상세 정보 인터페이스를 전시함으로써, 사용자가 전시된 메이크업 상세 정보 인터페이스에 포함되어 있는 메이크업 상세 정보에 기반하여 소정의 메이크업 타입의 정보를 이해하도록 할 수 있다. 또한, 메이크업 상세 정보 인터페이스에서 소정의 메이크업 옵션이 트리거된 것이 검출되면, 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환하되, 여기서 메이크업 처리 인터페이스에는 수집한 상기 얼굴 이미지가 전시되어 있다.
본 발명의 실시예에 있어서, 메이크업 처리 인터페이스에 수집한 얼굴 이미지를 전시한 후에, 본 발명의 메이크업 처리 방법에 의해 전시된 얼굴 이미지에 대하여 메이크업 조작 내용을 지시함으로써, 사용자가 메이크업 처리 과정을 완료하도록 할 수 있는바, 구체적인 과정은 여기에서 반복적으로 설명하지 않는다.
상기 실시 형태에 있어서, 소정의 메이크업 타입의 메이크업 상세 정보 인터페이스를 전시함으로써, 사용자가, 메이크업 상세 정보 인터페이스에 기반하여 소정의 메이크업 타입을 이해하도록 하고, 또한, 사용자가, 당해 소정의 메이크업 타입이 요건을 충족시키는지 여부를 확정하고, 요건을 충족시킬 경우에 메이크업 옵션을 트리거하도록 한다.
가능한 일 실시 형태에 있어서, 메이크업 상세 정보 인터페이스는 메이크업 툴 소개 영역 및 메이크업 단계 소개 영역 중 적어도 하나의 영역을 포함한다.
본 발명의 실시예에 있어서, 메이크업 툴 소개 영역에는 소정의 메이크업의 처리 과정에서 사용할 필요가 있는 툴이 포함되어 있다. 예를 들면, 소정의 메이크업이 눈썹 메이크업이면, 메이크업 툴 소개 영역에는 눈썹 펜슬, 눈썹 브러쉬 등이 포함되어 있다. 메이크업 단계 소개 영역에는 소정의 메이크업이 포함하는 화장 단계가 포함되어 있다.
도 6은 메이크업 처리 방법 중의 메이크업 상세 정보를 표시하는 인터페이스를 나타내는 모식도이다. 당해 도면에는 인터페이스의 왼쪽 윗측에 위치하는 메이크업 비디오 재생 영역, 인터페이스의 오른쪽 윗측에 위치하는 메이크업 단계 소개 영역, 왼쪽의 아래 측 영역에 위치하는 메이크업 툴 소개 영역 및 오른쪽 아래 측 영역에 위치하는 메이크업 비디오 재생 영역에 재생되어 있는 비디오에 포함되어 있는 사용자에게 모범을 보이는 정보 전시 영역이 포함되어 있다. 여기서, 메이크업 비디오 재생 영역의 아래측에서 재생하고 있는 비디오의 기본 정보 또는 재생 대기 비디오의 기본 정보가 더 포함되어 있다. 예를 들면, 비디오의 기본 정보는 비디오의 길이, 비디오 명칭, 당해 비디오가 높이 평가된 횟수 등을 포함한다. 당해 인터페이스 모식도에는 메이크업 시작의 조작 옵션이 더 포함되어 있을 수 있다. 당해 메이크업 시작의 조작 옵션은 인터페이스가 임의의 영역에 배치될 수 있는바, 예를 들면 비디오의 기본 정보의 오른쪽 영역에 배치되어 있을 수 있다.
상기 실시 형태에 있어서, 메이크업 상세 정보 인터페이스에 메이크업 툴 소개 영역 및/또는 메이크업 단계 소개 영역을 배치함으로써, 사용자가 메이크업 툴 및 메이크업 단계를 상세하게 이해하도록 하고, 사용자의 학습을 편리하게 할 수 있다.
가능한 1실시예에 있어서, 도 7에 나타낸바와 같이, 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것은 이하의 단계를 포함한다.
S701에 있어서, 얼굴 이미지의 얼굴 속성을 식별한다.
S702에 있어서, 얼굴 이미지의 얼굴 속성에 기반하여 얼굴 이미지에 일치하는 소정의 메이크업 타입을 확정하고, 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다.
예시적으로, 얼굴 속성은 피부 능력을 포함할 수 있고, 피부 능력은 혈액 순환, 항당화, 항액틴, 피부 수분 보유, 일광 화상 저항 및 여드름 저항 중 적어도 하나를 포함한다. 얼굴 속성은 오관 분석을 더 포함하며, 오관 분석은 얼굴의 형상 분석, 눈의 형상 분석, 눈썹의 형상 분석, 코의 분석, 입술의 분석 중 적어도 하나를 포함한다. 예시적으로, 얼굴의 형상 타입은 정방형 얼굴, 둥근 얼굴, 타원형의 얼굴, 멜론 시드 얼굴, 삼각형 얼굴을 포함할 수 있다. 눈의 형상 타입은 복숭아 꽃 눈, 아몬드 눈, 아기 사슴 눈, 수양 버들 눈, 봉황 눈을 포함할 수 있다. 눈썹의 형상 타입은 만곡된 눈썹, 곧은 눈썹, 굵고 평평한 눈썹, 수양 버들의 눈썹, 작게 융기한 눈썹을 포함할 수 있다. 코의 타입은 좁은 코, 넓은 코, 오름세의 코, 마늘 코, 키 큰 코를 포함할 수 있다. 술의 타입은 표준적 입술, 얇은 입술, 두툼한 입술, 작은 입술, 큰 입술을 포함할 수 있다. 및/또는 얼굴 속성은 피부색 및/또는 피부의 질감 등을 포함할 수 있다. 피부색은 복수의 수준을 포함하는바, 예를 들면 복수의 수준은 투명한 흰색, 흰색, 내츄럴, 다크 등을 포함한다. 또는 피부색은 복수의 스코어를 더 포함하는바, 예를 들면, 피부색이 투명한 흰색이면, 피부에 대응하는 스코어는 10포인트일 수 있고, 피부색이 자연스러운 색이면, 피부에 대응하는 스코어는 5포인트일 수 있고, 피부색이 어두운색이면, 피부에 대응하는 스코어는 1포인트일 수 있다. 피부의 질감 타입은 지성, 건성 및 혼합을 포함할 수 있다.
예시적으로, 수집한 얼굴 이미지를 훈련된 제1 뉴럴 네트워크 모델에 입력하여, 얼굴 이미지에 대응하는 피부 능력을 확정할 수 있다. 또한, 다양한 얼굴 속성에 대하여 각각 대응하는 뉴럴 네트워크 모델을 훈련할 수 있다. 예를 들면, 얼굴의 형상 분류 모델, 코의 형상 분류 모델, 눈의 형상 분류 모델, 눈썹의 형상 분류 모델, 입술의 형상 분류 모델 등을 훈련할 수 있다. 이 경우, 수집한 얼굴 이미지를 훈련된 얼굴의 형상 분류 모델에 입력하여, 얼굴 이미지에 대응하는 얼굴의 형상을 확정할 수 있고, 수집한 얼굴 이미지를 훈련된 코의 형상 분류 모델에 입력하여, 얼굴 이미지에 대응하는 코의 형상을 확정할 수 있으며, 마찬가지로, 얼굴 이미지에 대응하는 눈의 형상, 눈썹의 형상, 입술의 형상 등을 확정할 수 있다. 상기 뉴럴 네트워크는 합성곱 뉴럴 네트워크(CNN) 또는 리커런트 뉴럴 네트워크(RNN)등일 수 있다.
본 발명의 실시예에 있어서, 얼굴 이미지에 대응하는 얼굴 속성을 확정한 후에, 얼굴 이미지에 대응하는 얼굴 속성에 기반하여 얼굴 이미지에 일치하는 적어도 하나의 메이크업 타입을 확정할 수 있다. 일치하는 메이크업 타입의 수가 하나이면, 일치하는 메이크업 타입이 소정의 메이크업 타입이며, 일치하는 메이크업 타입의 수가 복수이면, 일치하는 각 메이크업 타입과 얼굴 속성의 일치 정도 값에 기반하여 복수의 메이크업 타입을 표시함으로써, 사용자가 각 메이크업 타입의 일치 정도 값에 기반하여 복수의 메이크업 타입으로부터 하나의 메이크업 타입을 소정의 메이크업 타입으로 확정하도록 하고, 또는 일치하는 복수의 메이크업 타입으로부터 일치 정도가 가장 큰 메이크업 타입을 선택하여, 소정의 메이크업 타입으로 확정하도록 할 수 있다.
도 8에 나타낸바와 같이, 도면에 나타낸 것은 메이크업 시도 인터페이스 모식도이며, 인터페이스 도면 내의 얼굴 속성을 식별하기 위한 조작 옵션 (즉 도에는 미소의 원형 그래픽스 (81)를 포함함)을 트리거 하여, 얼굴 이미지에 대한 얼굴 속성을 검출할 수 있다.
몇몇의 실시예에 있어서, 먼저 얼굴 이미지에 대한 얼굴 속성을 검출하고, 얼굴 이미지의 얼굴 속성에 기반하여 대응하는 소정의 메이크업 타입을 확정하며, 소정의 메이크업 타입의 메이크업 설명 정보를 취득할 수 있다. 그 다음, 소정의 메이크업 타입의 메이크업 설명 정보를 취득한 후에, 본 발명의 실시예에 의해 소정의 메이크업 타입에 대하여 메이크업 설명 정보 처리를 실행하고, 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환할 수 있다. 여기서, 메이크업 처리 인터페이스에는 수집한 얼굴 이미지가 전시되어 있다. 마지막으로, 수집한 얼굴 이미지를 전시한 후에, 본 발명의 실시예에 의해 전시된 얼굴 이미지에 대하여 메이크업 조작 내용을 지시함으로써, 사용자가 메이크업 처리 과정을 완료하도록 할 수 있는바, 구체적인 과정은 여기에서 반복적으로 설명하지 않는다.
상기 방법에 있어서, 식별된 얼굴 속성에 기반하여 얼굴 이미지에 대하여 소정의 메이크업 타입을 매칭함으로써, 소정의 메이크업 타입과 얼굴 이미지의 얼굴 속성이 일치하도록 하고, 또한, 사용자의 일치하는 소정의 메이크업에 기반한 메이크업의 효과가 더 나아지도록 한다.
가능한 1실시예에 있어서, 도 9에 나타낸바와 같이, 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것은 이하의 단계를 포함한다.
S901에 있어서, 메이크업 권장 인터페이스를 전시하되, 여기서 메이크업 권장 인터페이스는 서로 다른 메이크업 타입의 메이크업 옵션을 포함한다.
S902에 있어서, 임의의 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 메이크업 옵션을 소정의 메이크업 타입으로 확정하고, 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다.
본 발명의 실시예에 있어서, 메이크업 권장 인터페이스에는 소정의 다양한 메이크업 타입이 포함되어 있다. 예를 들면, 메이크업 타입은 풀 메이크업, 베이스 메이크업, 아이 메이크업, 눈썹 메이크업, 립 메이크업, 리무버, 스킨 케어 중 적어도 하나를 포함할 수 있다. 다양한 메이크업 타입은 복수의 메이크업 옵션을 포함하고, 예를 들면, 풀 메이크업 타입은 가을 머스트해브 풀타임 잡화, 하이드로겔 메이크업, 레트로 메이크업 등을 포함한다.
본 발명의 실시예에 있어서, 임의의 메이크업이 트리거된 것이 검출되었을 경우, 당해 트리거에 응답하여, 트리거된 메이크업 옵션을 소정의 메이크업 타입으로 확정한다. 또, 소정의 메이크업 타입을 확정한 후에, 본 발명의 실시예 2를 통해 소정의 메이크업 타입의 메이크업 설명 정보에 대하여 처리를 실행하고, 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환할 수 있으며, 여기서, 메이크업 처리 인터페이스에 수집한 얼굴 이미지가 전시되어 있다. 마지막으로, 수집한 얼굴 이미지를 전시한 후에, 본 발명의 실시예에 의해 전시된 얼굴 이미지에 대하여 메이크업 조작 내용을 지시함으로써, 사용자가 메이크업 처리 과정을 완료하도록 할 수 있으며, 구체적인 과정은 여기에서 반복적으로 설명하지 않는다.
상기 실시 형태에 있어서, 사용자에 대하여 메이크업을 권장함으로써, 사용자가 관심정도를 따라 권장된 메이크업으로부터 하나의 메이크업을 소정의 메이크업 타입으로 확정하고, 메이크업 처리를 완료할 수 있는바, 이는 매우 흥미롭다.
가능한 일 실시 형태에 있어서, 도 10에 나타낸바와 같이, 당해 방법은 이하의 단계를 더 포함한다.
S1001에 있어서, 메이크업 시도 인터페이스를 전시하되, 여기서 메이크업 시도 인터페이스는 서로 다른 메이크업 타입의 메이크업 옵션을 포함한다.
S1002에 있어서, 임의의 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 메이크업 옵션의 효과 이미지에 기반하여 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻는다.
본 발명의 실시예에 있어서, 메이크업 시도 인터페이스에 포함되어 있는 메이크업 타입은 권장, 풀 메이크업, 아이 메이크업, 립 메이크업, 눈썹 메이크업, 베이스 메이크업 중 적어도 하나를 포함할 수 있다. 다양한 메이크업 타입은 복수의 메이크업 옵션을 포함하는바, 예를 들면, 베이스 메이크업 타입은 복수의 다른 색 번호의 메이크업 옵션을 포함한다. 임의의 메이크업 옵션이 트리거된 후에, 트리거된 메이크업 옵션의 효과 이미지와 얼굴 이미지를 융합하여, 메이크업 처리 후의 얼굴 이미지를 얻을 수 있다. 예시적으로, 얼굴 이미지에 대응하는 픽셀 특징값과 트리거된 메이크업 옵션의 효과 이미지에 대응하는 픽셀 특징값을 가중 합산하여, 융합후의 얼굴 이미지를 얻을 수 있다.
도 11은 메이크업 처리 방법 중의 메이크업 시도 인터페이스를 나타내는 모식도이며, 당해 인터페이스 모식도에는 메이크업 타입 표시 영역 (즉 도면에서의 권장, 풀 메이크업 등의 메이크업 타입을 표시하는 영역함)이 포함되고, 또한, 메이크업 옵션에 대응하는 참고 제품 전시 영역이 포함되고, 및/또는 또한, 메이크업 옵션에 대응하는 효과 이미지 (즉 인터페이스 모식도의 오른쪽의 네모난 박스에 표시된 이미지임)이 포함되며, 및/또는 또한, 기능 옵션이 포함될 수 있다. 예를 들면, 인터페이스 모식도의 아래 측의 사진 기능 옵션, 인공 지능(Artificial Intelligence, AI) 비교 메이크업, 얼굴 속성을 식별하는 조작 옵션이 포함될 수 있는바, 즉 도면에서 미소를 포함하는 원형의 그래픽스 (81)가 포함될 수 있다.
상기 실시 형태에 있어서, 얼굴 이미지를 트리거된 메이크업 옵션의 효과 이미지와 융합하여, 메이크업 처리 후의 얼굴 이미지를 얻음으로써, 사용자가 융합 후의 얼굴 이미지에 기반하여 트리거된 메이크업 옵션의 메이크업 효과가 사용자의 요건과 일치하는지 여부를 판단함으로써, 트리거된 메이크업 옵션의 메이크업 효과가 사용자의 요건과 일치하지 않는 것을 회피할 수 있다. 또는 얻어진 메이크업 효과가 사용자의 미학을 충족시키지 않는 것을 회피할 수 있고, 사용자의 체험을 개선할 수 있다.
가능한 일 실시 형태에 있어서, 트리거된 메이크업 옵션의 효과 이미지에 기반하여 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻는 것은, 얼굴 이미지의 복수 키포인트를 식별하는 것; 복수의 키포인트에 기반하여 얼굴 이미지를 복수의 얼굴 부위에 대응하는 이미지 영역으로 분할하는 것; 및 각 얼굴 부위에 대응하는 이미지 영역을 각각 트리거된 메이크업 옵션의 각 얼굴 부위의 효과 이미지와 융합하여, 융합 처리 후의 얼굴 이미지를 얻는 것을 포함한다.
본 발명의 실시예에 있어서, 복수의 키포인트에 기반하여 얼굴 이미지를 복수의 얼굴 부위에 대응하는 이미지 영역으로 분할할 수 있는바, 예를 들면, 얼굴 이미지를 눈 영역, 눈썹 영역, 입술 영역, 코 영역 등으로 분할할 수 있다. 여기서, 키포인트의 수는 실제의 상황에 따라 확정할 수 있는바, 예를 들면, 키포인트의 수는 240개일 수 있다.
구체적으로 실시할 때에, 각 얼굴 부위에 대응하는 이미지 영역을 각각 트리거된 메이크업 옵션의 각 얼굴 부위의 효과 이미지와 융합할 수 있다. 예를 들면, 얼굴 이미지 내의 얼굴 영역에 기반하여 선택한 베이스 메이크업의 색 번호에 대응하는 효과 이미지를 선택하고, 선택된 효과 이미지가 얼굴 영역과 일치하도록 하고, 선택된 효과 이미지를 얼굴 영역과 융합할 수 있다. 얼굴 이미지 내의 눈 영역에 기반하여 트리거된 메이크업 옵션의 눈의 효과 이미지를 선택하고, 선택된 눈의 효과 이미지가 얼굴 이미지 중의 눈 영역과 일치하도록 하고, 선택된 눈의 효과 이미지와 얼굴 영역을 융합할 수 있다. 여기서, 입술 영역, 눈썹 영역 및, 코 영역의 융합 과정은 눈 영역과 동일한바, 각 얼굴 부위에 대응하는 이미지 영역을 각각 대응하는 효과와 융합하여 융합 처리 후의 얼굴 이미지를 얻을 수 있다.
상기 실시 형태에 있어서, 얼굴 이미지를 복수의 얼굴 부위에 대응하는 이미지 영역으로 분할하고, 얼굴 부위에 대응하는 이미지 영역을 각각 대응하는 효과 이미지와 융합하여, 영역을 분할하는 융합 방법을 통해 융합 후의 이미지의 효과를 향상시킬 수 있다.
가능한 일 실시 형태에 있어서, 메이크업 처리 후의 얼굴 이미지를 얻은 후에,
트리거된 메이크업 옵션에 대응하는 메이크업 처리 요구를 수신하는 것; 및 트리거된 메이크업 옵션에 대응하는 메이크업 타입을 소정의 메이크업 타입으로 확정하는 것을 더 포함한다.
본 발명의 실시예에 있어서, 메이크업 처리 후의 얼굴 이미지를 얻은 후에, 융합후의 얼굴 이미지가 사용자의 요건을 충족시키면, 트리거된 메이크업 옵션에 대하여 메이크업 처리를 요구할 수 있고, 트리거된 메이크업 옵션에 대응하는 메이크업 타입을 소정의 메이크업 타입으로 확정할 수 있다. 융합후의 얼굴 이미지가 사용자의 요건을 충족시키지 않으면, 메이크업 시도 인터페이스에 돌아가는 것에 의해, 사용자가 흥미가 있는 메이크업 옵션을 다시 선택하여 트리거 하도록 할 수 있다.
또한, 소정의 메이크업 타입을 확정한 후에, 본 발명의 실시예에 의해 소정의 메이크업 타입의 메이크업 설명 정보에 대하여 처리를 실행함으로써, 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환하되, 여기서 메이크업 처리 인터페이스에는 수집한 얼굴 이미지가 전시되어 있다. 마지막으로, 수집한 얼굴 이미지를 전시한 후에, 본 발명의 실시예에 의해 전시한 얼굴 이미지에 대하여 메이크업 조작 내용을 지시함으로써, 사용자가 메이크업 처리 과정을 완료하도록 할 수 있고, 구체적인 과정은 여기에서 반복적으로 설명하지 않는다.
상기 실시 형태에 있어서, 사용자가 이미 융합후의 얼굴 이미지를 직관적으로 볼 수 있으므로, 융합후의 얼굴 이미지가 사용자 요건을 충족시킬 경우, 사용자는 대응하는 메이크업 타입을 직접 트리거하여, 메이크업 처리 과정을 실행할 수 있으며, 사용자의 체험도를 향상시킬 수 있다.
당업자는 구체적인 실시 형태의 상기 방법에 있어서, 각 단계의 기입 순서는 엄밀한 실행 순서를 의미하거나, 실시 과정에 대한 제한을 구성하는 것이 아님을 이해해야 한다. 각 단계의 구체적인 실행 순서는 그 기능 및 가능의 내부 로직에 의해 결정된다.
같은 개념에 기반하여 본 발명의 실시예는 메이크업 처리 장치를 더 제공하는바, 도 12에 나타낸바와 같이, 본 발명의 실시예에 의해 제공되는 메이크업 처리 장치의 구성 모식도이며, 당해 장치는 전시 모듈 (1201), 식별 모듈 (1202) 및 검출 모듈 (1203)을 구비한다.
전시 모듈 (1201)은 수집한 얼굴 이미지를 전시한다.
선택 모듈 (1202)은 하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택한다.
식별 모듈 (1203)은 상기 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대하여 메이크업 조작 내용을 지시한다.
검출 모듈 (1204)은 수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정한다.
가능한 일 실시 형태에 있어서, 상기 식별 모듈은 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시할 때에, 상기 얼굴 부위 영역 내의 메이크업 조작 범위를 지시하기 위한 마크 정보를 전시한다.
가능한 일 실시 형태에 있어서, 상기 수집한 상기 얼굴 이미지 내에서, 검출 모듈은 얼굴 부위 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정할 때에, 수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 메이크업 효과 조건을 충족시키는지 여부를 확정한다.
가능한 일 실시 형태에 있어서, 상기 검출 모듈은 수집한 상기 얼굴 이미지 내에서 얼굴 부위 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정할 때에, 수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역과 상기 얼굴 이미지의 제2 이미지 영역 사이의 픽셀 차이값을 검출하고, 상기 픽셀 차이값이 상기 제1 메이크업에 대응하는 제1 소정의 값보다 큰지 여부를 확정한다.
가능한 일 실시 형태에 있어서, 상기 검출 모듈은 상기 수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 메이크업 효과 조건을 충족시키는지 여부를 확정할 때에, 현재 프레임의 얼굴 이미지 내의 상기 제1 이미지 영역과 현재 프레임 앞의 기타 프레임의 얼굴 이미지 내의 상기 제1 이미지 영역 사이의 픽셀 차이값을 검출하고, 상기 픽셀 차이값이 상기 제1 메이크업에 대응하는 제2 소정의 값보다 큰지 여부를 확정한다.
가능한 일 실시 형태에 있어서, 상기 장치는 처리 모듈을 더 구비하며, 당해 처리 모듈은 복수의 메이크업 중에서 상기 제1 메이크업과 다른 또 하나의 메이크업을 제2 메이크업으로 선택하고, 상기 얼굴 이미지 내에서 상기 제2 메이크업에 일치하는 새로운 얼굴 부위 영역을 식별하고, 상기 새로운 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하고, 수집한 상기 얼굴 이미지 내에서 상기 새로운 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제2 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정한다.
가능한 일 실시 형태에 있어서, 상기 장치는 프롬프트 정보 전시 모듈을 더 구비하며, 당해 프롬프트 정보 전시 모듈은 상기 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시한다.
가능한 일 실시 형태에 있어서, 상기 프롬프트 정보 전시 모듈은 상기 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시할 때에, 메이크업 처리 진행 상황의 표시 상태를 제1 상태로부터 제2 상태로 전환한다.
가능한 일 실시 형태에 있어서, 상기 장치는 비교 표시 모듈을 더 구비하며, 당해 비교 표시 모듈은 제1 트리거 조작에 응답하여, 메이크업 처리 전의 얼굴 이미지와 메이크업 처리 후의 얼굴 이미지를 표시함으로써 메이크업 비교를 실행한다.
가능한 일 실시 형태에 있어서, 상기 식별 모듈은 상기 얼굴 부위 영역의 메이크업 조작 내용을 지시할 때에, 상기 처리 대기 메이크업의 조작 프롬프트 내용을 전시하되, 여기서 상기 조작 프롬프트 내용은 조작 프롬프트 텍스트 및/또는 조작 프롬프트 비디오를 포함한다.
가능한 일 실시 형태에 있어서, 상기 전시 모듈은 수집한 얼굴 이미지를 전시할 때에, 상기 얼굴 이미지를 수집하고, 소정의 메이크업 타입의 메이크업 설명 정보를 취득하고, 상기 메이크업 설명 정보에 기반하여 메이크업 상세 정보 인터페이스를 전시하며, 상기 메이크업 상세 정보 인터페이스의 메이크업 옵션이 트리거된 것에 응답하여, 상기 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환하되, 여기서 상기 메이크업 처리 인터페이스에는 수집한 상기 얼굴 이미지가 전시되어 있다.
가능한 일 실시 형태에 있어서, 상기 메이크업 상세 정보 인터페이스는 메이크업 툴 소개 영역 및 메이크업 단계 소개 영역 중 적어도 하나의 영역을 포함한다.
가능한 일 실시 형태에 있어서, 상기 전시 모듈은 소정의 메이크업 타입의 메이크업 설명 정보를 취득할 때에, 상기 얼굴 이미지의 얼굴 속성을 식별하고, 상기 얼굴 이미지의 얼굴 속성에 기반하여 상기 얼굴 이미지에 일치하는 상기 소정의 메이크업 타입을 확정하고, 상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다.
가능한 일 실시 형태에 있어서, 상기 전시 모듈은 소정의 메이크업 타입의 메이크업 설명 정보를 취득할 때에, 서로 다른 메이크업 타입의 메이크업 옵션을 포함하는 메이크업 권장 인터페이스를 전시하고, 임의의 상기 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 메이크업 옵션을 상기 소정의 메이크업 타입으로 확정하고, 상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득한다.
가능한 일 실시 형태에 있어서, 상기 장치는 서로 다른 메이크업 타입의 메이크업 옵션을 포함하는 메이크업 시도 인터페이스를 전시하기 위한 메이크업 시도 인터페이스전시 모듈; 임의의 상기 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 상기 메이크업 옵션의 효과 이미지에 기반하여 상기 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻기 위한 융합 모듈을 더 구비한다.
가능한 일 실시 형태에 있어서, 상기 융합 모듈은 트리거된 상기 메이크업 옵션의 효과 이미지에 기반하여 상기 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻을 때에, 상기 얼굴 이미지의 복수 키포인트를 식별하고, 상기 복수의 키포인트에 기반하여 상기 얼굴 이미지를 복수의 얼굴 부위에 대응하는 이미지 영역으로 분할하며, 각 얼굴 부위에 대응하는 이미지 영역을 각각 트리거된 상기 메이크업 옵션의 각 얼굴 부위의 효과 이미지와 융합하여, 융합 처리 후의 얼굴 이미지를 얻는다.
가능한 일 실시 형태에 있어서, 상기 장치는 트리거된 상기 메이크업 옵션에 대응하는 메이크업 처리 요구를 수신하고, 트리거된 상기 메이크업 옵션에 대응하는 메이크업 타입을 소정의 메이크업 타입으로 확정하기 위한 수신 모듈을 더 구비한다.
몇몇의 실시예에 있어서, 본 발명의 실시예에 의해 제공되는 장치가 소유하는 기능 또는 템플릿은 상기의 방법의 실시예에 설명된 방법을 실행할 수 있고, 그 구체적인 실현은 상기의 방법의 실시예의 설명을 참조할 수 있고, 간소화를 위하여 여기에서는 반복적으로 설명하지 않는다.
같은 개념에 기반하여 본 발명의 실시예는 전자 디바이스를 더 제공한다. 도 13에 나타낸바와 같이, 본 발명의 실시예에 의해 제공되는 전자 디바이스의 구성을 나타내는 모식도이며, 당해 전자 디바이스는 프로세서(1301), 메모리(1302) 및 버스(1303)를 구비한다. 여기서, 메모리(1302)는 명령을 기억하기 위하여 사용되며, 당해 메모리(1302)는 내부 메모리(13021) 및 외부 메모리(13022)를 포함한다. 여기에서의 내부 메모리(13021)는 메모리라고도 불리우며, 프로세서(1301) 내의 계산 데이터 및 하드 디스크 등의 외부 메모리(13022)와 교환하는 데이터를 일시적으로 보존한다. 프로세서(1301)는 내부 메모리(13021)와 외부 메모리(13022)가 데이터 교환을 실행함으로써, 전자 디바이스 (1300)가 구동될 때에, 프로세서(1301)와 메모리(1302) 사이에서 버스(1303)를 통해 통신함으로써, 프로세서(1301)가 이하의 명령을 실행하도록 하며, 당해 명령은,
수집한 얼굴 이미지를 전시하는 것;
상기 얼굴 이미지 내의 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및
상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시킬때까지, 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하는 것을 포함한다.
또한, 본 발명의 실시예는 컴퓨터 판독 가능 기록 매체를 더 제공하는바, 당해 컴퓨터 판독 가능 기록 매체에는 컴퓨터 프로그램이 기억되어 있으며, 당해 컴퓨터 프로그램이 프로세서에 의해 실행될 때에, 상기 방법의 실시예에 기재된 메이크업 처리 방법의 단계가 실행된다.
본 발명의 실시예에 의해 제공되는 메이크업 처리 방법의 컴퓨터 프로그램 제품은 프로그램 코드가 기억되어 있는 컴퓨터 판독 가능 기록 매체를 포함하고, 상기 프로그램 코드에 포함되어 있는 명령은 상기 방법의 실시예에 기재된 메이크업 처리 방법의 단계를 실행할 수 있으며, 구체적으로는 상기 방법의 실시예를 참조할 수 있는바, 여기에서는 반복적으로 설명하지 않는다.
당업자는 설명의 편리 및 간소화를 위하여, 상기에 설명한 시스템 및 장치의 구체적인 작업 과정은 상기의 방법의 실시예 중의 대응되는 과정을 참고할 수 있기에, 여기에서는 반복적으로 설명하지 않음을 명확히 이해할 수 있다. 본 발명에 의해 제공하는 몇몇의 실시예에 있어서, 공개된 시스템, 장치 및 방법은 기타 방법을 통해 실현될 수 있음을 이해해야 한다. 상기에 설명한 장치의 실시예는 모식적인 것에 지나지 않는다. 예를 들면, 상기 유닛의 분할은 논리적인 기능 분할에 지나지 않으며, 실제로 실현할 때에 기타 분할 방법이 존재한다. 또한, 예를 들면, 복수의 유닛 또는 구성 요소는 또 하나의 시스템에 조합시키거나, 별도의 시스템에 통합하거나, 일부의 기능을 무시하거나, 구현하지 않을 수 있다. 또한, 표시 또는 논의된 상호 결합 또는 직접 결합 또는 통신 접속은 몇몇의 통신 인터페이스, 장치, 또는 유닛의 간접 결합 또는 통신 접속을 포함할 수 있고, 전기적, 기계적 또는 다른 형태일 수 있다.
상기의 분리된 부품으로 설명된 유닛은 물리적으로 분리되어 있는 경우와 물리적으로 분리되지 않는 경우가 있으며 유닛으로 표시된 부품은 물리 유닛인 경우와 그렇지 않은 경우가 있다. 하나의 장소에 배치되거나, 복수의 네트워크 유닛에 분산될 수도 있다. 실제의 필요에 따라, 여기에서의 일부 또는 모두의 유닛을 선택하여 본 실시예의 목적을 실현할 수 있다.
또한, 본 발명이 다양한 실시예에 있어서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있거나, 또는 각 유닛이 물리적으로 단독으로 존재할 수 있거나, 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수 있다.
상기 기능이 소프트웨어 기능 유닛의 형식으로 구현되어, 독립한 제품으로 판매 또는 사용될 경우, 하나의 프로세서에 의해 실행 가능한 불휘발성의 컴퓨터 독해가능 기록 매체에 기억될 수 있다. 이러한 이해에 기반하여 본 발명의 기술적 해결책 또는 선행 기술에 기여하는 부분 또는 기술적 해결책의 일부는 소프트웨어 제품의 형식으로 구체화될 수 있다. 당해 컴퓨터 소프트웨어 제품은 하나의 기록 매체에 기억되어 있으며, 몇몇의 명령을 포함함으로써, 컴퓨터 디바이스(PC, 서버, 또는 네트워크 디바이스 등일 수 있음)가 본 발명이 각각의 실시예에 기재된 방법의 모두 또는 일부의 단계를 실행하도록 한다. 전술의 기록 매체는 U 디스크, 모바일 하드 디스크, 판독 전용 메모리(Read-Only Memory, ROM), random access memory(Random Access Memory, RAM), 자기 디스크 또는 광디스크 등의 다양한 프로그램 코드를 기억하는 매체를 포함한다.
상기는 본 발명이 구체적인 실시 형태에 지나지 않으며, 본 발명의 보호 범위는 이에 한정되지 않는다. 당업자에 의해 본 발명에 공개된 기술 범위 내에서 용이하게 생각해낼 수 있는 변경 또는 치환은 모두 본 발명의 보호 범위 내에서 커버되어야 한다. 따라서, 본 발명의 보호 범위는 특허청구범위의 보호 범위를 따라야 한다.

Claims (20)

  1. 단말 디바이스에 적용되는 메이크업 처리 방법에 있어서,
    수집한 얼굴 이미지를 전시하는 것;
    하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택하는 것;
    상기 얼굴 이미지 내에서 상기 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및
    수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  2. 제1항에 있어서,
    상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것은,
    상기 얼굴 부위 영역 내의 메이크업 조작 범위를 지시하기 위한 마크 정보를 전시하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  3. 제2항에 있어서,
    상기 수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은,
    수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  4. 제3항에 있어서,
    상기 수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은,
    상기 수집한 상기 얼굴 이미지 내에서, 상기 메이크업 조작 범위 내의 제1 이미지 영역과 상기 얼굴 이미지의 제2 이미지 영역 사이의 픽셀 차이값을 검출하고, 상기 픽셀 차이값이 상기 제1 메이크업에 대응하는 제1 소정의 값보다 큰지 여부를 확정하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  5. 제3항에 있어서,
    상기 수집한 상기 얼굴 이미지 내에서 상기 메이크업 조작 범위 내의 제1 이미지 영역의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것은,
    현재 프레임의 얼굴 이미지 내의 상기 제1 이미지 영역과 현재 프레임 앞의 기타 프레임의 얼굴 이미지 내의 상기 제1 이미지 영역 사이의 픽셀 차이값을 검출하고, 상기 픽셀 차이값이 상기 제1 메이크업에 대응하는 제2 소정의 값보다 큰지 여부를 확정하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는 것을 확정한 후에,
    상기 메이크업 처리 방법은,
    복수의 메이크업 중에서 상기 제1 메이크업과 다른 또 하나의 메이크업을 제2 메이크업으로 선택하는 것;
    상기 얼굴 이미지 내에서 상기 제2 메이크업에 일치하는 새로운 얼굴 부위 영역을 식별하고, 상기 새로운 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것; 및
    수집한 상기 얼굴 이미지 내에서 상기 새로운 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제2 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하는 것을 더 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는 것을 확정한 후에,
    상기 메이크업 처리 방법은,
    상기 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시하는 것을 더 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  8. 제7항에 있어서,
    상기 얼굴 부위 영역에 대한 메이크업 처리가 이미 완료된 것을 나타내는 프롬프트 정보를 전시하는 것은,
    메이크업 처리 진행 상황의 표시 상태를 제1 상태로부터 제2 상태로 전환하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  9. 제1항 내지 제5항 중 어느 한 항에 있어서,
    제1 트리거 조작에 응답하여, 메이크업 처리 전의 얼굴 이미지와 메이크업 처리 후의 얼굴 이미지를 표시함으로써, 메이크업 비교를 실행하는 것을 더 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하는 것은,
    조작 프롬프트 텍스트 및/또는 조작 프롬프트 비디오를 포함하는 상기 메이크업의 조작 프롬프트 내용을 전시하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 수집한 얼굴 이미지를 전시하는 것은,
    상기 얼굴 이미지를 수집하는 것;
    소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것;
    상기 메이크업 설명 정보에 기반하여 메이크업 상세 정보 인터페이스를 전시하는 것; 및
    상기 메이크업 상세 정보 인터페이스의 메이크업 옵션이 트리거된 것에 응답하여, 상기 메이크업 상세 정보 인터페이스를 메이크업 처리 인터페이스로 전환하는 것을 포함하되,
    상기 메이크업 처리 인터페이스에는 수집한 상기 얼굴 이미지가 전시되어 있는
    것을 특징으로 하는 메이크업 처리 방법.
  12. 제11항에 있어서,
    상기 메이크업 상세 정보 인터페이스는 메이크업 툴 소개 영역 및 메이크업 단계 소개 영역 중 적어도 하나의 영역을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  13. 제11항에 있어서,
    상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것은,
    상기 얼굴 이미지의 얼굴 속성을 식별하는 것; 및
    상기 얼굴 이미지의 얼굴 속성에 기반하여 상기 얼굴 이미지에 일치하는 상기 소정의 메이크업 타입을 확정하고, 상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  14. 제11항에 있어서,
    상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것은,
    서로 다른 메이크업 타입의 메이크업 옵션을 포함하는 메이크업 권장 인터페이스를 전시하는 것; 및
    임의의 상기 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 상기 메이크업 옵션을 상기 소정의 메이크업 타입으로 확정하고, 상기 소정의 메이크업 타입의 메이크업 설명 정보를 취득하는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  15. 제1항 내지 제14항 중 어느 한 항에 있어서,
    서로 다른 메이크업 타입의 메이크업 옵션을 포함하는 메이크업 시도 인터페이스를 전시하는 것;
    임의의 상기 메이크업 옵션이 트리거된 것에 응답하여, 트리거된 상기 메이크업 옵션의 효과 이미지에 기반하여 상기 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻는 것을 더 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  16. 제15항에 있어서,
    상기 트리거된 상기 메이크업 옵션의 효과 이미지에 기반하여 상기 얼굴 이미지에 대하여 융합 처리를 실행하여, 메이크업 처리 후의 얼굴 이미지를 얻는 것은,
    상기 얼굴 이미지의 복수 키포인트를 식별하는 것;
    상기 복수의 키포인트에 기반하여 상기 얼굴 이미지를 복수의 얼굴 부위에 대응하는 이미지 영역으로 분할하는 것; 및
    각 얼굴 부위에 대응하는 이미지 영역을 각각 트리거된 상기 메이크업 옵션의 각 얼굴 부위의 효과 이미지와 융합하여, 융합 처리 후의 얼굴 이미지를 얻는 것을 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  17. 제15항에 있어서,
    메이크업 처리 후의 얼굴 이미지를 얻은 후에,
    상기 메이크업 처리 방법은,
    트리거된 상기 메이크업 옵션에 대응하는 메이크업 처리 요구를 수신하는 것; 및
    트리거된 상기 메이크업 옵션에 대응하는 메이크업 타입을 소정의 메이크업 타입으로 확정하는 것을 더 포함하는
    것을 특징으로 하는 메이크업 처리 방법.
  18. 메이크업 처리 장치에 있어서,
    수집한 얼굴 이미지를 전시하기 위한 전시 모듈;
    하나 또는 복수의 메이크업 중에서 하나의 메이크업을 제1 메이크업으로 선택하기 위한 선택 모듈;
    상기 얼굴 이미지 내에서 상기 제1 메이크업에 일치하는 얼굴 부위 영역을 식별하고, 상기 얼굴 부위 영역에 대한 메이크업 조작 내용을 지시하기 위한 식별 모듈; 및
    수집한 상기 얼굴 이미지 내에서 상기 얼굴 부위 영역 내의 픽셀 변화 정보를 검출하고, 상기 픽셀 변화 정보가 상기 제1 메이크업의 메이크업 효과 조건을 충족시키는지 여부를 확정하기 위한 검출 모듈을 구비하는
    것을 특징으로 하는 메이크업 처리 장치.
  19. 전자 디바이스에 있어서,
    프로세서, 메모리 및 버스를 구비하고,
    상기 메모리에는 상기 프로세서에 의해 실행 가능한 기계 판독 가능 명령이 기억되어 있으며,
    전자 디바이스가 구동될 때에, 상기 프로세서와 상기 메모리 사이는 버스를 통해 통신하고,
    상기 기계 판독 가능 명령이 상기 프로세서에 의해 실행될 때에, 제1항 내지 제17항 중 어느 한 항에 기재된 메이크업 처리 방법의 단계가 실행되는
    것을 특징으로 하는 전자 디바이스.
  20. 컴퓨터 판독 가능 기록 매체에 있어서,
    당해 컴퓨터 판독 가능 기록 매체에는 컴퓨터 프로그램이 기억되어 있으며,
    당해 컴퓨터 프로그램이 프로세서에 의해 실행될 때에, 제1항 내지 제17항 중 어느 한 항에 기재된 메이크업 처리 방법의 단계가 실행되는
    것을 특징으로 하는 컴퓨터 판독 가능 기록 매체.
KR1020217026933A 2020-01-20 2021-01-20 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체 KR20210118149A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010065043.3 2020-01-20
CN202010065043.3A CN111291642B (zh) 2020-01-20 2020-01-20 一种妆容处理方法、装置、电子设备及存储介质
PCT/CN2021/072920 WO2021147920A1 (zh) 2020-01-20 2021-01-20 一种妆容处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
KR20210118149A true KR20210118149A (ko) 2021-09-29

Family

ID=71024304

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217026933A KR20210118149A (ko) 2020-01-20 2021-01-20 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체

Country Status (7)

Country Link
US (1) US20220110435A1 (ko)
EP (1) EP3979128A4 (ko)
JP (1) JP2022522667A (ko)
KR (1) KR20210118149A (ko)
CN (1) CN111291642B (ko)
TW (1) TWI773096B (ko)
WO (1) WO2021147920A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515436B1 (ko) 2022-08-01 2023-03-29 주식회사 어썸커머스 인공지능 기반 얼굴 메이크업 처리 방법, 장치 및 시스템

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291642B (zh) * 2020-01-20 2023-11-28 深圳市商汤科技有限公司 一种妆容处理方法、装置、电子设备及存储介质
CN113450248A (zh) * 2020-08-24 2021-09-28 北京新氧科技有限公司 基于图像的操作引导方法、装置、设备及可读存储介质
CN112712479B (zh) * 2020-12-24 2024-07-30 厦门美图之家科技有限公司 妆容处理方法、系统、移动终端及存储介质
CN112819718A (zh) * 2021-02-01 2021-05-18 深圳市商汤科技有限公司 图像处理方法及装置、电子设备及存储介质
CN113837017B (zh) * 2021-08-31 2022-11-04 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN115761827A (zh) * 2021-08-31 2023-03-07 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN113837016B (zh) * 2021-08-31 2024-07-02 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN113837018B (zh) * 2021-08-31 2024-06-14 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN113837019B (zh) * 2021-08-31 2024-05-10 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN113837020B (zh) * 2021-08-31 2024-02-02 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000311248A (ja) * 1999-04-28 2000-11-07 Sharp Corp 画像処理装置
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US10321747B2 (en) * 2013-02-01 2019-06-18 Panasonic Intellectual Property Management Co., Ltd. Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
JP2014149678A (ja) * 2013-02-01 2014-08-21 Panasonic Corp 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
JP5991536B2 (ja) * 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
WO2015029392A1 (ja) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
CN109407912A (zh) * 2017-08-16 2019-03-01 丽宝大数据股份有限公司 电子装置及其提供试妆信息方法
CN108256432A (zh) * 2017-12-20 2018-07-06 歌尔股份有限公司 一种指导化妆的方法及装置
CN108920490A (zh) * 2018-05-14 2018-11-30 京东方科技集团股份有限公司 辅助化妆的实现方法、装置、电子设备以及存储介质
CN108765268A (zh) * 2018-05-28 2018-11-06 京东方科技集团股份有限公司 一种辅助化妆方法、装置及智能镜
CN108932654B (zh) * 2018-06-12 2021-03-26 苏州诚满信息技术有限公司 一种虚拟试妆指导方法及装置
CN109064388A (zh) * 2018-07-27 2018-12-21 北京微播视界科技有限公司 人脸图像效果生成方法、装置和电子设备
CN109446365A (zh) * 2018-08-30 2019-03-08 新我科技(广州)有限公司 一种智能化妆交换方法及存储介质
CN111291642B (zh) * 2020-01-20 2023-11-28 深圳市商汤科技有限公司 一种妆容处理方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515436B1 (ko) 2022-08-01 2023-03-29 주식회사 어썸커머스 인공지능 기반 얼굴 메이크업 처리 방법, 장치 및 시스템

Also Published As

Publication number Publication date
CN111291642A (zh) 2020-06-16
EP3979128A4 (en) 2022-09-07
WO2021147920A1 (zh) 2021-07-29
CN111291642B (zh) 2023-11-28
TWI773096B (zh) 2022-08-01
EP3979128A1 (en) 2022-04-06
TW202129524A (zh) 2021-08-01
US20220110435A1 (en) 2022-04-14
JP2022522667A (ja) 2022-04-20

Similar Documents

Publication Publication Date Title
KR20210118149A (ko) 메이크업 처리 방법, 장치, 전자 디바이스 및 기록 매체
KR102241153B1 (ko) 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US20190130652A1 (en) Control method, controller, smart mirror, and computer readable storage medium
US10783672B2 (en) Makeup part generating apparatus, makeup part utilizing apparatus, makeup part generating method, makeup part utilizing method, non-transitory computer-readable recording medium storing makeup part generating program, and non-transitory computer-readable recording medium storing makeup part utilizing program
CN107111861B (zh) 图像处理装置、触笔以及图像处理方法
CN111968248B (zh) 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质
WO2017152673A1 (zh) 人物面部模型的表情动画生成方法及装置
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
CN110298283B (zh) 图像素材的匹配方法、装置、设备以及存储介质
CN104899825A (zh) 一种对图片人物造型的方法和装置
CN101925345A (zh) 化妆方法、化妆模拟装置、以及化妆模拟程序
CN108932654A (zh) 一种虚拟试妆指导方法及装置
CN116744820A (zh) 数字彩妆师
CN116830073A (zh) 数字彩妆调色板
CN110136231B (zh) 虚拟角色的表情实现方法、装置及存储介质
CN112190921A (zh) 一种游戏交互方法及装置
CN114904268A (zh) 一种虚拟形象的调整方法、装置、电子设备及存储介质
US11961169B2 (en) Digital makeup artist
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
CN113781271A (zh) 化妆教学方法及装置、电子设备、存储介质
CN112613374A (zh) 人脸可见区域解析与分割方法、人脸上妆方法及移动终端
Kathpal et al. iChat: interactive eyes for specially challenged people using OpenCV Python
De Almeida et al. Interactive makeup tutorial using face tracking and augmented reality on mobile devices
KR20230118191A (ko) 디지털 메이크업 아티스트
KR102316735B1 (ko) 빅데이터 기반의 개인별 맞춤 뷰티 클래스 제공 시스템

Legal Events

Date Code Title Description
WITB Written withdrawal of application