[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102465728B1 - Method and apparatus for detecting dark circles and quantifying the degree of dark circles - Google Patents

Method and apparatus for detecting dark circles and quantifying the degree of dark circles Download PDF

Info

Publication number
KR102465728B1
KR102465728B1 KR1020220079146A KR20220079146A KR102465728B1 KR 102465728 B1 KR102465728 B1 KR 102465728B1 KR 1020220079146 A KR1020220079146 A KR 1020220079146A KR 20220079146 A KR20220079146 A KR 20220079146A KR 102465728 B1 KR102465728 B1 KR 102465728B1
Authority
KR
South Korea
Prior art keywords
dark circle
face image
user
dark
area
Prior art date
Application number
KR1020220079146A
Other languages
Korean (ko)
Inventor
서순용
정근호
이종하
유상욱
최용준
Original Assignee
주식회사 룰루랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 룰루랩 filed Critical 주식회사 룰루랩
Priority to KR1020220079146A priority Critical patent/KR102465728B1/en
Application granted granted Critical
Publication of KR102465728B1 publication Critical patent/KR102465728B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dermatology (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

According to various embodiments, a device for diagnosing dark circles comprises: a memory; and at least one processor operatively connected to the memory. The at least one processor can perform the operations of: being connected to the device to obtain the face image of a user photographed by a camera for photographing the face image of the user; detecting a dark circle area of the user from the obtained face image of the user; calculating a dark circle score for the detected dark circle area; and outputting the calculated dark circle score through a display connected to the device.

Description

다크서클을 검출하여 다크서클의 정도를 정량화하는 방법 및 장치{METHOD AND APPARATUS FOR DETECTING DARK CIRCLES AND QUANTIFYING THE DEGREE OF DARK CIRCLES}Method and apparatus for quantifying the degree of dark circles by detecting dark circles

본 발명은 다크서클을 검출하여 다크서클의 정도를 정량화하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 사용자를 촬영하여 획득된 사용자의 이미지를 이용하여 인공지능을 이용하여 사용자의 다클서클을 세분화하고 다크서클의 정도를 정량화하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting dark circles and quantifying the degree of dark circles, and more particularly, by using an image of a user obtained by photographing a user to subdivide a user's dark circles using artificial intelligence, It relates to a method and apparatus for quantifying the degree of dark circles.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, material described in this section is not prior art to the claims in this application, and inclusion in this section is not an admission that it is prior art.

다크서클은 눈 밑 지방, 얇은 피부에 의해 비쳐지는 혈관, 눈 주위의 색소 침착에 의해서 피부색이 짙게 변색되는 질환을 의미한다. 그 원인은 수면 부족, 스트레스, 외부 환경 등 다양한 환경에서 발생한다. 다크서클은 외부 환경, 내부 환경에 의해서 빠르게 변화, 변질될 수 있고, 자신의 다크서클의 외관상 정도와 크기를 주기적으로 확인하여 올바른 조치를 가할 필요가 있다.Dark circles refer to a disease in which the skin color is darkly discolored due to fat under the eyes, blood vessels exposed by thin skin, and pigmentation around the eyes. The cause is caused by various environments such as lack of sleep, stress, and external environment. Dark circles can quickly change and deteriorate depending on the external and internal environment, and it is necessary to periodically check the appearance and size of your dark circles and take corrective measures.

이에 따라, 현재 다크서클을 개선하기 위한 다양한 조성물, 화장품, 패치, 마스크, 케어기기 등이 출시되고 있다. 다만, 위와 같은 다크서클 개선을 위한 조성물, 화장품, 패치, 마스크 케어기기 등을 사용자에게 추천하고 제시하기 위해서는 사용자의 다크서클을 정확하게 진단하는 것이 중요하다. 다만, 현재로써는 사용자의 피부 상태를 측정하기 위해 다크서클의 유무 만이 다크서클 진단의 척도로 이용될 뿐, 다크서클을 정량화하는 방법은 미비하다.Accordingly, various compositions, cosmetics, patches, masks, care devices, etc. for improving dark circles are currently being released. However, it is important to accurately diagnose the user's dark circle in order to recommend and present the composition, cosmetics, patch, mask care device, etc. for improving the dark circle as described above to the user. However, currently, only the presence or absence of dark circles is used as a criterion for diagnosing dark circles in order to measure the user's skin condition, and a method for quantifying dark circles is insufficient.

공개특허공보 제10-2021-0077533호(2021.06.25., 공개)Publication No. 10-2021-0077533 (2021.06.25., published) 공개특허공보 제10-2014-0112046호(2014.09.22., 공개)Patent Publication No. 10-2014-0112046 (2014.09.22., published) 공개특허공보 제10-2022-0078231호(2022.06.10., 공개)Patent Publication No. 10-2022-0078231 (2022.06.10., published)

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 다크서클을 검출하여 다크서클의 정도를 정량화하는 방법 및 장치를 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method and apparatus for quantifying the degree of dark circles by detecting dark circles.

다양한 실시 예에 따르면, 다크서클을 진단하는 장치는 메모리 및 상기 메모리와 작동적으로(operatively) 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 장치와 연동되어 사용자의 얼굴 이미지를 촬영하는 카메라를 통해 촬영된 상기 사용자의 상기 얼굴 이미지를 획득하는 동작; 획득된 상기 사용자의 얼굴 이미지에서 사용자의 다크서클 영역을 검출하는 동작; 검출된 상기 다크서클 영역에 대한 다크서클 점수를 산출하는 동작; 및 산출된 다크서클 점수를 상기 장치와 연동된 디스플레이를 통해 출력하는 동작을 수행할 수 있다.According to various embodiments of the present disclosure, a device for diagnosing dark circles includes a memory and at least one processor operatively connected to the memory, and the at least one processor works in conjunction with the device to capture a user's face image. obtaining the face image of the user photographed through a camera; detecting a user's dark circle area from the obtained user's face image; calculating a dark circle score for the detected dark circle area; and an operation of outputting the calculated dark circle score through a display interlocked with the device.

상기 적어도 하나의 프로세서는, 상기 다크서클 영역에 포함된 픽셀 값들을 확률 값으로 변환하는 동작; 변환된 확률 값이 미리 설정된 임계값을 초과하는 픽셀의 개수에 기반하여 상기 다크서클 면적을 산출하는 동작; 및 산출된 상기 다크서클 면적에 기반하여 상기 다크서클 점수를 산출하는 동작을 수행할 수 있다.Converting, by the at least one processor, pixel values included in the dark circle area into probability values; calculating the dark circle area based on the number of pixels for which the converted probability value exceeds a preset threshold value; and calculating the dark circle score based on the calculated dark circle area.

상기 적어도 하나의 프로세서는, 상기 얼굴 이미지와 미리 설정된 레퍼런스 이미지에 기반하여 상기 얼굴 이미지에 히스토그램 평활화(histogram equalization)를 수행하는 동작; 및 히스토그램 평활화가 수행된 상기 얼굴 이미지에 포함된 각 픽셀들의 RGB 값에 대하여 헤모글로빈 디스트리뷰션(hemoglobin distribution)으로 변환하는 동작을 수행할 수 있다.performing, by the at least one processor, histogram equalization on the face image based on the face image and a preset reference image; and an operation of converting RGB values of pixels included in the face image on which histogram equalization has been performed into a hemoglobin distribution.

상기 적어도 하나의 프로세서는, 색상 변환 알고리즘을 통해 상기 사용자의 상기 얼굴 이미지를 HSV 포맷 이미지로 변환하는 동작을 수행할 수 있다.The at least one processor may perform an operation of converting the face image of the user into an HSV format image through a color conversion algorithm.

상기 적어도 하나의 프로세서는, 상기 다크서클 면적, 상기 사용자의 얼굴 면적 대비 상기 다크서클 면적 비율, HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 V 값, 및 V-S 값에 기반하여 상기 다크서클 점수를 산출할 수 있다.The at least one processor calculates the dark circle score based on the dark circle area, the ratio of the dark circle area to the user's face area, the V value of the face image converted to the HSV format image, and the V-S value. can

본 문서에 개시되는 다양한 실시 예들에 따르면, 다크서클의 위치와 범위를 측정할 뿐만 아니라 해당 영역의 정도까지 측정하여 사용자의 다크서클 진단을 정확하게 진행할 수 있다.According to various embodiments disclosed in this document, not only the position and range of the dark circle are measured, but also the degree of the corresponding area can be measured to accurately diagnose the user's dark circle.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.

도 1은 일 실시 예에 따른 다크서클 진단 시스템을 도시한 도면이다.
도 2는 사용자 단말의 주요 구성 요소를 나타낸 도면이다.
도 3은 얼굴 이미지에 대하여 히스토그램 평활화를 진행하여 다크서클을 진단하는 것에 관한 도면이다.
도 4는 일 실시 예에 따른 사용자의 다크서클 정량화 내지 다크서클 점수를 산출하는 것에 관한 도면이다.
도 5는 도 1에 따른 사용자 단말의 하드웨어 구성을 나타낸 도면이다.
1 is a diagram illustrating a dark circle diagnosis system according to an exemplary embodiment.
2 is a diagram showing the main components of a user terminal.
3 is a diagram related to diagnosing dark circles by performing histogram equalization on a face image.
4 is a diagram related to quantifying a user's dark circle or calculating a dark circle score according to an embodiment.
5 is a diagram showing a hardware configuration of a user terminal according to FIG. 1 .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 다크서클 진단 시스템(10)을 도시한 도면이다. 도 1을 참조하면, 다크서클 진단 시스템(10)은 사용자 단말(100), 데이터베이스(200), 등을 포함할 수 있다. 이하 설명되는 동작들은 사용자 단말(100)에 의하여 제어되는 플랫폼(예: 웹 페이지 및/또는 어플리케이션)을 통해 수행 내지 구현될 수 있다. 다시 말해서, 사용자 단말(100)은, 사용자가 사용자 단말(100)을 이용하여 네트워크를 통해 각종 서버에 접속하여 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 웹 사이트를 제공할 수 있으며, 사용자 단말(100)에 설치되고 실행됨으로써 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 어플리케이션을 제공할 수 있다. 1 is a diagram illustrating a dark circle diagnosis system 10 according to an embodiment. Referring to FIG. 1 , the dark circle diagnosis system 10 may include a user terminal 100, a database 200, and the like. Operations described below may be performed or implemented through a platform (eg, a web page and/or application) controlled by the user terminal 100 . In other words, the user terminal 100 may provide a website where the user can access various servers through a network using the user terminal 100 to input, register, and output various information, and the user By being installed and executed in the terminal 100, an application capable of inputting, registering, and outputting various information can be provided.

다크서클 진단 시스템(10)은 사용자의 얼굴 이미지를 이용하여, 사용자의 얼굴 이미지에서 다크서클 영역을 검출하고, 검출된 다크서클 영역에 대하여 다크서클 정량화를 실시할 수 있다. 다크서클 진단 시스템(10)은 데이터베이스(200)에 저장되어 있는 다양한 사람들의 얼굴 이미지 훈련 데이터셋을 이용하여 다크서클 검출 모델을 학습시키고, 학습된 다크서클 검출 모델에 기반하여 사용자의 다크서클 영역에 대한 검출 내지 정량화를 수행할 수 있다. The dark circle diagnosis system 10 may detect a dark circle area in the user's face image using the user's face image, and perform dark circle quantification on the detected dark circle area. The dark circle diagnosis system 10 trains a dark circle detection model using various people's face image training datasets stored in the database 200, and detects a user's dark circle area based on the learned dark circle detection model. Detection or quantification can be performed for

사용자 단말(100)은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.The user terminal 100 includes a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, and a smart watch. (smart watch), smart glass, e-book reader, PMP (portable multimedia player), portable game console, navigation device, digital camera, DMB (digital multimedia broadcasting) player, digital voice It may be a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, and a personal digital assistant (PDA).

사용자 단말(100)은 포터블 장치뿐만 아니라, 하나 이상의 서버로서 도 2 내지 도 4에서 설명되는 동작들을 수행하는 서버일 수 있다. 사용자 단말(100)은 이하 각각 통신 네트워크에 연결되어, 통신 네트워크를 통해 서로간 데이터를 송수신할 수 있다. 예를 들어, 통신 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX(IEEE 802.16e), UMB(formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access), 5G 등 다양한 종류의 유선 또는 무선 네트워크가 사용될 수 있다The user terminal 100 may be a server that performs operations described in FIGS. 2 to 4 as one or more servers as well as a portable device. The user terminals 100 are each connected to a communication network and may transmit and receive data to and from each other through the communication network. For example, communication networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), and W-CDMA. (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, Voice over Internet Protocol (VoIP) , LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE Various types of wired or wireless networks can be used, such as 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and 5G.

도 2는 사용자 단말(100)의 주요 구성 요소를 나타낸 도면이다.2 is a diagram showing the main components of the user terminal 100 .

도 2를 참조하면, 사용자 단말(예: 프로세서(110))(100)의 기능적 모듈로써 피부 진단부(101), 다크서클 검출부(102) 및 다크서클 진단부(103) 등이 포함될 수 있다.Referring to FIG. 2 , functional modules of a user terminal (eg, processor 110) 100 may include a skin diagnosis unit 101, a dark circle detection unit 102, and a dark circle diagnosis unit 103.

피부 진단부(101)는 카메라(예: 사용자 단말(100)의 카메라 및/또는 다른 피부 측정 장치의 카메라)를 통해 촬영된 사용자의 얼굴 이미지 및/또는 유/무선 네트워크를 통해 전송되는 이미지들 중 사용자의 얼굴이 포함된 사용자 얼굴 이미지를 획득할 수 있다. 상기 촬영된 사용자의 얼굴 이미지는 거리 데이터를 포함할 수 있다. 상기 사용자의 얼굴 이미지는 거리 감지 센서(예: ToF 센서) 및/또는 상기 카메라에 기반하여 AI 기반으로 자동 설정되는 랜드마크에 의하여 설정된 얼굴 영역이 촬영된 이미지일 수 있다.The skin diagnosis unit 101 selects a user's face image captured by a camera (eg, a camera of the user terminal 100 and/or a camera of another skin measuring device) and/or images transmitted through a wired/wireless network. A user's face image including the user's face may be obtained. The photographed face image of the user may include distance data. The user's face image may be an image of a facial area set by a distance sensor (eg, ToF sensor) and/or a landmark automatically set based on AI based on the camera.

피부 진단부(101)는 조명 및 색상 일정화 알고리즘을 통해 색상을 평활화하고 노이즈를 제거하여 상기 얼굴 이미지의 색상값(예: RGB 픽셀값)을 보정함으로써 상기 얼굴 이미지를 전처리(pre-processing)할 수 있다.The skin diagnosis unit 101 pre-processes the face image by correcting color values (eg, RGB pixel values) of the face image by smoothing color and removing noise through a lighting and color regularization algorithm. can

피부 진단부(101)는 상기 거리 감지 센서 및/또는 상기 카메라에 기반하여 촬영된 상기 사용자의 얼굴 이미지의 랜드마크를 결정할 수 있다. 피부 진단부(101)는 상기 랜드마크를 기준으로 사용자의 얼굴 영역을 검출하고, 검출된 얼굴 영역을 기준으로 사용자의 피부 특성을 결정할 수 있다. 피부 특성은 피부 타입 및 피부 상태를 포함할 수 있다. 예를 들어, 피부 특성은 피부의 수분, 유분, 피지, pH도, 민감도, 탄력, 주름, 피부색/피부톤, 모공 상태, 색소 침착 및 각질 상태 등을 포함할 수 있다. 피부 진단부(101)는 사용자 단말(200) 및/또는 다른 피부 측정 장치를 통해 획득된 얼굴 이미지에 기반하여 사용자의 피부 특성을 결정할 수 있다. 즉, 피부 진단부(101)는 상기 얼굴 이미지에 기초하여 사용자의 피부의 수분, 유분, 피지, pH도, 민감도, 주름, 피부톤, 모공 상태, 색소 침착, 각질 상태 등 사용자의 피부 특성을 결정할 수 있다. 상기 결정된 피부 특성에 기반하여 사용자의 피부 타입이 결정될 수 있다.The skin diagnosis unit 101 may determine a landmark of the user's face image captured based on the distance sensor and/or the camera. The skin diagnosis unit 101 may detect the user's face region based on the landmark, and determine the user's skin characteristics based on the detected face region. Skin characteristics may include skin type and skin condition. For example, skin characteristics may include skin moisture, oil content, sebum, pH level, sensitivity, elasticity, wrinkles, skin color/skin tone, pore condition, pigmentation, and dead skin condition. The skin diagnosis unit 101 may determine the user's skin characteristics based on the facial image obtained through the user terminal 200 and/or other skin measurement devices. That is, the skin diagnosis unit 101 may determine the user's skin characteristics such as moisture, oil, sebum, pH, sensitivity, wrinkles, skin tone, pore condition, pigmentation, and dead skin condition of the user's skin based on the face image. have. A skin type of the user may be determined based on the determined skin characteristics.

다크서클 검출부(102)는 다크서클 영역을 좀 더 한정적으로 선정하고, 한정된 영역 내에서 다크서클을 검출하고 진단하기 위하여 다크서클 예상 영역을 결정할 수 있다. 다크서클 검출부(102)는 획득된 얼굴 이미지 내에서 왼쪽 눈, 오른쪽 눈을 검출하고, 검출된 왼쪽 눈 및 오른쪽 눈 각각의 최외곽 라인을 결정하고, 결정된 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여있는 지점을 결정할 수 있다. 예를 들어, 다크서클 검출부(102)는 왼쪽 눈에 대응하는 제1 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여 있는 제1 지점 및 제2 지점을 결정하고, 오른쪽 눈에 대응하는 제2 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여 있는 제3 지점 및 제4 지점을 결정할 수 있다.The dark circle detection unit 102 may select a dark circle area more limitedly and determine a dark circle expected area in order to detect and diagnose the dark circle within the limited area. The dark circle detection unit 102 detects the left eye and the right eye in the acquired face image, determines the outermost line of each of the detected left eye and right eye, and bends at a predetermined angle or more from the determined outermost line. point can be determined. For example, the dark circle detection unit 102 determines a first point and a second point bent at a preset angle or more in the first outermost line corresponding to the left eye, and determines the second outermost line corresponding to the right eye. It is possible to determine a third point and a fourth point that are bent at an angle greater than or equal to a preset angle.

다크서클 검출부(102)는 제1 지점 및 제2 지점 간 제1 거리를 산출하고, 제3 지점 및 제4 지점 간 제2 거리를 산출할 수 있다. 다크서클 검출부(102)는 왼쪽 눈에 대응하는 제1 최외곽 라인의 제1 최하단 지점으로부터 하단으로 제1 거리만큼 떨어진 지점까지의 제1 영역 및 오른쪽 눈에 대응하는 제2 최외곽 라인의 제2 최하단 지점으로부터 하단으로 제2 거리만큼 떨어진 지점까지의 제2 영역을 각각 다크서클 예상 영역으로 결정할 수 있다.The dark circle detector 102 may calculate a first distance between the first point and the second point, and calculate a second distance between the third point and the fourth point. The dark circle detection unit 102 includes a first area from a first lowermost point of the first outermost line corresponding to the left eye to a point away from the bottom by a first distance and a second outermost line corresponding to the right eye. Each of the second regions from the lowest point to a point away from the bottom by a second distance may be determined as the expected dark circle region.

다크서클 검출부(102)는 다크서클 검출 모델을 지도학습(supervised learning) 또는 비지도학습할 수 있으며, 다크서클 검출 모델은 인공 신경망(Artificial Neural Network, ANN)으로 구현될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다.The dark circle detection unit 102 may perform supervised learning or unsupervised learning on the dark circle detection model, and the dark circle detection model may be implemented as an artificial neural network (ANN). An artificial neural network is a predictive model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons (or nodes).

다크서클 검출부(102)는 인공신경망 모델(예: 다크서클 검출 모델)을 학습하기 위하여 얼굴 랜드마크를 기반으로 크롭된 복수 개의 얼굴 이미지들을 획득할 수 있다. 다크서클 검출부(102)는 인공신경망 모델을 학습하기 위한 상기 복수 개의 얼굴 이미지들을 1:9 비율로 훈련 데이터 셋과 검증 데이터 셋으로 분류할 수 있다. 훈련 데이터 셋은 cutmix 기법을 통해 10배가량 증가될 수 있다. 인공신경망 모델은 합성곱 신경망을 기반으로 제작된 Swin(Shifted Window) Transformer를 사용하여 얼굴 이미지로부터 특징을 추출할 수 있다. 다크서클 검출부(102)는 추출된 특징을 메모리에 저장할 수 있다. 다크서클 검출부(102)는 추출된 특징 및 UperNet(Unified Perceptual Parsing Network)을 통해 다크서클 영역을 결정할 수 있다.The dark circle detection unit 102 may acquire a plurality of cropped face images based on facial landmarks in order to learn an artificial neural network model (eg, a dark circle detection model). The dark circle detection unit 102 may classify the plurality of face images for learning an artificial neural network model into a training data set and a verification data set at a ratio of 1:9. The training data set can be increased by a factor of 10 through the cutmix technique. An artificial neural network model can extract features from a face image using a Swin (shifted window) Transformer built on the basis of a convolutional neural network. The dark circle detection unit 102 may store the extracted features in a memory. The dark circle detection unit 102 may determine the dark circle area through the extracted features and a Unified Perceptual Parsing Network (UperNet).

다크서클 검출부(102)는 결정된 다크서클 영역에 포함된 픽셀 값들을 이하 수학식 1을 통해서 확률 값으로 변환할 수 있다. 다크서클 검출부(102)는 변환된 확률 값 중 미리 설정된 임계값을 초과하는 픽셀 개수의 합에 기반하여 다크서클 면적을 산출하고, 산출된 다크서클 면적에 기반하여 다크서클 점수를 산출할 수 있다.The dark circle detection unit 102 may convert pixel values included in the determined dark circle area into probability values through Equation 1 below. The dark circle detection unit 102 may calculate a dark circle area based on the sum of the number of pixels exceeding a preset threshold among the converted probability values, and calculate a dark circle score based on the calculated dark circle area.

다크서클 검출부(102)는 다크서클의 특정 위치를 추론하기 위하여 0.5의 임계값을 기준으로 (0, 1)로 분해하여 이진화된 맵을 생성할 수 있다.The dark circle detection unit 102 may generate a binarized map by decomposing into (0, 1) based on a threshold value of 0.5 in order to infer a specific location of the dark circle.

Figure 112022067614585-pat00001
Figure 112022067614585-pat00001

상기 수학식 1에서, Sarea는 다크서클 면적,

Figure 112022067614585-pat00002
은 다크서클 영역에 포함된 픽셀 값을 의미할 수 있다. 구체적으로,
Figure 112022067614585-pat00003
은 인공신경망 모델의 출력 중 다크서클 영역에 포함된 픽셀 값을 의미할 수 있다.In Equation 1, S area is the dark circle area,
Figure 112022067614585-pat00002
may mean a pixel value included in the dark circle area. Specifically,
Figure 112022067614585-pat00003
may mean a pixel value included in the dark circle area among outputs of the artificial neural network model.

다크서클 검출부(102)는 검출된 다크서클 영역의 위치에 기반하여 다크서클 영역에 포함된 픽셀값의 평균값 및 픽셀값의 표준편차를 산출할 수 있다.The dark circle detection unit 102 may calculate an average value of pixel values included in the dark circle area and a standard deviation of the pixel values based on the detected location of the dark circle area.

다크서클 검출부(102)는 색상 변환 알고리즘을 통해 사용자의 얼굴 이미지를 HSV 포맷 이미지로 변환할 수 있다. 다시 말해서, RGB 색상공간에 해당되는 값 보다는 HSV의 값들의 분포가 상대적으로 군집을 이루기 쉬우므로, 다크서클 검출부(102)는 색상 변환 알고리즘을 통해 사용자의 RGB 포맷의 얼굴 이미지를 HSV 포맷 이미지로 변환할 수 있다. 다크서클 검출부(102)는 다크서클 영역에 포함된 픽셀값의 V의 값이 낮을수록 제1 다크서클(예: 검정 다크서클)로 판단하고, 다크서클 영역에 포함된 픽셀값의 S값이 높을수록 제2 다크서클(예: 갈색 다크서클)로 판단할 수 있다.The dark circle detection unit 102 may convert the user's face image into an HSV format image through a color conversion algorithm. In other words, since the distribution of HSV values is relatively easier to cluster than values corresponding to the RGB color space, the dark circle detection unit 102 converts the user's RGB format face image into an HSV format image through a color conversion algorithm can do. The dark circle detection unit 102 determines the first dark circle (eg, black dark circle) as the value of V of the pixel value included in the dark circle area is lower, and the higher the S value of the pixel value included in the dark circle area is. It can be determined as a second dark circle (eg, a brown dark circle).

다크서클 검출부(102)는 HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 상기 임계값을 기준으로 산출된 다크서클 면적에 대응하는 다크서클 영역에 대하여 이하 수학식 2를 통해 표준화를 수행할 수 있다.The dark circle detection unit 102 may standardize the dark circle area corresponding to the dark circle area calculated based on the threshold in the face image converted to the HSV format image through Equation 2 below.

Figure 112022067614585-pat00004
Figure 112022067614585-pat00004

상기 수학식 2에서, Z는 표준화가 수행된 값(표준화값), X는 각 픽셀에 해당되는 값을 뜻하며,

Figure 112022067614585-pat00005
(뮤)는 획득된 상기 평균값,
Figure 112022067614585-pat00006
(시그마)는 획득된 상기 표준편차를 의미할 수 있다.In Equation 2, Z is a standardized value (normalized value), X is a value corresponding to each pixel,
Figure 112022067614585-pat00005
(mu) is the average value obtained,
Figure 112022067614585-pat00006
(Sigma) may mean the standard deviation obtained.

다크서클 검출부(102)는 표준화된 값 z를 범위 [1, 2]의 값으로 보간(interpolation)할 수 있다. 보간되어진 값은 상기 수학식 1로 계산된 Sarea에 대해서 가중치로써 적용될 수 있다.The dark circle detection unit 102 may interpolate the standardized value z into values in the range [1, 2]. The interpolated value may be applied as a weight for the S area calculated by Equation 1 above.

도 3은 얼굴 이미지에 대하여 히스토그램 평활화를 진행하여 다크서클을 진단하는 것에 관한 도면이다.3 is a diagram related to diagnosing dark circles by performing histogram equalization on a face image.

다크서클 검출부(102)는 다크서클을 더욱더 정확하게 식별하기 위하여, 사용자의 얼굴 이미지에 포함된 각 픽셀들의 RGB 값을 이하 수학식 3을 통해 Hemoglobin Distribution으로 변환할 수 있다. 다만, Hemoglobin Distribution은 촬영된 이미지의 화이트밸런스에 매우 민감하기 때문에, 다크서클 검출부(102)는 전처리로써 사용자의 얼굴 이미지에 히스토그램 평활화(Histogram Equalization)를 적용하여 이미지의 색감을 전체적으로 보정할 수 있다.In order to more accurately identify dark circles, the dark circle detection unit 102 may convert the RGB values of each pixel included in the user's face image into a hemoglobin distribution through Equation 3 below. However, since the hemoglobin distribution is very sensitive to the white balance of the captured image, the dark circle detection unit 102 applies histogram equalization to the user's face image as a preprocessing to correct the color of the image as a whole.

도 3을 참조하면, 사용자 A의 피부톤과 사용자 B의 피부톤이 상이하기 때문에, 동일한 방식으로 다크서클을 진단하는 경우, 이미지 A(310)와 이미지 B(320)와 같이 동일한 기준으로 비교할 수 없는 결과가 도출되게 된다. 따라서, 히스토그램 평활화를 통해 이미지 B(320)를 이미지 B'(330)으로 변환하는 작업이 필요하다. 다크서클 검출부(102)는 훈련 데이터 셋의 이미지들의 [0, 255] 범위의 히스토그램을 모두 계산한 뒤, 각 픽셀에 평균에 해당되는 값을 삽입하여 히스토그램 평활화를 위한 레퍼런스 이미지를 생성할 수 있다.Referring to FIG. 3 , since the skin tone of user A and user B are different, when diagnosing dark circles in the same way, results that cannot be compared with the same standard as image A 310 and image B 320 will be derived. Therefore, it is necessary to convert image B 320 into image B' 330 through histogram equalization. The dark circle detection unit 102 may generate a reference image for histogram smoothing by calculating a histogram in the [0, 255] range of the images of the training data set and then inserting a value corresponding to an average to each pixel.

Figure 112022067614585-pat00007
Figure 112022067614585-pat00007

상기 수학식 3에서, HD는 Hemoglobin Distribution, I는 각 픽셀에 해당되는 픽셀값을 의미할 수 있다. 예를 들어, Hist(x, x_ref)에서 입력 이미지는 x, 레퍼런스 이미지는 x_ref를 의미할 수 있다.In Equation 3, HD may mean Hemoglobin Distribution, and I may mean a pixel value corresponding to each pixel. For example, in Hist(x, x_ref), the input image may mean x and the reference image may mean x_ref.

Figure 112022067614585-pat00008
Figure 112022067614585-pat00008

상기 수학식 4에서, Hh은 헤모글로빈에 해당되는 값, HD(G)는 각 픽셀에 해당되는 G(green)값에 기반하여 산출된 Hemoglobin Distribution, HD(R)은 각 픽셀에 해당되는 R(red)값에 기반하여 산출된 Hemoglobin Distribution을 의미할 수 있다.In Equation 4, H h is a value corresponding to hemoglobin, HD (G) is a Hemoglobin Distribution calculated based on the G (green) value corresponding to each pixel, HD (R) is R corresponding to each pixel ( red) may mean a hemoglobin distribution calculated based on the value.

Figure 112022067614585-pat00009
Figure 112022067614585-pat00009

상기 수학식 5에서, Hmh는 멜라닌 색소에 해당되는 값, HD(G)는 각 픽셀에 해당되는 G(green)값에 기반하여 산출된 Hemoglobin Distribution, HD(R)은 각 픽셀에 해당되는 R(red)값에 기반하여 산출된 Hemoglobin Distribution, HD(B)는 각 픽셀에 해당되는 B(blue)값에 기반하여 산출된 Hemoglobin Distribution을 의미할 수 있다.In Equation 5, H mh is a value corresponding to the melanin pigment, HD (G) is the Hemoglobin Distribution calculated based on the G (green) value corresponding to each pixel, HD (R) is R corresponding to each pixel The Hemoglobin Distribution HD (B) calculated based on the (red) value may mean the Hemoglobin Distribution calculated based on the B (blue) value corresponding to each pixel.

다크서클 검출부(102)는 상기 Hh 및 상기 Hmh 모두 [1, 2] 범위로 보간하며, 인공신경망을 통해 다크서클 영역에 해당되는 픽셀의 평균값을 가중치로써 사용한다.The dark circle detection unit 102 interpolates both H h and H mh in the [1, 2] range, and uses an average value of pixels corresponding to the dark circle area as a weight through an artificial neural network.

도 4는 일 실시 예에 따른 사용자의 다크서클 정량화 내지 다크서클 점수를 산출하는 것에 관한 도면이다.4 is a diagram related to quantifying a user's dark circle or calculating a dark circle score according to an embodiment.

다크서클 진단부(103)는 다크서클의 면적, 사용자의 눈 크기 대비 사용자의 다크서클의 면적 비율, 제1 다크서클(예: 검정 다크서클)의 정도, 제2 다크서클(예: 갈색 다크서클)의 정도, 헤모글로빈 정도, 멜라닌 색소의 정도에 기반하여 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 사용자의 눈 크기 대비 사용자의 다크서클의 면적 비율을 산출할 수 있다. 다시 말해서, 다크서클의 면적이 동일하게 검출되었다고 하더라도 사용자의 눈 크기에 따라 다크서클이 상대적으로 심하거나 약할 수 있기 때문이다.The dark circle diagnosis unit 103 determines the area of the dark circle, the ratio of the area of the user's dark circle to the size of the user's eyes, the degree of the first dark circle (eg black dark circle), the second dark circle (eg brown dark circle) ), the degree of hemoglobin, and the degree of melanin pigment can be used to calculate the dark circle score. The dark circle diagnosis unit 103 may calculate an area ratio of the user's dark circle to the size of the user's eyes. In other words, even if the same area of the dark circle is detected, the dark circle may be relatively severe or weak depending on the size of the user's eyes.

다크서클 진단부(103)는 이하 수학식 6을 통해 다크서클 점수를 산출할 수 있다.The dark circle diagnosis unit 103 may calculate the dark circle score through Equation 6 below.

Figure 112022067614585-pat00010
Figure 112022067614585-pat00010

상기 수학식 6에서, S는 다크서클 점수, Sarea는 다크서클의 면적, (

Figure 112022067614585-pat00011
)는 V 표준화값에 대한 가중치, (
Figure 112022067614585-pat00012
)는 V-S 표준화값에 대한 가중치, (
Figure 112022067614585-pat00013
)는 헤모글로빈에 대한 가중치, (
Figure 112022067614585-pat00014
)는 멜라닌 색소에 대한 가중치, k는 다크서클의 면적에 대한 가중치일 수 있다.In Equation 6, S is the dark circle score, S area is the area of the dark circle, (
Figure 112022067614585-pat00011
) is the weight for the standardized value of V, (
Figure 112022067614585-pat00012
) is the weight for the VS standardized value, (
Figure 112022067614585-pat00013
) is the weight for hemoglobin, (
Figure 112022067614585-pat00014
) may be a weight for the melanin pigment, and k may be a weight for the area of the dark circle.

짙은 다크서클에 해당되는 V 값에 대한 가중치 값(

Figure 112022067614585-pat00015
)은 보간된 [1, 2] 범위의 역수로 계산되어지고, 갈색 다크서클에 대한 가중치 값(
Figure 112022067614585-pat00016
)은 상기 수학식 2에서 계산된 V와 S를 뺀 {V - S}의 값에 보간을 적용한 값을 가중치로 계산될 수 있다.The weight value for the V value corresponding to the deep dark circle (
Figure 112022067614585-pat00015
) is calculated as the reciprocal of the interpolated [1, 2] range, and the weight value for the brown dark circle (
Figure 112022067614585-pat00016
) may be calculated as a weight value obtained by applying interpolation to the value of {V - S} obtained by subtracting V and S calculated in Equation 2 above.

다크서클 점수 S는 사용자의 얼굴 이미지인 입력 이미지에 대해서 1개씩 존재하며, 다크서클 진단부(103)는 Face Descriptor를 이용하여, 여러 일자에 거쳐서 반복 촬영을 진행한 같은 사람에 대해서는 타임라인에 따라 다크서클 점수를 갱신하여 다크서클 점수를 부여할 수 있다.The dark circle score S exists one by one for each input image, which is the user's face image, and the dark circle diagnosis unit 103 uses the Face Descriptor for the same person who repeatedly photographed over several days according to the timeline. A dark circle score may be given by updating the dark circle score.

다크서클 진단부(103)는 양쪽 눈 각각의 다크서클 정도의 차이 및/또는 사용자의 화장 정도에 기반하여 다크서클 최종 점수를 산출할 수 있다. 다시 말해서, 사용자의 화장이 진한 경우에는 입력 이미지에 기반한 사용자에 대한 다크서클 진단이 정확하지 않을 확률이 높으므로, 다크서클 진단부(103)는 화장 정도를 다크서클 점수에 반영할 수 있으며, 다크서클 진단부(103)는 좌우 다크서클의 정도 차이가 심한 경우 피부 상태의 일관성이 떨어지는 것으로 보아 좌우 다크서클의 정도 차이를 다크서클 점수에 반영할 수 있다.The dark circle diagnosing unit 103 may calculate a final dark circle score based on the difference in degree of dark circles between the eyes and/or the level of makeup of the user. In other words, if the user's makeup is heavy, there is a high probability that the dark circle diagnosis for the user based on the input image will not be accurate, so the dark circle diagnosis unit 103 can reflect the makeup level to the dark circle score, The circle diagnosis unit 103 may reflect the difference in the degree of the left and right dark circles to the dark circle score considering that the skin condition is inconsistent when the degree difference between the left and right dark circles is severe.

다크서클 진단부(103)는 사용자의 화장 여부 및/또는 화장 정도를 결정할 수 있다. 다크서클 진단부(103)는 사용자의 현재 얼굴 이미지 및 사용자의 맨얼굴 이미지에 기초하여 사용자의 화장 정도를 결정할 수 있다. 현재 얼굴 이미지는 실시간으로 획득되는 사용자의 얼굴 이미지일 수 있다. 예를 들어, 현재 얼굴 이미지는 획득된 이미지에 기반하여 사용자의 얼굴 부분이 검출된 얼굴 이미지일 수 있다. 맨얼굴 이미지는 사용자 단말 내지 서버와 연동된 카메라로부터 획득된 화장이 안된 얼굴 이미지일 수 있으며, 사용자의 얼굴이 포함된 입력 이미지를 딥러닝에 기반하여 사용자의 화장이 안된 얼굴 이미지가 추측된 이미지일 수 있다. 예를 들어, 맨얼굴 이미지는 미리 지도 학습된 인공 신경망을 이용하여 사용자의 얼굴 이미지의 특징점을 통해 결정된 얼굴 이미지일 수 있다.The dark circle diagnosis unit 103 may determine the user's makeup and/or the degree of makeup. The dark circle diagnosis unit 103 may determine the level of makeup of the user based on the user's current face image and the user's bare face image. The current face image may be a user's face image obtained in real time. For example, the current face image may be a face image in which a part of the user's face is detected based on the acquired image. The bare face image may be an image of a face without makeup obtained from a camera linked to a user terminal or a server, and the image of the face without makeup of the user may be an image inferred based on deep learning of an input image including the user's face. can For example, the bare face image may be a face image determined through feature points of the user's face image using an artificial neural network pre-supervised.

다크서클 진단부(103)는 사용자의 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여, 피부색의 변화, 트러블 수의 변화(예: 붉은 반점 수의 변화, 주근깨 수의 변화) 등에 기초하여 사용자의 화장 정도를 결정할 수 있다.The dark circle diagnosis unit 103 compares the user's bare face image with the user's current face image, and based on a change in skin color, a change in the number of troubles (eg, a change in the number of red spots, a change in the number of freckles), etc. You can decide the level of makeup.

다크서클 진단부(103)는 데이터베이스(200)에 저장된 사용자의 맨얼굴 이미지들 중에서 인공 신경망의 출력으로 획득되는 특징점들을 특징점으로 갖는 얼굴 이미지를 맨얼굴 이미지로 결정할 수 있다. 또는 다크서클 진단부(103)는 데이터베이스(200)에 저장된 사용자의 얼굴 이미지들 중에서 인공 신경망의 출력으로 획득된 특징점들을 특징점으로 갖는 얼굴 이미지에 가장 유사한 얼굴 이미지를 평균 얼굴 이미지로 결정할 수 있다.The dark circle diagnosis unit 103 may determine, as the bare face image, a facial image having feature points obtained as an output of an artificial neural network among the bare face images of the user stored in the database 200 . Alternatively, the dark circle diagnosis unit 103 may determine, as the average facial image, a facial image most similar to a facial image having feature points obtained as an output of an artificial neural network among facial images of the user stored in the database 200 .

다크서클 진단부(103)는 맨얼굴 이미지 추측 모델 학습 및 맨얼굴 이미지 추측 모델을 포함할 수 있다. 맨얼굴 이미지 추측 모델 학습부 및 맨얼굴 이미지 추측 모델은 다크서클 진단부(103)의 기능에 따라 나눠진 구성으로, 다크서클 진단부(103)에서 해당 기능을 모두 실시 가능함은 자명하다 하겠다.The dark circle diagnosis unit 103 may include training of a bare face image estimation model and a bare face image estimation model. The bare face image estimation model learning unit and the bare face image estimation model are divided according to the functions of the dark circle diagnosis unit 103, and it is obvious that the dark circle diagnosis unit 103 can perform all of the corresponding functions.

다크서클 진단부(103)는 데이터베이스(200)에 저장된 맨얼굴 이미지 학습 데이터를 획득할 수 있다. 일 실시 예의 맨얼굴 이미지 학습 데이터는 맨얼굴 이미지의 특징점을 입력값으로 하고, 얼굴 이미지의 평균 특징점을 출력값을 갖는 훈련 데이터일 수 있다. 얼굴 이미지의 특징점은 각 화소에 해당하는 컬러 값일 수 있다.The dark circle diagnosis unit 103 may obtain bare face image learning data stored in the database 200 . The bare face image training data according to an embodiment may be training data having a feature point of a bare face image as an input value and an average feature point of the face image as an output value. A feature point of the face image may be a color value corresponding to each pixel.

맨얼굴 이미지 추측 모델 학습부는 다수의 사용자 단말들로부터 상기 다수의 사용자 단말들 각각에 대응하는 사용자들의 맨얼굴 이미지를 학습 데이터로써 획득할 수 있다. 맨얼굴 이미지 추측 모델 학습부는 획득된 학습 데이터를 이용하여, 맨얼굴 이미지 추측 모델을 학습할 수 있다. 일 실시 예의 맨얼굴 이미지 추측 모델로서 인공 신경망(Artificial Neural Network)이 이용될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다.The bare face image estimation model learning unit may acquire bare face images of users corresponding to each of the plurality of user terminals as training data. The bare face image estimation model learning unit may learn the bare face image estimation model using the acquired training data. An artificial neural network may be used as a bare face image estimation model according to an embodiment. An artificial neural network is a predictive model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons (or nodes).

맨얼굴 이미지 추측 모델은 맨얼굴 이미지 추측 모델 학습부에 의해서 '맨얼굴 이미지의 특징점'과 '맨얼굴 이미지의 평균 특징점'을 이용하여 지도 학습될 수 있다. 이때 지도 학습(supervised learning)이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에 주어지는 입력값과 출력값 세트를 훈련 데이터(Training Data)라고 한다. 즉, 상술한 '맨얼굴 이미지의 특징점'과 '맨얼굴 이미지의 평균 특징점'은 각각 입력값과 출력값으로서, 맨얼굴 이미지 추측 모델의 지도 학습을 위한 훈련 데이터로 사용될 수 있다.The bare face image estimation model may be supervised and learned by the bare face image estimation model learning unit using 'feature points of the bare face image' and 'average feature points of the bare face image'. In this case, supervised learning refers to learning to find an output value according to a given input value by using data having input values and corresponding output values as learning data, and means learning performed in a state where the correct answer is known. The set of inputs and outputs given to supervised learning is called training data. That is, the above-described 'feature points of the bare face image' and 'average feature points of the bare face image' are input values and output values, respectively, and can be used as training data for supervised learning of the bare face image estimation model.

예를 들어, 맨얼굴 이미지 추측 모델 학습부는 맨얼굴 이미지의 특징점을 고유한 제1 원-핫 벡터(one-hot vector)로 변환하여 입력값을 생성하고, 맨얼굴 이미지의 평균 특징점을 고유한 제2 원-핫 벡터로 변환하여 출력값을 생성한 후, 생성된 입력값과 출력값을 이용해 맨얼굴 이미지 추측 모델을 지도학습할 수 있다. 여기서, 제1 원-핫 벡터 및 제2 원-핫 벡터는 벡터를 구성하는 성분값들 중 하나가 '1' 이고, 나머지 성분값들은 '0'으로 구성되는 벡터일 수 있다.For example, the bare face image estimation model learning unit converts the feature points of the bare face image into a unique first one-hot vector to generate an input value, and converts the average feature point of the bare face image into a unique first one-hot vector. 2 After converting to one-hot vector to generate an output value, the generated input value and output value can be used to supervise the bare face image estimation model. Here, the first one-hot vector and the second one-hot vector may be vectors in which one of the component values constituting the vector is '1' and the other component values are '0'.

일 실시 예에서, 맨얼굴 이미지 추측 모델은, 입력값을 입력받고 제1 원-핫 벡터의 성분갯수에 상응하는 노드들을 갖는 입력층, 입력층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 바이어스(bias)를 더하여 출력하는 하나 이상의 은닉층(hidden layer); 및 은닉층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력층(output layer)을 포함할 수 있다. 예를 들어, 활성화 함수는, ReLU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다. 연결강도와 바이어스는 지도 학습에 의해 지속적으로 갱신될 수 있다.In one embodiment, the bare face image estimation model receives an input value, multiplies an input layer having nodes corresponding to the number of components of the first one-hot vector, and a connection strength (or weight) for each output value of the input layer. . , one or more hidden layers for adding and outputting a bias; and an output layer that multiplies each output value of the hidden layer by a connection strength (or weight) and outputs the result using an activation function. For example, the activation function may be a ReLU function or a Softmax function, but is not limited thereto. Connection strength and bias can be continuously updated by supervised learning.

구체적으로, 맨얼굴 이미지 추측 모델은, 주어진 입력값(제1 원-핫 벡터)과 출력값(제2 원-핫 벡터)에 따른 손실 함수(loss function)의 출력값이 최소화되도록 지도학습될 수 있다.Specifically, the bare face image estimation model may be supervised so that an output value of a loss function according to a given input value (first one-hot vector) and output value (second one-hot vector) is minimized.

다크서클 진단부(103)는 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여 사용자의 화장 정도를 결정할 수 있다. 다크서클 진단부(103)는 사용자의 추측된 맨얼굴 이미지와 사용자의 현재 얼굴 이미지에서 부분 영역 별로 사용자의 화장 정도를 결정할 수 있다. 예를 들어, 다크서클 진단부(103)는 상기 맨얼굴 이미지와 상기 현재 얼굴 이미지에서 사용자의 이마, 코, 눈가, 눈썹, 입술, 볼 등의 부분 영역 별로 사용자의 화장 정도를 결정할 수 있다.The dark circle diagnosis unit 103 may compare the bare face image with the current face image of the user to determine the level of makeup of the user. The dark circle diagnosis unit 103 may determine the level of makeup of the user for each partial area in the user's estimated bare face image and the user's current face image. For example, the dark circle diagnosing unit 103 may determine the user's makeup level for each partial region, such as the user's forehead, nose, eye rims, eyebrows, lips, and cheeks, in the bare face image and the current face image.

Figure 112022067614585-pat00017
Figure 112022067614585-pat00017

상기 수학식 2에서, y는 화장 정도를 나타내는 지표, p는 트러블의 종류의 수, c는 컬러값의 변화도, h는 상기 부분 영역들의 수, w1은 상기 트러블에 관한 가중치, w2는 상기 피부색에 관한 가중치, n은 맨얼굴 이미지에 관한 지표, m은 현재 얼굴 이미지에 관한 지표일 수 있다.In Equation 2, y is an index representing the degree of makeup, p is the number of types of troubles, c is the degree of change in color values, h is the number of partial areas, w1 is a weight for the troubles, and w2 is the skin color A weight for , n may be an index for a bare face image, and m may be an index for a current face image.

다크서클 진단부(103)는 맨얼굴 이미지와 현재 얼굴 이미지에서 각 부분 영역 별로 트러블 변화도 및 컬러 변화도를 산출하고, 산출된 트러블 변화도 및 컬러 변화도에 기초하여 사용자의 화장 정도를 결정할 수 있다. 트러블 변화도는 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여, 검출되는 트러블의 개수의 차이에 기반하여 산출되며, 컬러 변화도는 각 부분 영역별로 픽셀값인 R(red 픽셀)값, G(green 픽셀)값, B(blue 픽셀)값에 의하여 결정될 수 있다.The dark circle diagnosis unit 103 may calculate the degree of change in trouble and the degree of color change for each partial region in the bare face image and the current face image, and determine the degree of makeup of the user based on the calculated degree of change in trouble and color change. have. The trouble gradient is calculated based on the difference in the number of detected troubles by comparing the bare face image with the user's current face image, and the color gradient is the R (red pixel) value, G( It can be determined by the green pixel) value and the B (blue pixel) value.

다크서클 진단부(103)는 왼쪽 눈과 오른쪽 눈 간 다크서클 정도의 차이에 기반하여 최종 다크서클 점수를 산출할 수 있다.The dark circle diagnosis unit 103 may calculate a final dark circle score based on the difference in degree of dark circle between the left eye and the right eye.

다크서클 진단부(103)는 왼쪽 눈에 대응하는 왼쪽 다크서클에 대한 점수인 제1 다크서클 점수를 산출하고, 오른쪽 눈에 대응하는 오른쪽 다크서클에 대한 점수인 제2 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 간 다크서클 점수 차이를 계산하고, 계산된 다크서클 점수 차이에 기반하여 최종 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 상기 다크서클 점수 차이가 클수록 최종 다크서클 점수를 낮게 산출할 수 있다.The dark circle diagnosis unit 103 may calculate a first dark circle score corresponding to the left dark circle corresponding to the left eye and a second dark circle score corresponding to the right dark circle corresponding to the right eye. have. The dark circle diagnosis unit 103 may calculate a dark circle score difference between the first dark circle score and the second dark circle score, and calculate a final dark circle score based on the calculated dark circle score difference. The dark circle diagnosis unit 103 may calculate a final dark circle score lower as the difference between dark circle scores increases.

다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 중 더 높은 점수가 미리 설정된 제1 점수보다 높은 경우, 상기 다크서클 점수 차이가 클수록 제1 가중치 범위 내에서 다크서클 점수 차이에 대한 가중치를 더 높게 결정할 수 있다. 다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 중 더 높은 점수가 미리 설정된 제2 점수보다 낮은 경우, 상기 다크서클 점수 차이가 클수록 제2 가중치 범위 내에서 다크서클 점수 차이에 대한 가중치를 더 높게 결정할 수 있다. 상기 제1 가중치 범위의 가장 낮은 가중치는 상기 제2 가중치 범위의 가장 높은 가중치보다 높을 수 있다. 예를 들어, 제1 가중치 범위는 0.5이상 0.8미만이고, 제2 가중치 범위는 0.2이상 0.5미만일 수 있다.The dark circle diagnosis unit 103 determines, when a higher score of the first dark circle score and the second dark circle score is higher than the preset first score, the dark circle score difference within the first weight range as the dark circle score difference increases. It is possible to determine a higher weight for . The dark circle diagnosis unit 103 determines, when a higher score of the first dark circle score and the second dark circle score is lower than the preset second score, the dark circle score difference within the second weight range as the dark circle score difference increases. It is possible to determine a higher weight for . The lowest weight in the first weight range may be higher than the highest weight in the second weight range. For example, the first weight range may be greater than 0.5 and less than 0.8, and the second weight range may be greater than 0.2 and less than 0.5.

다크서클 진단부(103)는 상기 다크서클 점수 차이 및 상기 다크서클 점수 차이에 대한 가중치에 기반하여 상기 최종 다크서클 점수를 산출할 수 있다.The dark circle diagnosis unit 103 may calculate the final dark circle score based on the dark circle score difference and a weight for the dark circle score difference.

도 5는 도 1에 따른 사용자 단말(100)의 하드웨어 구성을 나타낸 도면이다.FIG. 5 is a diagram showing a hardware configuration of the user terminal 100 according to FIG. 1 .

도 5를 참조하면, 사용자 단말(100)는 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 5 , the user terminal 100 includes at least one processor 110 and a memory for storing instructions instructing the at least one processor 110 to perform at least one operation. (memory).

상기 적어도 하나의 동작은, 전술한 사용자 단말(100)의 동작이나 기능 중 적어도 일부를 포함하고 명령어들 형태로 구현되어 프로세서(110)에 의하여 수행될 수 있다.The at least one operation may include at least some of the above-described operations or functions of the user terminal 100 and may be implemented in the form of instructions and performed by the processor 110 .

여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.Here, the at least one processor 110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor for performing methods according to embodiments of the present invention. can Each of the memory 120 and the storage device 160 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 may be a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, a micro SD card).

또한, 사용자 단말(100)는 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 사용자 단말(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 사용자 단말(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다. 도 5에서는 사용자 단말(100)를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 복수 개의 사용자 단말들은 도 5에 따른 구성요소를 포함할 수 있다.In addition, the user terminal 100 may include a transceiver 130 that performs communication through a wireless network. In addition, the user terminal 100 may further include an input interface device 140 , an output interface device 150 , a storage device 160 , and the like. Each component included in the user terminal 100 may be connected by a bus 170 to communicate with each other. In FIG. 5, the user terminal 100 has been described as an example, but is not limited thereto. For example, a plurality of user terminals may include a component according to FIG. 5 .

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 사용자 단말 200: 데이터베이스100: user terminal 200: database

Claims (5)

다크서클을 진단하는 장치에 있어서,
메모리 및 상기 메모리와 작동적으로(operatively) 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
상기 장치와 연동되어 사용자의 얼굴 이미지를 촬영하는 카메라를 통해 촬영된 상기 사용자의 상기 얼굴 이미지를 획득하는 동작;
획득된 상기 사용자의 얼굴 이미지에서 사용자의 다크서클 영역을 검출하는 동작;
검출된 상기 다크서클 영역에 대한 다크서클 점수를 산출하는 동작; 및
산출된 다크서클 점수를 상기 장치와 연동된 디스플레이를 통해 출력하는 동작을 수행하고,
상기 다크서클 영역을 검출하는 동작은,
상기 다크서클 영역에 포함된 픽셀 값들을 확률 값으로 변환하는 동작;
변환된 확률 값이 미리 설정된 임계값을 초과하는 픽셀의 개수에 기반하여 다크서클 면적을 산출하는 동작을 포함하되,
이하 수학식을 통해 상기 다크서클 면적을 산출하고,
Figure 112022104807266-pat00023

상기 수학식에서, Sarea는 상기 다크서클 면적,
Figure 112022104807266-pat00024
은 상기 다크서클 영역에 포함된 픽셀 값들에 대응하는 상기 확률 값을 의미하고,
상기 다크서클 면적, 상기 사용자의 얼굴 면적 대비 상기 다크서클 면적 비율, HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 V 값, 및 V-S 값에 기반하여 상기 다크서클 점수를 산출하는 동작을 수행하는, 장치.
In the device for diagnosing dark circles,
a memory and at least one processor operatively coupled with the memory, the at least one processor comprising:
obtaining the face image of the user captured by a camera that captures the face image of the user in conjunction with the device;
detecting a user's dark circle area from the obtained user's face image;
calculating a dark circle score for the detected dark circle area; and
Performing an operation of outputting the calculated dark circle score through a display linked to the device;
The operation of detecting the dark circle area,
converting pixel values included in the dark circle area into probability values;
Calculating a dark circle area based on the number of pixels for which the converted probability value exceeds a preset threshold,
Calculate the dark circle area through the following equation,
Figure 112022104807266-pat00023

In the above equation, S area is the dark circle area,
Figure 112022104807266-pat00024
Means the probability value corresponding to pixel values included in the dark circle area,
An operation for calculating the dark circle score based on the dark circle area, the ratio of the dark circle area to the user's face area, the V value and the VS value in the face image converted to an HSV format image.
삭제delete 청구항 1에서,
상기 적어도 하나의 프로세서는,
상기 얼굴 이미지와 미리 설정된 레퍼런스 이미지에 기반하여 상기 얼굴 이미지에 히스토그램 평활화(histogram equalization)를 수행하는 동작; 및
히스토그램 평활화가 수행된 상기 얼굴 이미지에 포함된 각 픽셀들의 RGB 값에 대하여 헤모글로빈 디스트리뷰션(hemoglobin distribution)으로 변환하는 동작을 수행하는, 장치.
In claim 1,
The at least one processor,
performing histogram equalization on the face image based on the face image and a preset reference image; and
An apparatus for performing an operation of converting an RGB value of each pixel included in the face image on which histogram equalization has been performed into a hemoglobin distribution.
청구항 1에서,
상기 적어도 하나의 프로세서는,
색상 변환 알고리즘을 통해 상기 사용자의 상기 얼굴 이미지를 HSV 포맷 이미지로 변환하는 동작을 수행하는, 장치.
In claim 1,
The at least one processor,
An apparatus for performing an operation of converting the face image of the user into an HSV format image through a color conversion algorithm.
삭제delete
KR1020220079146A 2022-06-28 2022-06-28 Method and apparatus for detecting dark circles and quantifying the degree of dark circles KR102465728B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220079146A KR102465728B1 (en) 2022-06-28 2022-06-28 Method and apparatus for detecting dark circles and quantifying the degree of dark circles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220079146A KR102465728B1 (en) 2022-06-28 2022-06-28 Method and apparatus for detecting dark circles and quantifying the degree of dark circles

Publications (1)

Publication Number Publication Date
KR102465728B1 true KR102465728B1 (en) 2022-11-15

Family

ID=84041929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220079146A KR102465728B1 (en) 2022-06-28 2022-06-28 Method and apparatus for detecting dark circles and quantifying the degree of dark circles

Country Status (1)

Country Link
KR (1) KR102465728B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112046A (en) 2011-12-26 2014-09-22 샤넬 파르퓜 보트 Method and device for detecting and quantifying cutaneous signs on an area of skin
KR20210077533A (en) 2019-12-17 2021-06-25 고려대학교 산학협력단 Method and server for face registration and face analysis
KR20220078231A (en) 2020-12-03 2022-06-10 주식회사 베이바이오텍 Skin condition measuring apparatus, skin condition measring system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112046A (en) 2011-12-26 2014-09-22 샤넬 파르퓜 보트 Method and device for detecting and quantifying cutaneous signs on an area of skin
KR20210077533A (en) 2019-12-17 2021-06-25 고려대학교 산학협력단 Method and server for face registration and face analysis
KR20220078231A (en) 2020-12-03 2022-06-10 주식회사 베이바이오텍 Skin condition measuring apparatus, skin condition measring system and method thereof

Similar Documents

Publication Publication Date Title
Niu et al. VIPL-HR: A multi-modal database for pulse estimation from less-constrained face video
US11058209B2 (en) Beauty counseling information providing device and beauty counseling information providing method
US9311564B2 (en) Face age-estimation and methods, systems, and software therefor
CN109325468B (en) Image processing method and device, computer equipment and storage medium
US10635919B2 (en) Information processing device, image processing system, image processing method, and program storage medium
US12039732B2 (en) Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
CN110390254B (en) Character analysis method and device based on human face, computer equipment and storage medium
CN113781488A (en) Tongue picture image segmentation method, apparatus and medium
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
CN113298753A (en) Sensitive muscle detection method, image processing method, device and equipment
JP6166981B2 (en) Facial expression analyzer and facial expression analysis program
RU2768797C1 (en) Method and system for determining synthetically modified face images on video
KR102611121B1 (en) Method and apparatus for generating imaga classification model
Willoughby et al. DrunkSelfie: intoxication detection from smartphone facial images
KR102465728B1 (en) Method and apparatus for detecting dark circles and quantifying the degree of dark circles
KR102445752B1 (en) Method and apparatus for predicting disease through wrinkle detection
JP2022039984A (en) System and method for finding area of eye from facial image
JP2011141866A (en) Data classifying device, data classifying system, and program
CN113298841B (en) Skin oil parting method, computer equipment, system and storage medium
CN116740485A (en) Training method and device for lesion detection model, electronic equipment and storage medium
KR102445257B1 (en) Method and apparatus for detecting pores based on artificial neural network and visualizing the detected pores
KR20240025797A (en) Skin diagnosis apparatus, skin diagnosis system including the same and skin diagnosis method
CN114022502A (en) Hemogram information prediction method and device, electronic device, and storage medium
KR102436127B1 (en) Method and apparatus for detecting wrinkles based on artificial neural network
US11640663B1 (en) Method of determining suitability of skin analysis image and apparatus therefor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant