KR102465728B1 - Method and apparatus for detecting dark circles and quantifying the degree of dark circles - Google Patents
Method and apparatus for detecting dark circles and quantifying the degree of dark circles Download PDFInfo
- Publication number
- KR102465728B1 KR102465728B1 KR1020220079146A KR20220079146A KR102465728B1 KR 102465728 B1 KR102465728 B1 KR 102465728B1 KR 1020220079146 A KR1020220079146 A KR 1020220079146A KR 20220079146 A KR20220079146 A KR 20220079146A KR 102465728 B1 KR102465728 B1 KR 102465728B1
- Authority
- KR
- South Korea
- Prior art keywords
- dark circle
- face image
- user
- dark
- area
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/443—Evaluating skin constituents, e.g. elastin, melanin, water
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7445—Display arrangements, e.g. multiple display units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dermatology (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 발명은 다크서클을 검출하여 다크서클의 정도를 정량화하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 사용자를 촬영하여 획득된 사용자의 이미지를 이용하여 인공지능을 이용하여 사용자의 다클서클을 세분화하고 다크서클의 정도를 정량화하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for detecting dark circles and quantifying the degree of dark circles, and more particularly, by using an image of a user obtained by photographing a user to subdivide a user's dark circles using artificial intelligence, It relates to a method and apparatus for quantifying the degree of dark circles.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, material described in this section is not prior art to the claims in this application, and inclusion in this section is not an admission that it is prior art.
다크서클은 눈 밑 지방, 얇은 피부에 의해 비쳐지는 혈관, 눈 주위의 색소 침착에 의해서 피부색이 짙게 변색되는 질환을 의미한다. 그 원인은 수면 부족, 스트레스, 외부 환경 등 다양한 환경에서 발생한다. 다크서클은 외부 환경, 내부 환경에 의해서 빠르게 변화, 변질될 수 있고, 자신의 다크서클의 외관상 정도와 크기를 주기적으로 확인하여 올바른 조치를 가할 필요가 있다.Dark circles refer to a disease in which the skin color is darkly discolored due to fat under the eyes, blood vessels exposed by thin skin, and pigmentation around the eyes. The cause is caused by various environments such as lack of sleep, stress, and external environment. Dark circles can quickly change and deteriorate depending on the external and internal environment, and it is necessary to periodically check the appearance and size of your dark circles and take corrective measures.
이에 따라, 현재 다크서클을 개선하기 위한 다양한 조성물, 화장품, 패치, 마스크, 케어기기 등이 출시되고 있다. 다만, 위와 같은 다크서클 개선을 위한 조성물, 화장품, 패치, 마스크 케어기기 등을 사용자에게 추천하고 제시하기 위해서는 사용자의 다크서클을 정확하게 진단하는 것이 중요하다. 다만, 현재로써는 사용자의 피부 상태를 측정하기 위해 다크서클의 유무 만이 다크서클 진단의 척도로 이용될 뿐, 다크서클을 정량화하는 방법은 미비하다.Accordingly, various compositions, cosmetics, patches, masks, care devices, etc. for improving dark circles are currently being released. However, it is important to accurately diagnose the user's dark circle in order to recommend and present the composition, cosmetics, patch, mask care device, etc. for improving the dark circle as described above to the user. However, currently, only the presence or absence of dark circles is used as a criterion for diagnosing dark circles in order to measure the user's skin condition, and a method for quantifying dark circles is insufficient.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 다크서클을 검출하여 다크서클의 정도를 정량화하는 방법 및 장치를 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method and apparatus for quantifying the degree of dark circles by detecting dark circles.
다양한 실시 예에 따르면, 다크서클을 진단하는 장치는 메모리 및 상기 메모리와 작동적으로(operatively) 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 장치와 연동되어 사용자의 얼굴 이미지를 촬영하는 카메라를 통해 촬영된 상기 사용자의 상기 얼굴 이미지를 획득하는 동작; 획득된 상기 사용자의 얼굴 이미지에서 사용자의 다크서클 영역을 검출하는 동작; 검출된 상기 다크서클 영역에 대한 다크서클 점수를 산출하는 동작; 및 산출된 다크서클 점수를 상기 장치와 연동된 디스플레이를 통해 출력하는 동작을 수행할 수 있다.According to various embodiments of the present disclosure, a device for diagnosing dark circles includes a memory and at least one processor operatively connected to the memory, and the at least one processor works in conjunction with the device to capture a user's face image. obtaining the face image of the user photographed through a camera; detecting a user's dark circle area from the obtained user's face image; calculating a dark circle score for the detected dark circle area; and an operation of outputting the calculated dark circle score through a display interlocked with the device.
상기 적어도 하나의 프로세서는, 상기 다크서클 영역에 포함된 픽셀 값들을 확률 값으로 변환하는 동작; 변환된 확률 값이 미리 설정된 임계값을 초과하는 픽셀의 개수에 기반하여 상기 다크서클 면적을 산출하는 동작; 및 산출된 상기 다크서클 면적에 기반하여 상기 다크서클 점수를 산출하는 동작을 수행할 수 있다.Converting, by the at least one processor, pixel values included in the dark circle area into probability values; calculating the dark circle area based on the number of pixels for which the converted probability value exceeds a preset threshold value; and calculating the dark circle score based on the calculated dark circle area.
상기 적어도 하나의 프로세서는, 상기 얼굴 이미지와 미리 설정된 레퍼런스 이미지에 기반하여 상기 얼굴 이미지에 히스토그램 평활화(histogram equalization)를 수행하는 동작; 및 히스토그램 평활화가 수행된 상기 얼굴 이미지에 포함된 각 픽셀들의 RGB 값에 대하여 헤모글로빈 디스트리뷰션(hemoglobin distribution)으로 변환하는 동작을 수행할 수 있다.performing, by the at least one processor, histogram equalization on the face image based on the face image and a preset reference image; and an operation of converting RGB values of pixels included in the face image on which histogram equalization has been performed into a hemoglobin distribution.
상기 적어도 하나의 프로세서는, 색상 변환 알고리즘을 통해 상기 사용자의 상기 얼굴 이미지를 HSV 포맷 이미지로 변환하는 동작을 수행할 수 있다.The at least one processor may perform an operation of converting the face image of the user into an HSV format image through a color conversion algorithm.
상기 적어도 하나의 프로세서는, 상기 다크서클 면적, 상기 사용자의 얼굴 면적 대비 상기 다크서클 면적 비율, HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 V 값, 및 V-S 값에 기반하여 상기 다크서클 점수를 산출할 수 있다.The at least one processor calculates the dark circle score based on the dark circle area, the ratio of the dark circle area to the user's face area, the V value of the face image converted to the HSV format image, and the V-S value. can
본 문서에 개시되는 다양한 실시 예들에 따르면, 다크서클의 위치와 범위를 측정할 뿐만 아니라 해당 영역의 정도까지 측정하여 사용자의 다크서클 진단을 정확하게 진행할 수 있다.According to various embodiments disclosed in this document, not only the position and range of the dark circle are measured, but also the degree of the corresponding area can be measured to accurately diagnose the user's dark circle.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.
도 1은 일 실시 예에 따른 다크서클 진단 시스템을 도시한 도면이다.
도 2는 사용자 단말의 주요 구성 요소를 나타낸 도면이다.
도 3은 얼굴 이미지에 대하여 히스토그램 평활화를 진행하여 다크서클을 진단하는 것에 관한 도면이다.
도 4는 일 실시 예에 따른 사용자의 다크서클 정량화 내지 다크서클 점수를 산출하는 것에 관한 도면이다.
도 5는 도 1에 따른 사용자 단말의 하드웨어 구성을 나타낸 도면이다.1 is a diagram illustrating a dark circle diagnosis system according to an exemplary embodiment.
2 is a diagram showing the main components of a user terminal.
3 is a diagram related to diagnosing dark circles by performing histogram equalization on a face image.
4 is a diagram related to quantifying a user's dark circle or calculating a dark circle score according to an embodiment.
5 is a diagram showing a hardware configuration of a user terminal according to FIG. 1 .
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 다크서클 진단 시스템(10)을 도시한 도면이다. 도 1을 참조하면, 다크서클 진단 시스템(10)은 사용자 단말(100), 데이터베이스(200), 등을 포함할 수 있다. 이하 설명되는 동작들은 사용자 단말(100)에 의하여 제어되는 플랫폼(예: 웹 페이지 및/또는 어플리케이션)을 통해 수행 내지 구현될 수 있다. 다시 말해서, 사용자 단말(100)은, 사용자가 사용자 단말(100)을 이용하여 네트워크를 통해 각종 서버에 접속하여 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 웹 사이트를 제공할 수 있으며, 사용자 단말(100)에 설치되고 실행됨으로써 다양한 정보를 입력하고, 등록하고, 출력할 수 있는 어플리케이션을 제공할 수 있다. 1 is a diagram illustrating a dark
다크서클 진단 시스템(10)은 사용자의 얼굴 이미지를 이용하여, 사용자의 얼굴 이미지에서 다크서클 영역을 검출하고, 검출된 다크서클 영역에 대하여 다크서클 정량화를 실시할 수 있다. 다크서클 진단 시스템(10)은 데이터베이스(200)에 저장되어 있는 다양한 사람들의 얼굴 이미지 훈련 데이터셋을 이용하여 다크서클 검출 모델을 학습시키고, 학습된 다크서클 검출 모델에 기반하여 사용자의 다크서클 영역에 대한 검출 내지 정량화를 수행할 수 있다. The dark
사용자 단말(100)은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.The
사용자 단말(100)은 포터블 장치뿐만 아니라, 하나 이상의 서버로서 도 2 내지 도 4에서 설명되는 동작들을 수행하는 서버일 수 있다. 사용자 단말(100)은 이하 각각 통신 네트워크에 연결되어, 통신 네트워크를 통해 서로간 데이터를 송수신할 수 있다. 예를 들어, 통신 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX(IEEE 802.16e), UMB(formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access), 5G 등 다양한 종류의 유선 또는 무선 네트워크가 사용될 수 있다The
도 2는 사용자 단말(100)의 주요 구성 요소를 나타낸 도면이다.2 is a diagram showing the main components of the
도 2를 참조하면, 사용자 단말(예: 프로세서(110))(100)의 기능적 모듈로써 피부 진단부(101), 다크서클 검출부(102) 및 다크서클 진단부(103) 등이 포함될 수 있다.Referring to FIG. 2 , functional modules of a user terminal (eg, processor 110) 100 may include a
피부 진단부(101)는 카메라(예: 사용자 단말(100)의 카메라 및/또는 다른 피부 측정 장치의 카메라)를 통해 촬영된 사용자의 얼굴 이미지 및/또는 유/무선 네트워크를 통해 전송되는 이미지들 중 사용자의 얼굴이 포함된 사용자 얼굴 이미지를 획득할 수 있다. 상기 촬영된 사용자의 얼굴 이미지는 거리 데이터를 포함할 수 있다. 상기 사용자의 얼굴 이미지는 거리 감지 센서(예: ToF 센서) 및/또는 상기 카메라에 기반하여 AI 기반으로 자동 설정되는 랜드마크에 의하여 설정된 얼굴 영역이 촬영된 이미지일 수 있다.The
피부 진단부(101)는 조명 및 색상 일정화 알고리즘을 통해 색상을 평활화하고 노이즈를 제거하여 상기 얼굴 이미지의 색상값(예: RGB 픽셀값)을 보정함으로써 상기 얼굴 이미지를 전처리(pre-processing)할 수 있다.The
피부 진단부(101)는 상기 거리 감지 센서 및/또는 상기 카메라에 기반하여 촬영된 상기 사용자의 얼굴 이미지의 랜드마크를 결정할 수 있다. 피부 진단부(101)는 상기 랜드마크를 기준으로 사용자의 얼굴 영역을 검출하고, 검출된 얼굴 영역을 기준으로 사용자의 피부 특성을 결정할 수 있다. 피부 특성은 피부 타입 및 피부 상태를 포함할 수 있다. 예를 들어, 피부 특성은 피부의 수분, 유분, 피지, pH도, 민감도, 탄력, 주름, 피부색/피부톤, 모공 상태, 색소 침착 및 각질 상태 등을 포함할 수 있다. 피부 진단부(101)는 사용자 단말(200) 및/또는 다른 피부 측정 장치를 통해 획득된 얼굴 이미지에 기반하여 사용자의 피부 특성을 결정할 수 있다. 즉, 피부 진단부(101)는 상기 얼굴 이미지에 기초하여 사용자의 피부의 수분, 유분, 피지, pH도, 민감도, 주름, 피부톤, 모공 상태, 색소 침착, 각질 상태 등 사용자의 피부 특성을 결정할 수 있다. 상기 결정된 피부 특성에 기반하여 사용자의 피부 타입이 결정될 수 있다.The
다크서클 검출부(102)는 다크서클 영역을 좀 더 한정적으로 선정하고, 한정된 영역 내에서 다크서클을 검출하고 진단하기 위하여 다크서클 예상 영역을 결정할 수 있다. 다크서클 검출부(102)는 획득된 얼굴 이미지 내에서 왼쪽 눈, 오른쪽 눈을 검출하고, 검출된 왼쪽 눈 및 오른쪽 눈 각각의 최외곽 라인을 결정하고, 결정된 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여있는 지점을 결정할 수 있다. 예를 들어, 다크서클 검출부(102)는 왼쪽 눈에 대응하는 제1 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여 있는 제1 지점 및 제2 지점을 결정하고, 오른쪽 눈에 대응하는 제2 최외곽 라인에서 미리 설정된 각도 이상으로 꺾여 있는 제3 지점 및 제4 지점을 결정할 수 있다.The dark
다크서클 검출부(102)는 제1 지점 및 제2 지점 간 제1 거리를 산출하고, 제3 지점 및 제4 지점 간 제2 거리를 산출할 수 있다. 다크서클 검출부(102)는 왼쪽 눈에 대응하는 제1 최외곽 라인의 제1 최하단 지점으로부터 하단으로 제1 거리만큼 떨어진 지점까지의 제1 영역 및 오른쪽 눈에 대응하는 제2 최외곽 라인의 제2 최하단 지점으로부터 하단으로 제2 거리만큼 떨어진 지점까지의 제2 영역을 각각 다크서클 예상 영역으로 결정할 수 있다.The
다크서클 검출부(102)는 다크서클 검출 모델을 지도학습(supervised learning) 또는 비지도학습할 수 있으며, 다크서클 검출 모델은 인공 신경망(Artificial Neural Network, ANN)으로 구현될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다.The dark
다크서클 검출부(102)는 인공신경망 모델(예: 다크서클 검출 모델)을 학습하기 위하여 얼굴 랜드마크를 기반으로 크롭된 복수 개의 얼굴 이미지들을 획득할 수 있다. 다크서클 검출부(102)는 인공신경망 모델을 학습하기 위한 상기 복수 개의 얼굴 이미지들을 1:9 비율로 훈련 데이터 셋과 검증 데이터 셋으로 분류할 수 있다. 훈련 데이터 셋은 cutmix 기법을 통해 10배가량 증가될 수 있다. 인공신경망 모델은 합성곱 신경망을 기반으로 제작된 Swin(Shifted Window) Transformer를 사용하여 얼굴 이미지로부터 특징을 추출할 수 있다. 다크서클 검출부(102)는 추출된 특징을 메모리에 저장할 수 있다. 다크서클 검출부(102)는 추출된 특징 및 UperNet(Unified Perceptual Parsing Network)을 통해 다크서클 영역을 결정할 수 있다.The dark
다크서클 검출부(102)는 결정된 다크서클 영역에 포함된 픽셀 값들을 이하 수학식 1을 통해서 확률 값으로 변환할 수 있다. 다크서클 검출부(102)는 변환된 확률 값 중 미리 설정된 임계값을 초과하는 픽셀 개수의 합에 기반하여 다크서클 면적을 산출하고, 산출된 다크서클 면적에 기반하여 다크서클 점수를 산출할 수 있다.The dark
다크서클 검출부(102)는 다크서클의 특정 위치를 추론하기 위하여 0.5의 임계값을 기준으로 (0, 1)로 분해하여 이진화된 맵을 생성할 수 있다.The dark
상기 수학식 1에서, Sarea는 다크서클 면적, 은 다크서클 영역에 포함된 픽셀 값을 의미할 수 있다. 구체적으로, 은 인공신경망 모델의 출력 중 다크서클 영역에 포함된 픽셀 값을 의미할 수 있다.In Equation 1, S area is the dark circle area, may mean a pixel value included in the dark circle area. Specifically, may mean a pixel value included in the dark circle area among outputs of the artificial neural network model.
다크서클 검출부(102)는 검출된 다크서클 영역의 위치에 기반하여 다크서클 영역에 포함된 픽셀값의 평균값 및 픽셀값의 표준편차를 산출할 수 있다.The dark
다크서클 검출부(102)는 색상 변환 알고리즘을 통해 사용자의 얼굴 이미지를 HSV 포맷 이미지로 변환할 수 있다. 다시 말해서, RGB 색상공간에 해당되는 값 보다는 HSV의 값들의 분포가 상대적으로 군집을 이루기 쉬우므로, 다크서클 검출부(102)는 색상 변환 알고리즘을 통해 사용자의 RGB 포맷의 얼굴 이미지를 HSV 포맷 이미지로 변환할 수 있다. 다크서클 검출부(102)는 다크서클 영역에 포함된 픽셀값의 V의 값이 낮을수록 제1 다크서클(예: 검정 다크서클)로 판단하고, 다크서클 영역에 포함된 픽셀값의 S값이 높을수록 제2 다크서클(예: 갈색 다크서클)로 판단할 수 있다.The dark
다크서클 검출부(102)는 HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 상기 임계값을 기준으로 산출된 다크서클 면적에 대응하는 다크서클 영역에 대하여 이하 수학식 2를 통해 표준화를 수행할 수 있다.The dark
상기 수학식 2에서, Z는 표준화가 수행된 값(표준화값), X는 각 픽셀에 해당되는 값을 뜻하며, (뮤)는 획득된 상기 평균값, (시그마)는 획득된 상기 표준편차를 의미할 수 있다.In Equation 2, Z is a standardized value (normalized value), X is a value corresponding to each pixel, (mu) is the average value obtained, (Sigma) may mean the standard deviation obtained.
다크서클 검출부(102)는 표준화된 값 z를 범위 [1, 2]의 값으로 보간(interpolation)할 수 있다. 보간되어진 값은 상기 수학식 1로 계산된 Sarea에 대해서 가중치로써 적용될 수 있다.The dark
도 3은 얼굴 이미지에 대하여 히스토그램 평활화를 진행하여 다크서클을 진단하는 것에 관한 도면이다.3 is a diagram related to diagnosing dark circles by performing histogram equalization on a face image.
다크서클 검출부(102)는 다크서클을 더욱더 정확하게 식별하기 위하여, 사용자의 얼굴 이미지에 포함된 각 픽셀들의 RGB 값을 이하 수학식 3을 통해 Hemoglobin Distribution으로 변환할 수 있다. 다만, Hemoglobin Distribution은 촬영된 이미지의 화이트밸런스에 매우 민감하기 때문에, 다크서클 검출부(102)는 전처리로써 사용자의 얼굴 이미지에 히스토그램 평활화(Histogram Equalization)를 적용하여 이미지의 색감을 전체적으로 보정할 수 있다.In order to more accurately identify dark circles, the dark
도 3을 참조하면, 사용자 A의 피부톤과 사용자 B의 피부톤이 상이하기 때문에, 동일한 방식으로 다크서클을 진단하는 경우, 이미지 A(310)와 이미지 B(320)와 같이 동일한 기준으로 비교할 수 없는 결과가 도출되게 된다. 따라서, 히스토그램 평활화를 통해 이미지 B(320)를 이미지 B'(330)으로 변환하는 작업이 필요하다. 다크서클 검출부(102)는 훈련 데이터 셋의 이미지들의 [0, 255] 범위의 히스토그램을 모두 계산한 뒤, 각 픽셀에 평균에 해당되는 값을 삽입하여 히스토그램 평활화를 위한 레퍼런스 이미지를 생성할 수 있다.Referring to FIG. 3 , since the skin tone of user A and user B are different, when diagnosing dark circles in the same way, results that cannot be compared with the same standard as
상기 수학식 3에서, HD는 Hemoglobin Distribution, I는 각 픽셀에 해당되는 픽셀값을 의미할 수 있다. 예를 들어, Hist(x, x_ref)에서 입력 이미지는 x, 레퍼런스 이미지는 x_ref를 의미할 수 있다.In Equation 3, HD may mean Hemoglobin Distribution, and I may mean a pixel value corresponding to each pixel. For example, in Hist(x, x_ref), the input image may mean x and the reference image may mean x_ref.
상기 수학식 4에서, Hh은 헤모글로빈에 해당되는 값, HD(G)는 각 픽셀에 해당되는 G(green)값에 기반하여 산출된 Hemoglobin Distribution, HD(R)은 각 픽셀에 해당되는 R(red)값에 기반하여 산출된 Hemoglobin Distribution을 의미할 수 있다.In Equation 4, H h is a value corresponding to hemoglobin, HD (G) is a Hemoglobin Distribution calculated based on the G (green) value corresponding to each pixel, HD (R) is R corresponding to each pixel ( red) may mean a hemoglobin distribution calculated based on the value.
상기 수학식 5에서, Hmh는 멜라닌 색소에 해당되는 값, HD(G)는 각 픽셀에 해당되는 G(green)값에 기반하여 산출된 Hemoglobin Distribution, HD(R)은 각 픽셀에 해당되는 R(red)값에 기반하여 산출된 Hemoglobin Distribution, HD(B)는 각 픽셀에 해당되는 B(blue)값에 기반하여 산출된 Hemoglobin Distribution을 의미할 수 있다.In Equation 5, H mh is a value corresponding to the melanin pigment, HD (G) is the Hemoglobin Distribution calculated based on the G (green) value corresponding to each pixel, HD (R) is R corresponding to each pixel The Hemoglobin Distribution HD (B) calculated based on the (red) value may mean the Hemoglobin Distribution calculated based on the B (blue) value corresponding to each pixel.
다크서클 검출부(102)는 상기 Hh 및 상기 Hmh 모두 [1, 2] 범위로 보간하며, 인공신경망을 통해 다크서클 영역에 해당되는 픽셀의 평균값을 가중치로써 사용한다.The dark
도 4는 일 실시 예에 따른 사용자의 다크서클 정량화 내지 다크서클 점수를 산출하는 것에 관한 도면이다.4 is a diagram related to quantifying a user's dark circle or calculating a dark circle score according to an embodiment.
다크서클 진단부(103)는 다크서클의 면적, 사용자의 눈 크기 대비 사용자의 다크서클의 면적 비율, 제1 다크서클(예: 검정 다크서클)의 정도, 제2 다크서클(예: 갈색 다크서클)의 정도, 헤모글로빈 정도, 멜라닌 색소의 정도에 기반하여 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 사용자의 눈 크기 대비 사용자의 다크서클의 면적 비율을 산출할 수 있다. 다시 말해서, 다크서클의 면적이 동일하게 검출되었다고 하더라도 사용자의 눈 크기에 따라 다크서클이 상대적으로 심하거나 약할 수 있기 때문이다.The dark
다크서클 진단부(103)는 이하 수학식 6을 통해 다크서클 점수를 산출할 수 있다.The dark
상기 수학식 6에서, S는 다크서클 점수, Sarea는 다크서클의 면적, ()는 V 표준화값에 대한 가중치, ()는 V-S 표준화값에 대한 가중치, ()는 헤모글로빈에 대한 가중치, ()는 멜라닌 색소에 대한 가중치, k는 다크서클의 면적에 대한 가중치일 수 있다.In Equation 6, S is the dark circle score, S area is the area of the dark circle, ( ) is the weight for the standardized value of V, ( ) is the weight for the VS standardized value, ( ) is the weight for hemoglobin, ( ) may be a weight for the melanin pigment, and k may be a weight for the area of the dark circle.
짙은 다크서클에 해당되는 V 값에 대한 가중치 값()은 보간된 [1, 2] 범위의 역수로 계산되어지고, 갈색 다크서클에 대한 가중치 값()은 상기 수학식 2에서 계산된 V와 S를 뺀 {V - S}의 값에 보간을 적용한 값을 가중치로 계산될 수 있다.The weight value for the V value corresponding to the deep dark circle ( ) is calculated as the reciprocal of the interpolated [1, 2] range, and the weight value for the brown dark circle ( ) may be calculated as a weight value obtained by applying interpolation to the value of {V - S} obtained by subtracting V and S calculated in Equation 2 above.
다크서클 점수 S는 사용자의 얼굴 이미지인 입력 이미지에 대해서 1개씩 존재하며, 다크서클 진단부(103)는 Face Descriptor를 이용하여, 여러 일자에 거쳐서 반복 촬영을 진행한 같은 사람에 대해서는 타임라인에 따라 다크서클 점수를 갱신하여 다크서클 점수를 부여할 수 있다.The dark circle score S exists one by one for each input image, which is the user's face image, and the dark
다크서클 진단부(103)는 양쪽 눈 각각의 다크서클 정도의 차이 및/또는 사용자의 화장 정도에 기반하여 다크서클 최종 점수를 산출할 수 있다. 다시 말해서, 사용자의 화장이 진한 경우에는 입력 이미지에 기반한 사용자에 대한 다크서클 진단이 정확하지 않을 확률이 높으므로, 다크서클 진단부(103)는 화장 정도를 다크서클 점수에 반영할 수 있으며, 다크서클 진단부(103)는 좌우 다크서클의 정도 차이가 심한 경우 피부 상태의 일관성이 떨어지는 것으로 보아 좌우 다크서클의 정도 차이를 다크서클 점수에 반영할 수 있다.The dark
다크서클 진단부(103)는 사용자의 화장 여부 및/또는 화장 정도를 결정할 수 있다. 다크서클 진단부(103)는 사용자의 현재 얼굴 이미지 및 사용자의 맨얼굴 이미지에 기초하여 사용자의 화장 정도를 결정할 수 있다. 현재 얼굴 이미지는 실시간으로 획득되는 사용자의 얼굴 이미지일 수 있다. 예를 들어, 현재 얼굴 이미지는 획득된 이미지에 기반하여 사용자의 얼굴 부분이 검출된 얼굴 이미지일 수 있다. 맨얼굴 이미지는 사용자 단말 내지 서버와 연동된 카메라로부터 획득된 화장이 안된 얼굴 이미지일 수 있으며, 사용자의 얼굴이 포함된 입력 이미지를 딥러닝에 기반하여 사용자의 화장이 안된 얼굴 이미지가 추측된 이미지일 수 있다. 예를 들어, 맨얼굴 이미지는 미리 지도 학습된 인공 신경망을 이용하여 사용자의 얼굴 이미지의 특징점을 통해 결정된 얼굴 이미지일 수 있다.The dark
다크서클 진단부(103)는 사용자의 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여, 피부색의 변화, 트러블 수의 변화(예: 붉은 반점 수의 변화, 주근깨 수의 변화) 등에 기초하여 사용자의 화장 정도를 결정할 수 있다.The dark
다크서클 진단부(103)는 데이터베이스(200)에 저장된 사용자의 맨얼굴 이미지들 중에서 인공 신경망의 출력으로 획득되는 특징점들을 특징점으로 갖는 얼굴 이미지를 맨얼굴 이미지로 결정할 수 있다. 또는 다크서클 진단부(103)는 데이터베이스(200)에 저장된 사용자의 얼굴 이미지들 중에서 인공 신경망의 출력으로 획득된 특징점들을 특징점으로 갖는 얼굴 이미지에 가장 유사한 얼굴 이미지를 평균 얼굴 이미지로 결정할 수 있다.The dark
다크서클 진단부(103)는 맨얼굴 이미지 추측 모델 학습 및 맨얼굴 이미지 추측 모델을 포함할 수 있다. 맨얼굴 이미지 추측 모델 학습부 및 맨얼굴 이미지 추측 모델은 다크서클 진단부(103)의 기능에 따라 나눠진 구성으로, 다크서클 진단부(103)에서 해당 기능을 모두 실시 가능함은 자명하다 하겠다.The dark
다크서클 진단부(103)는 데이터베이스(200)에 저장된 맨얼굴 이미지 학습 데이터를 획득할 수 있다. 일 실시 예의 맨얼굴 이미지 학습 데이터는 맨얼굴 이미지의 특징점을 입력값으로 하고, 얼굴 이미지의 평균 특징점을 출력값을 갖는 훈련 데이터일 수 있다. 얼굴 이미지의 특징점은 각 화소에 해당하는 컬러 값일 수 있다.The dark
맨얼굴 이미지 추측 모델 학습부는 다수의 사용자 단말들로부터 상기 다수의 사용자 단말들 각각에 대응하는 사용자들의 맨얼굴 이미지를 학습 데이터로써 획득할 수 있다. 맨얼굴 이미지 추측 모델 학습부는 획득된 학습 데이터를 이용하여, 맨얼굴 이미지 추측 모델을 학습할 수 있다. 일 실시 예의 맨얼굴 이미지 추측 모델로서 인공 신경망(Artificial Neural Network)이 이용될 수 있다. 인공 신경망은 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 예측 모델이다.The bare face image estimation model learning unit may acquire bare face images of users corresponding to each of the plurality of user terminals as training data. The bare face image estimation model learning unit may learn the bare face image estimation model using the acquired training data. An artificial neural network may be used as a bare face image estimation model according to an embodiment. An artificial neural network is a predictive model implemented in software or hardware that mimics the computational power of a biological system using a large number of artificial neurons (or nodes).
맨얼굴 이미지 추측 모델은 맨얼굴 이미지 추측 모델 학습부에 의해서 '맨얼굴 이미지의 특징점'과 '맨얼굴 이미지의 평균 특징점'을 이용하여 지도 학습될 수 있다. 이때 지도 학습(supervised learning)이란, 입력값과 그에 따른 출력값이 있는 데이터를 학습 데이터로 이용하여 주어진 입력값에 따른 출력값을 찾는 학습을 의미하며, 정답을 알고 있는 상태에서 이루어지는 학습을 의미한다. 지도 학습에 주어지는 입력값과 출력값 세트를 훈련 데이터(Training Data)라고 한다. 즉, 상술한 '맨얼굴 이미지의 특징점'과 '맨얼굴 이미지의 평균 특징점'은 각각 입력값과 출력값으로서, 맨얼굴 이미지 추측 모델의 지도 학습을 위한 훈련 데이터로 사용될 수 있다.The bare face image estimation model may be supervised and learned by the bare face image estimation model learning unit using 'feature points of the bare face image' and 'average feature points of the bare face image'. In this case, supervised learning refers to learning to find an output value according to a given input value by using data having input values and corresponding output values as learning data, and means learning performed in a state where the correct answer is known. The set of inputs and outputs given to supervised learning is called training data. That is, the above-described 'feature points of the bare face image' and 'average feature points of the bare face image' are input values and output values, respectively, and can be used as training data for supervised learning of the bare face image estimation model.
예를 들어, 맨얼굴 이미지 추측 모델 학습부는 맨얼굴 이미지의 특징점을 고유한 제1 원-핫 벡터(one-hot vector)로 변환하여 입력값을 생성하고, 맨얼굴 이미지의 평균 특징점을 고유한 제2 원-핫 벡터로 변환하여 출력값을 생성한 후, 생성된 입력값과 출력값을 이용해 맨얼굴 이미지 추측 모델을 지도학습할 수 있다. 여기서, 제1 원-핫 벡터 및 제2 원-핫 벡터는 벡터를 구성하는 성분값들 중 하나가 '1' 이고, 나머지 성분값들은 '0'으로 구성되는 벡터일 수 있다.For example, the bare face image estimation model learning unit converts the feature points of the bare face image into a unique first one-hot vector to generate an input value, and converts the average feature point of the bare face image into a unique first one-hot vector. 2 After converting to one-hot vector to generate an output value, the generated input value and output value can be used to supervise the bare face image estimation model. Here, the first one-hot vector and the second one-hot vector may be vectors in which one of the component values constituting the vector is '1' and the other component values are '0'.
일 실시 예에서, 맨얼굴 이미지 추측 모델은, 입력값을 입력받고 제1 원-핫 벡터의 성분갯수에 상응하는 노드들을 갖는 입력층, 입력층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 바이어스(bias)를 더하여 출력하는 하나 이상의 은닉층(hidden layer); 및 은닉층의 출력값 각각에 대하여 연결강도(또는 가중치)를 곱하고, 그 결과를 활성화 함수를 이용하여 출력하는 출력층(output layer)을 포함할 수 있다. 예를 들어, 활성화 함수는, ReLU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다. 연결강도와 바이어스는 지도 학습에 의해 지속적으로 갱신될 수 있다.In one embodiment, the bare face image estimation model receives an input value, multiplies an input layer having nodes corresponding to the number of components of the first one-hot vector, and a connection strength (or weight) for each output value of the input layer. . , one or more hidden layers for adding and outputting a bias; and an output layer that multiplies each output value of the hidden layer by a connection strength (or weight) and outputs the result using an activation function. For example, the activation function may be a ReLU function or a Softmax function, but is not limited thereto. Connection strength and bias can be continuously updated by supervised learning.
구체적으로, 맨얼굴 이미지 추측 모델은, 주어진 입력값(제1 원-핫 벡터)과 출력값(제2 원-핫 벡터)에 따른 손실 함수(loss function)의 출력값이 최소화되도록 지도학습될 수 있다.Specifically, the bare face image estimation model may be supervised so that an output value of a loss function according to a given input value (first one-hot vector) and output value (second one-hot vector) is minimized.
다크서클 진단부(103)는 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여 사용자의 화장 정도를 결정할 수 있다. 다크서클 진단부(103)는 사용자의 추측된 맨얼굴 이미지와 사용자의 현재 얼굴 이미지에서 부분 영역 별로 사용자의 화장 정도를 결정할 수 있다. 예를 들어, 다크서클 진단부(103)는 상기 맨얼굴 이미지와 상기 현재 얼굴 이미지에서 사용자의 이마, 코, 눈가, 눈썹, 입술, 볼 등의 부분 영역 별로 사용자의 화장 정도를 결정할 수 있다.The dark
상기 수학식 2에서, y는 화장 정도를 나타내는 지표, p는 트러블의 종류의 수, c는 컬러값의 변화도, h는 상기 부분 영역들의 수, w1은 상기 트러블에 관한 가중치, w2는 상기 피부색에 관한 가중치, n은 맨얼굴 이미지에 관한 지표, m은 현재 얼굴 이미지에 관한 지표일 수 있다.In Equation 2, y is an index representing the degree of makeup, p is the number of types of troubles, c is the degree of change in color values, h is the number of partial areas, w1 is a weight for the troubles, and w2 is the skin color A weight for , n may be an index for a bare face image, and m may be an index for a current face image.
다크서클 진단부(103)는 맨얼굴 이미지와 현재 얼굴 이미지에서 각 부분 영역 별로 트러블 변화도 및 컬러 변화도를 산출하고, 산출된 트러블 변화도 및 컬러 변화도에 기초하여 사용자의 화장 정도를 결정할 수 있다. 트러블 변화도는 맨얼굴 이미지와 사용자의 현재 얼굴 이미지를 비교하여, 검출되는 트러블의 개수의 차이에 기반하여 산출되며, 컬러 변화도는 각 부분 영역별로 픽셀값인 R(red 픽셀)값, G(green 픽셀)값, B(blue 픽셀)값에 의하여 결정될 수 있다.The dark
다크서클 진단부(103)는 왼쪽 눈과 오른쪽 눈 간 다크서클 정도의 차이에 기반하여 최종 다크서클 점수를 산출할 수 있다.The dark
다크서클 진단부(103)는 왼쪽 눈에 대응하는 왼쪽 다크서클에 대한 점수인 제1 다크서클 점수를 산출하고, 오른쪽 눈에 대응하는 오른쪽 다크서클에 대한 점수인 제2 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 간 다크서클 점수 차이를 계산하고, 계산된 다크서클 점수 차이에 기반하여 최종 다크서클 점수를 산출할 수 있다. 다크서클 진단부(103)는 상기 다크서클 점수 차이가 클수록 최종 다크서클 점수를 낮게 산출할 수 있다.The dark
다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 중 더 높은 점수가 미리 설정된 제1 점수보다 높은 경우, 상기 다크서클 점수 차이가 클수록 제1 가중치 범위 내에서 다크서클 점수 차이에 대한 가중치를 더 높게 결정할 수 있다. 다크서클 진단부(103)는 제1 다크서클 점수 및 제2 다크서클 점수 중 더 높은 점수가 미리 설정된 제2 점수보다 낮은 경우, 상기 다크서클 점수 차이가 클수록 제2 가중치 범위 내에서 다크서클 점수 차이에 대한 가중치를 더 높게 결정할 수 있다. 상기 제1 가중치 범위의 가장 낮은 가중치는 상기 제2 가중치 범위의 가장 높은 가중치보다 높을 수 있다. 예를 들어, 제1 가중치 범위는 0.5이상 0.8미만이고, 제2 가중치 범위는 0.2이상 0.5미만일 수 있다.The dark
다크서클 진단부(103)는 상기 다크서클 점수 차이 및 상기 다크서클 점수 차이에 대한 가중치에 기반하여 상기 최종 다크서클 점수를 산출할 수 있다.The dark
도 5는 도 1에 따른 사용자 단말(100)의 하드웨어 구성을 나타낸 도면이다.FIG. 5 is a diagram showing a hardware configuration of the
도 5를 참조하면, 사용자 단말(100)는 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 5 , the
상기 적어도 하나의 동작은, 전술한 사용자 단말(100)의 동작이나 기능 중 적어도 일부를 포함하고 명령어들 형태로 구현되어 프로세서(110)에 의하여 수행될 수 있다.The at least one operation may include at least some of the above-described operations or functions of the
여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.Here, the at least one
또한, 사용자 단말(100)는 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 사용자 단말(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 사용자 단말(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다. 도 5에서는 사용자 단말(100)를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 복수 개의 사용자 단말들은 도 5에 따른 구성요소를 포함할 수 있다.In addition, the
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
100: 사용자 단말 200: 데이터베이스100: user terminal 200: database
Claims (5)
메모리 및 상기 메모리와 작동적으로(operatively) 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
상기 장치와 연동되어 사용자의 얼굴 이미지를 촬영하는 카메라를 통해 촬영된 상기 사용자의 상기 얼굴 이미지를 획득하는 동작;
획득된 상기 사용자의 얼굴 이미지에서 사용자의 다크서클 영역을 검출하는 동작;
검출된 상기 다크서클 영역에 대한 다크서클 점수를 산출하는 동작; 및
산출된 다크서클 점수를 상기 장치와 연동된 디스플레이를 통해 출력하는 동작을 수행하고,
상기 다크서클 영역을 검출하는 동작은,
상기 다크서클 영역에 포함된 픽셀 값들을 확률 값으로 변환하는 동작;
변환된 확률 값이 미리 설정된 임계값을 초과하는 픽셀의 개수에 기반하여 다크서클 면적을 산출하는 동작을 포함하되,
이하 수학식을 통해 상기 다크서클 면적을 산출하고,
상기 수학식에서, Sarea는 상기 다크서클 면적, 은 상기 다크서클 영역에 포함된 픽셀 값들에 대응하는 상기 확률 값을 의미하고,
상기 다크서클 면적, 상기 사용자의 얼굴 면적 대비 상기 다크서클 면적 비율, HSV 포맷 이미지로 변환된 상기 얼굴 이미지에서 V 값, 및 V-S 값에 기반하여 상기 다크서클 점수를 산출하는 동작을 수행하는, 장치.In the device for diagnosing dark circles,
a memory and at least one processor operatively coupled with the memory, the at least one processor comprising:
obtaining the face image of the user captured by a camera that captures the face image of the user in conjunction with the device;
detecting a user's dark circle area from the obtained user's face image;
calculating a dark circle score for the detected dark circle area; and
Performing an operation of outputting the calculated dark circle score through a display linked to the device;
The operation of detecting the dark circle area,
converting pixel values included in the dark circle area into probability values;
Calculating a dark circle area based on the number of pixels for which the converted probability value exceeds a preset threshold,
Calculate the dark circle area through the following equation,
In the above equation, S area is the dark circle area, Means the probability value corresponding to pixel values included in the dark circle area,
An operation for calculating the dark circle score based on the dark circle area, the ratio of the dark circle area to the user's face area, the V value and the VS value in the face image converted to an HSV format image.
상기 적어도 하나의 프로세서는,
상기 얼굴 이미지와 미리 설정된 레퍼런스 이미지에 기반하여 상기 얼굴 이미지에 히스토그램 평활화(histogram equalization)를 수행하는 동작; 및
히스토그램 평활화가 수행된 상기 얼굴 이미지에 포함된 각 픽셀들의 RGB 값에 대하여 헤모글로빈 디스트리뷰션(hemoglobin distribution)으로 변환하는 동작을 수행하는, 장치.In claim 1,
The at least one processor,
performing histogram equalization on the face image based on the face image and a preset reference image; and
An apparatus for performing an operation of converting an RGB value of each pixel included in the face image on which histogram equalization has been performed into a hemoglobin distribution.
상기 적어도 하나의 프로세서는,
색상 변환 알고리즘을 통해 상기 사용자의 상기 얼굴 이미지를 HSV 포맷 이미지로 변환하는 동작을 수행하는, 장치.In claim 1,
The at least one processor,
An apparatus for performing an operation of converting the face image of the user into an HSV format image through a color conversion algorithm.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220079146A KR102465728B1 (en) | 2022-06-28 | 2022-06-28 | Method and apparatus for detecting dark circles and quantifying the degree of dark circles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220079146A KR102465728B1 (en) | 2022-06-28 | 2022-06-28 | Method and apparatus for detecting dark circles and quantifying the degree of dark circles |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102465728B1 true KR102465728B1 (en) | 2022-11-15 |
Family
ID=84041929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220079146A KR102465728B1 (en) | 2022-06-28 | 2022-06-28 | Method and apparatus for detecting dark circles and quantifying the degree of dark circles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102465728B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140112046A (en) | 2011-12-26 | 2014-09-22 | 샤넬 파르퓜 보트 | Method and device for detecting and quantifying cutaneous signs on an area of skin |
KR20210077533A (en) | 2019-12-17 | 2021-06-25 | 고려대학교 산학협력단 | Method and server for face registration and face analysis |
KR20220078231A (en) | 2020-12-03 | 2022-06-10 | 주식회사 베이바이오텍 | Skin condition measuring apparatus, skin condition measring system and method thereof |
-
2022
- 2022-06-28 KR KR1020220079146A patent/KR102465728B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140112046A (en) | 2011-12-26 | 2014-09-22 | 샤넬 파르퓜 보트 | Method and device for detecting and quantifying cutaneous signs on an area of skin |
KR20210077533A (en) | 2019-12-17 | 2021-06-25 | 고려대학교 산학협력단 | Method and server for face registration and face analysis |
KR20220078231A (en) | 2020-12-03 | 2022-06-10 | 주식회사 베이바이오텍 | Skin condition measuring apparatus, skin condition measring system and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Niu et al. | VIPL-HR: A multi-modal database for pulse estimation from less-constrained face video | |
US11058209B2 (en) | Beauty counseling information providing device and beauty counseling information providing method | |
US9311564B2 (en) | Face age-estimation and methods, systems, and software therefor | |
CN109325468B (en) | Image processing method and device, computer equipment and storage medium | |
US10635919B2 (en) | Information processing device, image processing system, image processing method, and program storage medium | |
US12039732B2 (en) | Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications | |
CN110390254B (en) | Character analysis method and device based on human face, computer equipment and storage medium | |
CN113781488A (en) | Tongue picture image segmentation method, apparatus and medium | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
CN113298753A (en) | Sensitive muscle detection method, image processing method, device and equipment | |
JP6166981B2 (en) | Facial expression analyzer and facial expression analysis program | |
RU2768797C1 (en) | Method and system for determining synthetically modified face images on video | |
KR102611121B1 (en) | Method and apparatus for generating imaga classification model | |
Willoughby et al. | DrunkSelfie: intoxication detection from smartphone facial images | |
KR102465728B1 (en) | Method and apparatus for detecting dark circles and quantifying the degree of dark circles | |
KR102445752B1 (en) | Method and apparatus for predicting disease through wrinkle detection | |
JP2022039984A (en) | System and method for finding area of eye from facial image | |
JP2011141866A (en) | Data classifying device, data classifying system, and program | |
CN113298841B (en) | Skin oil parting method, computer equipment, system and storage medium | |
CN116740485A (en) | Training method and device for lesion detection model, electronic equipment and storage medium | |
KR102445257B1 (en) | Method and apparatus for detecting pores based on artificial neural network and visualizing the detected pores | |
KR20240025797A (en) | Skin diagnosis apparatus, skin diagnosis system including the same and skin diagnosis method | |
CN114022502A (en) | Hemogram information prediction method and device, electronic device, and storage medium | |
KR102436127B1 (en) | Method and apparatus for detecting wrinkles based on artificial neural network | |
US11640663B1 (en) | Method of determining suitability of skin analysis image and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |