[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102364929B1 - Electronic device, sever, and system for tracking skin changes - Google Patents

Electronic device, sever, and system for tracking skin changes Download PDF

Info

Publication number
KR102364929B1
KR102364929B1 KR1020200089207A KR20200089207A KR102364929B1 KR 102364929 B1 KR102364929 B1 KR 102364929B1 KR 1020200089207 A KR1020200089207 A KR 1020200089207A KR 20200089207 A KR20200089207 A KR 20200089207A KR 102364929 B1 KR102364929 B1 KR 102364929B1
Authority
KR
South Korea
Prior art keywords
image
electronic device
memory
images
partial region
Prior art date
Application number
KR1020200089207A
Other languages
Korean (ko)
Other versions
KR20220010381A (en
Inventor
엄태웅
이훈재
Original Assignee
주식회사 아트랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아트랩 filed Critical 주식회사 아트랩
Priority to KR1020200089207A priority Critical patent/KR102364929B1/en
Publication of KR20220010381A publication Critical patent/KR20220010381A/en
Application granted granted Critical
Publication of KR102364929B1 publication Critical patent/KR102364929B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Dermatology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 문서에 개시되는 일 실시 예에 따른 전자 장치는 하우징, 상기 하우징의 일 면에 배치되는 디스플레이, 상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라, 상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 사용자 입력에 응답하여 제1 이미지를 촬영하고, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 디스플레이에 순차적으로 출력할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.An electronic device according to an embodiment disclosed in this document includes a housing, a display disposed on one surface of the housing, a camera exposed through the display or disposed in a designated area of the housing, and storing images captured by the camera. a memory, and a processor connected to the display, the camera, and the memory, wherein the processor is configured to: photograph a first image in response to a user input, and obtain a second image obtained by changing the first image to a specified angle and extracting at least a partial region of the second image, changing the color of the at least partial region to a specified level, analyzing features included in the at least partial region, and displaying it in a specified pattern, , the images stored in the memory and the at least partial region on which the designated pattern is displayed may be sequentially output to the display. In addition to this, various embodiments identified through the specification are possible.

Description

피부 변화를 추적하는 전자 장치, 서버, 및 시스템{ELECTRONIC DEVICE, SEVER, AND SYSTEM FOR TRACKING SKIN CHANGES}ELECTRONIC DEVICE, SEVER, AND SYSTEM FOR TRACKING SKIN CHANGES

본 발명은 피부 변화를 추적하는 전자 장치, 서버, 및 시스템에 관한 것이다. 구체적으로 본 발명은 사용자의 피부 변화를 추적하기 위한 기술과 관한 것이다The present invention relates to an electronic device, server, and system for tracking skin changes. Specifically, the present invention relates to a technique for tracking changes in the skin of a user.

전자 장치(예: 스마트 폰)의 보급이 확대되고, 전자 장치에 적용되는 기술이 고도화 됨에 따라 사람들의 생활 방식은 점점 더 용이하고 편리해 지고 있다. 예컨대, 사용자가 카메라를 통해 얼굴을 촬영하면, 전자 장치는 피부의 상태, 트러블의 개수 등을 분석할 수 있다. 분석 결과는 디스플레이를 통해 출력될 수 있으며, 사용자는 이를 통해 피부 상태를 즉시 확인할 수 있다.As the spread of electronic devices (eg, smart phones) expands and technologies applied to electronic devices are advanced, people's lifestyles are becoming easier and more convenient. For example, when a user photographs a face through a camera, the electronic device may analyze the condition of the skin, the number of troubles, and the like. The analysis result can be output through the display, and the user can immediately check the skin condition through this.

삭제delete

등록특허 제10-2036043호Registered Patent No. 10-2036043

그러나 사용자가 자신의 피부를 촬영하는 위치 및 각도는 매번 상이하므로 특정 영역(예: 이마, 볼)의 피부 상태를 지속적으로 분석하는 것은 용이하지 않을 수 있다. 또한, 전자 장치는 촬영 직후의 이미지만을 분석하여 출력하므로, 사용자가 과거부터 촬영 시까지의 피부 변화를 확인하는 것은 불가능할 수 있다.However, it may not be easy to continuously analyze the skin condition of a specific area (eg, forehead, cheeks) because the location and angle at which the user photographs their skin are different every time. In addition, since the electronic device analyzes and outputs only the image immediately after photographing, it may be impossible for the user to check the skin change from the past to the time of photographing.

본 문서에서 개시되는 실시 예들은, 전술한 문제 및 본 문서에서 제기되는 과제들을 해결하기 위한 전자 장치를 제공하고자 한다.Embodiments disclosed in this document are intended to provide an electronic device for solving the above-described problems and problems posed in this document.

본 문서에 개시되는 일 실시 예에 따른 전자 장치는 하우징, 상기 하우징의 일 면에 배치되는 디스플레이, 상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라, 상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 사용자 입력에 응답하여 제1 이미지를 촬영하고, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 디스플레이에 순차적으로 출력할 수 있다.An electronic device according to an embodiment disclosed in this document includes a housing, a display disposed on one surface of the housing, a camera exposed through the display or disposed in a designated area of the housing, and storing images captured by the camera. a memory, and a processor connected to the display, the camera, and the memory, wherein the processor is configured to: photograph a first image in response to a user input, and obtain a second image obtained by changing the first image to a specified angle and extracting at least a partial region of the second image, changing the color of the at least partial region to a specified level, analyzing features included in the at least partial region, and displaying it in a specified pattern, , the images stored in the memory and the at least partial region on which the designated pattern is displayed may be sequentially output to the display.

또한, 본 문서에 개시되는 일 실시 예에 따른 서버는, 이미지들을 저장하는 메모리, 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 전자 장치로부터 제1 이미지를 수신하면, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송할 수 있다.In addition, the server according to an embodiment disclosed in this document includes a memory for storing images, and a processor connected to the memory, wherein the processor: When receiving a first image from an electronic device, the first image to obtain a second image obtained by changing ? to a specified angle, extract at least a partial region of the second image, change a color of the at least partial region to a specified level, and features included in the at least partial region (features) may be analyzed and displayed as a designated pattern, and images stored in the memory and the at least partial region on which the designated pattern is displayed may be transmitted to the electronic device.

또한, 본 문서에 개시되는 일 실시 예에 따른 피부 변화를 추적하는 시스템은, 제1 이미지를 촬영하는 전자 장치, 및 상기 촬영된 제1 이미지를 상기 전자 장치로부터 수신하는 서버를 포함하고, 상기 서버는: 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송하고, 상기 전자 장치는: 상기 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 순차적으로 출력할 수 있다.In addition, the system for tracking skin changes according to an embodiment disclosed in this document includes an electronic device for photographing a first image, and a server for receiving the photographed first image from the electronic device, the server is: obtains a second image obtained by changing the first image to a specified angle, extracts at least a partial area of the second image, changes a color of the at least partial area to a specified level, and at least some of the Analyze features included in a region and display them as a specified pattern, and transmit pre-stored images and the at least partial region in which the specified pattern is displayed to the electronic device, wherein the electronic device includes: the pre-stored images and the at least some regions on which the designated pattern is displayed may be sequentially output.

본 문서에 개시되는 실시 예들에 따르면, 지속적인 피부 변화를 관찰할 수 있다.According to the embodiments disclosed in this document, it is possible to observe a continuous skin change.

또한, 본 문서에 개시되는 실시 예들에 따르면, 신체의 부위 별 피부 상태를 분석할 수 있다.In addition, according to the embodiments disclosed in this document, a skin condition for each body part may be analyzed.

또한, 본 문서에 개시되는 실시 예들에 따르면, 촬영된 신체 부위의 위치 및 각도에 관계없이 피부 상태를 분석할 수 있다.Also, according to the embodiments disclosed in this document, the skin condition may be analyzed regardless of the position and angle of the photographed body part.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.

도 1은 일 실시 예에 따른 피부 변화를 추적하기 위한 시스템을 나타낸다.
도 2는 일 실시 예에 따른 전자 장치 및 서버의 하드웨어 블록도를 나타낸다.
도 3은 일 실시 예에 따른 전자 장치의 동작 흐름도를 나타낸다.
도 4는 일 실시 예에 따른 지정된 각도로 변경된 이미지를 나타낸다.
도 5는 일 실시 예에 따른 추출된 영역을 나타낸다.
도 6은 일 실시 예에 따른 추출된 영역의 색을 지정된 수준으로 변경하는 동작을 나타낸다.
도 7은 일 실시 예에 따른 지정된 패턴을 표시하는 동작을 나타낸다.
도 8은 일 실시 예에 따른 이미지들을 지정된 순서로 출력하는 동작을 나타낸다.
1 illustrates a system for tracking skin changes according to an embodiment.
2 is a hardware block diagram of an electronic device and a server according to an exemplary embodiment.
3 is a flowchart illustrating an operation of an electronic device according to an exemplary embodiment.
4 illustrates an image changed to a specified angle according to an exemplary embodiment.
5 illustrates an extracted region according to an exemplary embodiment.
6 illustrates an operation of changing a color of an extracted area to a specified level according to an exemplary embodiment.
7 illustrates an operation of displaying a specified pattern according to an exemplary embodiment.
8 illustrates an operation of outputting images in a specified order according to an exemplary embodiment.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that various modifications, equivalents, and/or alternatives of the embodiments of the present invention are included. In connection with the description of the drawings, like reference numerals may be used for like components.

도 1은 일 실시 예에 따른 피부 변화를 추적하기 위한 시스템(1000)을 나타낸다.1 illustrates a system 1000 for tracking skin changes according to an embodiment.

도 1을 참조하면 시스템(1000)은 전자 장치(100) 및 서버(200)를 포함할 수 있다.Referring to FIG. 1 , a system 1000 may include an electronic device 100 and a server 200 .

전자 장치(100)는 하우징(110), 디스플레이(120), 및 카메라(130)를 포함할 수 있다.The electronic device 100 may include a housing 110 , a display 120 , and a camera 130 .

하우징(110)은 전자 장치(100)의 외관을 형성함으로써, 외부 충격으로부터 전자 장치(100)에 포함되는 부품들을 보호할 수 있다.The housing 110 may protect the components included in the electronic device 100 from external impact by forming the exterior of the electronic device 100 .

디스플레이(120)는 하우징(110)의 일 면에 배치될 수 있다. 일 실시 예에 따르면 디스플레이(120)는 사용자 입력을 수신할 수 있다. 예컨대, 사용자가 손가락을 디스플레이(120) 상에 접촉하면, 디스플레이(120)는 사용자의 터치를 인식함으로써 터치에 대응하는 동작을 수행할 수 있다. 다른 실시 예로, 디스플레이(120)는 이미지, 동영상 등을 출력함으로써 사용자에게 각종 컨텐츠를 제공할 수 있다.The display 120 may be disposed on one surface of the housing 110 . According to an embodiment, the display 120 may receive a user input. For example, when a user touches a finger on the display 120 , the display 120 may perform an operation corresponding to the touch by recognizing the user's touch. In another embodiment, the display 120 may provide various contents to the user by outputting an image, a video, or the like.

카메라(130)는 디스플레이(120)를 통해 노출되거나 하우징(110)의 지정된 영역에 배치될 수 있다. 카메라(130)는 사용자 입력에 응답하여 인물, 배경, 사물의 이미지 및 동영상을 촬영할 수 있다. 촬영된 이미지 및 동영상은 전자 장치(100)에 저장될 수 있다.The camera 130 may be exposed through the display 120 or disposed in a designated area of the housing 110 . The camera 130 may capture images and videos of people, backgrounds, and objects in response to a user input. The captured images and moving pictures may be stored in the electronic device 100 .

일 실시 예에 따르면, 전자 장치(100)는 사용자 입력(예: 화면 터치)에 응답하여 제1 이미지(예: 얼굴)를 촬영할 수 있다. 전자 장치(100)는 제1 이미지를 지정된 각도로 변경하여 제2 이미지를 획득한 후, 제2 이미지 중 적어도 일부 영역(예: 볼)을 추출할 수 있다. 적어도 일부 영역이 추출되면, 전자 장치(100)는 상기 적어도 일부 영역의 색을 지정된 수준으로 변경할 수 있다. 예컨대, 상기 적어도 일부 영역의 밝기를 밝게 하거나 어둡게 할 수 있다.According to an embodiment, the electronic device 100 may capture a first image (eg, a face) in response to a user input (eg, a screen touch). After acquiring the second image by changing the first image to a specified angle, the electronic device 100 may extract at least a partial region (eg, a ball) from the second image. When at least a partial region is extracted, the electronic device 100 may change the color of the at least partial region to a specified level. For example, the brightness of the at least partial area may be increased or decreased.

또한, 전자 장치(100)는 상기 적어도 일부 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 상기 적어도 일부 영역에 트러블, 홍조 등이 있을 경우, 전자 장치(100)는 트러블, 홍조를 강조할 수 있는 패턴을 상기 이미지 상에 표시할 수 있다. 상기 지정된 패턴이 표시되면, 전자 장치(100)는 기 저장된 이미지들과 상기 지정된 패턴이 표시된 이미지를 순차적으로 출력할 수 있다.In addition, the electronic device 100 may analyze the features included in the at least partial region and display it in a designated pattern. For example, when there is trouble or redness in the at least some areas, the electronic device 100 may display a pattern for emphasizing trouble or redness on the image. When the specified pattern is displayed, the electronic device 100 may sequentially output pre-stored images and an image in which the specified pattern is displayed.

종래의 전자 장치는 촬영 당시의 이미지에 기초하여 피부 상태를 진단하므로, 촬영 당시의 피부 상태만을 사용자에게 제공할 수 있다. 그러나 본 발명의 일 실시 예에 따른 전자 장치(100)는 과거에 분석된 후 저장된 이미지들까지 순차적으로 출력하므로, 사용자는 자신의 피부 상태 변화를 인식할 수 있다. 또한, 본 발명의 일 실시 예에 따른 전자 장치(100)는 촬영된 이미지를 지정된 각도로 변경하여 구도를 정규화하므로, 사용자의 위치, 얼굴의 각도 등에 상관없이 일정한 영역의 피부 상태를 확인할 수 있다.Since a conventional electronic device diagnoses a skin condition based on an image at the time of photographing, only the skin condition at the time of photographing may be provided to the user. However, since the electronic device 100 according to an embodiment of the present invention sequentially outputs images that have been analyzed and stored in the past, the user can recognize a change in his or her skin condition. In addition, since the electronic device 100 according to an embodiment of the present invention normalizes the composition by changing the photographed image to a specified angle, it is possible to check the skin condition of a certain area regardless of the user's position or face angle.

서버(200)는 전자 장치(100)와 유선 및/또는 무선 통신할 수 있다. 예컨대, 전자 장치(100)는 BLE, Wi-Fi 등을 통해 촬영된 이미지들을 서버(200)로 전송할 수 있으며, 서버(200)는 수신한 이미지들을 분석할 수 있다.The server 200 may communicate with the electronic device 100 by wire and/or wirelessly. For example, the electronic device 100 may transmit captured images to the server 200 through BLE, Wi-Fi, or the like, and the server 200 may analyze the received images.

일 실시 예에 따르면, 서버(200)는 전자 장치(100)로부터 수신한 이미지에서 특정 영역(예: 볼)을 추출하고, 상기 추출된 영역의 피부 상태를 분석하여 전자 장치(100)로 전송할 수 있다. 전자 장치(100)는 서버(200)로부터 수신한 이미지들을 순차적으로 출력할 수 있으며, 사용자는 자신의 피부 상태 변화를 인식할 수 있다. 본 문서에서 카메라(130)를 통해 사진을 촬영하는 동작 외에는 전자 장치(100)와 서버(200)에서 수행되는 동작은 호환될 수 있다.According to an embodiment, the server 200 may extract a specific area (eg, cheek) from the image received from the electronic device 100 , analyze the skin condition of the extracted area, and transmit it to the electronic device 100 . there is. The electronic device 100 may sequentially output images received from the server 200 , and the user may recognize a change in his or her skin condition. In this document, except for the operation of taking a picture through the camera 130 , operations performed by the electronic device 100 and the server 200 may be compatible.

일 실시 예에 따르면, 전자 장치(100) 및/또는 서버(200)는 인공지능(artificial intelligence; AI)을 통해 사용자의 피부 상태를 지속적으로 분석할 수 있다. 예컨대, 분석 데이터는 전자 장치(100) 및/또는 서버(200)에 저장될 수 있고, 추후 사용자의 피부가 촬영되었을 경우 저장된 데이터가 피부 분석에 이용될 수 있다.According to an embodiment, the electronic device 100 and/or the server 200 may continuously analyze the user's skin condition through artificial intelligence (AI). For example, the analysis data may be stored in the electronic device 100 and/or the server 200 , and when the user's skin is photographed later, the stored data may be used for skin analysis.

도 2는 일 실시 예에 따른 전자 장치(100) 및 서버(200)의 하드웨어 블록도를 나타낸다.2 is a hardware block diagram of the electronic device 100 and the server 200 according to an embodiment.

도 2를 참조하면 전자 장치(100)는 하우징(110), 디스플레이(120), 카메라(130), 메모리(140), 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 100 may include a housing 110 , a display 120 , a camera 130 , a memory 140 , and a processor 150 .

메모리(140)는 카메라(130)에서 촬영된 이미지들을 저장할 수 있다. 일 실시 예에 따르면, 메모리(140)는 기 분석된 피부 상태와 관련된 데이터를 저장할 수 있다. 예컨대, 메모리(140)는 모공의 개수, 트러블 및 홍조의 정도 등을 저장할 수 있다.The memory 140 may store images captured by the camera 130 . According to an embodiment, the memory 140 may store data related to a pre-analyzed skin condition. For example, the memory 140 may store the number of pores, the degree of trouble and redness, and the like.

프로세서(150)는 디스플레이(120), 카메라(130), 및 메모리(140)와 전기적으로 연결되어, 상기 부품들을 제어할 수 있다. 예컨대, 프로세서(150)는 카메라(130)에서 촬영된 이미지를 지정된 각도로 변경한 후 특정 영역(예: 볼)을 추출할 수 있다. 프로세서(150)는 상기 추출된 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 프로세서(150)는 홍조가 있는 영역에 붉은색 스프레드 패턴을 표시하여 홍조를 강조할 수 있다. The processor 150 may be electrically connected to the display 120 , the camera 130 , and the memory 140 to control the components. For example, the processor 150 may extract a specific area (eg, a ball) after changing the image captured by the camera 130 to a specified angle. The processor 150 may analyze the features included in the extracted area and display it as a designated pattern. For example, the processor 150 may emphasize redness by displaying a red spread pattern in a redness area.

일 실시 예에 따르면, 프로세서(150)는 메모리(140)에 기 저장된 데이터와 상기 추출된 영역을 순차적으로 출력할 수 있다. 기 저장된 데이터는 상기 추출된 영역(예: 볼)과 동일한 영역(예: 볼)을 분석한 데이터일 수 있고, 사용자는 이를 통해 자신의 피부 상태 변화를 확인할 수 있다.According to an embodiment, the processor 150 may sequentially output data previously stored in the memory 140 and the extracted region. The pre-stored data may be data obtained by analyzing the same region (eg, cheek) as the extracted region (eg, cheek), through which the user can check a change in his or her skin condition.

서버(200)는 메모리(210) 및 프로세서(220)를 포함할 수 있다. 메모리(210)는 전자 장치(100)에서 송신한 이미지들을 저장할 수 있다. 일 실시 예에 따르면, 메모리(210)는 프로세서(220)에서 분석한 데이터를 저장할 수도 있다. 예컨대, 메모리(210)는 프로세서(220)에서 분석한 모공의 개수, 트러블 및 홍조의 정도 등을 저장할 수 있다.The server 200 may include a memory 210 and a processor 220 . The memory 210 may store images transmitted from the electronic device 100 . According to an embodiment, the memory 210 may store data analyzed by the processor 220 . For example, the memory 210 may store the number of pores analyzed by the processor 220 , the degree of trouble and redness, and the like.

프로세서(220)는 메모리(210)에 저장된 이미지들 및/또는 전자 장치(100)에서 송신한 이미지들을 분석할 수 있다. 전자 장치(100)의 프로세서(150)에서 수행되는 동작들과 서버(200)의 프로세서(220)에서 수행되는 동작들은 거의 유사할 수 있으며, 서버(200)의 프로세서(220)에서 분석된 데이터들은 메모리(210)에 저장될 수도 있고, 전자 장치(100)로 전송될 수도 있다.The processor 220 may analyze images stored in the memory 210 and/or images transmitted from the electronic device 100 . Operations performed by the processor 150 of the electronic device 100 and operations performed by the processor 220 of the server 200 may be substantially similar, and data analyzed by the processor 220 of the server 200 is It may be stored in the memory 210 or transmitted to the electronic device 100 .

본 문서에서 도 1 및 도 2에 도시된 전자 장치(100) 및 서버(200)와 동일한 참조 부호를 갖는 구성들은 도 1 및 도 2에서 설명한 내용이 동일하게 적용될 수 있다.In this document, components having the same reference numerals as those of the electronic device 100 and the server 200 illustrated in FIGS. 1 and 2 may have the same descriptions as those described in FIGS. 1 and 2 .

도 3은 일 실시 예에 따른 전자 장치(100)의 동작 흐름도를 나타낸다. 3 is a flowchart illustrating an operation of the electronic device 100 according to an embodiment.

도 3을 참조하면, 동작 301에서 전자 장치(100)는 제1 이미지(예: 사용자의 얼굴)을 촬영할 수 있다. 예컨대, 카메라(130)가 사용자의 얼굴을 향하고 있는 상태에서 사용자가 디스플레이(120)를 터치하면, 전자 장치(100)는 사용자의 얼굴을 촬영할 수 있다. Referring to FIG. 3 , in operation 301 , the electronic device 100 may capture a first image (eg, a user's face). For example, when the user touches the display 120 while the camera 130 faces the user's face, the electronic device 100 may photograph the user's face.

동작 302에서 전자 장치(100)는 촬영된 이미지(예: 제1 이미지)의 위치 및/또는 각도를 변경하여 제2 이미지를 획득할 수 있다. 이때, 제2 이미지는 미리 설정된 구도나, 사용자가 지정한 구도로 정규화되어 생성된 이미지일 수 있다.In operation 302, the electronic device 100 may acquire the second image by changing the position and/or angle of the captured image (eg, the first image). In this case, the second image may be an image generated by being normalized to a preset composition or a composition designated by a user.

예컨대, 얼굴의 정면 사진을 촬영한 경우 전자 장치(100)는 정면 사진의 위치와 각도를 변경하여 측면 사진을 획득할 수 있다. 이 경우, 전자 장치(100)는 제1 이미지에 포함되는 신체부위를 랜드마크로 하여 인터폴레이션(interpolation) 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 제2 이미지로 변경할 수 있다. 본 문서에서 신체부위는 예컨대, 눈, 코, 입끝 등을 의미할 수 있다.For example, when a front picture of a face is taken, the electronic device 100 may acquire a side picture by changing the position and angle of the front picture. In this case, the electronic device 100 may change the first image into the second image by using any one of interpolation and 3-D deep learning using a body part included in the first image as a landmark. In this document, a body part may mean, for example, an eye, a nose, or the tip of a mouth.

동작 303에서 전자 장치(100)는 제2 이미지에서 적어도 일부 영역을 추출할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역을 추출할 수 있다. 예컨대, 전자 장치(100)는 제2 이미지에서 다양한 영역을 패치영역으로 추출할 수 있다. 구체적으로, 정면 사진에서는 눈가, 코, 입가, 이마, 턱, 양 볼 또는 양 뺨(광대쪽) 및 팔자주름영역(코볼부터 입까지의 영역)을 추출할 수 있다. 또한, 측면 사진에서는 양 볼 또는 양 뺨(넓은면), 측면 턱, 측면 눈가 및 측면 입을 추출할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In operation 303, the electronic device 100 may extract at least a partial region from the second image. According to an embodiment, the electronic device 100 may extract a region spaced apart by a specified distance based on a body part included in the second image. For example, the electronic device 100 may extract various regions from the second image as a patch region. Specifically, from the front photo, the eye area, nose, mouth area, forehead, chin, cheeks or both cheeks (cheek side), and nasolabial fold area (the area from the nose ball to the mouth) can be extracted. Also, both cheeks or both cheeks (wider side), side chin, side eye area, and side mouth can be extracted from the side photo. However, the present embodiment is not limited thereto.

동작 304에서 전자 장치(100)는 추출된 영역의 색을 지정된 수준으로 변경할 수 있다. 예컨대, 전자 장치(100)는 추출된 영역의 명암을 지정된 수준으로 밝게 하거나 어둡게 할 수 있다.In operation 304, the electronic device 100 may change the color of the extracted area to a specified level. For example, the electronic device 100 may brighten or darken the contrast of the extracted area to a specified level.

동작 305에서 전자 장치(100)는 추출된 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 전자 장치(100)는 홍조가 있는 영역에 붉은색 스프레드 패턴을 표시하여 홍조를 강조할 수 있다. 다른 실시 예로, 전자 장치(100)는 모공을 확대하여 표시함으로써 모공을 강조할 수 있다.In operation 305, the electronic device 100 may analyze the features included in the extracted region and display it as a designated pattern. For example, the electronic device 100 may emphasize redness by displaying a red spread pattern in a redness area. In another embodiment, the electronic device 100 may emphasize the pores by enlarging and displaying the pores.

동작 306에서 전자 장치(100)는 기 저장된 데이터와 상기 추출된 영역을 순차적으로 출력할 수 있다. 예컨대, 전자 장치(100)는 기 저장된 데이터와 상기 추출된 영역을 결합하여 파노라마 이미지를 생성할 수도 있고, 동영상을 생성할 수도 있다. 기 저장된 데이터는 상기 추출된 영역(예: 볼)과 동일한 영역(예: 볼)을 분석한 데이터일 수 있고, 사용자는 이를 통해 자신의 피부 상태 변화를 확인할 수 있다.In operation 306, the electronic device 100 may sequentially output pre-stored data and the extracted region. For example, the electronic device 100 may generate a panoramic image or a moving picture by combining pre-stored data and the extracted region. The pre-stored data may be data obtained by analyzing the same area (eg, cheek) as the extracted area (eg, cheek), and the user can check the change in his or her skin condition through this.

도 3에 도시된 전자 장치(100)에서 수행되는 동작들은 예시적인 것이며, 본 발명의 다양한 실시 예들은 도 3에 도시된 순서에 한정되지 않는다. 예컨대, 전자 장치(100)는 사용자의 얼굴 외 다른 신체 부위(예: 다리, 등)를 촬영할 수 있으며, 촬영된 신체 부위의 피부를 분석하여 출력할 수 있다. 또한, 도 3에 도시된 동작들 중 일부는 생략될 수 있으며, 전자 장치(100)가 아닌 서버(200)에서 수행될 수도 있다.The operations performed by the electronic device 100 illustrated in FIG. 3 are exemplary, and various embodiments of the present disclosure are not limited to the sequence illustrated in FIG. 3 . For example, the electronic device 100 may photograph a body part (eg, a leg, etc.) other than the user's face, and may analyze and output the photographed skin of the body part. Also, some of the operations illustrated in FIG. 3 may be omitted, and may be performed by the server 200 instead of the electronic device 100 .

도 4는 일 실시 예에 따른 지정된 각도로 변경된 이미지를 나타낸다. 도 4는 도 3에 도시된 동작 302를 상세히 설명하기 위한 도면이다.4 illustrates an image changed to a specified angle according to an exemplary embodiment. FIG. 4 is a diagram for explaining in detail operation 302 shown in FIG. 3 .

도 4를 참조하면, 전자 장치(100)는 제1 이미지의 위치 및/또는 각도를 변경하여 제2 이미지(410, 420)를 획득할 수 있다. 예컨대, 카메라가 사용자의 얼굴 정면을 촬영하면, 전자 장치(100)는 정면 얼굴 이미지를 획득할 수 있다. 전자 장치(100)는 상기 정면 얼굴 이미지의 위치 및/또는 각도를 변경하여 도 4에 도시된 측면 이미지(410)를 획득할 수 있다. 측면 이미지(410)가 획득된 상태에서 전자 장치(100)는 볼에 있는 트러블, 홍조 등을 분석할 수 있다. Referring to FIG. 4 , the electronic device 100 may acquire second images 410 and 420 by changing the position and/or angle of the first image. For example, when the camera captures the front of the user's face, the electronic device 100 may acquire the front face image. The electronic device 100 may acquire the side image 410 illustrated in FIG. 4 by changing the position and/or angle of the front face image. In a state in which the side image 410 is acquired, the electronic device 100 may analyze troubles, redness, and the like on the cheeks.

일 실시 예에 따르면, 전자 장치(100)는 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 제1 이미지의 위치 및/또는 각도를 변경할 수 있다. 예컨대, 전자 장치(100)는 사용자의 얼굴 중 특징점이 될 수 있는 눈, 코, 입끝 등을 중심으로 제1 이미지의 위치 및/또는 각도를 변경할 수 있다. 본 발명의 일 실시 예에 따르면, 제1 이미지의 위치 및 각도를 변경함으로써, 촬영 각도 및 위치에 관계없이 피부 상태를 분석할 수 있다.According to an embodiment, the electronic device 100 may change the position and/or angle of the first image by any one of interpolation and 3-D deep learning based on a body part included in the first image. For example, the electronic device 100 may change the position and/or angle of the first image centering on the eye, nose, and mouth, which may be feature points of the user's face. According to an embodiment of the present invention, by changing the position and angle of the first image, the skin condition may be analyzed regardless of the photographing angle and position.

일 실시 예에 따르면, 전자 장치(100)는 제1 이미지 중 일부 영역을 확대할 수 있다. 예컨대, 카메라(130)가 사용자의 얼굴 정면을 촬영하면, 전자 장치(100)는 정면 얼굴 이미지를 획득할 수 있다. 전자 장치(100)는 상기 정면 얼굴 이미지의 위치 및/또는 각도를 변경한 후 일부 영역을 확대하여 도 4에 도시된 볼 이미지(420)를 획득할 수 있다. 볼 이미지(420)가 획득된 상태에서 전자 장치(100)는 볼에 있는 트러블, 홍조 등을 분석할 수 있다. According to an embodiment, the electronic device 100 may enlarge a partial area of the first image. For example, when the camera 130 captures the front face of the user, the electronic device 100 may obtain a front face image. After changing the position and/or angle of the front face image, the electronic device 100 may enlarge a partial area to acquire the ball image 420 shown in FIG. 4 . In a state in which the ball image 420 is acquired, the electronic device 100 may analyze troubles, redness, and the like in the cheeks.

본 발명의 일 실시 예에 따르면 지정된 구도로 제1 이미지를 변경함으로써 다른 시간, 공간에서 촬영한 사진을 정규화할 수 있다.According to an embodiment of the present invention, pictures taken at different times and spaces can be normalized by changing the first image to a specified composition.

도 5는 일 실시 예에 따른 추출된 영역을 나타낸다. 도 5는 도 3에 도시된 동작 303을 상세히 설명하기 위한 도면이다.5 illustrates an extracted region according to an exemplary embodiment. FIG. 5 is a diagram for explaining in detail operation 303 illustrated in FIG. 3 .

도 5를 참조하면, 전자 장치(100)는 제2 이미지(510) 중 적어도 일부 영역을 추출할 수 있다. 예컨대, 제2 이미지(510)가 얼굴 이미지일 경우, 전자 장치(100)는 이마(511), 눈 주위(512a, 512b), 코(513), 입 주위(514) 영역 등을 추출할 수 있다. 추출된 영역은 피부 분석에 이용될 수 있다.Referring to FIG. 5 , the electronic device 100 may extract at least a partial region of the second image 510 . For example, when the second image 510 is a face image, the electronic device 100 may extract areas around the forehead 511 , around the eyes 512a and 512b , the nose 513 , and around the mouth 514 , etc. . The extracted area can be used for skin analysis.

일 실시 예에 따르면, 전자 장치(100)는 제2 이미지(510)에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역을 추출할 수 있다. 예컨대, 제2 이미지(510)가 얼굴 이미지일 경우, 전자 장치(100)는 눈을 중심으로 약 3mm 이격된 영역(512a, 512b)을 추출할 수 있다. 다른 실시 예로, 전자 장치(100)는 입을 중심으로 약 5mm 이격된 영역(514)을 추출할 수 있다. 도 5에 도시된 실시 예들은 예시적인 것이며, 본 발명의 다양한 실시 예들은 도 5에 도시된 바에 한정되지 않는다. 예컨대, 제2 이미지(510) 내에서 중심이 되는 신체 부위, 이격 거리는 도 5에 도시된 바와 다를 수 있다.According to an embodiment, the electronic device 100 may extract a region spaced apart by a specified distance based on a body part included in the second image 510 . For example, when the second image 510 is a face image, the electronic device 100 may extract regions 512a and 512b spaced apart from the eye by about 3 mm. In another embodiment, the electronic device 100 may extract an area 514 spaced apart from the center of the mouth by about 5 mm. The embodiments shown in FIG. 5 are exemplary, and various embodiments of the present invention are not limited to those shown in FIG. 5 . For example, a body part centered in the second image 510 and a separation distance may be different from those shown in FIG. 5 .

일 실시 예에 따르면, 전자 장치(100)는 촬영된 신체 부위 중 지정된 영역을 추출하기 위하여 여러 이미지들을 이용할 수 있다. 예컨대, 양 볼을 추출하기 위하여 전자 장치(100)는 좌측 얼굴 사진 및 우측 얼굴 사진을 이용할 수 있다.According to an embodiment, the electronic device 100 may use several images to extract a designated area from among the photographed body parts. For example, in order to extract both cheeks, the electronic device 100 may use a left face photo and a right face photo.

일 실시 예에 따르면, 추출되는 영역의 순서는 순차적일 수 있다. 예컨대, 이마(511), 눈 주위(512a, 512b), 코(513), 입 주위(514) 순으로 추출될 수도 있고 반대로 추출될 수도 있다. 추출되는 영역의 순서가 순차적일 경우 추출되는 영역이 중복되지 않을 수 있다.According to an embodiment, the order of the regions to be extracted may be sequential. For example, the forehead 511, the eye area (512a, 512b), the nose 513, the mouth area 514 may be extracted in order or may be extracted in reverse order. When the order of the extracted regions is sequential, the extracted regions may not overlap.

도 6은 일 실시 예에 따른 추출된 영역의 색을 지정된 수준으로 변경하는 동작을 나타낸다. 도 6은 도 3에 도시된 동작 304를 상세히 설명하기 위한 도면이다. 6 illustrates an operation of changing a color of an extracted area to a specified level according to an exemplary embodiment. FIG. 6 is a diagram for explaining in detail operation 304 shown in FIG. 3 .

도 6을 참조하면 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 원본 이미지들을 나타내고, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 색 변경 후 이미지들을 나타낸다. 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 메모리에 기 저장된 이미지들일 수도 있고, 촬영 시 이미지들일 수도 있다. 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 색이 지정된 수준으로 변경되었으므로 동일한 색을 가질 수 있다.Referring to FIG. 6 , upper images 610a, 620a, 630a, 640a, and 650a represent original images, and lower images 610b, 620b, 630b, 640b, and 650b represent images after color change. The upper images 610a , 620a , 630a , 640a , and 650a may be images pre-stored in a memory or images during photographing. The lower images 610b, 620b, 630b, 640b, and 650b may have the same color since the color has been changed to a specified level.

일 실시 예에 따르면, 전자 장치(100)는 여러 이미지들 중 어느 하나를 기준으로 색을 변경할 수 있다. 예컨대, 도 6에 도시된 바와 같이 전자 장치(100)는 좌측 하단 이미지(610b)와 동일한 색을 갖도록 원본 이미지들(610a, 620a, 630a, 640a, 650a)의 색을 변경할 수 있다. 이에 따라 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 상이한 색을 가지나, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 모두 동일한 색을 가질 수 있다.According to an embodiment, the electronic device 100 may change a color based on any one of several images. For example, as shown in FIG. 6 , the electronic device 100 may change the colors of the original images 610a , 620a , 630a , 640a , and 650a to have the same color as the lower left image 610b . Accordingly, the upper images 610a, 620a, 630a, 640a, and 650a may have different colors, but the lower images 610b, 620b, 630b, 640b, and 650b may all have the same color.

일 실시 예로, 전자 장치(100)는 상단 이미지들(610a, 620a, 630a, 640a, 650a)의 색의 평균 값을 기준으로 색을 변경할 수 있다. 이에 따라 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 상이한 색을 가지나, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 모두 동일한 색을 가질 수 있다.As an embodiment, the electronic device 100 may change the color based on the average value of the colors of the upper images 610a, 620a, 630a, 640a, and 650a. Accordingly, the upper images 610a, 620a, 630a, 640a, and 650a may have different colors, but the lower images 610b, 620b, 630b, 640b, and 650b may all have the same color.

일 실시 예에 따르면, 지속적으로 촬영이 이루어짐에 따라 추가되는 이미지의 수가 증가하면, 기준이 되는 이미지들의 수 또한 증가하게 되고, 이에 따라 이미지들의 색의 평균 값이 변경될 수 있다. 따라서, 지속적으로 촬영이 이루어지면 하단 이미지들(610b, 620b, 630b, 640b, 650b)의 색 또한 전체적으로 변경될 수 있다.According to an embodiment, if the number of images added increases as the photographing is continuously performed, the number of reference images also increases, and accordingly, the average value of the colors of the images may be changed. Accordingly, when photographing is continuously performed, the colors of the lower images 610b, 620b, 630b, 640b, and 650b may also be entirely changed.

일 실시 예에 따르면, 여러 이미지들 중 기준이 되는 색이 없을 경우 전자 장치(100)는 통계적으로 계산한 색을 기준으로 색을 보정할 수도 있다.According to an embodiment, when there is no reference color among several images, the electronic device 100 may correct the color based on the statistically calculated color.

이러한 색의 보정은 Lab 포맷에서 각 데이터의 평균 및/또는 분산을 조절하는 것을 통해 이미지 처리를 할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.This color correction can be performed through image processing by adjusting the average and/or variance of each data in the Lab format. However, the present embodiment is not limited thereto.

도 7은 일 실시 예에 따른 지정된 패턴을 표시하는 동작을 나타낸다. 도 7은 도 3에 도시된 동작 305를 상세히 설명하기 위한 도면이다.7 illustrates an operation of displaying a specified pattern according to an exemplary embodiment. FIG. 7 is a diagram for explaining in detail operation 305 illustrated in FIG. 3 .

도 7을 참조하면 전자 장치(100)는 추출된 영역(710)에 포함되는 특징들을 분석하여 지정된 패턴을 표시할 수 있다. 예컨대, 전자 장치(100)는 추출된 영역(710)에 홍조 및 트러블이 있을 경우 스프레드 패턴(710a)을 표시하여 홍조 및 트러블을 강조할 수 있다. Referring to FIG. 7 , the electronic device 100 may display a designated pattern by analyzing features included in the extracted region 710 . For example, when there is redness and trouble in the extracted area 710 , the electronic device 100 may display the spread pattern 710a to emphasize redness and trouble.

이때, 전자 장치(100)는 추출된 영역(710)의 이미지의 색감을 처리하여 이미지의 붉은 기운을 강조한 이미지를 통해 홍조 및 트러블을 분석할 수 있다.In this case, the electronic device 100 may process the color of the image of the extracted region 710 to analyze redness and trouble through the image emphasizing the red energy of the image.

홍조 및 트러블은 색감 처리된 이미지에서 붉은 기운의 세기(intensity)로 구별될 수 있다. 즉, 홍조의 붉은 기운은 트러블의 붉은 기운보다 세기가 낮을 수 있다. 이에 따라서, 홍조와 트러블을 구별해서 표시할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Redness and trouble may be distinguished by the intensity of red energy in the color-processed image. That is, the red energy of redness may have a lower intensity than that of trouble. Accordingly, redness and trouble can be distinguished and displayed. However, the present embodiment is not limited thereto.

다른 예로, 전자 장치(100)는 추출된 영역(710)에 모공이 있을 경우 이미지를 엣지 강화 처리를 하여 모공을 표시(710b)함으로써 모공을 강조할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.As another example, when there are pores in the extracted area 710 , the electronic device 100 may emphasize the pores by performing edge enhancement processing on the image to display the pores ( 710b ). However, the present embodiment is not limited thereto.

일 실시 예에 따르면, 전자 장치(100)는 추출된 영역(710)의 피부 상태를 정량적으로 분석할 수도 있다. 예컨대, 전자 장치(100)는 추출된 영역(710)에 있는 모공의 개수, 점의 개수, 트러블의 개수 등을 수치화하여 디스플레이에 출력할 수 있다.According to an embodiment, the electronic device 100 may quantitatively analyze the skin state of the extracted region 710 . For example, the electronic device 100 may digitize the number of pores, the number of dots, the number of troubles, etc. in the extracted region 710 and output the numerical values to the display.

도 8은 일 실시 예에 따른 이미지들을 지정된 순서로 출력하는 동작을 나타낸다. 도 8은 도 3에 도시된 동작 306을 상세히 설명하기 위한 도면이다.8 illustrates an operation of outputting images in a specified order according to an exemplary embodiment. FIG. 8 is a diagram for explaining in detail operation 306 shown in FIG. 3 .

도 8을 참조하면 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)를 순차적으로 출력할 수 있다. 예컨대, 도 8에서 이미지들(810, 820, 830, 840)은 메모리에 저장된 이미지들로서 과거 볼의 피부 상태를 나타낼 수 있다. 이미지(850)는 촬영 당시의 이미지(850)로서 현재 볼의 피부 상태를 나타낼 수 있다. 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)를 순차적으로 출력하므로, 사용자는 현재 피부 상태뿐만 아니라 과거부터 현재까지 피부 변화를 확인할 수 있다.Referring to FIG. 8 , the electronic device 100 may sequentially output pre-stored images 810 , 820 , 830 , and 840 and an image 850 at the time of photographing. For example, the images 810 , 820 , 830 , and 840 in FIG. 8 are images stored in a memory and may represent a past skin condition of the cheek. The image 850 is an image 850 at the time of photographing and may represent the current skin condition of the cheek. Since the electronic device 100 sequentially outputs the pre-stored images 810 , 820 , 830 , and 840 and the image 850 at the time of photographing, the user can check the skin change from the past to the present as well as the current skin condition. .

일 실시 예에 따르면, 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)들을 병합하여 파노라마 이미지 또는 동영상을 생성할 수 있다. 사용자는 상기 파노라마 이미지 또는 동영상을 통해 자신의 피부 변화를 손쉽게 확인할 수 있다.According to an embodiment, the electronic device 100 may generate a panoramic image or a moving picture by merging pre-stored images 810 , 820 , 830 , and 840 with images 850 at the time of shooting. The user can easily check his or her skin change through the panoramic image or video.

일 실시 예에 따르면, 전자 장치(100)는 이미지들(810, 820, 830, 840, 850)을 순차적으로 출력하는 과정에서 정성적, 정량적 수치들을 함께 출력할 수 있다. According to an embodiment, the electronic device 100 may output both qualitative and quantitative numerical values while sequentially outputting the images 810 , 820 , 830 , 840 , and 850 .

이때, 정성적, 정량적 수치들은 복수의 항목 별로 판단될 수 있다. 예를 들어, 이미지들(810, 820, 830, 840, 850)은 주름, 기미, 트러블, 모공, 유분, 수분, 피지, 색소, 균질도(피부질감), 잡티, 각질 및 피부톤, 탄력 중 적어도 하나의 항목에 대해서 판단될 수 있다.In this case, the qualitative and quantitative values may be determined for each of a plurality of items. For example, the images 810, 820, 830, 840, and 850 are at least one of wrinkles, blemishes, troubles, pores, oil, moisture, sebum, pigment, homogeneity (skin texture), blemishes, dead skin cells and skin tone, and elasticity. It can be judged for one item.

예를 들어, 눈가의 경우 주름, 피부톤, 탄력, 잡티 및 기미 중 적어도 하나의 항목에 대해서 판단될 수 있고, 양 볼(넓은면)의 경우 유분, 수분, 균질도, 잡티, 트러블, 모공 및 피부톤 중 적어도 하나의 항목에 대해서 판단될 수 있다. 입가의 경우, 주름, 수분, 탄력 및 트러블에 대해서 판단될 수 있다. 이처럼, 이미지의 부위의 특징에 따라서 평가 항목과 평가 항목의 수가 변화될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.For example, in the case of the eyes, at least one of wrinkles, skin tone, elasticity, blemishes, and blemishes may be judged, and in the case of both cheeks (wider side), oil, moisture, homogeneity, blemishes, troubles, pores and skin tone It may be determined with respect to at least one of the items. In the case of the lips, wrinkles, moisture, elasticity, and troubles can be judged. As such, the evaluation items and the number of evaluation items may be changed according to the characteristics of the part of the image. However, the present embodiment is not limited thereto.

예컨대, 전자 장치(100)는 인공지능(artificial intelligence; AI)이 분석한 스코어 및/또는 전문가가 분석한 스코어들을 이미지들 상에 함께 출력할 수 있다. 또는, 전문가가 분석한 스코어를 트레이닝 데이터로 하여 인공지능이 이를 학습하고 최종 스코어는 인공지능이 도출해서 출력할 수도 있다. 또는 전문가의 스코어와 인공지능의 스코어를 반영한 최종 스코어를 도출하여 이미지들 상에 함께 출력할 수 있다.For example, the electronic device 100 may output scores analyzed by artificial intelligence (AI) and/or scores analyzed by an expert together on the images. Alternatively, the artificial intelligence may learn this by using the score analyzed by the expert as training data, and the artificial intelligence may derive and output the final score. Alternatively, a final score reflecting the expert's score and the artificial intelligence score may be derived and outputted together on the images.

일 실시 예에 따르면, 사용자가 자신의 피부 변화를 체감하는 정도를 분석하기 위하여 설문을 수집할 수 있다. 수집된 수집은 메모리(140)에 저장되어 추후 피부 분석 시 활용될 수 있다.According to an embodiment, a questionnaire may be collected in order to analyze the degree to which the user perceives a change in his or her skin. The collected collection is stored in the memory 140 and may be utilized during skin analysis later.

본 문서에 개시된 다양한 실시예들은 다양한 형태의 전자 장치에 적용될 수 있다. 전자 장치는, 예를 들면, TV, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Various embodiments disclosed in this document may be applied to various types of electronic devices. The electronic device may include, for example, a TV, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, and a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. The various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but it should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise.

본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.As used herein, “A or B”, “at least one of A and B”, “at least one of A or B,” “A, B or C,” “at least one of A, B and C,” and “A , B, or C" each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. that one (eg first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively” When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. As used herein, the term “module” may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)에 의해 읽을 수 있는 저장 매체(storage medium) 또는 외장 메모리에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software including one or more instructions stored in a storage medium or an external memory readable by a machine. For example, the processor of the device may call at least one of the one or more instructions stored from the storage medium and execute it. This makes it possible for the device to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices (eg, It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나,생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Claims (15)

전자 장치에 있어서,
하우징,
상기 하우징의 일 면에 배치되는 디스플레이,
상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라,
상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및
상기 디스플레이, 상기 카메라, 및 상기 메모리와 연결되는 프로세서를 포함하고,
상기 프로세서는:
사용자 입력에 응답하여 제1 이미지를 촬영하고, 상기 제1 이미지는 측면 이미지를 포함하고,
상기 제1 이미지에 포함되는 신체부위를 랜드마크로 하여 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고,
상기 제2 이미지 중 적어도 일부 영역을 상기 제2 이미지에 포함되는 신체부위를 기준으로 추출하고, 상기 제2 이미지가 만일 측면 이미지인 경우, 상기 신체부위는 양 볼 또는 양 뺨, 측면 턱, 측면 눈가 및 측면 입 중 적어도 하나를 포함하고,
상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
상기 메모리에 저장된 복수의 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 병합하고, 과거부터 현재까지의 사용자의 피부 변화를 나타내는 파노라마 이미지 또는 동영상을 생성하여 상기 디스플레이에 순차적으로 출력하고,
상기 메모리에 저장된 이미지들을 통해 인공지능 또는 전문가가 복수의 항목 별로 분석한 스코어를 상기 이미지들 상에 함께 출력하는, 전자 장치.
In an electronic device,
housing,
a display disposed on one surface of the housing;
a camera exposed through the display or disposed in a designated area of the housing;
a memory for storing images captured by the camera; and
a processor connected to the display, the camera, and the memory;
The processor is:
Taking a first image in response to a user input, wherein the first image includes a side image,
Obtaining a second image obtained by changing the first image to a specified angle by using a body part included in the first image as a landmark,
At least a partial region of the second image is extracted based on a body part included in the second image, and if the second image is a side image, the body part is both cheeks or both cheeks, side chin, and side eye area and at least one of a side mouth;
changing the color of the at least some area to a specified level,
Analyzes features included in the at least some regions and displays them in a designated pattern,
Merging the plurality of images stored in the memory and the at least partial region in which the specified pattern is displayed, generating a panoramic image or moving picture representing the skin change of the user from the past to the present, and sequentially outputting it on the display,
An electronic device for outputting a score analyzed by an artificial intelligence or an expert for a plurality of items through the images stored in the memory on the images together.
제1 항에 있어서,
상기 프로세서는 상기 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 상기 지정된 각도로 변경하는, 전자 장치.
According to claim 1,
The processor changes the first image to the specified angle by any one of interpolation and 3-D deep learning based on a body part included in the first image.
제1 항에 있어서,
상기 적어도 일부 영역은 상기 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역인, 전자 장치.
According to claim 1,
The at least partial area is an area spaced apart by a specified distance based on a body part included in the second image.
제1 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 이미지들 중 어느 하나의 색을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 전자 장치.
According to claim 1,
and the processor changes a color of the at least partial region based on any one color among images stored in the memory.
제1 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 이미지들의 색의 평균 값을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 전자 장치.
According to claim 1,
and the processor changes a color of the at least partial region based on an average value of colors of images stored in the memory.
제1 항에 있어서,
상기 프로세서는 상기 특징들의 크기를 확대하여 상기 디스플레이에 출력하는, 전자 장치.
According to claim 1,
and the processor enlarges the sizes of the features and outputs them on the display.
제1 항에 있어서,
상기 프로세서는 상기 특징들의 개수를 상기 디스플레이에 출력하는, 전자 장치.
According to claim 1,
and the processor outputs the number of features to the display.
청구항 1에 있어서,
상기 복수의 항목은,
주름, 기미, 트러블, 모공, 유분, 수분, 피지, 색소, 균질도, 잡티, 각질, 피부톤 및 탄력 중 적어도 하나의 항목일 수 있고,
상기 스코어는 상기 전문가가 분석한 제1 스코어와, 상기 인공지능이 도출하는 제2 스코어를 포함하고,
상기 인공지능은,
상기 제1 스코어를 트레이닝 데이터로 하여 학습한 후, 상기 메모리에 저장된 이미지들에 대한 상기 제2 스코어를 도출하는, 전자 장치.
The method according to claim 1,
The plurality of items are
It may be at least one of wrinkles, blemishes, troubles, pores, oil, moisture, sebum, pigment, homogeneity, blemishes, dead skin cells, skin tone and elasticity,
The score includes a first score analyzed by the expert and a second score derived by the artificial intelligence,
The artificial intelligence is
After learning using the first score as training data, the electronic device derives the second score for the images stored in the memory.
서버에 있어서,
이미지들을 저장하는 메모리, 및
상기 메모리와 연결되는 프로세서를 포함하고,
상기 프로세서는:
전자 장치로부터 제1 이미지를 수신하면, 상기 제1 이미지에 포함되는 신체부위를 랜드마크로 하여 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제1 이미지는 측면 이미지를 포함하고,
상기 제2 이미지 중 적어도 일부 영역을 상기 제2 이미지에 포함되는 신체부위를 기준으로 추출하고, 상기 제2 이미지가 만일 측면 이미지인 경우, 상기 신체부위는 양 볼 또는 양 뺨, 측면 턱, 측면 눈가 및 측면 입 중 적어도 하나를 포함하고,
상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
상기 메모리에 저장된 복수의 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 병합하고, 과거부터 현재까지의 사용자의 피부 변화를 나타내는 파노라마 이미지 또는 동영상을 생성하여 상기 전자 장치로 전송하고,
상기 메모리에 저장된 이미지들을 통해 인공지능 또는 전문가가 복수의 항목 별로 분석한 스코어를 전송하는, 서버.
in the server,
memory for storing images, and
a processor connected to the memory;
The processor is:
Upon receiving the first image from the electronic device, a second image obtained by changing the first image to a specified angle by using a body part included in the first image as a landmark is obtained, wherein the first image includes a side image, ,
At least a partial region of the second image is extracted based on a body part included in the second image, and if the second image is a side image, the body part is both cheeks or both cheeks, side chin, and side eye area and at least one of a side mouth;
changing the color of the at least some area to a specified level,
Analyzes features included in the at least some regions and displays them in a designated pattern,
Merging the plurality of images stored in the memory and the at least partial region on which the specified pattern is displayed, generating a panoramic image or moving picture representing the skin change of the user from the past to the present, and transmitting it to the electronic device,
A server that transmits scores analyzed by artificial intelligence or experts for a plurality of items through the images stored in the memory.
제9 항에 있어서,
상기 프로세서는 상기 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 상기 지정된 각도로 변경하는, 서버.
10. The method of claim 9,
The processor changes the first image to the specified angle by any one of interpolation and 3-D deep learning based on a body part included in the first image.
제9 항에 있어서,
상기 적어도 일부 영역은 상기 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역인, 서버.
10. The method of claim 9,
The server, wherein the at least partial region is a region spaced apart by a specified distance based on the body part included in the second image.
제9 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 이미지들 중 어느 하나의 색을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 서버.
10. The method of claim 9,
The processor changes the color of the at least partial region based on any one color of the images stored in the memory.
제9 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 이미지들의 색의 평균 값을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 서버.
10. The method of claim 9,
The processor is configured to change the color of the at least partial region based on an average value of the colors of the images stored in the memory.
청구항 9에 있어서,
상기 복수의 항목은,
주름, 기미, 트러블, 모공, 유분, 수분, 피지, 색소, 균질도, 잡티, 각질, 피부톤 및 탄력 중 적어도 하나의 항목일 수 있고,
상기 스코어는 상기 전문가가 분석한 제1 스코어와, 상기 인공지능이 도출하는 제2 스코어를 포함하고,
상기 인공지능은,
상기 제1 스코어를 트레이닝 데이터로 하여 학습한 후, 상기 메모리에 저장된 이미지들에 대한 상기 제2 스코어를 도출하는, 서버.
10. The method of claim 9,
The plurality of items are
It may be at least one of wrinkles, blemishes, troubles, pores, oil, moisture, sebum, pigment, homogeneity, blemishes, dead skin cells, skin tone and elasticity,
The score includes a first score analyzed by the expert and a second score derived by the artificial intelligence,
The artificial intelligence is
After learning using the first score as training data, the server derives the second score for the images stored in the memory.
피부 변화를 추적하는 시스템에 있어서,
상기 시스템은,
제1 이미지를 촬영하는 전자 장치, 및
상기 촬영된 제1 이미지를 상기 전자 장치로부터 수신하는 서버를 포함하고,
상기 서버는:
상기 제1 이미지는 측면 이미지를 포함하고,
상기 제1 이미지에 포함되는 신체부위를 랜드마크로 하여 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고,
상기 제2 이미지 중 적어도 일부 영역을 상기 제2 이미지에 포함되는 신체부위를 기준으로 추출하고, 상기 제2 이미지가 만일 측면 이미지인 경우, 상기 신체부위는 양 볼 또는 양 뺨, 측면 턱, 측면 눈가 및 측면 입 중 적어도 하나를 포함하고,
상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송하고,
상기 전자 장치는:
상기 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 병합하고, 과거부터 현재까지의 사용자의 피부 변화를 나타내는 파노라마 이미지 또는 동영상을 생성하여 순차적으로 출력하고,
상기 기 저장된 이미지들을 통해 인공지능 또는 전문가가 복수의 항목 별로 분석한 스코어를 상기 이미지들 상에 함께 출력하는, 시스템.
In a system for tracking skin changes,
The system is
an electronic device for capturing a first image; and
and a server for receiving the photographed first image from the electronic device,
The server is:
The first image includes a side image,
Obtaining a second image obtained by changing the first image to a specified angle by using a body part included in the first image as a landmark,
At least a partial region of the second image is extracted based on a body part included in the second image, and if the second image is a side image, the body part is both cheeks or both cheeks, side chin, and side eye area and at least one of a side mouth;
changing the color of the at least some area to a specified level,
Analyzes features included in the at least some regions and displays them in a designated pattern,
Transmitting the pre-stored images and the at least partial region on which the specified pattern is displayed to the electronic device,
The electronic device includes:
Merging the pre-stored images and the at least partial area on which the specified pattern is displayed, generating and sequentially outputting a panoramic image or a video representing the user's skin change from the past to the present,
A system for outputting a score analyzed for a plurality of items by an artificial intelligence or an expert through the pre-stored images together on the images.
KR1020200089207A 2020-07-17 2020-07-17 Electronic device, sever, and system for tracking skin changes KR102364929B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200089207A KR102364929B1 (en) 2020-07-17 2020-07-17 Electronic device, sever, and system for tracking skin changes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089207A KR102364929B1 (en) 2020-07-17 2020-07-17 Electronic device, sever, and system for tracking skin changes

Publications (2)

Publication Number Publication Date
KR20220010381A KR20220010381A (en) 2022-01-25
KR102364929B1 true KR102364929B1 (en) 2022-02-18

Family

ID=80049276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089207A KR102364929B1 (en) 2020-07-17 2020-07-17 Electronic device, sever, and system for tracking skin changes

Country Status (1)

Country Link
KR (1) KR102364929B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102434051B1 (en) * 2022-05-20 2022-08-19 주식회사 패스트레인 Skin condition analyzing system using moire phenomenon
KR102434038B1 (en) * 2022-05-20 2022-08-19 주식회사 패스트레인 Skin analysis system and method using camera module based on cloud service
KR102634477B1 (en) * 2022-11-21 2024-02-27 주식회사 인코클럽 Diagnosis system for using machine learning-based 2d skin image information and method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668348B1 (en) * 2014-06-27 2016-10-21 주식회사 엘지유플러스 Method for analyzing skin surface and apparatus therefor
KR102424986B1 (en) * 2014-11-04 2022-07-26 삼성전자주식회사 Electronic device and method for analysis of face information in electronic device
KR101738417B1 (en) * 2015-07-20 2017-05-22 서울대학교병원 Devices and method for the diagnosis and treatment of skin conditions
KR102123598B1 (en) * 2017-12-26 2020-06-16 (주)아모레퍼시픽 Apparatus and system for skin diagnosis and method thereof
KR102036043B1 (en) 2018-11-15 2019-10-24 주식회사 에프앤디파트너스 Diagnosis Device of optical skin disease based Smartphone
KR20200086148A (en) * 2019-01-08 2020-07-16 주식회사 미듬 Image analysis device for confirming skin improvement and the analyzing method thereof

Also Published As

Publication number Publication date
KR20220010381A (en) 2022-01-25

Similar Documents

Publication Publication Date Title
CN107886032B (en) Terminal device, smart phone, authentication method and system based on face recognition
JP6809226B2 (en) Biometric device, biometric detection method, and biometric detection program
KR102364929B1 (en) Electronic device, sever, and system for tracking skin changes
CN106056064B (en) A kind of face identification method and face identification device
US8432357B2 (en) Tracking object selection apparatus, method, program and circuit
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN106372629B (en) Living body detection method and device
US11232586B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
US10885720B2 (en) Virtual display method, device, electronic apparatus and computer readable storage medium
JP5771647B2 (en) Skin analysis device, skin analysis system, skin analysis method, and skin analysis program
CN109313797B (en) Image display method and terminal
US20200065609A1 (en) System And Method For Correcting Color Of Digital Image Based On The Human Sclera And Pupil
JPWO2020213166A1 (en) Image processing device, image processing method, and image processing program
CN111639582A (en) Living body detection method and apparatus
KR20170085494A (en) Information processing device, information processing method, and program
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
CN109726613A (en) A kind of method and apparatus for detection
CN114219868A (en) Skin care scheme recommendation method and system
JP5242827B2 (en) Face image processing apparatus, face image processing method, electronic still camera, digital image processing apparatus, and digital image processing method
JP2017188787A (en) Imaging apparatus, image synthesizing method, and image synthesizing program
CN111915683A (en) Image position calibration method, intelligent device and storage medium
JP4762329B2 (en) Face image processing apparatus and face image processing method
KR20210050649A (en) Face verifying method of mobile device
WO2022185596A1 (en) Estimation system, estimation method, and program
JP7534913B2 (en) Information processing device, system, control method for information processing device, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant