[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101908785B1 - Tongue region extraction method and image processing apparatus for performing the method - Google Patents

Tongue region extraction method and image processing apparatus for performing the method Download PDF

Info

Publication number
KR101908785B1
KR101908785B1 KR1020160143028A KR20160143028A KR101908785B1 KR 101908785 B1 KR101908785 B1 KR 101908785B1 KR 1020160143028 A KR1020160143028 A KR 1020160143028A KR 20160143028 A KR20160143028 A KR 20160143028A KR 101908785 B1 KR101908785 B1 KR 101908785B1
Authority
KR
South Korea
Prior art keywords
tongue
area
image
region
skin
Prior art date
Application number
KR1020160143028A
Other languages
Korean (ko)
Other versions
KR20180049302A (en
Inventor
최우수
김근호
장준수
소지호
김지혜
Original Assignee
한국 한의학 연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국 한의학 연구원 filed Critical 한국 한의학 연구원
Priority to KR1020160143028A priority Critical patent/KR101908785B1/en
Publication of KR20180049302A publication Critical patent/KR20180049302A/en
Application granted granted Critical
Publication of KR101908785B1 publication Critical patent/KR101908785B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/22Illumination; Arrangements for improving the visibility of characters on dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 혀 영역 추출 방법 및 그 방법을 수행하는 영상 처리 장치에 관한 것이다.
혀 영역 추출 방법은 영상 처리 장치에 탑재된 카메라를 이용하여 사용자의 혀를 포함하는 영상을 획득하고, 영상에 포함된 혀 영역을 제외한 피부 영역을 삭제한 후, 혀 영역에 대한 외곽선을 추출하여, 추출한 외곽선을 기반으로 혀 영역의 중심선을 설정하고, 일정 간격으로 혀 영역을 분할하고, 분할된 혀 영역별 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정함으로써, 보정된 영상으로부터 혀 영역을 추출할 수 있다.
The present invention relates to a tongue region extraction method and an image processing apparatus that performs the method.
The tongue region extracting method includes acquiring an image including a user's tongue using a camera mounted on the image processing apparatus, deleting a skin region excluding a tongue region included in the image, extracting an outline of the tongue region, Based on the extracted outline, we set the center line of the tongue area, divide the tongue area at regular intervals, and apply the curvature calculation to the tongue boundary of the divided tongue area to correct the tongue area, extracting the tongue area from the corrected image can do.

Description

혀 영역 추출 방법 및 그 방법을 수행하는 영상 처리 장치{TONGUE REGION EXTRACTION METHOD AND IMAGE PROCESSING APPARATUS FOR PERFORMING THE METHOD}TECHNICAL FIELD [0001] The present invention relates to a tongue region extracting method and an image processing apparatus for performing the method. [0002]

아래의 설명은 영상으로부터 혀 영역을 검출하는 영상 처리 기술에 관한 것으로, 더욱 상세하게는 핸드폰에 탑재된 카메라를 통해 획득한 영상에 적용된 플래쉬 효과를 고려하여, 보다 효과적으로 혀 영역만을 추출하는 방법에 관한 것이다.The following description relates to an image processing technique for detecting a tongue area from an image, and more particularly to a method for extracting a tongue area more effectively in consideration of a flash effect applied to an image acquired through a camera mounted on a mobile phone will be.

종래의 경우, 혀 영상은 입술-혀-잇몸에 걸쳐 주변의 색이 비슷한 특성을 지니고 있음에 따라, 기존의 영상 추출 방법만으로는 영상 내 혀 영역만을 온전히 추출하기에 까다로움이 있다.In the conventional case, since the tongue image has characteristics similar to those of surrounding colors over the lip-tongue-gum, it is difficult to extract only the tongue area in the image by using the existing image extraction method alone.

특히, 모바일에 탑재된 카메라를 통해 혀 영역을 획득하는 경우, 혀 영역은 밝기나 색 등의 주변 환경이 통제되어 있지 않다. 또한, 카메라의 주변밝기 값을 상쇄시키기 위하여 순간적으로 터트리는 플래쉬는 렌즈 옆에 위치하기 때문에 특정방향으로 혀 주변에 그림자가 생기고, 동시에 직접적으로 빛을 혀 부분의 경계는 모호해지는 경우가 발생한다.Especially, when the tongue area is acquired through the camera mounted on the mobile, the surrounding environment such as brightness and color is not controlled in the tongue area. In addition, since the flash that is momentarily tapped to offset the camera's ambient brightness value is positioned next to the lens, a shadow is generated around the tongue in a specific direction, and at the same time, the boundary of the tongue portion directly becomes blurred.

따라서, 상술한 위의 이유로 기존의 혀 영역 추출 알고리즘으로는 모바일 환경에서 촬영된 영상으로부터 정확한 혀 영역을 추출하기가 다소 어려운 문제가 있다.Therefore, the conventional tongue region extraction algorithm has a problem that it is difficult to extract an accurate tongue region from a captured image in a mobile environment.

본 발명은 촬영 환경이 일정하지 않은 모바일 환경에서 획득한 영상에 포함된 혀 영역을 보다 효과적으로 추출할 수 있는 혀 영역 추출 방법 및 영상 처리 장치를 제공할 수 있다.The present invention can provide a tongue area extraction method and an image processing apparatus that can more effectively extract a tongue area included in an image acquired in a mobile environment where the shooting environment is not constant.

본 발명은 혀 영역을 포함하는 영상을 촬영하는 과정에서 영상에 적용되는 플래쉬 효과를 고려하여 혀 영역을 추출하는 정확도를 높일 수 있는 혀 영역 추출 방법 및 영상 처리 장치를 제공할 수 있다.The present invention can provide a tongue area extraction method and an image processing apparatus that can increase the accuracy of extracting a tongue area in consideration of a flash effect applied to an image in the process of shooting an image including a tongue area.

일실시예에 따른 영상 처리 장치가 수행하는 혀 영상 추출 방법은 상기 영상 처리 장치에 탑재된 카메라를 이용하여 사용자의 혀를 포함하는 영상을 획득하는 단계-영상의 헤더정보를 통해 플래쉬의 위치를 예측함-; 상기 영상에 포함된 혀 영역을 제외한 피부 영역을 삭제하는 단계; 상기 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선(Active Contour)을 추출하는 단계; 상기 추출한 외곽선을 기반으로 혀 영역의 중심선을 설정하고, 일정 간격으로 혀 영역을 분할하는 단계; 상기 분할된 혀 영역별 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정하는 단계; 및 상기 보정된 영상으로부터 혀 영역을 추출하는 단계를 포함할 수 있다.The tongue image extracting method performed by the image processing apparatus according to an exemplary embodiment includes the steps of acquiring an image including a user's tongue using a camera mounted on the image processing apparatus, box-; Deleting a skin area excluding a tongue area included in the image; Extracting an active contour for the tongue region from the images of the skin region deleted; Setting a center line of the tongue area based on the extracted outline, and dividing the tongue area at regular intervals; Correcting the tongue area by applying curvature calculation to the tongue interface for each of the divided tongue areas; And extracting a tongue region from the corrected image.

일실시예에 따른 삭제하는 단계는, 표색계 정보(CIE a Thresholding) 및 색상 정보(Hue Thresholding)를 이용하여 영상에 포함된 피부 영역을 삭제할 수 있다.According to an embodiment, the deleting step may delete the skin area included in the image using colorimetric information (CIE a Thresholding) and color information (Hue Thresholding).

일실시예에 따른 삭제하는 단계는, 상기 표색계 정보의 임계값을 기반으로 상기 피부 영역이 삭제된 영상 내 노이즈를 제거하는 메디안 필터링(Median Filtering)을 적용하여 영상에서 삭제된 피부 영역에 대한 전처리 동작을 수행할 수 있다.According to an exemplary embodiment of the present invention, the step of deleting the skin region may include applying a median filtering process to remove noise in the deleted skin region based on the threshold value of the color information, Can be performed.

일실시예에 따른 삭제하는 단계는, 상기 색상 정보의 임계값을 이용하여 노이즈가 제거된 혀 영역에서 삭제되지 않은 피부 영역을 추가로 제거할 수 있다.According to an exemplary embodiment, the threshold value of the color information may be used to further remove the skin region that has not been deleted in the tongue region from which noise has been removed.

일실시예에 따른 분할하는 단계는, 상기 외곽선에 따른 혀 영역의 상항방향 길이를 계산하여, 계산된 상방향의 길이를 균일한 일정 간격으로 분할하고, 분할된 영상은 혀 영역의 설첨 영역을 포함할 수 있다.According to an exemplary embodiment, the dividing may include: calculating a length in the top direction of the tongue region according to the outline; dividing the calculated length in the upward direction into uniformly spaced intervals; can do.

일실시예에 따른 보정하는 단계는, 상기 설첨 영역의 상하방향의 길이에 따른 설첨 영역을 분할하여, 분할된 선들의 중심점들로 선형 보정을 수행하여 혀의 중심선을 결정하는 단계; 상기 결정된 혀의 중심선을 기준으로 전체 혀 영역에 대한 최종 중심선을 설정하는 단계; 및 상기 결정된 최종 중심선을 기준으로 전체 혀 영역의 각 영역별 좌안과 우안 간의 길이를 비교하여 길이간 오차율에 따른 image opening을 적용하는 단계를 포함할 수 있다.According to an embodiment, the step of correcting may include dividing a loupe area according to the length of the loupe area in the up and down direction, and performing a linear correction with the center points of the divided lines to determine a center line of the tongue; Setting a final centerline for the entire tongue area based on the determined centerline of the tongue; And comparing the length between the left eye and the right eye of each region of the entire tongue region with respect to the determined final center line, and applying an image opening according to the error rate between the lengths.

일실시예에 따른 보정하는 단계는, 상기 외곽선을 기반으로 영상을 획득하는 과정에서 발생하는 플래쉬 효과로 인해 오인된 영역 및 ROI 평탄화(Image opening)를 통해 영상 내 피부 영역과 혀 영역을 보정할 수 있다.According to an exemplary embodiment of the present invention, the correction of the skin region and the tongue region in the image may be performed through the ROI flattening (image opening) due to the flash effect generated in the process of acquiring the image based on the outline have.

일실시예에 따른 보정하는 단계는, 상기 영상을 획득하는 과정에서 발생하는 플래쉬 효과를 고려하여, i) 영상에서 피부 영역으로 오인되어 삭제된 혀 영역, 또는 ii) 영상에서 혀 영역으로 오인되어 삭제되지 않은 피부 영역에 대한 보정을 수행할 수 있다.The step of correcting according to an exemplary embodiment may be performed in consideration of a flash effect generated in the process of acquiring the image, i) a tongue area which is mistakenly recognized as a skin area in an image, or ii) Correction can be performed on the non-skin area.

일실시예에 따른 영상 처리 장치는 상기 영상 처리 장치에 탑재된 카메라를 이용하여 사용자의 혀를 포함하는 영상을 획득하는 영상 획득부-영상의 헤더정보를 통해 플래쉬의 위치를 예측함-; 상기 영상에 포함된 혀 영역을 제외한 피부 영역을 삭제하는 피부 영역 삭제부; 상기 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선을 추출하는 외곽선 추출부; 상기 추출한 외곽선을 기반으로 혀 영역의 중심선을 설정하고, 일정 간격으로 혀 영역을 분할하는 혀 영역 분할부; 상기 분할된 혀 영역별 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정하는 혀 영역 보정부; 및 상기 보정된 영상으로부터 혀 영역을 추출하는 혀 영역 추출부를 포함할 수 있다.The image processing apparatus according to an exemplary embodiment of the present invention predicts the position of a flash through header information of an image acquiring unit-image acquiring an image including a user's tongue using a camera mounted on the image processing apparatus; A skin region deletion unit for deleting a skin region excluding a tongue region included in the image; An outline extracting unit for extracting an outline of the tongue area from the images of the skin area deleted; A tongue region dividing unit that sets a center line of the tongue region based on the extracted outline and divides the tongue region at regular intervals; A tongue area correcting unit for correcting a tongue area by applying a curvature calculation to the tongue interface for each divided tongue area; And a tongue region extracting unit for extracting a tongue region from the corrected image.

일실시예에 따른 피부 영역 삭제부는, 표색계 정보(CIE a Thresholding) 및 색상 정보(Hue Thresholding)를 이용하여 영상에 포함된 피부 영역을 삭제할 수 있다.The skin region deletion unit may delete the skin region included in the image using colorimetric information (CIE a Thresholding) and color information (Hue Thresholding).

일실시예에 따른 피부 영역 삭제부는, 상기 표색계 정보의 임계값을 기반으로 상기 피부 영역이 삭제된 영상 내 노이즈를 제거하는 메디안 필터링을 적용하여 영상에서 삭제된 피부 영역에 대한 전처리 동작을 수행할 수 있다.The skin region deletion unit may perform a preprocessing operation on the skin region deleted from the image by applying median filtering to remove noise in the deleted image of the skin region based on the threshold value of the colorimetric information have.

일실시예에 따른 피부 영역 삭제부는, 상기 색상 정보의 임계값을 이용하여 노이즈가 제거된 혀 영역에서 삭제되지 않은 피부 영역을 추가로 제거할 수 있다.The skin region deletion unit according to an exemplary embodiment may further remove the skin region that has not been deleted in the tongue region from which noise has been removed by using the threshold value of the color information.

일실시예에 따른 혀 영역 분할부는, 상기 외곽선에 따른 혀 영역의 상항방향 길이를 계산하여, 계산된 상방향의 길이를 균일한 일정 간격으로 분할하고, 분할된 영상은 혀 영역의 설첨 영역을 포함할 수 있다.The tongue region dividing unit according to an embodiment calculates the length in the top direction of the tongue region according to the outline, divides the calculated length in the upward direction at a uniform interval, and the divided image includes the tongue region in the tongue region can do.

일실시예에 따른 혀 영역 보정부는, 상기 설첨 영역의 상하방향의 길이에 따른 설첨 영역을 분할하여, 분할된 선들의 중심점들로 선형 보정을 수행하여 혀의 초기 중심선을 결정하는 중심선 결정부; 상기 결정된 혀의 중심선을 기준으로 전체 혀 영역에 대한 최종 중심선을 설정하는 최종 중심선 설정부; 상기 결정된 최종 중심선을 기준으로 전체 혀 영역의 각 영역별 좌안과 우안 간의 길이를 비교하여 길이간 오차율에 따른 이미지 평탄화 기술(image opening)을 적용하는 평탄화 적용부를 포함할 수 있다.The tongue area correcting unit may include a center line determining unit for dividing a lounging area according to the length of the louver area in the vertical direction and performing linear correction with the center points of the divided lines to determine an initial center line of the tongue; A final centerline setting unit for setting a final centerline for the entire tongue area based on the determined centerline of the tongue; And a flattening application unit for applying an image opening according to the error rate between the lengths of the left and right eyes of the respective regions of the entire tongue region based on the determined final center line.

일실시예에 따른 혀 영역 보정부는, 상기 영상을 획득하는 과정에서 발생하는 플래쉬 효과를 고려하여, i) 영상에서 피부 영역으로 오인되어 삭제된 혀 영역, 또는 ii) 영상에서 혀 영역으로 오인되어 삭제되지 않은 피부 영역에 대한 보정을 수행할 수 있다.The tongue area correcting unit according to an embodiment may be configured to perform a tongue area correcting operation based on i) a tongue area erroneously recognized as a skin area in an image, or ii) a tongue area erroneously recognized as a tongue area in an image, Correction can be performed on the non-skin area.

본 발명의 일실시예에 따른 혀 영역 추출 방법 및 영상 처리 장치는 영상으로부터 CIE a 및 Hue 값을 활용하여 혀 영역을 이외에 피부 영역(입술, 잇몸 등)을 제외시키고, 피부 영역을 제외한 나머지 영역으로부터 혀 영역을 추출함으로써, 보다 정교한 혀 영역을 추출할 수 있다. The tongue region extraction method and the image processing apparatus according to an embodiment of the present invention use a CIE a and a Hue value from an image to exclude a skin region (lip, gums, etc.) other than a tongue region, By extracting the tongue area, a more elaborate tongue area can be extracted.

본 발명의 일실시예에 따른 혀 영역 추출 방법 및 영상 처리 장치는 영상을 획득하는 과정에서 적용된 플래쉬 효과를 고려하여 혀 영역과 피부 영역 간에 경계가 모호해지는 부분과 그림자가 형성되는 부분을 구분한 후, 혀 영역을 추출함에 따라, 혀 영역의 추출 정확도를 높일 수 있다.The tongue region extraction method and the image processing apparatus according to an embodiment of the present invention divide the boundary between the tongue region and the skin region and the portion where the shadow is formed in consideration of the flash effect applied in the process of acquiring the image , And extraction accuracy of the tongue area can be increased by extracting the tongue area.

도 1은 일실시예에 따라 핸드폰에 탑재된 카메라를 통해 혀 영역을 포함하는 영상을 획득하는 개념도이다.
도 2는 일실시예에 따라 플래쉬 효과가 적용된 영상을 설명하기 위해 도시한 도면이다.
도 3은 일실시예에 따라 혀 영역을 추출하기 위한 영상 처리 장치의 세부 구성을 설명하기 위한 도면이다.
도 4는 일실시예에 따라 설첨 영역을 기준으로 혀 영역을 최종 중심선을 도출하고, 도출된 최종 중심선에 따른 혀 영역을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따라 영상으로부터 혀 영역을 획득한 결과를 도시한 도면이다.
1 is a conceptual diagram for acquiring an image including a tongue area through a camera mounted on a mobile phone according to an embodiment.
2 is a view for explaining an image to which a flash effect is applied according to an embodiment.
3 is a diagram for explaining a detailed configuration of an image processing apparatus for extracting a tongue area according to an embodiment.
FIG. 4 is a diagram for explaining a process of deriving a final centerline of a tongue region with reference to a lounging region according to an embodiment and detecting a tongue region according to the final centerline.
FIG. 5 is a diagram illustrating a result of acquiring a tongue area from an image according to an embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일실시예에 따라 핸드폰에 탑재된 카메라를 통해 혀 영역을 포함하는 영상을 획득하는 개념도이다.1 is a conceptual diagram for acquiring an image including a tongue area through a camera mounted on a mobile phone according to an embodiment.

도 1을 살펴보면, 본 발명은 모바일 환경에서 스마트 폰에 탑재된 카메라(104)를 통해 영상(102)을 획득할 수 있다. 여기서, 영상(102)은 사용자의 혀 영역을 포함한 영상으로, 이를 위해, 사용자는 혀를 최대한 밖으로 빼고, 정지된 포즈를 취할 수 있으며, 영상 처리 장치(101)는 혀를 뺀 포즈를 취한 사용자의 혀 영역을 포함하는 영상을 획득할 수 있다. 여기서, 영상 처리 장치(101)는 사용자의 혀 영역을 포함한 영상의 획득이 가능한 장치일 수 있다. Referring to FIG. 1, the present invention can acquire an image 102 through a camera 104 mounted on a smartphone in a mobile environment. Here, the image 102 is an image including the tongue area of the user. For this purpose, the user can pull out the tongue to the maximum extent and take a stopped pose, and the image processing apparatus 101 can recognize the user's tongue An image including a tongue area can be obtained. Here, the image processing apparatus 101 may be an apparatus capable of acquiring an image including a tongue area of a user.

구체적으로, 영상 처리 장치(101)는 영상 처리 장치에 탑재된 카메라를 이용하여 사용자의 혀 영역을 포함하는 영상을 획득할 수 있다. 이 때, 영상 처리 장치는 휴대가 용이한 스마트 폰이며, 카메라는 스마트 폰에 탑재된 상태일 수 있다. 그리고, 영상 처리 장치는 혀 영역뿐만 아니라, 혀 주변의 피부 영역을 포함된 영상을 획득할 수 있다.Specifically, the image processing apparatus 101 can acquire an image including a tongue area of a user by using a camera mounted on the image processing apparatus. At this time, the image processing apparatus is a smart phone which is easy to carry, and the camera may be mounted on a smart phone. Then, the image processing apparatus can acquire an image including not only the tongue area but also the skin area around the tongue.

영상 처리 장치(101)는 모바일 환경의 특성상, 카메라와 혀 간의 거리가 가깝게 배치된 상태에서 혀 영역을 포함하는 영상을 획득할 수 있다. 그리고, 영상 처리 장치는 시간과 장소에 구애받지 않고, 영상을 획득할 수 있음에 따라, 영상을 획득할 시점의 외부 환경에 영향을 받을 수 있다. 또한, 스마트 폰의 플래쉬(105) 효과를 활용하는 경우, 사용자의 혀 부분에 빛에 의한 그림자가 생성되고, 이로 인해 혀와 다른 영역 사이에 경계가 모호한 영상을 획득할 수 있다.The image processing apparatus 101 can acquire an image including a tongue area in a state where the distance between the camera and the tongue is arranged close to each other due to the characteristics of the mobile environment. Since the image processing apparatus can acquire an image without regard to time and place, it can be influenced by the external environment at the time of acquiring the image. In addition, when the effect of the flash 105 of the smartphone is utilized, a shadow due to light is generated in the tongue portion of the user, thereby acquiring an image having an ambiguous boundary between the tongue and another region.

다시 말해, 스마트 폰을 통해 사용자의 혀 영역을 포함하는 영상을 획득하는 경우, 일반적인 스마트 폰의 플래쉬(105)는 사용자를 정면으로부터 오른쪽 방향으로 위치함에 따라, 혀를 가까이에서 플래쉬가 작동하게 되면, 주변의 밝기는 상쇄됨과 동시에 영상의 왼편은 혀 영역과 피부 영역(입술/잇몸 등) 간에 경계면이 모호해지고, 영상의 오른편은 외부로 혀가 돌출됨으로 혀의 아래에 그림자가 발생한다.In other words, when acquiring an image including a tongue area of a user through a smart phone, as the flash 105 of a general smart phone is positioned in the right direction from the front of the user, when the flash is operated near the tongue, The brightness of the surroundings is canceled, and the boundary between the tongue area and the skin area (lip / gums, etc.) is blurred on the left side of the image, and the shadow on the right side of the image protrudes to the outside.

이로 인해, 영상 내 혀 영역을 중심으로 경계가 모호해진 왼쪽 입술 부위가 일부 혀 영역으로 오인되는 경우가 발생하게 되고, 이를 보정하기 위해, image opening 처리를 수행하게 된다.In this case, a part of the left lips, whose boundary is ambiguous around the tongue area in the image, may be mistaken as a part of the tongue area. In order to correct this, an image opening process is performed.

따라서, 본 발명은 플래쉬 효과가 적용된 혀 영역을 포함하는 영상으로부터 혀 영역을 추출함에 있어, 영상을 획득한 시점에 대한 다양한 외부 환경을 고려하여 보다 정확한 혀 영역을 추출할 수 있는 방법을 제안할 수 있다. Accordingly, in extracting a tongue area from an image including a tongue area to which a flash effect is applied, it is possible to suggest a method of extracting a more accurate tongue area in consideration of various external environments at the time of acquiring the image have.

도 2는 일실시예에 따라 플래쉬 효과가 적용된 영상을 설명하기 위해 도시한 도면이다.2 is a view for explaining an image to which a flash effect is applied according to an embodiment.

도 2를 살펴보면, 영상은 플래쉬 효과가 적용되어 혀 영역 및 피부 영역을 포함한다. 이 때, 영상은 영상을 촬영하는 스마트폰에 장착된 플래쉬의 위치에 따라 경계가 모호해지는 영역과 그림자가 발생하는 영역이 구분될 수 있다. 일례로, 스마트 폰에 장착된 카메라를 기준으로 카메라의 오른쪽에 플래쉬가 위치한 경우, 영상의 좌영역으로 혀 영역과 피부 영역 간의 경계 모호해지는 영역이 발생하고, 영상의 우영역으로 그림자 영역이 발생한다. 다른 일례로, 카메라의 왼쪽에 플래쉬가 위치한 경우, 상기 언급한 조건과 반대되는 방향으로 경계 모호 영역과 그림자 영역이 발생한다.Referring to FIG. 2, the image includes a tongue region and a skin region to which a flash effect is applied. At this time, the image may be divided into an area where the boundary is blurred and a region where the shadow is generated, depending on the position of the flash attached to the smartphone for photographing the image. For example, if a flash is positioned on the right side of a camera based on a camera mounted on a smart phone, a boundary region between the tongue region and the skin region occurs in the left region of the image and a shadow region occurs in the right region of the image . As another example, when a flash is located on the left side of the camera, a boundary obscure area and a shadow area occur in a direction opposite to the above-mentioned condition.

즉, 플래쉬의 위치가 카메라를 기준으로 왼쪽 또는 오른쪽으로 한쪽 방향에 치우쳐있음에 따라 플래쉬가 직접적으로 비춰진 부분은 혀영역과 피부영역 간에 경계면이 모호해지고, 그 반대편 및 설첨부분은 플래쉬로 인해 혀영역과 피부영역 간에 그림자가 생성되는 것으로, 둘 간의 경계 부분이 확실하게 구분된다. 다시 말해, 스마트 폰을 통해 혀 영역을 촬영함에 있어, 플래쉬 효과로 인한 조명이 균일하게 비춰지지 않음으로 인해, I) 혀 영역과 입술 사이에 경계가 모호해지고, 입술을 혀 영역으로 오인하는 경우가 발생한다.That is, since the position of the flash is biased to one side to the left or the right with respect to the camera, the boundary between the tongue area and the skin area is blurred in the portion directly irradiated with the flash, And a shadow is generated between the skin area, and the boundary between the two is clearly distinguished. In other words, when photographing the tongue area through a smart phone, the illumination due to the flash effect is not uniformly illuminated, resulting in: I) the boundary between the tongue area and the lips becomes blurred, and the lips are mistaken for the tongue area Occurs.

따라서, 본 발명은 영상에 적용되는 플래쉬 효과를 고려하여, 도 2의 (a) 영역과 같이 i) 혀 영역과 피부 영역 간의 경계면이 모호해진 영역 및 도 2의 (b), (c) 영역과 같이 ii) 그림자가 발생한 영역에 기초하여 혀의 설첨으로부터 혀 영역의 중심선을 설정한 후, 일정 간격으로 분할된 혀 영역별 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정함으로써, 보정된 영상으로부터 혀 영역을 추출할 수 있다.Therefore, in consideration of the flash effect applied to the image, the present invention can be applied to a region where the boundary between the tongue region and the skin region is ambiguous as in the region (a) of FIG. 2, Similarly, after setting the centerline of the tongue area based on the area where the shadows are generated, the tongue area is corrected by applying the curvature calculation to the tongue area of the tongue area divided at regular intervals, Tongue area can be extracted.

여기서, 도 2의 (c) 영역은 혀의 설첨 영역으로, 도면과 같이 설첨의 아래 부분으로 그림자가 발생함에 따라, 혀의 전체 길이를 측정하기에 보다 정학한 기준을 설정하는데 용이할 수 있다.Here, the region (c) of FIG. 2 is a lingual region of the tongue, and as shadows occur in the lower portion of the lingual portion as shown in the drawing, it may be easy to set a more standard to measure the total length of the tongue.

도 3은 일실시예에 따라 혀 영역을 추출하기 위한 영상 처리 장치의 세부 구성을 설명하기 위한 도면이다.3 is a diagram for explaining a detailed configuration of an image processing apparatus for extracting a tongue area according to an embodiment.

도 3을 참고하면, 영상 처리 장치(301)는 플래쉬 효과가 적용된 영상 내 혀 영역을 보다 정확하게 추출하기 위한 동작을 수행할 수 있다. 이를 위해, 영상 처리 장치는 영상 획득부(302), 피부 영역 삭제부(303), 외곽선 추출부(304), 혀 영역 분할부(305), 혀 영역 보정부(306) 및 혀 영역 추출부(307)를 포함할 수 있다.Referring to FIG. 3, the image processing apparatus 301 can perform an operation for more accurately extracting a tongue area in an image to which a flash effect is applied. To this end, the image processing apparatus includes an image acquiring unit 302, a skin region deleting unit 303, an outline extracting unit 304, a tongue region dividing unit 305, a tongue region correcting unit 306, 307).

영상 획득부(302)는 영상 처리 장치에 탑재되거나 또는 영상 처리 장치와 연동이 가능한 카메라를 통해 사용자의 혀 영역을 포함하는 영상을 획득할 수 있다. 이 때, 영상 처리 장치는 사용자의 혀 영역 뿐만 아니라, 사용자의 피부 영역을 포함하는 영상을 획득할 수 있다. 여기서, 사용자의 피부 영역은 혀와 인접하게 위치한 입술, 잇몸 등을 포함할 수 있다.The image acquisition unit 302 may acquire an image including a tongue area of the user through a camera mounted on the image processing apparatus or interlocked with the image processing apparatus. At this time, the image processing apparatus can acquire an image including not only the tongue area of the user but also the skin area of the user. Here, the skin area of the user may include lips, gums, etc. located adjacent to the tongue.

피부 영역 삭제부(303)는 표색계 정보(CIE a Thresholding) 및 색상 정보(Hue Thresholding)를 이용하여 영상에 포함된 피부 영역을 삭제할 수 있다. 다시 말해, 피부 영역 삭제부(303)는 표색계 정보의 임계값을 이용하여 영상에 포함된 피부 영역을 1차적으로 삭제할 수 있다. 그리고, 피부 영역 삭제부(303)는 색상 정보의 임계값을 이용하여 1차적으로 피부 영역이 삭제된 영상에 대하여 2차적으로 피부 영역을 삭제할 수 있다. 본 발명은 표색계 정보와 색상 정보를 이용하여 각각의 기준(임계값)을 통해 영상 내 피부 영역을 삭제함으로써, 보다 다양한 정보를 통해 입술, 잇몸 등의 영역을 삭제할 수 있다.The skin region deleting unit 303 may delete the skin region included in the image using colorimetric information (CIE a Thresholding) and color information (Hue Thresholding). In other words, the skin area deleting unit 303 can primarily delete the skin area included in the image using the threshold value of the colorimetric information. Then, the skin area deleting unit 303 can delete the skin area primarily for the image in which the skin area has been deleted primarily using the threshold value of the color information. The present invention can delete the area of the lips, gums, and the like from a variety of information by deleting the skin area in the image through each reference (threshold value) using the colorimetric information and the color information.

외곽선 추출부(304)는 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선(Active Contour)을 추출할 수 있다. 이렇게, 추출된 외곽선은 영상 내 피부 영역과 혀 영역을 보정하기 위한 정보로 활용될 수 있다.The outline extracting unit 304 can extract an outline (active contour) for the tongue area from the deleted images of the skin area. Thus, the extracted outline can be utilized as information for correcting the skin region and the tongue region in the image.

혀 영역 분할부(305)는 외곽선 추출부(304)를 통해 추출된 외곽선을 기반으로 영상 내 혀 영역을 일정 크기를 갖도록 분할할 수 있다. 구체적으로, 본 발명은 영상을 획득함에 있어, 영상의 중심에 혀가 위치하도록 촬영하게 되면, 자연스럽게 렌즈(카메라) 및 플래쉬의 위치는 설첨(혀의 끝 부분을 의미하는 용어)보다는 위쪽에 위치하게 됨으로써, 설첨 영역의 경계면에서는 아래 방향으로의 그림자가 형성될 수 있다. The tongue area dividing unit 305 can divide the tongue area in the image so as to have a predetermined size based on the outline extracted through the outline extracting unit 304. [ Specifically, when acquiring an image, when the tongue is photographed at the center of the image, the position of the lens (camera) and the flash is naturally located above the glare (term of the tongue) A shadow in the downward direction can be formed at the interface of the losing region.

또한, 영상은 사용자가 혀를 최대한 길게 내민 상태로 촬영이 되기 때문에 혀와 가장 비슷한 색상을 가지는 입술, 특히 아랫입술이 내민 혀에 의해 가려지게 된다. 이로 인해, 혀에 의해 가려진 아랫 입술 및 설첨 아래로 형성된 그림자로 인해, 설첨 영역은 주변 피부영역 사이의 경계가 확실해지므로, 보다 확실하게 해당 영역의 추출이 가능해 진다.In addition, since the image is taken by the user as long as the tongue is extended, the lips having the most similar color to the tongue, especially the lower lip, are obscured by the tongue. Due to this, due to the lower lips obscured by the tongue and the shadow formed below the lacrimal region, the laryngeal region becomes clear of the boundary between the surrounding skin regions, so that the region can be more reliably extracted.

이러한 영상에 대한 이해관계를 기반으로 혀 영역 분할부(305)는 active contour 알고리즘 적용, 즉 혀 영역의 외곽선을 추출한 이후, 혀 영역의 상하방향 길이를 연산할 수 있다. 그리고, 혀 영역 분할부(305)는 연산된 혀 영역의 길이를 기반으로 5등분 하여, 혀 끝에 해당하는 설첨 영역을 구할 수 있다.Based on the interest in the image, the tongue area dividing unit 305 can calculate the length of the tongue area in the vertical direction after applying the active contour algorithm, i.e., extracting the outline of the tongue area. Then, the tongue area dividing unit 305 can divide the tongue area based on the length of the calculated tongue area to obtain the lingual area corresponding to the end of the tongue.

그리고, 혀 영역 분할부(305)는 5등분하여 구해진 설첨 영역을 다시 상하방향으로 3등분할 수 있다. 그리고, 혀 영역 분할부(305)는 3등분된 선들의 중심점들로 선형 보간을 적용하여 혀의 초기 중심선을 계산할 수 있다.Then, the tongue area dividing unit 305 can divide the gum area obtained by dividing the tongue area into three equal parts in the up and down directions. The tongue area dividing unit 305 can calculate the initial centerline of the tongue by applying linear interpolation to the center points of the trisected lines.

이후, 혀 영역 분할부(305)는 계산된 초기 중심선에 수직한 방향으로 새로운 선을 그어 혀 영역에 대한 최종 중심선을 결정하고, 상하 방향으로 5등분하고, 기 혀 영역은 결정된 최종 중심선을 기반으로 좌우로도 나누어, 혀 영역을 총 10개의 영역으로 분할할 수 있다.Thereafter, the tongue region dividing section 305 determines a final centerline for the tongue region by drawing a new line in a direction perpendicular to the calculated initial centerline, and divides the tongue region into five vertically, and the tongue region is based on the determined final centerline It is possible to divide the tongue region into 10 regions in total.

혀 영역 보정부(306)는 총 10개의 영역으로 분할된 혀 영역에 대하여 각 영역별로 최종 중심선으로부터 좌한까지의 거리 및 우한 까지의 길이를 측정하고, 측정된 각각의 거리를 비교할 수 있다. 그리고, 혀 영역 보정부(306)는 좌한과 우한의 길이의 오차율에 따라 image open처리 과정에서 mask의 크기를 다르게 설정하여 혀 경계를 넘어 입술까지 오인된 영역을 보정할 수 있다. 보다 자세한 동작은 도 4를 통해 설명하도록 한다.The tongue area correcting unit 306 can measure the distance from the final center line to the left end and the length to the right end for each region and compares the measured distances with respect to the tongue region divided into a total of 10 regions. The tongue region correcting unit 306 can correct a region that is misjudged to the lips beyond the tongue boundary by setting the size of the mask differently in the image open process according to the error rates of the lengths of the left and right limits. A more detailed operation will be described with reference to FIG.

이 때, 본 발명은 상술한 방법을 수행함으로써, 혀로 오인된 부분에서는 강한 평탄화가 이루어지고, 나머지 부분에서는 약한 평탄화가 이루어지기 때문에, Opening에 의한 기존 혀영역의 손실이 적어져서, 보다 완전한 혀 영역 추출이 가능해질 수 있다.At this time, according to the present invention, by performing the above-described method, since the strong flattening is performed in the tongue-depressed portion and the weak flattening is performed in the remaining portion, the loss of the existing tongue region due to the opening is reduced, Extraction may be possible.

혀 영역 추출부(307)는 최종적으로 보정된 혀 영역을 포함한 영상을 추출할 수 있다.The tongue area extracting unit 307 can extract an image including the finally corrected tongue area.

도 4는 일실시예에 따라 설첨 영역을 기준으로 혀 영역을 최종 중심선을 도출하고, 도출된 최종 중심선에 따른 혀 영역을 검출하는 과정을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining a process of deriving a final centerline of a tongue region with reference to a lounging region according to an embodiment and detecting a tongue region according to the final centerline.

도 4의 (a)를 살펴보면, 영상 처리 장치는 플래쉬 효과가 적용된 혀 영역을 포함한 영상을 획득할 수 있다.Referring to FIG. 4 (a), the image processing apparatus can acquire an image including a tongue area to which a flash effect is applied.

도 4의 (b)를 살펴보면, 영상 처리 장치는 active contour 알고리즘(외곽선을 추출하기 위한 알고리즘)으로 대략적으로 얻어진 혀 영역의 상하방향으로이 길이를 계산할 수 있다. 그리고, 영상 처리 장치는 계산된 상하방향으로의 길이를 기반으로 혀 영역을 5등분으로 분할하여, 설첨 영역(혀의 끝 영역)을 설정할 수 있다. 이 때, 본 발명은 영상에 적용된 플래쉬 효과로 인해, 입술로 오인되는 영역이 없이 설첨과 주변 피부 영역의 경계가 확실해지므로, 보다 정확인 설첨부분의 추출이 가능하다. 다시 말해, 본 발명은 영상을 획득하는 과정에서 사용자가 혀를 내밀음으로써, 사용자의 아랫입술을 가려주기 때문에 설첨 영역에서는 혀에 의해 가려진 아랫 입술이 혀로 오인될 확률이 희박함에 따라 보다 정확한 설침 영역을 추출한다.Referring to FIG. 4B, the image processing apparatus can calculate the length in the up and down direction of the tongue area obtained roughly by the active contour algorithm (algorithm for extracting the outline). Then, the image processing apparatus can divide the tongue area into five equal parts based on the calculated length in the vertical direction, and set the loser area (the end area of the tongue). At this time, due to the flash effect applied to the image, the present invention makes it possible to extract the lure portion more accurately since the boundary between the larynx and the surrounding skin region becomes clear without the region misunderstood as the lips. In other words, according to the present invention, since the user lids the tongue in the process of acquiring the image, the lower lip of the user is covered, so that the probability of the lower lip occluded by the tongue to be mistaken as the tongue is rare in the lounging area, .

도 4의 (c)를 살펴보면, 영상 처리 장치는 설정된 설첨 영역의 총 길이를 3등분으로 추가 분할하여 혀 끝으로부터 0, 1/3, 2/3, 3/3 지점에서의 중심점을 연결하는 1차 방정식을 선형 보간법으로 계산할 수 있다. Referring to FIG. 4 (c), the image processing apparatus further divides the total length of the laryngeal region into three equal parts to connect the center points at 0, 1/3, 2/3, and 3/3 points from the tongue end, The cubic equation can be calculated by linear interpolation.

그리고, 영상 처리 장치는 선형 보간법에 의희 계산된 초기 중심선을 기반으로 영상 내 플래쉬로 인해 형성된 그림자 효과로 가려진 영역에 대한 보정 및 최종 중심선에 대한 각도 수정한다.Then, the image processing apparatus corrects the shadowed area formed by the flash in the image and corrects the angle of the final center line based on the calculated initial center line in the linear interpolation method.

도 4의 (d)를 살펴보면, 영상 처리 장치는 최종 중심선의 수평 방향으로 영역 경계선을 설정하여 active contour 알고리즘 수행 이후에 분할한 혀 영역을 재분할 및 각 영역에서의 혀 경계면을 따라서 곡률 계산을 수행한다. 다시 말해, 본 발명은 재 분할된 각 영역별 너비의 길이를 비교하여 좌우 대칭성을 파악할 수 있다. 그리고, 본 발명은 경계가 모호한 부분과 그림자가 발생한 부분에 대한 영역을 보정하는 것으로, 이웃하는 경계면에 비해 곡률의 차이가 크게 나타나는 영역에 대해 mask 크기를 조절하며 imgae opening을 수행함으로써, 최종적으로 온전한 혀 영역을 획득한다. Referring to FIG. 4 (d), the image processing apparatus sets a boundary line in the horizontal direction of the final centerline, performs re-segmentation of the divided tongue region after performing the active contour algorithm, and calculates curvature along the tongue boundary in each region . In other words, according to the present invention, the length of the width of each re-divided area can be compared to determine the symmetry. In addition, the present invention corrects an area for a boundary and an area where a shadow is generated. By adjusting the mask size and performing imgee opening for an area in which a difference in curvature is large compared to a neighboring boundary, Obtain the tongue area.

즉, 영상 처리 장치는 플래쉬로 인해 혀로 오인된 영역 제외 및 ROI 평탄화(Image opening)할 수 있다. 이후, 영상 처리 장치는 보정된 영상으로부터 혀 영역을 추출할 수 있다.That is, the image processing apparatus can exclude areas that are mistaken for tongue due to the flash, and ROI can be flattened (Image opening). Thereafter, the image processing apparatus can extract the tongue region from the corrected image.

여기서, 본 발명은 msak의 크기를 조정함으로써, 혀 영역과 피부 영역을 조절함으로써, 혀로 오인된 부분에서는 강한 평탄화가 이루어지고, 나머지 부분에서는 약한 평탄화가 이루어진다. 즉, 혀 영역 전반에 걸쳐 동일한 크기의 평탄화 기술이 적용되는 것이 아니라, 각 영역의 특징에 따라 서로 다른 크기의 평탄화 기술이 적용됨에 따라 기존에 image opening에 의해 혀 영역의 손실이 적어지고, 이로 인해 도 4의 (e)와 같이 완전한 혀 영역의 추출이 가능해진다. In the present invention, by adjusting the size of the msak, the tongue area and the skin area are adjusted so that strong planarization is performed in the part that is mistaken as a tongue, and weak planarization is performed in the remaining part. That is, instead of applying a flattening technique of the same size throughout the tongue region, the flattening technique of different sizes is applied according to the characteristics of the respective regions, so that the loss of the tongue region is reduced by the image opening conventionally, It becomes possible to extract the complete tongue area as shown in Fig. 4 (e).

도 5는 일실시예에 따라 혀 영역을 추출하기 위한 전체 흐름도이다.5 is an overall flow diagram for extracting tongue regions according to one embodiment.

단계(501)에서 영상 처리 장치는 카메라를 통해 혀를 포함하는 영상을 획득할 수 있다. 자세하게, 영상 처리 장치는 영상 처리 장치에 탑재된 카메라를 이용하여 사용자의 영상을 획득할 수 있다. 여기서, 본 발명은 영상에 적용된 플래쉬 효과를 보다 정확하게 판단하기 위해, 영상의 헤더파일을 탐색하여, 영상을 촬영한 스마트 폰(카메라)의 종류 및 플래쉬 효과가 발생한 위치 즉, 플래쉬의 위치를 파악할 수 있다.In step 501, the image processing apparatus can acquire an image including a tongue through a camera. In detail, the image processing apparatus can acquire a user's image by using a camera mounted on the image processing apparatus. In order to more accurately determine the flash effect applied to the image, the present invention searches for a header file of the image to determine the type of the smartphone (camera) that captured the image and the position where the flash effect occurred, have.

영상 처리 장치는 영상에 대한 전처리 과정(thresholding & morphological processing)을 수행할 수 있다. 보다 구체적으로, 영상은 혀 영역 및 혀 영역을 제외한 피부 영역을 포함하고 있으며, 피부 영역은 사용자의 혀와 인접한 신체 부위로, 입술, 잇몸 등을 포함할 수 있다.The image processing apparatus can perform thresholding & morphological processing on the image. More specifically, the image includes a skin area excluding the tongue area and the tongue area, and the skin area may be a body part adjacent to the user's tongue, and may include lips, gums, and the like.

단계(502)에서 영상 처리 장치는 표색계 정보(CIE a Thresholding)를 이용하여 영상에 포함된 피부 영역을 삭제할 수 있다. 영상 처리 장치는 표색계 정보의 임계값을 이용하여 영상에 포함된 피부 영역을 삭제할 수 있다. In step 502, the image processing apparatus can delete the skin region included in the image using the colorimetric information (CIE a Thresholding). The image processing apparatus can delete the skin region included in the image using the threshold value of the colorimetric information.

구체적으로 영상 처리 장치는 다음과 같은 수식 1에 따른 조건을 기준으로 Thresholding으로 제거된 설 영역을 메우기 위한 전처리 동작을 수행할 수 있다.More specifically, the image processing apparatus can perform a preprocessing operation to fill a snowy region removed by the thresholding based on the condition according to Equation 1 as follows.

[수식 1][Equation 1]

Figure 112016105892433-pat00001
Figure 112016105892433-pat00001

결국, 영상 처리 장치는 전처리 과정을 통하여 그림자 및 빛 반사에 의한 효과를 상쇄시키고, 개선된 영상에서 설 추출을 함으로써, 통제된 환경에서 촬영된 혀 영상을 추출하는 것 만큼의 성능을 발휘할 수 있다.As a result, the image processing apparatus can perform as much as extracting the tongue images captured in the controlled environment by canceling the effects of the shadow and light reflection through the preprocessing process and extracting from the improved image.

단계(503)에서 영상 처리 장치는 피부 영역이 삭제된 영상에 메디안 필터링(Median Filtering)을 적용함으로써, 영상에 포함된 노이즈를 제거할 수 있다. 다시 말해, 영상 처리 장치는 표색계 정보의 임계값에 기초하여 영상 내 삭제된 피부 영역을 제외한 혀 영역, 즉 설 영역에 발생된 빈 공간을 메우기 위한 동작을 수행할 수 있다.In step 503, the image processing apparatus can remove the noise included in the image by applying median filtering to the image in which the skin region is deleted. In other words, the image processing apparatus can perform an operation to fill a vacant space generated in a tongue area, i.e., a snowy area, excluding a deleted skin area in an image based on a threshold value of colorimetric information.

단계(504)에서 영상 처리 장치는 영상에 대한 빈 공간을 위기에 위한 형태학적 처리를 수행할 수 있다.In step 504, the image processing apparatus can perform a morphological process for crisis of the empty space for the image.

단계(505)에서 영상 처리 장치는 색상 정보(Hue Thresholding)의 임계값을 이용하여 피부 영역이 삭제된 영상에서 추가적인 삭제 동작을 수행할 수 있다. 다시 말해, 영상 처리 장치는 피부 영역이 삭제된 영상에서 입술 및 잇몸과 관련된 피부 영역에 대한 추가 삭제를 수행할 수 있다. 여기서, 영상 처리 장치는 다음과 같은 수식 2에 따른 조건을 기준으로 추가 삭제 동작을 수행할 수 있다.In step 505, the image processing apparatus may perform an additional deletion operation on the deleted skin region using the threshold value of hue thresholding. In other words, the image processing device can perform an additional deletion of the skin area related to the lips and gums in the image where the skin area is deleted. Here, the image processing apparatus can perform an addition deletion operation based on the condition according to Equation (2) below.

[수식 2][Equation 2]

Figure 112016105892433-pat00002
Figure 112016105892433-pat00002

단계(506)에서 영상 처리 장치는 영상에 대한 빈 공간을 위기에 위한 형태학적 처리를 수행할 수 있다.In step 506, the image processing apparatus may perform a morphological process for crisis of a blank space for an image.

단계(507)에서 영상 처리 장치는 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선(Active Contour)을 추출할 수 있다. In step 507, the image processing apparatus can extract an active contour for the tongue area from among the deleted images of the skin area.

이후, 영상 처리 장치는 추출한 외곽선을 기반으로 영상 내 피부 영역과 혀 영역을 보정하기 위한 후처리를 수행할 수 있다.Thereafter, the image processing apparatus can perform post-processing for correcting the skin region and the tongue region in the image based on the extracted outline.

단계(508)에서 영상 처리 장치는 영상 내 설첨 영역을 포함하는 영역을 분할 수 있다. 다시 말해, 영상 처리 장치는 혀 영역의 상하 길이를 기준으로 혀 전체 영역을 5등분으로 분할할 수 있다. 그리고, 영상 처리 장치는 5등분된 영역 중 설첨 영역을 선택하고, 설첨 영역을 다시 3등분한 후, 설첨 영역에 대한 초기 중심선을 설정할 수 있다.In step 508, the image processing apparatus may divide an area including the losing area in the image. In other words, the image processing apparatus can divide the entire region of the tongue into five equal parts based on the vertical length of the tongue area. Then, the image processing apparatus can select the laryngeal region among the five divided regions, divide the laryngeal region into three, and set the initial centerline for the laryngeal region.

단계(509)에서 영상 처리 장치는 설첨 영역의 너비를 기반으로 초기 중심선에 따른 전체 혀 영역의 최종 중심선을 설정할 수 있다.In step 509, the image processing apparatus can set the final center line of the entire tongue area along the initial center line based on the width of the loupe area.

단계(510)에서 영상 처리 장치는 설정된 혀 영역의 최종 중심선을 기준으로 혀 영역을 재분할 수 있다. 즉, 영상 처리 장치는 5등분된 혀 전체 영역을 최종 중심선으로 구분함으로써, 총 10개의 영역으로 혀 영역을 재분할할 수 있다.In step 510, the image processing apparatus may re-divide the tongue area based on the final centerline of the set tongue area. That is, the image processing apparatus can divide the tongue region into 10 regions by dividing the entire tongue region divided into 5 regions by the final centerline.

단계(511)에서 영상 처리 장치는 플래쉬의 위치를 기반으로 인접한 영역 간 곡률의 비교를 통해 오인된 영역을 검출할 수 있다. 다시 말해, 영상 처리 장치는 상기 영상을 획득하는 과정에서 발생하는 플래쉬 효과를 고려하여, i) 영상에서 피부 영역으로 오인되어 삭제된 혀 영역, 또는 ii) 영상에서 혀 영역으로 오인되어 삭제되지 않은 피부 영역에 대한 보정을 수행할 수 있다.In step 511, the image processing apparatus can detect the erroneous region by comparing curvatures between adjacent regions based on the position of the flash. In other words, in consideration of the flash effect generated in the process of acquiring the image, the image processing apparatus may include a tongue region that is mistaken for the skin region in the image and is deleted, or ii) a tongue region that is mistaken for the tongue region in the image It is possible to perform correction for the area.

단계(512)에서 영상 처리 장치는 오인된 영역에 따라 mask의 크기를 변화시켜 영역 간에 경계선을 보정할 수 있다. 다시 말해, 영상 처리 장치는 mask를 이용하여 플래쉬 효과로 인해 경계가 모호해진 영역에 대한 오인된 영역을 보정할 수 있다.In step 512, the image processing apparatus can correct the boundary between the regions by changing the size of the mask according to the mistaken area. In other words, the image processing apparatus can correct a mistaken area for an area whose boundary is blurred due to a flash effect by using a mask.

단계(513)에서 영상 처리 장치는 오인된 영역에 대한 보정을 통해 최종적으로 분리된 설 영역을 획득할 수 있다.In step 513, the image processing apparatus can acquire the finally separated snow area through correction for the mistaken area.

도 6은 일실시예에 따라 영상으로부터 혀 영역을 획득한 결과를 도시한 도면이다.6 is a diagram illustrating a result of acquiring a tongue area from an image according to an embodiment.

도 6을 살펴보면, 혀 영상은 다른 영상 추출과 비교하여 혀와 인접한 주변의 색이 비슷한 특성을 지니고 있다. 또한, 모바일 환경에서 획득한 혀 영상은 밝기나 색 등의 주변 환경이 통제되어있지 않으며, 주변의 밝기 값을 상쇄시키기 위하여 순간적으로 터트리는 플래쉬는 렌즈 옆에 위치하기 때문에 특정방향으로 그림자가 생기고, 동시에 직접적으로 빛을 받은 부위의 경계는 모호한 상태임에 따라, 기존의 혀 영역 추출 알고리즘으로는 모바일 환경에서 촬영된 영상에 대한 정확한 혀 영역 추출이 어려웠다.Referring to FIG. 6, the tongue image has characteristics similar to those of the adjacent tongue and the surrounding color, as compared with other image extraction. In addition, since the tongue image obtained in the mobile environment has no control of the surrounding environment such as brightness and color, and since the flash that is instantaneously launched to compensate for the surrounding brightness value is positioned next to the lens, Since the boundary of the directly received region is ambiguous, it is difficult to extract the accurate tongue region of the image captured in the mobile environment by the conventional tongue region extraction algorithm.

따라서, 본 발명은 위에서 설명한 알고리즘을 적용함으로써, 플래쉬 효과로 인해 혀와 다른 영역 사이에 경계가 모호해지거나 그림자가 형성되는 문제점을 상쇄시켜 보다 효과적인 혀 영역을 추출할 수 있다.  Therefore, by applying the above-described algorithm, the present invention can extract a more effective tongue area by canceling the problem that the boundary is blurred or shadow is formed between the tongue and other regions due to the flash effect.

즉, 본 혀 추출 알고리즘은 영상을 촬영하는 과정에서 발생하는 플래시 효과(그림자 및 빛 반사에 의한 효과), 카메라와 혀 간의 촬영 거리 및 혀의 색상에 대한 특성을 고려하여 영상으로부터 혀 영역 추출함으로써, 일정하지 않은 촬영 환경을 갖는 모바일을 통해 획득한 영상에서 보다 효과적으로 혀 영역만을 추출할 수 있는 장점을 포함할 수 있다.   In other words, the tongue extraction algorithm extracts the tongue area from the image in consideration of the flash effect (shadow and light reflection effect), the shooting distance between the camera and the tongue, and the color characteristics of the tongue, And can extract the tongue area more effectively from the image acquired through the mobile having the non-constant shooting environment.

결국, 본 기술을 적용시킴으로써, 사용자들이 다양한 모바일 환경에서의 혀 영상을 획득하고, 이에 따른 혀의 형상에 대한 결과를 제공받을 것이라 예상됩니다. 또한, 본 기술을 U-Healthcare와 관련된 타 응용 분야와 접목하는 경우, 혀 영역을 이용한 건강관리 등의 맞춤/고급 의료서비스 창출에 기여될 뿐만 아니라, 애플리케이션을 접목하여 사용자가 시간과 장소에 구애받지 않고, 손쉽게 이용 가능함에 따라 상용화 관점에서도 장점이 있다.   Ultimately, by applying this technology, users are expected to acquire tongue images in various mobile environments, and thus provide results on the shape of the tongue. In addition, combining this technology with other applications related to U-Healthcare not only contributes to creating customized / advanced medical services such as health management using the tongue area, It is advantageous in terms of commercialization as it is readily available.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

101: 영상 처리 장치
102: 영상
103: 혀
104: 카메라
105: 플래쉬
101: Image processing device
102: video
103: tongue
104: camera
105: Flash

Claims (15)

영상 처리 장치가 수행하는 혀 영역 추출 방법에 있어서,
상기 영상 처리 장치에 탑재된 카메라의 위치를 기준으로 배치된 플래쉬를 제어하는 단계;
상기 플래쉬가 사용자에게 비춰진 부분에서의 빛의 균일 정도에 따라 플래쉬 효과가 적용된 혀 영역 및 피부 영역을 포함하는 사용자의 영상을 획득하는 단계-영상의 헤더정보를 통해 플래쉬의 위치를 예측함-;
표색계 정보(CIE a Thresholding)의 임계값을 이용하여 상기 획득한 사용자의 영상에 포함된 혀 영역을 제외한 피부 영역을 1차적으로 삭제하고, 색상 정보(Hue Thresholding)의 임계값을 이용하여 1차적으로 노이즈가 제거된 혀 영역에서 삭제되지 않은 피부 영역에 대하여 피부 영역을 2차적으로 삭제하는 단계;
상기 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선(Active Contour)을 추출하는 단계;
상기 추출한 외곽선을 기반으로 혀 영역의 상하방향 길이를 연산하고, 연산된 혀 영역의 상하방향 길이를 기반으로 5등분하여 혀 끝에 해당하는 설첨 영역을 추출하고, 추출한 설첨 영역의 길이를 상하방향으로 3등분하여, 혀 끝으로부터 3등분된 선들의 중심선들을 연결한 혀의 초기 중심선을 설정하고, 설정된 혀의 초기 중심선에 수직한 방향으로 선을 그어 혀 영역에 대한 최종 중심선을 설정한 후, 최종 중심선을 기반으로 좌우로 나누어 혀 영역을 일정 간격으로 분할하는 단계;
상기 일정 간격으로 분할된 혀 영역별로 최종 중심선으로부터 좌한까지의 길이 및 우한까지의 길이를 측정한 후, 측정된 각각의 길이를 비교하여 좌한과 우한 간 길이의 오차율을 고려한 좌우 대칭성을 파악하는 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정하는 단계; 및
상기 보정된 영상으로부터 혀 영역을 추출하는 단계
를 포함하는 혀 영역 추출 방법.
A method for extracting a tongue area performed by an image processing apparatus,
Controlling a flash disposed on the basis of a position of a camera mounted on the image processing apparatus;
Acquiring an image of a user including a tongue area and a skin area to which a flash effect is applied according to a degree of uniformity of light in a portion illuminated to the user; predicting a position of the flash through header information of the image;
The skin region excluding the tongue region included in the acquired user's image is primarily deleted by using the threshold value of the colorimetric information (CIE a Thresholding), and the skin region is firstly deleted using the threshold of hue thresholding A second step of deleting a skin area for a skin area that has not been deleted in the tongue area from which noise has been removed;
Extracting an active contour for the tongue region from the images of the skin region deleted;
Based on the extracted outline, the vertical length of the tongue area is calculated, and the lingual area corresponding to the end of the tongue is extracted by dividing into 5 equal parts based on the calculated length of the tongue area in the vertical direction. After setting the initial center line of the tongue connecting the center lines of the trisection lines from the tip of the tongue and setting the final center line for the tongue area by drawing a line perpendicular to the initial center line of the set tongue, Dividing the tongue region into left and right portions at regular intervals;
The lengths from the final center line to the left end and the length to the right end are measured for the tongue regions divided at the predetermined intervals and then the measured lengths are compared to determine the left and right symmetry considering the error rate of the length between the left end and the right end. Correcting the tongue area by applying a curvature calculation to the tongue area; And
Extracting a tongue region from the corrected image
The tongue area extracting method comprising:
삭제delete 제1항에 있어서,
상기 삭제하는 단계는,
상기 표색계 정보의 임계값을 기반으로 상기 피부 영역이 삭제된 영상 내 노이즈를 제거하는 메디안 필터링(Median Filtering)을 적용하여 영상에서 삭제된 피부 영역에 대한 전처리 동작을 수행하는 혀 영역 추출 방법.
The method according to claim 1,
Wherein the deleting comprises:
And performing a preprocessing operation on a skin region deleted from the image by applying median filtering to remove noise in the image from the skin region based on the threshold value of the colorimetric information.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 보정하는 단계는,
상기 외곽선을 기반으로 영상을 획득하는 과정에서 발생하는 플래쉬 효과로 인해 오인된 영역 및 ROI 평탄화(Image opening)를 통해 영상 내 피부 영역과 혀 영역을 보정하는 혀 영역 추출 방법.
The method according to claim 1,
Wherein the correcting comprises:
A tongue region extracting method for correcting a skin region and a tongue region in an image through an erroneous region and an ROI flattening due to a flash effect generated in the process of acquiring an image based on the outline;
제1항에 있어서,
상기 보정하는 단계는,
상기 영상을 획득하는 과정에서 발생하는 플래쉬 효과를 고려하여,
i) 영상에서 피부 영역으로 오인되어 삭제된 혀 영역, 또는
ii) 영상에서 혀 영역으로 오인되어 삭제되지 않은 피부 영역
에 대한 보정을 수행하는 혀 영역 추출 방법.
The method according to claim 1,
Wherein the correcting comprises:
In consideration of the flash effect generated in the process of acquiring the image,
i) a deleted tongue area mistaken for a skin area in the image, or
ii) Skin area that is mistaken for the tongue area in the image and not deleted
The tongue area extraction method comprising:
영상 처리 장치에 있어서,
상기 영상 처리 장치에 탑재된 카메라의 위치를 기준으로 배치된 플래쉬를 제어하여 상기 플래쉬가 사용자에게 비춰진 부분에서의 빛의 균일 정도에 따라 플래쉬 효과가 적용된 혀 영역 및 피부 영역을 포함하는 영상을 획득하는 영상 획득부-영상의 헤더정보를 통해 플래쉬의 위치를 예측함-;
표색계 정보(CIE a Thresholding)의 임계값을 이용하여 상기 획득한 사용자의 영상에 포함된 혀 영역을 제외한 피부 영역을 1차적으로 삭제하고, 색상 정보(Hue Thresholding)의 임계값을 이용하여 1차적으로 노이즈가 제거된 혀 영역에서 삭제되지 않은 피부 영역에 대하여 피부 영역을 2차적으로 삭제하는 피부 영역 삭제부;
상기 피부 영역이 삭제된 영상 중에서 혀 영역에 대한 외곽선을 추출하는 외곽선 추출부;
상기 추출한 외곽선을 기반으로 혀 영역의 상하방향 길이를 연산하고, 연산된 혀 영역의 상하방향 길이를 기반으로 5등분하여 혀 끝에 해당하는 설첨 영역을 추출하고, 추출한 설첨 영역의 길이를 상하방향으로 3등분하여, 혀 끝으로부터 3등분된 선들의 중심선들을 연결한 혀의 초기 중심선을 설정하고, 설정된 혀의 초기 중심선에 수직한 방향으로 선을 그어 혀 영역에 대한 최종 중심선을 설정한 후, 최종 중심선을 기반으로 좌우로 나누어 혀 영역을 일정 간격으로 분할하는 혀 영역 분할부;
상기 일정 간격으로 분할된 혀 영역별로 최종 중심선으로부터 좌한까지의 길이 및 우한까지의 길이를 측정한 후, 측정된 각각의 길이를 비교하여 좌한과 우한 간 길이의 오차율을 고려한 좌우 대칭성을 파악하는 혀 경계면에 대한 곡률 계산을 적용하여 혀 영역을 보정하는 혀 영역 보정부; 및
상기 보정된 영상으로부터 혀 영역을 추출하는 혀 영역 추출부
를 포함하는 영상 처리 장치.
An image processing apparatus comprising:
And controls the flash disposed on the basis of the position of the camera mounted on the image processing apparatus to acquire an image including a tongue region and a skin region to which a flash effect is applied according to the degree of uniformity of light in a portion illuminated to the user An image acquiring unit for predicting a position of a flash through header information of the image;
The skin region excluding the tongue region included in the obtained image of the user is primarily deleted by using the threshold value of the colorimetric information (CIE a Thresholding), and the skin region is firstly deleted using the threshold of hue thresholding A skin area deleting unit that secondarily deletes a skin area with respect to a skin area that has not been deleted in the tongue area from which noise has been removed;
An outline extracting unit for extracting an outline of the tongue area from the images of the skin area deleted;
Based on the extracted outline, the vertical length of the tongue area is calculated, and the lingual area corresponding to the end of the tongue is extracted by dividing into 5 equal parts based on the calculated length of the tongue area in the vertical direction. After setting the initial center line of the tongue connecting the center lines of the trisection lines from the tip of the tongue and setting the final center line for the tongue area by drawing a line perpendicular to the initial center line of the set tongue, A tongue region dividing unit dividing the tongue region into left and right tongue regions at regular intervals;
The lengths from the final center line to the left end and the length to the right end are measured for the tongue regions divided at the predetermined intervals and then the measured lengths are compared to determine the left and right symmetry considering the error rate of the length between the left end and the right end. A tongue area correction unit for correcting the tongue area by applying curvature calculation to the tongue area; And
A tongue area extracting unit for extracting a tongue area from the corrected image,
And the image processing apparatus.
삭제delete 제9항에 있어서,
상기 피부 영역 삭제부는,
상기 표색계 정보의 임계값을 기반으로 상기 피부 영역이 삭제된 영상 내 노이즈를 제거하는 메디안 필터링을 적용하여 영상에서 삭제된 피부 영역에 대한 전처리 동작을 수행하는 영상 처리 장치.
10. The method of claim 9,
Wherein the skin area deleting unit comprises:
And applying median filtering to remove noise in the image, wherein the skin region is deleted based on the threshold value of the colorimetric information, to perform a preprocessing operation on the skin region deleted from the image.
삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 혀 영역 보정부는,
상기 영상을 획득하는 과정에서 발생하는 플래쉬 효과를 고려하여,
i) 영상에서 피부 영역으로 오인되어 삭제된 혀 영역, 또는
ii) 영상에서 혀 영역으로 오인되어 삭제되지 않은 피부 영역
에 대한 보정을 수행하는 영상 처리 장치.
10. The method of claim 9,
Wherein the tongue area correction unit comprises:
In consideration of the flash effect generated in the process of acquiring the image,
i) a deleted tongue area mistaken for a skin area in the image, or
ii) Skin area that is mistaken for the tongue area in the image and not deleted
In the image processing apparatus.
KR1020160143028A 2016-10-31 2016-10-31 Tongue region extraction method and image processing apparatus for performing the method KR101908785B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160143028A KR101908785B1 (en) 2016-10-31 2016-10-31 Tongue region extraction method and image processing apparatus for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160143028A KR101908785B1 (en) 2016-10-31 2016-10-31 Tongue region extraction method and image processing apparatus for performing the method

Publications (2)

Publication Number Publication Date
KR20180049302A KR20180049302A (en) 2018-05-11
KR101908785B1 true KR101908785B1 (en) 2018-10-18

Family

ID=62185408

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160143028A KR101908785B1 (en) 2016-10-31 2016-10-31 Tongue region extraction method and image processing apparatus for performing the method

Country Status (1)

Country Link
KR (1) KR101908785B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785345A (en) * 2019-01-25 2019-05-21 中电健康云科技有限公司 Image partition method and device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109247916A (en) * 2018-10-23 2019-01-22 上海中医药大学 A kind of device for mobile terminal shooting standard tongue picture image
CN113576405A (en) * 2021-07-08 2021-11-02 智美康民(珠海)健康科技有限公司 Tongue diagnosis basic information acquisition method and system, tongue diagnosis instrument and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889014B1 (en) * 2007-09-21 2009-03-17 한국 한의학 연구원 Extraction method of tongue region using graph-based approach

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195917B1 (en) * 2010-06-15 2012-10-30 한국 한의학 연구원 Acquisition method of Tongue Diagnosis Region

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889014B1 (en) * 2007-09-21 2009-03-17 한국 한의학 연구원 Extraction method of tongue region using graph-based approach

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785345A (en) * 2019-01-25 2019-05-21 中电健康云科技有限公司 Image partition method and device

Also Published As

Publication number Publication date
KR20180049302A (en) 2018-05-11

Similar Documents

Publication Publication Date Title
US11145038B2 (en) Image processing method and device for adjusting saturation based on depth of field information
CN110248085B (en) Apparatus and method for object boundary stabilization in images of an image sequence
CN110378946B (en) Depth map processing method and device and electronic equipment
CN110378945B (en) Depth map processing method and device and electronic equipment
CN106909911B (en) Image processing method, image processing apparatus, and electronic apparatus
CN109076198B (en) Video-based object tracking occlusion detection system, method and equipment
US10620005B2 (en) Building height calculation method, device, and storage medium
CN107615334B (en) Object recognition device and object recognition system
US7853048B2 (en) Pupil color correction device and program
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
CN110400338B (en) Depth map processing method and device and electronic equipment
US7907752B2 (en) Face center position detecting device, face center position detecting method, and computer-readable medium
WO2019174276A1 (en) Method, device, equipment and medium for locating center of target object region
WO2019165604A1 (en) Hairline contour locating method and device, and computer readable storage medium
US20130215234A1 (en) Method and apparatus for stereo matching
WO2018161289A1 (en) Depth-based control method, depth-based control device and electronic device
KR101809543B1 (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
KR101908785B1 (en) Tongue region extraction method and image processing apparatus for performing the method
EP3067865B1 (en) Image processing apparatus and image processing method
KR20110064622A (en) 3d edge extracting method and apparatus using tof camera
US7692697B2 (en) Pupil color correction device and program
CN110121031B (en) Image acquisition method and device, electronic equipment and computer readable storage medium
WO2019011110A1 (en) Human face region processing method and apparatus in backlight scene
TW201432620A (en) Image processor with edge selection functionality
CN113313645A (en) Image processing method, image processing apparatus, terminal, and readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant