[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102114738B1 - Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof - Google Patents

Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof Download PDF

Info

Publication number
KR102114738B1
KR102114738B1 KR1020190130359A KR20190130359A KR102114738B1 KR 102114738 B1 KR102114738 B1 KR 102114738B1 KR 1020190130359 A KR1020190130359 A KR 1020190130359A KR 20190130359 A KR20190130359 A KR 20190130359A KR 102114738 B1 KR102114738 B1 KR 102114738B1
Authority
KR
South Korea
Prior art keywords
foreground
trimap
background
input image
image
Prior art date
Application number
KR1020190130359A
Other languages
Korean (ko)
Inventor
이상웅
헨리 크리스
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020190130359A priority Critical patent/KR102114738B1/en
Application granted granted Critical
Publication of KR102114738B1 publication Critical patent/KR102114738B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for automatically generating a trimap of an alpha matte through unknown area detection and a device thereof, and more particularly, to a method for improving the quality of an alpha matte by reducing the number of artifacts and calculation time of the alpha matte by combining image saliency, graph cut segmentation (lazy snapping) and fuzzy c-means (FCM) clustering to generate a trimap when performing image matting for accurately extracting a foreground and background from an input image. The method comprises: a foreground queue estimation step; a foreground segmentation step; and an unknown area detection step.

Description

언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법 및 그 장치{METHOD FOR GENERATING TRIMAP AUTOMATICALLY IN ALPHA MATTE THROUGH UNKNOWN REGION DETECTION AND APPARATUS THEREOF}Method and device for automatic generation of tri-map of alpha matte through detection of unknown area {METHOD FOR GENERATING TRIMAP AUTOMATICALLY IN ALPHA MATTE THROUGH UNKNOWN REGION DETECTION AND APPARATUS THEREOF}

본 발명은 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 입력 이미지에서 전경과 배경을 정확하게 추출하는 이미지 매팅(image matting)을 수행할 때, 이미지 돌출(image saliency), 그래프 컷 세그먼테이션(lazy snapping) 및 FCM(fuzzy c-means) 클러스터링을 결합하여 트라이맵을 자동으로 생성함으로써, 아티팩트(artifact)의 수를 줄이고, 알파 매트의 계산 시간을 단축하여 상기 알파 매트의 품질을 향상시킬 수 있는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for automatically generating a trimap of alpha matte through detection of an unknown area, and more particularly, when performing image matting that accurately extracts a foreground and a background from an input image, extrudes an image. By combining (image saliency), graph cut segmentation (lazy snapping), and fuzzy c-means (FCM) clustering to automatically generate a trimap, it reduces the number of artifacts and shortens the computation time of the alpha matte. A method and apparatus for improving the quality of an alpha matte.

일반적으로 영화 제작 업계에서 시각 효과 아티스트는 하나 이상의 이미지 객체(예를 들어 영화의 경우 배우)를 다른 배경 이미지(예를 들어 행성 화성과 유사한 환경)로 합성하기 위해 크로마 키잉(chroma keying)을 사용한다. 하지만 상기 크로마 키잉에는 제어된 일정한 색상의 장면(녹색 또는 파란색)이 필요하고, 상기 크로마 키잉으로 추출된 전경에는 아티팩트가 포함될 수 있으며, 시각 효과 아티스트가 수동으로 이를 수정해야 한다.Typically in the filmmaking industry, visual effects artists use chroma keying to synthesize one or more image objects (for example, an actor in the case of a movie) into another background image (for example, an environment similar to planet Mars). . However, the chroma keying requires a controlled constant color scene (green or blue), and the foreground extracted with the chroma keying may include artifacts, and the visual effect artist must manually correct it.

이에 따라 학계 및 산업계의 많은 연구자나 개발자들은 배경이 있는 이미지에서 전경을 추출할 수 있는 이미지 매팅에 관심을 두고 있으며, 상기 이미지 매팅에 대한 기술 확보를 위하여 활발한 연구 및 개발을 진행하고 있다.Accordingly, many researchers and developers in academia and industry are interested in image mating that can extract a foreground from an image with background, and are actively conducting research and development to secure technology for the image mating.

상기 이미지 매팅이란 이미지의 전경과 배경을 정확하게 추출하는 것을 말하며, 이미지 편집, 비디오 편집 및 영화 제작 응용 프로그램의 핵심 처리 단계 중 하나이다.The image matting refers to accurately extracting the foreground and background of an image, and is one of the core processing steps of an image editing, video editing, and movie production application.

이때 상기 이미지 매팅은 입력으로 트라이맵을 필요로 하며, 우수한 품질의 알파 매트를 생성하기 위해서는 수작업으로 그린 트라이맵이 필요하다.At this time, the image matting requires a trimap as an input, and a manually drawn trimap is required to generate a high quality alpha matte.

하지만 상기 설명과 같이 트라이맵을 사용자가 수동으로 작성하기 위해서는 많은 시간이 걸리는 문제점이 있었다. 예를 들어, 종래에는 사용자가 소프트웨어에서 제공하는 브러시 세트, 페인트 도구 등을 사용하여 트라이맵을 손으로 그리고, 상기 트라이맵을 이미지 매팅의 입력으로 사용하였지만, 각 트라이앱마다 짧은 시간(약 2분 정도)의 작업 시간이 주어졌기 때문에, 숙련된 사용자의 경우 무리없이 주어진 시간 내에 트라이맵을 그릴 수 있으나 초보자의 경우 주어진 시간 내에 트라이맵을 그리기 어려웠다.However, as described above, there is a problem in that it takes a lot of time for the user to manually create the trimap. For example, in the related art, a user draws a trimap by hand using a brush set, a paint tool, etc. provided by the software, and uses the trimap as an input for image matting, but each triapp has a short time (about 2 minutes) Given the working time of the degree), an experienced user can draw a trimap within a given time without difficulty, but for a beginner it is difficult to draw a trimap within a given time.

이와 같은 트라이맵의 수동 작성의 문제점을 해결하기 위하여, 최근에는 상기 트라이맵을 자동으로 생성하는 알고리즘이 개발되어 사용되고 있다.In order to solve the problem of manually creating such a trimap, an algorithm for automatically generating the trimap has been developed and used.

그러나, 현재 사용되고 있는 대부분의 트라이맵을 자동으로 생성하는 알고리즘은, 전경 객체를 분할하기 위하여 깊이 정보가 필요하였으며, 상기 깊이 정보는 알고리즘의 실제 적용 가능성을 제한하는 문제점이 있었다.However, in the algorithm that automatically generates most of the currently used trimaps, depth information is required to divide the foreground object, and the depth information has a problem of limiting the practical applicability of the algorithm.

또한 언노운(unknown) 영역을 생성하기 위하여, 종래에는 팽창(dilation) 작업을 사용하였지만, 상기 언노운 영역은 전경 및 배경 픽셀을 포함하고 있기 때문에, 상기 팽창으로 생성된 트라이맵은 최적이 아니며, 최적화되지 않은 트라이맵으로 생성된 알파 매트에는 알파 매트의 품질을 저하시키는 아티팩트(알파 매트에 배경의 픽셀이 포함된 것을 의미)가 많이 포함되는 문제점이 있었다.In addition, in order to create an unknown area, a dilation operation was conventionally used, but since the unknown area includes foreground and background pixels, the trimap generated by the expansion is not optimal and is not optimized. The alpha matte generated by the non-trimap has a problem in which a lot of artifacts that degrade the quality of the alpha matte (meaning that the alpha matte contains background pixels) are included.

따라서 본 발명에서는 입력 이미지에서 전경과 배경을 정확하게 추출하는 이미지 매팅을 위한 트라이맵을 생성할 때, 이미지 돌출, 그래프 컷 세그먼테이션 및 FCM 클러스터링을 결합하여 최적의 트라이맵을 자동으로 생성함으로써, 상기 생성한 최적의 트라이맵을 통해 알파 매트의 경계 영역에서 발생하는 아티팩트의 수를 줄이는 것은 물론, 상기 알파 매트의 계산 시간을 단축하여 품질을 향상시킬 수 있는 방안을 제시하고자 한다.Therefore, in the present invention, when generating a trimap for image matting that accurately extracts the foreground and background from the input image, the optimal trimap is automatically generated by combining image extrusion, graph cut segmentation, and FCM clustering to automatically generate the trimap. It is intended to propose a method for improving the quality by reducing the number of artifacts occurring in the boundary area of the alpha matte through an optimal trimap and by shortening the computation time of the alpha matte.

특히, 본 발명은 언노운 영역(unknown region)이 전경 또는 배경 픽셀이 아닌 색상 혼합을 나타내는 픽셀만 포함하도록 하여 전경 객체를 분할하기 위해 필요한 깊이 정보(depth information)에 의존하지 않고, 언노운 영역의 감지를 위해 클러스터링 기반의 접근 방식을 사용하며, 완전 자동으로 최적의 트라이맵을 생성할 수 있는 방안을 제시하고자 한다.In particular, the present invention does not rely on depth information required to divide the foreground object by allowing the unknown region to include only pixels representing color mixing, not the foreground or background pixels, and detects the detection of the unknown region. To this end, we will use a clustering-based approach and propose a method to generate an optimal trimap fully automatically.

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters to be differentiated from the prior art will be described.

먼저 한국등록특허 제1176649호(2012.08.23.)는 동적 프로그래밍에 의한 경계선 매팅에 관한 것으로, 추출된 피사체의 경계를 따라(예를 들어, 컬러 블리딩 및/또는 아티팩트를 제한하는) 상대적으로 연속적인 투명도(또는 알파 값)를 생성하는 경계선 매팅 기술에 관한 것이다.First, Korean Registered Patent No. 116649 (2012.08.23.) Relates to border mating by dynamic programming, and is relatively continuous along the boundary of the extracted subject (for example, to limit color bleeding and / or artifacts). It relates to a border matting technique that produces transparency (or alpha values).

즉, 상기 선행기술은 과도한 사용자 인터렉션을 요구하지 않고서, 추출된 전경 이미지에 보다 더 효율적이고 개선된 경계선 매팅(border matting)을 제공하기 위한 기술에 대해 기재하고 있다.That is, the prior art describes a technique for providing more efficient and improved border matting to the extracted foreground image without requiring excessive user interaction.

또한 한국등록특허 제1624801호(2016.05.26.)는 전경 물체 추출을 위한 매팅 방법 및 이를 수행하는 장치에 관한 것으로, 입력 영상 및 트라이맵으로부터 적어도 하나의 픽셀을 추출하는 단계, 적어도 하나의 비국부 이웃 픽셀을 추출하여 제1 처리 비용 값을 산출하는 단계, 적어도 하나의 국부 이웃 픽셀을 추출하여 제2 처리 비용 값을 산출하는 단계 및 제1 처리 비용 값 및 제2 처리 비용 값을 기반으로 적어도 하나의 픽셀 각각에 대한 불투명도 값을 추정하여 입력 영상에 대한 매팅을 수행하는 단계를 포함하는 것을 기술적 특징으로 한다.Also, Korean Registered Patent No. 16,4801 (2016.05.26.) Relates to a matting method for extracting a foreground object and an apparatus for performing the same, extracting at least one pixel from an input image and a trimap, at least one non-local Extracting neighboring pixels to calculate a first processing cost value, extracting at least one local neighboring pixel to calculate a second processing cost value, and at least one based on the first processing cost value and the second processing cost value And performing mating on the input image by estimating the opacity value for each pixel of.

즉, 상기 선행기술은 전경의 물체를 추출하기 위해 입력 영상을 구성하는 픽셀 각각과 비국부적 관계 및 국부적 관계를 생성하는 이웃 픽셀을 추출하여 고품질의 영상 매팅을 수행하고, 다양한 목적의 영상 편집 소프트웨어에 적용시킬 수 있는 방법 및 장치에 대하여 기재하고 있다.That is, the prior art extracts neighboring pixels generating each of the pixels constituting the input image and non-local relationships and local relationships to extract objects in the foreground, performs high-quality image matting, and provides image editing software for various purposes. It describes methods and apparatus that can be applied.

이상에서 선행기술들을 검토한 결과, 상기 선행기술들은 비록 사용자의 인터랙션을 과도하게 요구하지 않으면서 매팅을 수행하는 구성, 입력 영상의 픽셀과 비국부적 및 국부적 관계를 생성하는 이웃 픽셀을 추출하여 영상 매팅을 수행하는 구성 등을 제시하고 있지만, 본 발명은 상기 선행기술에서와 같이 단순히 사용자의 개입을 줄이면서 이미지 매팅을 수행하는 것이 아닌, 이미지 매팅을 위한 트라이맵을 생성할 때, 사용자의 직접적인 개입 없이 이미지 돌출, 그래프 컷 세그먼테이션 및 FCM 클러스터링에 기반하여 최적의 트라이맵을 자동으로 생성하는 기술적 특징을 제시하는 것으로서, 이와 관련된 구성에 대해서는 상기 선행기술에 아무런 기재나 그 어떠한 암시도 없기 때문에 상기 선행기술과 본 발명은 기술적 차이점이 분명한 것이다.As a result of examining the prior arts above, the prior arts are configured to perform matting without excessively requiring user interaction, extracting neighboring pixels that generate non-local and local relationships with the pixels of the input image, and mating the image. However, the present invention does not perform image matting while reducing user intervention, as in the prior art, but creates a trimap for image matting without direct user intervention. As a technical feature for automatically generating an optimal trimap based on image extrusion, graph cut segmentation, and FCM clustering, there is no description or any suggestion in the prior art regarding the configuration related thereto, The technical differences of the present invention are obvious.

특히 언노운 영역이 전경 또는 배경 픽셀이 아닌 색상 혼합을 나타내는 픽셀만 포함하도록 하여 전경 객체를 분할하기 위해 필요한 깊이 정보에 의존하지 않고, 상기 언노운 영역의 감지를 위해 클러스터링 기반의 접근 방식을 사용하여 완전 자동으로 최적의 트라이맵을 생성하는 구성은 상기 선행기술에서 전혀 제시되지 않은 본 발명만의 특징적인 기술적 구성이다.In particular, by making sure that the unknown area contains only pixels representing color mixing, not the foreground or background pixels, it does not rely on the depth information needed to segment the foreground object, and is fully automatic using a clustering-based approach for detection of the unknown area. The configuration for generating the optimal trimap is a characteristic technical configuration of the present invention which is not presented at all in the prior art.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 입력 이미지에서 전경과 배경을 정확하게 추출하는 이미지 매팅을 수행할 때, 사용자의 직접적인 개입 없이 트라이맵을 자동으로 생성할 수 있는 방법 및 그 장치를 제공하는 것을 목적으로 한다.The present invention was created to solve the above problems, and a method and apparatus capable of automatically generating a trimap without direct user intervention when performing image matting that accurately extracts the foreground and background from the input image It aims to provide.

또한 본 발명은 이미지 매팅을 위한 최적의 트라이맵을 생성할 때, 이미지 돌출, 그래프 컷 세그먼테이션 및 FCM 클러스터링을 결합하여 최적의 트라이맵을 자동으로 생성할 수 있는 방법 및 그 장치를 제공하는 것을 다른 목적으로 한다.Another object of the present invention is to provide a method and apparatus for automatically generating an optimal trimap by combining image extrusion, graph cut segmentation, and FCM clustering when generating an optimal trimap for image matting. Is done.

또한 본 발명은 언노운 영역이 전경 또는 배경 픽셀이 아닌 색상 혼합을 나타내는 픽셀만 포함하도록 하여 전경 객체를 분할하기 위해 필요한 깊이 정보에 의존하지 않고, 언노운 영역의 감지를 위해 클러스터링 기반의 접근 방식을 사용하며, 완전 자동으로 최적의 트라이맵을 생성할 수 있는 방법 및 그 장치를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention does not rely on the depth information required to divide the foreground object, so that the unknown area includes only pixels representing color mixing, not the foreground or background pixels, and uses a clustering-based approach for detection of the unknown area. Another object is to provide a method and apparatus capable of generating an optimal trimap completely automatically.

또한 본 발명은 자동으로 생성한 최적의 트라이맵을 통해 알파 매트를 생성함으로써, 상기 알파 매트에 배경 픽셀인 아티팩트가 포함되지 않도록 상기 아티팩트의 수를 줄이는 것은 물론, 상기 알파 매트의 계산 시간을 단축하여 상기 알파 매트의 품질을 향상시킬 수 있는 방법 및 그 장치를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention generates an alpha matte through an automatically generated optimal trimap, thereby reducing the number of artifacts so that the alpha matte does not include background pixel artifacts, and also shortening the computation time of the alpha matte. Another object is to provide a method and apparatus for improving the quality of the alpha matte.

본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법은, 트라이맵 자동 생성 장치에서, 픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 전경 큐 추정 단계; 상기 트라이맵 자동 생성 장치에서, 상기 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하여 상기 입력 이미지에서 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션하는 전경 세그먼테이션 단계; 및 상기 트라이맵 자동 생성 장치에서, 퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 언노운 영역 감지 단계;를 포함하는 것을 특징으로 한다.A method for automatically generating a trimap of alpha matte through detection of an unknown region according to an embodiment of the present invention, in a trimap automatic generation device, uses a pixel-level extrusion map to set a foreground cue for the position of a foreground object in an input image. An estimating foreground queue; In the trimap automatic generation device, graph cut segmentation based on the foreground cue for the estimated position of the foreground object, the background cue generated by defining a corner region of the input image as a background seed, and a pre-computed oversegmented input image a foreground segmentation step of dividing a foreground object and a background from the input image by performing lazy snapping, and segmenting the divided foreground object; And in the trimap automatic generation device, using fuzzy c-means (FCM) clustering, an unknown region detection that generates a trimap by identifying mixed pixels including a foreground and a background color in a boundary region of the segmented foreground object It characterized in that it comprises a step.

또한 상기 전경 큐 추정 단계는, 상기 트라이맵 자동 생성 장치에서, 이미지 매팅을 수행하기 위한 입력 이미지를 제공받는 이미지 입력 단계; 상기 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵을 생성하는 돌출 맵 생성 단계; 상기 생성한 돌출 맵을 양자화하여 양자화된 돌출 맵을 생성하는 돌출 맵 양자화 단계; 상기 생성한 양자화된 돌출 맵을 이진화하여 이진화된 돌출 맵을 생성하는 돌출 맵 이진화 단계; 및 상기 이진화된 돌출 맵을 침식(erode)하여 가장 큰 블랍(blob)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 단계에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐로 사용하도록 출력하는 전경 큐 출력 단계;를 포함하는 것을 특징으로 한다.In addition, the foreground cue estimating step includes: an image input step of receiving an input image for performing image matting in the trimap automatic generation device; A protrusion map generation step of dividing the received input image into a predetermined area and generating a protrusion map based on the divided region contrast, region background, and region property; A protrusion map quantization step of quantizing the generated protrusion map to generate a quantized protrusion map; A binarization step of generating a binarized projection map by binarizing the generated quantized projection map; And a foreground queue for outputting the eroded binary map to be used as a foreground queue for performing graph cut segmentation in the foreground segmentation step by eroding the binarized protrusion map and maintaining only the largest blob. And an output step.

또한 상기 전경 세그먼테이션 단계는, 상기 트라이맵 자동 생성 장치에서, 상기 추정한 전경 객체의 위치에 대한 전경 큐를 입력받아 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 전경 큐 제공 단계; 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성하고, 상기 생성한 배경 큐를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 배경 큐 제공 단계; 상기 입력 이미지를 복수 개의 수퍼 픽셀로 과분할하고, 상기 과분할한 입력 이미지를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 과분할 이미지 제공 단계; 상기 전경 큐, 배경 큐 및 과분할 입력 이미지를 토대로 상기 입력 이미지에서 전경 객체와 배경을 분할하는 그래프 컷 세그먼테이션 단계; 및 상기 분할한 전경 객체를 세그먼테이션하는 전경 객체 세그먼테이션 단계;를 포함하는 것을 특징으로 한다.In addition, the foreground segmentation step, in the trimap automatic generation device, receiving a foreground queue for the estimated position of the foreground object and providing a foreground queue as an input for graph cut segmentation; Defining a corner region of the input image as a background seed to generate a background queue, and providing a background queue to provide the generated background queue as an input for graph cut segmentation; An over-segment image providing step of over-segmenting the input image into a plurality of super pixels and providing the over-segmented input image as an input for graph cut segmentation; A graph cut segmentation step of dividing a foreground object and a background from the input image based on the foreground cue, a background cue, and an overdivided input image; And a foreground object segmentation step of segmenting the divided foreground object.

또한 상기 언노운 영역 감지 단계는, 상기 트라이맵 자동 생성 장치에서, 상기 세그먼테이션한 전경 객체의 경계 영역을 팽창하는 팽창 단계; 상기 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정하고, 상기 설정한 ROI를 nㅧn의 패치로 나누는 ROI 처리 단계; 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 생성하는 언노운 영역 생성 단계; 상기 언노운 영역 생성 단계에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하는 이미지 병합 단계; 및 상기 병합한 이미지를 토대로 트라이맵을 생성하는 트라이맵 생성 단계;를 포함하는 것을 특징으로 한다.In addition, the detecting of the unknown area may include: an expansion step of expanding the boundary area of the segmented foreground object in the trimap automatic generation device; An ROI processing step of setting a boundary region of the expanded foreground object as an ROI (interest region) and dividing the set ROI into n 패치 n patches; A fuzzy c-average (FCM) clustering for each divided patch, and an unknown region generation step of generating an unknown region by identifying mixed pixels including a foreground and a background color for each patch based on the result of the execution; An image merging step of merging the images for each patch processed in the step of generating the unknown area into one image; And a trimap generation step of generating a trimap based on the merged image.

또한 상기 전경 세그먼테이션 단계는, 상기 트라이맵 자동 생성 장치에서, 상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성하는 것을 특징으로 한다.Further, in the foreground segmentation step, when the tri-cue automatic generation device defines and generates the background cue as a background seed of a corner region of the input image, the foreground object is located in the center of the input image, and the input image Characterized in that the corner is generated based on the assumption that it is likely to include a background cue.

또한 상기 언노운 영역 감지 단계는, 상기 트라이맵 자동 생성 장치에서, 상기 전경 객체의 경계 영역에서 추출한 ROI를 nㅧn 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서, 각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인하도록 하는 것을 특징으로 한다.In addition, in the detecting of the unknown area, the trimap auto-generation device divides the ROI extracted from the boundary area of the foreground object into a patch of size n ㅧ n, and performs fuzzy c-means (FCM) clustering for each divided patch. In the process, each patch is expressed as a lightness, a green-red component, and a blue-yellow component, but discarding the brightness and maintaining only the green-red component and the blue-yellow component to identify the mixed pixel.

아울러, 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 장치는, 픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 전경 큐 추정 모듈; 상기 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하여 상기 입력 이미지에서 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션하는 전경 세그먼테이션 모듈; 및 퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 언노운 영역 감지 모듈;을 포함하는 것을 특징으로 한다.In addition, the apparatus for automatically generating a tri-map of alpha matte through detection of an unknown area according to an embodiment of the present invention estimates a foreground queue for estimating a foreground queue for a position of a foreground object in an input image using a pixel-level protrusion map module; Graph cut segmentation (lazy snapping) is performed based on the foreground cue for the estimated position of the foreground object, the background cue generated by defining the corner region of the input image as a background seed, and the pre-calculated oversegmented input image. A foreground segmentation module for dividing the foreground object and the background from the input image and segmenting the divided foreground object; And a fuzzy c-means (FCM) clustering, an unknown area detection module for generating a trimap by identifying mixed pixels including a color of a foreground and a background in a boundary area of the segmented foreground object. do.

또한 상기 전경 큐 추정 모듈은, 이미지 매팅을 수행하기 위한 입력 이미지를 제공받는 이미지 입력부; 상기 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵을 생성하는 돌출 맵 생성부; 상기 생성한 돌출 맵을 양자화하여 양자화된 돌출 맵을 생성하는 돌출 맵 양자화부; 상기 생성한 양자화된 돌출 맵을 이진화하여 이진화된 돌출 맵을 생성하는 돌출 맵 이진화부; 및 상기 이진화된 돌출 맵을 침식(erode)하여 가장 큰 블랍(blob)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 모듈에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐로 사용하도록 출력하는 전경 큐 출력부;를 포함하는 것을 특징으로 한다.In addition, the foreground queue estimation module, an image input unit for receiving an input image for performing image matting; A protrusion map generator for dividing the received input image into a predetermined area, and generating a protrusion map based on the divided region contrast, region background, and region property; A protrusion map quantization unit to quantize the generated protrusion map to generate a quantized protrusion map; A projected map binarization unit that binarizes the generated quantized projected map to generate a binarized projected map; And a foreground queue for outputting the eroded binary map to be used as a foreground queue for performing graph cut segmentation in the foreground segmentation module by eroding the binarized protrusion map and maintaining only the largest blob. And an output unit.

또한 상기 전경 세그먼테이션 모듈은, 상기 전경 큐 추정 모듈에서 추정한 전경 객체의 위치에 대한 전경 큐를 입력받아 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 전경 큐 제공부; 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성하고, 상기 생성한 배경 큐를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 배경 큐 제공부; 상기 입력 이미지를 복수 개의 수퍼 픽셀로 과분할하고, 상기 과분할한 입력 이미지를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 과분할 이미지 제공부; 상기 전경 큐, 배경 큐 및 과분할 입력 이미지를 토대로 상기 입력 이미지에서 전경 객체와 배경을 분할하는 그래프 컷 세그먼테이션부; 및 상기 분할한 전경 객체를 세그먼테이션하는 전경 객체 세그먼테이션부;를 포함하는 것을 특징으로 한다.In addition, the foreground segmentation module includes: a foreground queue providing unit that receives a foreground queue for a position of a foreground object estimated by the foreground queue estimation module and provides it as an input for graph cut segmentation; A background queue providing unit defining a corner area of the input image as a background seed to generate a background queue, and providing the generated background queue as an input for graph cut segmentation; An over-segmentation image providing unit for over-segmenting the input image into a plurality of super pixels, and providing the over-segmented input image as an input for graph cut segmentation; A graph cut segmentation unit dividing a foreground object and a background from the input image based on the foreground cue, a background cue, and an oversegment input image; And a foreground object segmentation unit for segmenting the divided foreground object.

또한 상기 언노운 영역 감지 모듈은, 상기 세그먼테이션한 전경 객체의 경계 영역을 팽창하는 팽창부; 상기 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정하고, 상기 설정한 ROI를 nㅧn의 패치로 나누는 ROI 처리부; 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 생성하는 언노운 영역 생성부; 상기 언노운 영역 생성부에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하는 이미지 병합부; 및 상기 병합한 이미지를 토대로 트라이맵을 생성하는 트라이맵 생성부;를 포함하는 것을 특징으로 한다.In addition, the unknown area detection module includes: an expansion unit that expands a boundary area of the segmented foreground object; An ROI processing unit configured to set a boundary region of the expanded foreground object as an ROI (interest region), and divide the set ROI into n ㅧ n patches; A fuzzy c-average (FCM) clustering for each divided patch, and an unknown region generating unit for generating an unknown region by identifying mixed pixels including a foreground and a background color for each patch based on the result of the execution; An image merging unit that merges the images of each patch processed by the unknown region generating unit into a single image; And a trimap generator for generating a trimap based on the merged image.

또한 상기 전경 세그먼테이션 모듈은, 상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성하는 것을 특징으로 한다.In addition, when the foreground segmentation module generates the background cue by defining a corner region of the input image as a background seed, the foreground object is located in the center of the input image, and the corner of the input image includes a background queue. It is characterized by generating based on the assumption that the likelihood is high.

또한 상기 언노운 영역 감지 모듈은, 상기 전경 객체의 경계 영역에서 추출한 ROI를 nㅧn 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서, 각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인하도록 하는 것을 특징으로 한다.In addition, in the process of performing fuzzy c-mean (FCM) clustering for each patch divided by dividing the ROI extracted from the boundary area of the foreground object into a patch having an n ㅧ n size, the unknown area detection module Expressed as lightness, green-red component, and blue-yellow component, but discarding the brightness and maintaining only the green-red component and blue-yellow component to identify the mixed pixel.

이상에서와 같이 본 발명의 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법 및 그 장치에 따르면, 이미지 매팅을 위한 트라이맵을 생성할 때, 이미지 돌출, 그래프 컷 세그먼테이션 및 FCM 클러스터링을 결합하여 최적의 트라이맵을 자동으로 생성함으로써, 알파 매트의 경계 영역에서 발생하는 아티팩트의 수를 줄이고 상기 알파 매트의 계산 시간을 단축하여 품질을 향상시킬 수 있는 효과가 있다.As described above, according to a method and apparatus for automatically generating a trimap for alpha matte through detection of an unknown area of the present invention, when generating a trimap for image matting, it is optimal by combining image extrusion, graph cut segmentation, and FCM clustering By automatically generating a trimap of, it is possible to improve the quality by reducing the number of artifacts occurring in the boundary area of the alpha matte and shortening the computation time of the alpha matte.

특히, 자동으로 생성한 최적의 트라이맵을 이용하여 이미지 매팅 작업을 수행함으로써, 영화 제작 관련 기술자가 시각 효과 작업을 용이하게 수행할 수 있는 효과가 있다.In particular, by performing an image matting operation using the automatically generated optimal trimap, there is an effect that a film production related technician can easily perform a visual effect operation.

또한 본 발명은 언노운 영역이 전경 또는 배경 픽셀이 아닌, 전경과 배경의 색상이 혼합된 픽셀만 포함하도록 함으로써, 전경 객체를 분할하기 위해 필요한 깊이 정보에 의존하지 않으면서 완전 자동으로 최적의 트라이맵을 생성할 수 있는 효과가 있다.In addition, the present invention makes the optimal trimap fully automatic without relying on the depth information required to divide the foreground object by allowing the unknown area to include only the pixels of the foreground and background colors, not the foreground or background pixels. There is an effect that can be created.

도 1은 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 과정을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 장치의 구성을 상세하게 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 트라이맵 자동 생성 장치에 적용되는 픽셀 레벨의 돌출 맵을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 전경 큐 추정 모듈에서의 처리과정의 예를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 전경 큐 추정 모듈에서의 이미지 돌출과 전경 세그먼테이션 모듈에서의 그래프 컷 세그먼테이션을 결합한 효과를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 언노운 영역 감지 모듈에서의 혼합 픽셀 식별을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 언노운 영역 감지 모듈에서 구현한 전경 객체의 경계 영역을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법의 동작과정을 상세하게 나타낸 순서도이다.
도 9는 본 발명의 일 실시예에 따른 전경 큐를 추정하는 단계의 동작과정을 상세하게 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따른 전경 세그먼테이션을 수행하는 단계의 동작과정을 상세하게 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따른 언노운 영역을 감지하는 단계의 동작과정을 상세하게 나타낸 순서도이다.
도 12는 본 발명의 방식에 의해 자동으로 생성된 트라이맵과 기존의 수동 방식으로 생성된 트라이맵을 알파 매팅 평가 데이터 세트에서 비교한 도면이다.
도 13은 본 발명의 방식에 의해 자동으로 생성된 트라이맵과 기존의 수동 방식으로 생성된 트라이맵을 돌출 객체 데이터 세트에서 비교한 도면이다.
도 14는 본 발명의 방식에 따라 생성된 트라이맵과 기존 방식으로 생성된 트라이맵을 통해 생성한 알파 매트의 정성적인 비교를 설명하기 위한 도면이다.
도 15와 도 16은 KNN 매팅 및 정보 흐름 매팅에서 다양한 트라이맵으로 계산한 알파 매트의 SAD(sum of absolute differences, 절대 차이의 합) 값을 비교하기 위한 도면이다.
도 17은 KNN 매팅 및 정보 흐름 매팅에서 다양한 트라이맵으로 계산한 알파 매트의 평균 SAD 값을 비교하기 위한 도면이다.
도 18은 본 발명의 방식에 적용된 언노운 영역 감지의 효과를 정성적으로 검증하기 위한 도면이다.
도 19는 알파 매팅 데이터 세트에서 최적의 트라이맵 생성을 위한 시간 소비를 설명하기 위한 도면이다.
도 20과 도 21은 본 발명의 방식에 적용된 언노운 영역 감지와 기존 방식의 패치 기반 트리밍 및 에지 기반 트리밍을 위한 알파 매팅 데이터 세트 및 돌출 객체(salient object) 데이터 세트에서의 시간 소비를 각각 설명하기 위한 도면이다.
도 22와 도 23은 KNN 매팅 및 정보 흐름 매팅을 사용한 알파 매팅 데이터 세트에서의 알파 매트 계산을 위한 시간 소비를 각각 설명하기 위한 도면이다.
도 24는 KNN 매팅 및 정보 흐름 매팅을 사용한 돌출 객체 데이터 세트에서의 알파 매트 계산을 위한 시간 소비를 설명하기 위한 도면이다.
도 25는 수퍼 픽셀의 수가 전경 세그먼테이션에 미치는 영향을 설명하기 위한 도면이다.
도 26은 본 발명의 방식에 따라 생성된 트라이맵의 언노운 영역에 대한 클러스터 수(c), fuzzifier(m) 및 wthreshold의 영향을 설명하기 위한 도면이다.
1 is a conceptual diagram for explaining a process of automatically generating a trimap of alpha matte through detection of an unknown area according to an embodiment of the present invention.
FIG. 2 is a diagram showing in detail the configuration of an automatic generation device for trimap of alpha matte through detection of an unknown area according to an embodiment of the present invention.
3 is a diagram illustrating a pixel-level protrusion map applied to an apparatus for automatically generating a trimap according to an embodiment of the present invention.
4 is a view showing an example of a processing in the foreground queue estimation module according to an embodiment of the present invention.
5 is a diagram illustrating an effect of combining image extrusion in the foreground cue estimation module and graph cut segmentation in the foreground segmentation module according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating mixed pixel identification in an unknown area detection module according to an embodiment of the present invention.
7 is a view showing a boundary area of a foreground object implemented in an unknown area detection module according to an embodiment of the present invention.
8 is a flowchart illustrating in detail an operation process of a method for automatically generating a trimap of alpha matte through detection of an unknown area according to an embodiment of the present invention.
9 is a flowchart illustrating in detail the operation process of estimating the foreground queue according to an embodiment of the present invention.
10 is a flowchart illustrating in detail the operation process of the step of performing foreground segmentation according to an embodiment of the present invention.
11 is a flowchart illustrating in detail the operation process of the step of detecting an unknown area according to an embodiment of the present invention.
12 is a diagram comparing a trimap automatically generated by the method of the present invention and a conventionally generated trimap in an alpha matting evaluation data set.
13 is a diagram comparing a trimap automatically generated by the method of the present invention and a conventionally generated trimap in an extruded object data set.
FIG. 14 is a diagram for explaining a qualitative comparison of an alpha matte generated through a trimap generated according to the method of the present invention and a trimap generated in an existing method.
15 and 16 are diagrams for comparing SAD (sum of absolute differences) values of alpha matte calculated with various trimaps in KNN mating and information flow mating.
17 is a diagram for comparing average SAD values of alpha matte calculated with various trimaps in KNN mating and information flow mating.
18 is a diagram for qualitatively verifying the effect of detecting an unknown area applied to the method of the present invention.
19 is a diagram for explaining time consumption for generating an optimal trimap in an alpha matting data set.
20 and 21 are diagrams for describing time consumption in the alpha matting data set and salient object data set for unknown area detection applied to the method of the present invention and patch-based trimming and edge-based trimming of the conventional method, respectively. It is a drawing.
22 and 23 are diagrams for describing time consumption for alpha matte calculation in an alpha matting data set using KNN matting and information flow matting, respectively.
24 is a diagram for explaining time consumption for alpha matte calculation in a protruding object data set using KNN mating and information flow mating.
25 is a view for explaining the effect of the number of super pixels on the foreground segmentation.
26 is a view for explaining the effect of the number of clusters (c), fuzzifier (m) and w threshold on the unknown area of the trimap generated according to the method of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법 및 그 장치에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the method and apparatus for automatically generating an alpha matte trimap through detection of an unknown area of the present invention. The same reference numerals in each drawing denote the same members. In addition, specific structural or functional descriptions of the embodiments of the present invention are exemplified for the purpose of describing the embodiments according to the present invention, and unless defined otherwise, all terms used herein, including technical or scientific terms. These have the same meaning as those generally understood by those of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined herein. It is desirable not to.

먼저, 본 발명의 명세서 전체에 걸쳐 언급되는 이미지 매팅(image matting)은 트라이맵(trimap)을 입력으로 하여 입력 이미지의 전경과 배경을 정확하게 추출하는 것이다.First, image matting referred to throughout the specification of the present invention is to accurately extract the foreground and background of the input image using a trimap as an input.

또한 상기 트라이맵은 흰색, 검은색 및 회색의 세 영역으로 구성되어, 각각 전경(foreground) 영역, 배경(background) 영역 및 언노운(unknown) 영역으로 구분한 것으로서, 이미지에서 전경 영역은 통상 객체(object)를 의미하며, 언노운 영역은 윤곽선(즉 경계)을 의미한다.In addition, the trimap is composed of three areas of white, black, and gray, and is divided into a foreground area, a background area, and an unknown area, respectively. ), And the unknown area means the outline (that is, the boundary).

또한 상기 알파 매트(alpha matte)는 상기 이미지 매팅의 수행에 따라 산출되는 결과물로서, 3원색의 RGB 값 이외의 알파값을 가지고 있다.In addition, the alpha matte (alpha matte) is a result calculated by performing the image matting, and has an alpha value other than the RGB values of the three primary colors.

도 1은 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 과정을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a process of automatically generating a trimap of alpha matte through detection of an unknown area according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 영상 편집 시스템(1)은 트라이맵 자동 생성 장치(100)와 이미지 매팅 장치(200)를 포함하여 구성된다.As shown in FIG. 1, the image editing system 1 of the present invention includes a trimap automatic generation device 100 and an image mating device 200.

상기 트라이맵 자동 생성 장치(100)는 상기 이미지 매팅 장치(200)에서 입력 이미지에서 전경과 배경을 정확하게 추출하는 이미지 매팅을 수행할 때, 사용자의 직접적인 개입 없이 트라이맵을 자동으로 생성할 수 있는 전문가 시스템이며, 이미지 검색, 이미지 또는 비디오의 자동 전경/주요 객체 분할과 관련된 전문적이고 지능적인 시스템에 적용될 수 있다.The trimap automatic generation device 100 is an expert capable of automatically generating a trimap without direct user intervention when performing image matting in which the foreground and background are accurately extracted from the input image by the image matting device 200. It is a system and can be applied to professional and intelligent systems related to image search, automatic foreground / main object segmentation of images or videos.

또한 상기 트라이맵 자동 생성 장치(100)는 이미지 매팅을 위한 최적의 트라이맵을 생성할 때, 이미지 돌출, 그래프 컷 세그먼테이션(lazy snapping) 및 퍼지 c-평균(FCM) 클러스터링을 결합함으로써, 간단하고 효과적으로 최적의 트라이맵을 자동으로 생성할 수 있다.In addition, the trimap automatic generation device 100 simply and effectively combines image extrusion, graph cut segmentation, and fuzzy c-means (FCM) clustering when generating an optimal trimap for image matting. The optimal trimap can be generated automatically.

이때 상기 lazy snapping은 전경 및 배경 스크리블(scribble) 형식의 사용자 입력이 필요한 인터랙티브 그래프 컷 기반의 세그먼테이션 기술이며, 본 발명에서는 사용자가 제공한 전경 스크리블을 사용하는 대신, 돌출 맵(saliency map)을 전경 스크리블로 사용하여 lazy snapping의 입력으로 사용함으로써, 전경 객체가 세그먼트화되도록 한다. 또한 본 발명에서는 대부분의 전경 객체가 이미지의 중앙에 위치한다는 가정에 따라 모서리를 배경 스크리블로 사용한다.At this time, the lazy snapping is an interactive graph cut-based segmentation technique requiring user input in the foreground and background scribble format, and in the present invention, instead of using the foreground scribble provided by the user, a salientity map is used. By using it as the input of lazy snapping as the foreground scribble, the foreground object is segmented. Also, in the present invention, the edge is used as a background scribble based on the assumption that most of the foreground objects are located in the center of the image.

또한 상기 트라이맵 자동 생성 장치(100)는 최적의 트라이맵을 자동으로 생성하기 위하여, 언노운(unknown) 영역이 전경 또는 배경 픽셀이 아닌 색상 혼합을 나타내는 픽셀만 포함하도록 함으로써, 전경 객체를 분할하기 위해 필요한 깊이 정보(depth information)에 의존하지 않도록 한다. 그리고 언노운 영역의 감지를 위해 퍼지 c-평균(FCM) 클러스터링을 사용하여 경계 영역을 로컬로 클러스터링하는 방식을 사용한다.In addition, the trimap auto-generation device 100 is configured to automatically divide the foreground object by including only pixels representing color mixing, not foreground or background pixels, in order to automatically generate an optimal trimap. Don't depend on the depth information you need. Also, for detection of an unknown region, a method of clustering a boundary region locally using fuzzy c-means (FCM) clustering is used.

이를 통해서, 본 발명은 상기 트라이맵 자동 생성 장치(100)에서 자동으로 생성한 최적의 트라이맵을 통해 상기 이미지 매팅 장치(200)에서 알파 매트를 생성함으로써, 상기 알파 매트에 배경 픽셀인 아티팩트가 포함되지 않도록 상기 아티팩트의 수를 줄이는 것은 물론, 상기 알파 매트의 계산 시간을 단축하여 상기 알파 매트의 품질을 향상시킬 수 있다.Through this, according to the present invention, the alpha matte is included in the alpha matte by generating an alpha matte in the image matting device 200 through an optimal trimap automatically generated by the trimap automatic generation device 100. As well as reducing the number of artifacts, it is possible to improve the quality of the alpha matte by reducing the computation time of the alpha matte.

이와 같은 상기 트라이맵 자동 생성 장치(100)에서의 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 과정을 설명하면, 먼저 상기 트라이맵 자동 생성 장치(100)는 전경 큐(cue)를 얻기 위하여 입력 이미지의 돌출 맵을 이용한다(①).When the process of automatically generating a trimap of alpha mattes through detection of an unknown region in the trimap automatic generation device 100 is described, first, the trimap automatic generation device 100 is input to obtain a foreground cue. Use the projecting map of the image (①).

또한 상기 트라이맵 자동 생성 장치(100)는 그래프 컷 세그먼테이션을 위한 입력으로 상기 추정한 전경 큐 및 배경 큐를 사용하여 전경 객체를 세그먼테이션한다(②).In addition, the trimap automatic generation device 100 segments the foreground object using the estimated foreground and background cues as input for graph cut segmentation (②).

또한 상기 트라이맵 자동 생성 장치(100)는 전경 객체를 세그먼테이션한 이후, 퍼지 c-평균(FCM) 클러스터링을 사용하여 언노운 영역을 정확하게 찾는 과정을 수행하여 최적의 트라이맵을 생성한다(③).In addition, after the segmentation of the foreground object, the trimap automatic generation device 100 performs a process of accurately finding an unknown area using fuzzy c-means (FCM) clustering to generate an optimal trimap (③).

이후, 상기 이미지 매팅 장치(200)를 통해 상기 트라이맵 자동 생성 장치(100)에서 생성한 최적의 트라이맵을 통해 알파 매트를 생성한다(④).Thereafter, an alpha matte is generated through an optimal trimap generated by the trimap automatic generation device 100 through the image matting device 200 (④).

이와 같은 본 발명의 방식을 사용하면, 트라이맵을 보다 빠르게 생성하는 것은 물론, 전경 세그먼테이션을 위한 깊이 정보를 요구하지 않는다. 또한 본 발명의 방식은 RGB 컬러 이미지에서 직접 작동할 수 있으며, 최적의 트라이맵은 알파 매트의 경계 영역을 따라 아티팩트의 수를 줄여 알파 매트 결과를 개선할 수 있다.Using the method of the present invention, a trimap is generated more quickly, and depth information for foreground segmentation is not required. In addition, the method of the present invention can operate directly on the RGB color image, and the optimal trimap can improve the alpha matte result by reducing the number of artifacts along the boundary area of the alpha matte.

도 2는 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 장치의 구성을 상세하게 나타낸 도면이다.FIG. 2 is a diagram showing in detail the configuration of an automatic generation device for trimap of alpha matte through detection of an unknown area according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 트라이맵 자동 생성 장치(100)는 전경 큐 추정 모듈(110), 전경 세그먼테이션 모듈(120), 언노운 영역 감지 모듈(130)을 포함하여 구성된다.As shown in FIG. 2, the trimap automatic generation device 100 includes a foreground queue estimation module 110, a foreground segmentation module 120, and an unknown area detection module 130.

상기 전경 큐 추정 모듈(110)은 픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 기능을 수행한다.The foreground queue estimation module 110 performs a function of estimating a foreground queue for a position of a foreground object in an input image using a pixel-level protrusion map.

이때 상기 전경 큐 추정 모듈(110)은 이미지 입력부(111), 돌출 맵 생성부(112), 돌출 맵 양자화부(113), 돌출 맵 이진화부(114), 전경 큐 출력부(115) 등을 포함하여 구성된다.At this time, the foreground queue estimation module 110 includes an image input unit 111, a projection map generation unit 112, a projection map quantization unit 113, a projection map binarization unit 114, a foreground queue output unit 115, and the like. It is configured by.

상기 이미지 입력부(111)는 이미지 매팅을 수행하기 위한 입력 이미지를 제공받아 상기 돌출 맵 생성부(112)로 출력한다.The image input unit 111 receives an input image for performing image matting and outputs it to the protrusion map generation unit 112.

상기 돌출 맵 생성부(112)는 상기 이미지 입력부(111)로부터 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵을 생성하며, 상기 생성한 돌출 맵을 상기 돌출 맵 양자화부(113)로 출력한다.The protrusion map generation unit 112 divides the input image provided from the image input unit 111 into a predetermined region, and the region contrast, region background, and region attribute for each divided region ( region property), and outputs the generated protrusion map to the protrusion map quantizer 113.

상기 돌출 맵 양자화부(113)는 상기 돌출 맵 생성부(112)에서 생성한 돌출 맵을 양자화하여 양자화된 돌출 맵을 생성하고, 상기 생성한 양자화된 돌출 맵을 상기 돌출 맵 이진화부(114)로 출력한다. 이때 상기 양자화는 상기 돌출 맵을 유한 개의 구간으로 나누고, 상기 나눈 각 구간을 기 설정 데이터를 사용하여 지정하는 것을 의미한다.The protrusion map quantization unit 113 quantizes the protrusion map generated by the protrusion map generation unit 112 to generate a quantized protrusion map, and the generated quantized protrusion map to the protrusion map binarization unit 114 Output. In this case, the quantization refers to dividing the protrusion map into finite sections, and designating the divided sections using preset data.

상기 돌출 맵 이진화부(114)는 상기 돌출 맵 양자화부(113)에서 생성한 양자화된 돌출 맵을 이진화하여 이진화된 돌출 맵을 생성하고, 상기 생성한 이진화된 돌출 맵을 상기 전경 큐 출력부(115)로 출력한다.The projected map binarization unit 114 binarizes the quantized projected map generated by the projected map quantization unit 113 to generate a binarized projected map, and the generated binarized projected map is the foreground queue output unit 115 ).

상기 전경 큐 출력부(115)는 상기 돌출 맵 이진화부(114)에서 이진화된 돌출 맵을 침식(erode)하여 가장 큰 블랍(blob, binary large object)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 모듈(120)에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐로 사용하도록 출력한다.The foreground queue output unit 115 erodes the binarized projected map in the projected map binarization unit 114 to maintain only the largest blob (binary large object), and maintains the eroded binarized projected map. The foreground segmentation module 120 outputs it to be used as a foreground queue for performing graph cut segmentation.

이때 상기 블랍은 이미지, 비디오와 같은 멀티미디어 데이터를 다룰 때 사용하는 것으로서, 대개 데이터의 크기(Byte) 및 MIME(Multipurpose Internet Mail Extensions) 타입을 알아내거나, 데이터를 송수신을 위한 작은 블랍 객체로 나누는 등의 작업에 사용한다.At this time, the blob is used when dealing with multimedia data such as images and videos. Usually, the size of the data (Byte) and MIME (Multipurpose Internet Mail Extensions) type are found, or the data is divided into small blob objects for transmission and reception. Used for work.

상기 전경 세그먼테이션 모듈(120)은 상기 전경 큐 추정 모듈(110)에서 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하고, 상기 수행한 그래프 컷 세그먼테이션에 따라 상기 입력 이미지에서 전경 객체와 배경을 분할하며, 상기 분할한 전경 객체를 세그먼테이션하여 상기 언노운 영역 감지 모듈(130)로 제공한다.The foreground segmentation module 120 defines a foreground queue for a position of a foreground object estimated by the foreground queue estimation module 110, a background queue generated by defining a corner region of the input image as a background seed, and a pre-calculated hyperminute Graph cut segmentation (lazy snapping) is performed based on an input image to be divided, a foreground object and a background are divided from the input image according to the performed graph cut segmentation, and the segmented foreground object is segmented to detect the unknown area ( 130).

이때 상기 전경 세그먼테이션 모듈(120)은 전경 큐 제공부(121), 배경 큐 제공부(122), 과분할 이미지 제공부(123), 그래프 컷 세그먼테이션부(124), 전경 객체 세그먼테이션부(125) 등을 포함하여 구성된다.At this time, the foreground segmentation module 120 includes a foreground queue providing unit 121, a background queue providing unit 122, an over-segmentation image providing unit 123, a graph cut segmentation unit 124, a foreground object segmentation unit 125, and the like. It is configured to include.

상기 전경 큐 제공부(121)는 상기 전경 큐 추정 모듈(110)로부터 전경 객체의 위치에 대한 전경 큐를 입력받고, 상기 전경 객체의 위치에 대한 전경 큐를 상기 그래프 컷 세그먼테이션부(124)의 입력으로 제공한다.The foreground queue providing unit 121 receives the foreground queue for the position of the foreground object from the foreground queue estimation module 110, and inputs the foreground queue for the position of the foreground object to the graph cut segmentation unit 124 To provide.

상기 배경 큐 제공부(122)는 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성하고, 상기 생성한 배경 큐를 상기 그래프 컷 세그먼테이션부(124)의 입력으로 제공한다.The background queue providing unit 122 defines a corner region of the input image as a background seed to generate a background queue, and provides the generated background queue as an input of the graph cut segmentation unit 124.

이때 상기 배경 큐 제공부(122)는 상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성한다.At this time, when the background cue providing unit 122 creates the background cue by defining a corner region of the input image as a background seed, the foreground object is located in the center of the input image, and the corner of the input image is a background cue It is generated based on the assumption that it is highly likely to include.

상기 과분할 이미지 제공부(123)는 상기 입력 이미지를 복수 개의 수퍼 픽셀(같은 정보를 가진 픽셀들의 집합을 의미)로 과분할하고, 상기 과분할한 입력 이미지를 상기 그래프 컷 세그먼테이션부(124)의 입력으로 제공한다.The over-segmentation image providing unit 123 over-segments the input image into a plurality of super pixels (meaning a set of pixels having the same information), and the over-segmented input image of the graph cut segmentation unit 124 Provide it as input.

상기 그래프 컷 세그먼테이션부(124)는 상기 전경 큐 제공부(121)로부터 입력받은 전경 큐, 상기 배경 큐 제공부(122)부터 입력받은 배경 큐, 상기 과분할 이미지 제공부(123)로부터 입력받은 과분할 입력 이미지를 토대로, 상기 입력 이미지에서 전경 객체와 배경을 분할하는 기능을 수행한다.The graph cut segmentation unit 124 is a foreground queue received from the foreground queue providing unit 121, a background queue received from the background queue providing unit 122, and an excessive portion received from the over-segmentation image providing unit 123 Based on the input image to be performed, a function of dividing the foreground object and the background from the input image is performed.

상기 전경 객체 세그먼테이션부(125)는 상기 그래프 컷 세그먼테이션부(124)에서 분할한 전경 객체를 세그먼테이션하여 상기 언노운 영역 감지 모듈(130)로 출력한다.The foreground object segmentation unit 125 segments the foreground object segmented by the graph cut segmentation unit 124 and outputs the segmented foreground object to the unknown area detection module 130.

상기 언노운 영역 감지 모듈(130)은 퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 전경 세그먼테이션 모듈(120)에서 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 기능을 수행한다.The unknown area detection module 130 uses fuzzy c-means (FCM) clustering to check the mixed pixels including the color of the foreground and background in the boundary area of the foreground object segmented by the foreground segmentation module 120 to try. Performs the function of creating a map.

이때 상기 언노운 영역 감지 모듈(130)은 팽창부(131), ROI(region of interest) 처리부(132), 언노운 영역 생성부(133), 이미지 병합부(134), 트라이맵 생성부(135) 등을 포함하여 구성된다.At this time, the unknown area detection module 130 includes an expansion unit 131, a region of interest (ROI) processing unit 132, an unknown area generation unit 133, an image merging unit 134, a trimap generation unit 135, etc. It is configured to include.

상기 팽창부(131)는 상기 전경 세그먼테이션 모듈(120)에서 세그먼테이션한 전경 객체의 경계 영역 부분만을 팽창(dilation)한다.The expansion unit 131 expands only a portion of a boundary area of the foreground object segmented by the foreground segmentation module 120.

상기 ROI 처리부(132)는 상기 팽창부(131)를 통해 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정하고, 상기 설정한 ROI를 nㅧn의 패치, 즉 복수 개의 패치로 나눈다.The ROI processing unit 132 sets the boundary area of the foreground object expanded through the expansion unit 131 as an ROI (interest region), and divides the set ROI into n ㅧ n patches, that is, a plurality of patches.

상기 언노운 영역 생성부(133)는 상기 ROI 처리부(132)에서 nㅧn으로 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 확인한다. 즉, 각 패치별로 퍼지 c-평균(FCM) 컬러 클러스터링을 수행한 결과, 각 패치별 픽셀에 대한 모든 부분 멤버십 클러스터 스코어(w)가 혼합 픽셀을 분류하는데 사용되는 임계값(wthreshold, 본 발명에서는 0.8로 설정함) 미만인지를 판단하고, 상기 판단한 결과 각 패치별 픽셀에 대한 모든 부분 멤버십 클러스터 스코어(w)가 임계값(wthreshold) 미만이면 언노운 영역으로 식별하는 것이다.The unknown area generation unit 133 performs fuzzy c-average (FCM) clustering for each patch divided by n ㅧ n by the ROI processing unit 132, and the foreground and background colors for each patch based on the results Check the mixed pixels including the unknown area. That is, as a result of performing fuzzy c-mean (FCM) color clustering for each patch, a threshold value (w threshold) used in classifying mixed pixels in all partial membership cluster scores w for each patch pixel 0.8), and as a result of the determination, if all the partial membership cluster scores w for pixels for each patch are less than a threshold (w threshold ), it is identified as an unknown area.

이때 상기 언노운 영역 생성부(133)는 상기 전경 객체의 경계 영역에서 추출한 ROI를 nㅧn 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서, 각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인하도록 구성할 수 있다.At this time, in the process of performing the fuzzy c-means (FCM) clustering for each patch divided by dividing the ROI extracted from the boundary region of the foreground object into a patch of n ㅧ n size, the unknown region generating unit 133 The patch can be configured to identify the mixed pixels by expressing the lightness, green-red component, and blue-yellow component, but discarding the brightness and keeping only the green-red component and blue-yellow component.

상기 이미지 병합부(134)는 상기 언노운 영역 생성부(133)에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하여 출력한다.The image merging unit 134 merges and outputs the images for each patch processed by the unknown region generating unit 133 into a single image.

상기 트라이맵 생성부(135)는 상기 이미지 병합부(134)에서 병합한 이미지를 토대로 트라이맵을 생성하고, 상기 생성한 트라이맵을 상기 이미지 매팅 장치(200)로 출력하여 알파 매트를 생성하도록 한다.The trimap generating unit 135 generates a trimap based on the image merged by the image merging unit 134, and outputs the generated trimap to the image matting apparatus 200 to generate an alpha matte. .

다음에는, 이와 같이 구성된 본 발명의 트라이맵 자동 생성 장치(100)를 통해 수행하는 트라이맵 자동 생성 과정을 도 3 내지 도 7을 참조하여 보다 상세하게 설명한다.Next, a trimap automatic generation process performed through the trimap automatic generation device 100 of the present invention configured as described above will be described in more detail with reference to FIGS. 3 to 7.

도 3은 본 발명의 일 실시예에 따른 트라이맵 자동 생성 장치에 적용되는 픽셀 레벨의 돌출 맵을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 전경 큐 추정 모듈에서의 처리과정의 예를 나타낸 도면이고, 도 5는 본 발명의 일 실시예에 따른 전경 큐 추정 모듈에서의 이미지 돌출과 전경 세그먼테이션 모듈에서의 그래프 컷 세그먼테이션을 결합한 효과를 나타낸 도면이고, 도 6은 본 발명의 일 실시예에 따른 언노운 영역 감지 모듈에서의 혼합 픽셀 식별을 설명하기 위한 도면이며, 도 7은 본 발명의 일 실시예에 따른 언노운 영역 감지 모듈에서 구현한 전경 객체의 경계 영역을 나타낸 도면이다.3 is a diagram illustrating a pixel-level protrusion map applied to an apparatus for automatically generating a trimap according to an embodiment of the present invention, and FIG. 4 is an example of processing in a foreground queue estimation module according to an embodiment of the present invention 5 is a view showing an effect of combining image extrusion in the foreground cue estimation module and graph cut segmentation in the foreground segmentation module, and FIG. 6 is an embodiment of the present invention. FIG. 7 is a diagram for describing mixed pixel identification in an unknown area detection module, and FIG. 7 is a view illustrating a boundary area of a foreground object implemented in an unknown area detection module according to an embodiment of the present invention.

우선, 본 발명에서는 입력 이미지에 단일의 돌출 객체(salient object)가 있는 것을 가정하여 설명한다. 만일 상기 입력 이미지에 돌출 객체가 여러 개인 경우, 돌출 객체의 선택은 모든 사용자에 대해 상대적이므로 사용자의 선호도를 고려해야 한다.First, in the present invention, it is assumed that there is a single salient object in the input image. If there are multiple projecting objects in the input image, the selection of the projecting object is relative to all users, so user preferences should be considered.

최적의 트라이맵을 자동으로 생성하기 위하여, 상기 트라이맵 자동 생성 장치(100)는 상기 전경 큐 추정 모듈(110)을 통해 대략적으로 예상 전경 객체의 위치를 찾아야 한다.In order to automatically generate an optimal trimap, the trimap automatic generation device 100 should roughly locate the expected foreground object through the foreground queue estimation module 110.

상기 전경 큐 추정 모듈(110)에서는 전경 큐를 추정하기 위하여 픽셀 레벨의 돌출 맵을 이용한다. 간단히 말해서, 이미지 돌출의 목표는 입력 이미지에서 돌출 객체를 찾는 것이며, 픽셀 레벨의 돌출 맵은 도 3의 (a)의 입력 이미지에서 도 3의 (b)와 같이 흰색과 검은색 픽셀이 각각 가장 현저한 픽셀을 나타내는 회색 이미지이다.The foreground cue estimation module 110 uses a pixel-level protrusion map to estimate the foreground cue. In short, the goal of image extrusion is to find the extrusion object in the input image, and the pixel-level extrusion map is the most prominent white and black pixel, respectively, as shown in FIG. 3 (b) in the input image of FIG. 3 (a). It is a gray image representing a pixel.

본 발명에서는 DRFI(Differentiative Regional Feature Integration) 기반 이미지 돌출 접근법을 사용한다. 상기 접근법은 돌출 객체 감지를 회귀(regression) 문제로 공식화한다. 이미지는 그래프 기반 이미지 세그먼테이션을 사용하여, 다중 레벨 세그먼테이션을 통해 M 레벨(본 발명에서 M=3) 세그먼테이션 세트로 분할된다. 분할된 각 영역은 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)의 세 가지 기능으로 나타난다. 영역 대비 특징은 다른 영역과 차이나는 영역에 대해 높은 돌출 점수를 제공한다. 차이나는 영역은 돌출(salient) 영역일 가능성이 높다. 영역 배경 특징에서 의사-배경(pseudo-background) 영역이 추출된다. 그런 다음 상기 의사-배경 영역을 참조하여 각 영역에 대해 배경 스코어를 계산한다. 세 번째 특징인 영역 속성 특징은 모양과 기하학적 특징을 고려한다. 모양 특징은 영역의 색상 분포 및 질감을 설명한다. 배경에는 일반적으로 균일한 색상 분포가 있다. 기하학적 특징에는 영역의 크기와 위치가 포함된다. 돌출 객체는 대개 중앙 근처에 있는 반면 배경은 일반적으로 전체 이미지에 뿌려진다. 돌출 맵을 계산하기 위해 추출된 각 특징은 임의의 포리스트 회귀자(forest regressor)에 의해 돌출 스코어에 매핑된다. 마지막으로, 모든 돌출 맵이 결합되어 단일 돌출 맵을 생성한다.The present invention uses a DRFI (Differentiative Regional Feature Integration) based image extrusion approach. This approach formalizes object detection as a regression problem. The image is divided into M level (M = 3 in the present invention) segmentation set through multi-level segmentation, using graph-based image segmentation. Each divided region is represented by three functions: region contrast, region background, and region property. The area contrast feature provides a high overhang score for areas that differ from other areas. The difference area is likely to be a salient area. A pseudo-background region is extracted from the region background feature. The background score is then calculated for each region with reference to the pseudo-background region. The third feature, the area attribute feature, considers shape and geometric features. The shape feature describes the color distribution and texture of the area. The background generally has a uniform color distribution. Geometric features include the size and location of the area. The protruding objects are usually near the center, while the background is usually scattered over the entire image. Each feature extracted to compute the extrude map is mapped to the exaggeration score by an arbitrary forest regressor. Finally, all the extruded maps are combined to create a single extruded map.

이처럼 도 4의 (a)에 나타낸 입력 이미지로부터 도 4의 (b)에 나타낸 바와 같이 돌출 맵이 생성되면, 상기 전경 큐 추정 모듈(110)에서는 Smap이라고 하는 돌출 맵을 계산하고, 상기 계산된 Smap을 양자화하여 도 4의 (c)에 나타낸 바와 같이 양자화된 돌출 맵 Sqmap을 생성한다. 그 다음에 정량화된 돌출 맵 Sqmap을 이진화하여 도 4의 (d)에 나타낸 바와 같이 이진화된 돌출 맵 Sbmap이 생성된다. 상기 이진화된 돌출 맵 Sbmap은 종종 불완전한 돌출 객체를 생성한다. 이는 이미지 히스토그램을 기반으로 임계값을 계산하여 그레이 스케일 Sqmap을 이진화하기 때문이다. 이 문제를 해결하기 위하여, 본 발명에서는 이미지 돌출과 그래프 컷 세그먼테이션(lazy snapping)을 결합한다. 구체적으로, 이진화된 돌출 맵을 상기 전경 세그먼테이션 모듈(120)의 lazy snapping 입력으로 사용한다. 이를 통해 세그먼테이션을 수행하기 위해서 사용자가 제공한 스크리블(scribble) 없이 lazy snapping을 완전히 자동으로 수행할 수 있다. 본 발명에서는 상기 이진화된 돌출 맵 Sbmap을 침식(erode)하고 가장 큰 블랍(blob)만 유지하여, 그래프 컷 세그먼테이션에서 전경으로 레이블이 지정된 배경 오브젝트를 얻을 위험을 최소화한다. 상기 침식된 Sbmap은 이진화 과정 동안 손실된 전경 영역을 복구하기 위해 lazy snapping을 위한 전경 큐 Fcue(도 4의 (e))로 사용된다.When the protrusion map is generated as shown in FIG. 4 (b) from the input image shown in FIG. 4 (a), the foreground queue estimation module 110 calculates the protrusion map called S map , and the calculated The S map is quantized to generate a quantized protrusion map S qmap as shown in FIG. 4C . Then, the quantified protrusion map S qmap is binarized to generate a binarized protrusion map S bmap as shown in FIG. 4D . The binarized extruded map S bmap often creates incomplete extruded objects. This is because the gray scale S qmap is binarized by calculating a threshold based on the image histogram. In order to solve this problem, the present invention combines image extrusion and graph cut segmentation. Specifically, the binarized protrusion map is used as a lazy snapping input of the foreground segmentation module 120. Through this, lazy snapping can be performed completely automatically without scribble provided by the user in order to perform segmentation. In the present invention, the binarized extruded map S bmap is eroded and only the largest blob is maintained, thereby minimizing the risk of obtaining a background object labeled as foreground in graph cut segmentation. The eroded S bmap is used as a foreground cue F cue (Fig. 4 (e)) for lazy snapping to recover the foreground area lost during the binarization process.

이처럼, 상기 전경 큐 추정 모듈(110)을 통해 전경 큐 Fcue가 생성되면, 상기 트라이맵 자동 생성 장치(100)는 상기 전경 세그먼테이션 모듈(120)을 통해 상기 전경 큐 Fcue와 lazy snapping을 통해 전경 세그먼테이션을 수행하여야 한다. 상기 lazy snapping은 그래프 컷 기반 세그먼테이션 전략으로서, 그래프 컷 이미지 세그먼테이션은 이진 레이블 문제로 제기될 수 있다. 이미지를 그래프 G=(V,E)로 공식화한다. 여기서 V는 모든 노드의 세트(이미지 픽셀)이고, E는 인접한 노드를 연결하는 에지의 세트(인접 픽셀)이다. 그래프 컷의 목표는 각 노드 iεV에 1(전경) 또는 0(배경)으로 레이블을 지정하는 것이다. 이 레이블 X = {xi}는 다음의 수학식 1과 같은 에너지 함수 E(X)를 최소화하여 얻을 수 있다.As described above, when the foreground cue F cue is generated through the foreground cue estimation module 110, the trimap automatic generation device 100 views the foreground through the foreground cue F cue and lazy snapping through the foreground segmentation module 120. Segmentation must be performed. The lazy snapping is a graph cut-based segmentation strategy, and graph cut image segmentation may be raised as a binary label problem. Formulate the image as graph G = (V, E). Where V is the set of all nodes (image pixels) and E is the set of edges (adjacent pixels) connecting adjacent nodes. The goal of the graph cut is to label each node iεV with 1 (foreground) or 0 (background). The label X = {x i } can be obtained by minimizing the energy function E (X) as in Equation 1 below.

[수학식 1][Equation 1]

Figure 112019106890615-pat00001
Figure 112019106890615-pat00001

여기서 E1(xi)은 가능성 에너지(likelihood energy)를 나타내고 E2(xi,xj) 이전 에너지(prior energy)입니다. E1은 노드의 색상 유사성을 나타내며, 전경 또는 배경에 속하는지 여부를 나타낸다. 초기 전경 F 및 배경 B 시드(seed)는 k-평균 클러스터링을 사용하여 클러스터된다. 각 노드 i에 대해 색상 C(i)에서 전경 및 배경 클러스터

Figure 112019106890615-pat00002
Figure 112019106890615-pat00003
까지의 최소 거리는 각각 다음의 수학식 2와 같이 계산된다.Where E 1 (x i ) represents the likelihood energy and E 2 (x i , x j ) is the prior energy. E 1 represents the color similarity of the node and indicates whether it belongs to the foreground or the background. The initial foreground F and background B seeds are clustered using k-means clustering. Foreground and background clusters in color C (i) for each node i
Figure 112019106890615-pat00002
And
Figure 112019106890615-pat00003
The minimum distance to is calculated by Equation 2 below.

[수학식 2][Equation 2]

Figure 112019106890615-pat00004
Figure 112019106890615-pat00004

여기서

Figure 112019106890615-pat00005
는 노드 i와
Figure 112019106890615-pat00006
사이의 거리이며,
Figure 112019106890615-pat00007
는 노드 i와
Figure 112019106890615-pat00008
사이의 거리이다. E1(xi)은 다음의 수학식 3과 같이 정의된다.here
Figure 112019106890615-pat00005
Node i and
Figure 112019106890615-pat00006
Is the distance between
Figure 112019106890615-pat00007
Node i and
Figure 112019106890615-pat00008
Is the distance between. E 1 (x i ) is defined as in Equation 3 below.

[수학식 3][Equation 3]

Figure 112019106890615-pat00009
Figure 112019106890615-pat00009

여기서 U는 레이블을 식별해야 하는 알 수 있는 영역을 나타낸다. 수학식 3의 처음 두 방정식은 사용자 스크리블을 나타내며, 세 번째 방정식은 전경 또는 배경과 비슷한 색상의 픽셀을 표시한다. E2(xi,xj)는 수학식 4와 같이 두 노드 i와 j 사이의 색상 기울기 함수로 정의된다.Here, U denotes a known area for identifying the label. The first two equations in Equation 3 represent user scribables, and the third equation displays pixels of a color similar to the foreground or background. E 2 (x i , x j ) is defined as a color gradient function between two nodes i and j, as in Equation 4.

[수학식 4][Equation 4]

Figure 112019106890615-pat00010
Figure 112019106890615-pat00010

여기서

Figure 112019106890615-pat00011
Figure 112019106890615-pat00012
는 노드 i와 j 사이의 RGB 색상 차이이다. E2는 단순히 페널티 항이며, 두 노드의 색상이 비슷할수록 E2 값이 커진다. E2 값이 클수록 가장자리가 객체 경계에 있을 가능성이 적음을 나타낸다.here
Figure 112019106890615-pat00011
And
Figure 112019106890615-pat00012
Is the RGB color difference between nodes i and j. E 2 is simply a penalty term, and the more similar the colors of the two nodes, the larger the value of E 2 . The larger the E 2 value, the less likely the edge is at the object boundary.

세그먼테이션 프로세스 속도를 높이고 모든 픽셀에서 작업하지 않아도 되도록, 상기 lazy snapping은 사전 계산된 과분할 입력 이미지에서 그래프 컷을 계산하여 효율성을 향상시킨다. 통상의 lazy snapping 알고리즘은 유역 분할을 사용하였지만, 본 발명에서는 이미지를 nsp개의 수퍼 픽셀로 과분할(over-segment)하기 위해 간단한 선형 반복 클러스터링(SLIC) 방법을 사용한다. 본 발명에서 그래프는 다음의 수학식 5와 같다.To speed up the segmentation process and eliminate the need to work on all pixels, the lazy snapping improves efficiency by calculating graph cuts from precomputed oversegmented input images. The conventional lazy snapping algorithm uses watershed segmentation, but in the present invention, a simple linear iterative clustering (SLIC) method is used to over-segment an image into n sp superpixels. In the present invention, the graph is as shown in Equation 5 below.

[수학식 5][Equation 5]

Figure 112019106890615-pat00013
Figure 112019106890615-pat00013

여기서 Vsp는 nsp 수퍼 픽셀의 세트이고, Esp는 이러한 수퍼 픽셀을 연결하는 에지의 세트이다. 또한 E1은 C(i)가 이제 슈퍼 픽셀 isp의 평균 색상을 나타내는 C(isp)에 대응한다는 점을 제외하고 유사하다.

Figure 112019106890615-pat00014
Figure 112019106890615-pat00015
는 각각
Figure 112019106890615-pat00016
Figure 112019106890615-pat00017
로 변경된다.
Figure 112019106890615-pat00018
는 색 C(isp)와
Figure 112019106890615-pat00019
사이의 거리인 반면, Bsp는 색 C(isp)와
Figure 112019106890615-pat00020
사이의 거리를 나타낸다(수학식 7 참조). C(isp),
Figure 112019106890615-pat00021
Figure 112019106890615-pat00022
는 수학적으로 다음의 수학식 6과 같이 정의된다.Where V sp is the set of n sp super pixels, and E sp is the set of edges connecting these super pixels. Also, E 1 is similar except that C (i) now corresponds to C (i sp ), which represents the average color of the super pixel i sp .
Figure 112019106890615-pat00014
And
Figure 112019106890615-pat00015
Each
Figure 112019106890615-pat00016
And
Figure 112019106890615-pat00017
Is changed to
Figure 112019106890615-pat00018
With color C (i sp )
Figure 112019106890615-pat00019
B sp is the color C (i sp )
Figure 112019106890615-pat00020
It represents the distance between them (see Equation 7). C (i sp ),
Figure 112019106890615-pat00021
And
Figure 112019106890615-pat00022
Is mathematically defined as in Equation 6 below.

[수학식 6][Equation 6]

Figure 112019106890615-pat00023
Figure 112019106890615-pat00023

[수학식 7][Equation 7]

Figure 112019106890615-pat00024
Figure 112019106890615-pat00024

여기서 isp는 수퍼 픽셀이고, n은 isp의 픽셀 수이며,

Figure 112019106890615-pat00025
는 isp의 각 n번째 픽셀의 색상이다. E2의 경우, Cij라는 용어는 수학식 8에 나타낸 바와 같이 두 개의 슈퍼 픽셀 isp와 jsp 사이의 평균 색차
Figure 112019106890615-pat00026
를 나타낸다.Where i sp is the super pixel, n is the number of pixels in i sp ,
Figure 112019106890615-pat00025
Is the color of each nth pixel of i sp . For E 2 , the term C ij is the average color difference between the two superpixels i sp and j sp , as shown in Equation 8.
Figure 112019106890615-pat00026
Indicates.

[수학식 8][Equation 8]

Figure 112019106890615-pat00027
Figure 112019106890615-pat00027

E(X)를 계산하는데 필요한 전경 시드 F로서, 상기 전경 큐 추정 모듈(110)을 통해 획득된 Fcue를 사용한다. 그러나 상기 lazy snapping은 사용자가 그래프 컷 분할을 수행하기 위해 전경 및 배경 시드를 제공해야 한다. 따라서 상기 lazy snapping을 계산하려면 자동으로 배경 스크리블을 제공해야 한다. 이 단계에서, 입력 이미지의 상단, 왼쪽 및 오른쪽 코너 영역(C)을 배경 시드 B로 정의한다. 이 가정은 대부분의 전경 객체가 이미지의 중앙에 위치하고, 코너가 배경 큐를 포함할 가능성이 높다는 관찰을 기반으로 한다. 경우에 따라, 배경 큐와 전경 큐가 서로 겹칠 수 있으며, 이로 인해 상기 lazy snapping 알고리즘이 혼동될 수 있다. 이를 해결하기 위해 백그라운드 큐 BF를 생성하는 동안 다음의 수학식 9의 기준을 적용한다.As the foreground seed F required to calculate E (X), the F cue obtained through the foreground queue estimation module 110 is used. However, the lazy snapping requires the user to provide foreground and background seeds to perform graph cut segmentation. Therefore, to calculate the lazy snapping, it is necessary to automatically provide a background scribble. In this step, the upper, left and right corner regions C of the input image are defined as the background seed B. This assumption is based on the observation that most foreground objects are centered in the image, and the corners are likely to contain background cues. In some cases, the background queue and the foreground queue may overlap each other, which may confuse the lazy snapping algorithm. To solve this, the following equation (9) is applied while the background queue B F is generated.

[수학식 9][Equation 9]

Figure 112019106890615-pat00028
Figure 112019106890615-pat00028

x, y∈C는 픽셀 좌표를 나타낸다. 간단히 말해서, Sbmap의 각 픽셀이 1의 값을 갖는 경우, 상기 기준은 BF의 픽셀에 0 값을 할당할 것이다. 이 기준은 오버랩의 경우 배경 큐 픽셀보다 전경 큐 픽셀을 우선한다. 이러한 자동 생성된 전경 큐 및 배경 큐는 에너지 함수 E(X)를 최소화하기 위한 lazy snapping을 위한 입력으로 사용되어, 전경 세그먼테이션을 초래한다. 하나의 관심 대상을 가정하므로, 전경 세그먼테이션에서 가장 큰 블랍을 가져와서 이를 SF라 한다. 도 5는 이미지 돌출과 그래프 컷 세그먼트를 결합한 효과를 나타낸 것으로서, 도 5의 (a)는 입력 이미지, (b)는 돌출 맵 Smap, (c)는 전경 큐 Fcue, (d)는 전경 세그먼테이션 SF를 각각 나타낸다.x, y∈C represent pixel coordinates. In short, if each pixel of S bmap has a value of 1, the criterion will assign a value of 0 to a pixel of B F. In case of overlap, the foreground cue pixel is given priority over the background cue pixel. These automatically generated foreground cues and background cues are used as inputs for lazy snapping to minimize the energy function E (X), resulting in foreground segmentation. Since we assume one object of interest, we take the largest blob in the foreground segmentation and call it S F. FIG. 5 shows the effect of combining the image extrusion and the graph cut segment. FIG. 5 (a) is the input image, (b) the extrusion map S map , (c) the foreground cue F cue , and (d) the foreground segmentation. S F is shown respectively.

이와 같이, 상기 전경 세그먼테이션 모듈(120)에서 그래프 컷 세그먼테이션(lazy snapping)을 통해 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션한 이후, 상기 트라이맵 자동 생성 장치(100)는 상기 언노운 영역 감지 모듈(130)을 통해 트라이맵에서 회색 영역(즉, 언노운 영역)을 정확하게 감지하여야 한다.As described above, after the foreground object and the background are segmented through graph snap segmentation in the foreground segmentation module 120, and the segmented foreground object is segmented, the trimap automatic generation device 100 may not know the The gray area (ie, the unknown area) must be accurately detected in the trimap through the area detection module 130.

최적의 트라이맵은 회색 영역이 색상 혼합이 있는 픽셀만 덮는 트라이맵이다. 이러한 픽셀을 혼합 픽셀이라 하는데, 상기 혼합 픽셀은 전경과 배경의 색상을 포함한다. 최적의 트라이맵은 고품질의 알파 매트를 생성할 수 있도록 한다. 그러나 최적의 트라이맵을 수동으로 그리는 것은 번거롭고 비현실적이다. 반대로, 대부분의 트라이맵 자동 생성 방법은 간단한 형태학적 연산(예 : 팽창(dilation))을 사용하여 언노운 영역을 생성한다. 그러나 형태학적 기반 작업으로 생성된 언노운 영역은 전경 및 배경 픽셀도 포함하기 때문에 최적이 아니므로, 출력 알파 매트에 아티팩트를 초래할 수 있다.The optimal trimap is a trimap in which gray areas cover only pixels with color mixing. These pixels are referred to as mixed pixels, which include the colors of the foreground and background. The optimal trimap allows you to create a high quality alpha matte. However, drawing the optimal trimap manually is cumbersome and unrealistic. Conversely, most trimap auto-generation methods use simple morphological operations (eg, dilation) to create an unknown region. However, unknown areas created by morphologically-based work are not optimal because they also include foreground and background pixels, which can cause artifacts in the output alpha matte.

본 발명에서는 상기 언노운 영역 감지 모듈(130)에서 최적의 트라이맵 생성을 위해서 색상 혼합이 있는 픽셀(즉, 혼합 픽셀)을 식별해야 한다. 이러한 혼합 픽셀을 찾는 특징으로 색상과 함께, 퍼지 c-평균(FCM) 클러스터링을 사용한다. 상기 퍼지 c-평균(FCM) 클러스터링은 각 데이터 포인트(즉 픽셀)에 각 클러스터의 멤버십 스코어가 할당되는 소프트 클러스터링 기술이다. 이러한 멤버십 스코어는 픽셀이 각 클러스터에 속하는 정도를 나타낸다. 본 발명의 기본 아이디어는 퍼지 c-평균(FCM) 클러스터링 알고리즘에 의해 할당된 멤버십 스코어를 분석하여 혼합 픽셀을 찾는 것이다. 직관적으로, 혼합 픽셀에는 각 클러스터에서 유사한 멤버십 스코어가 할당되지만, 색상 혼합이 없는 픽셀에는 클러스터 중 하나에서 높은 멤버십 스코어가 할당된다. 도 6은 언노운 영역에 대한 직관을 나타낸 도면으로서, 도 6의 (a)는 ROIFCM(SF의 경계 영역), (b)는 (a)의 자주색 박스의 확대도, (c)는 (b)의 파란색 박스의 확대도, (d), (e) 및 (f)는 (c)의 녹색, 빨간색 및 노란색 박스의 확대도를 각각 나타낸다. 전경뿐만 아니라 배경의 색상을 포함하는 도 7의 (e)의 색상 혼합에 주목해야 한다. 도 7의 (d) 및 (f)는 각각 전경 및 배경으로부터의 픽셀을 나타낸다. 이러한 직관을 바탕으로 혼합 픽셀을 분류하고 트라이맵에 대해 정확한 언노운 영역을 생성할 수 있다.In the present invention, in order to generate an optimal trimap in the unknown area detection module 130, it is necessary to identify pixels with color mixing (ie, mixed pixels). Fuzzy c-means (FCM) clustering is used along with color as a feature to find such mixed pixels. The fuzzy c-mean (FCM) clustering is a soft clustering technique in which the membership score of each cluster is assigned to each data point (ie pixel). This membership score indicates the degree to which pixels belong to each cluster. The basic idea of the present invention is to find the mixed pixels by analyzing the membership score assigned by the fuzzy c-means (FCM) clustering algorithm. Intuitively, mixed pixels are assigned similar membership scores in each cluster, but pixels without color mixing are assigned a higher membership score in one of the clusters. FIG. 6 is a view showing an intuition for the unknown area, FIG. 6 (a) is an ROI FCM (the boundary area of S F ), (b) is an enlarged view of the purple box of (a), and (c) is (b) ), (D), (e), and (f) of the blue box in (c) indicate enlarged views of the green, red, and yellow boxes in (c), respectively. It should be noted that the color mixing in FIG. 7 (e) includes the color of the background as well as the foreground. 7 (d) and 7 (f) show pixels from the foreground and background, respectively. Based on this intuition, it is possible to classify the mixed pixels and create an exact unknown area for the trimap.

상기 퍼지 c-평균(FCM) 클러스터링 알고리즘은 유사성 매트릭(similarity metric)에 기초하여 n개의 데이터 포인트

Figure 112019106890615-pat00029
를 c개의 퍼지 클러스터로 분할한다. 다음의 수학식 10과 같은 글로벌 휴리스틱 비용 함수(global heuristic cost function)를 최소화하려고 시도한다.The fuzzy c-means (FCM) clustering algorithm is based on a similarity metric n data points
Figure 112019106890615-pat00029
Is divided into c fuzzy clusters. Attempts to minimize the global heuristic cost function as shown in Equation 10 below.

[수학식 10][Equation 10]

Figure 112019106890615-pat00030
Figure 112019106890615-pat00030

여기서,

Figure 112019106890615-pat00031
는 데이터 포인트 xi가 클러스터 cj에 속하는 정도를 나타내는 멤버십 스코어이고, m은 클러스터 퍼지의 양을 결정하는 퍼지화기(fuzzifier)이고, n은 데이터 포인트의 수이며, c는 클러스터의 수이다. m은 fuzzier 클러스터에 해당하고 m = 0은 JFCM을 제곱합 오차 기준과 동일하게 만든다. 수학적으로
Figure 112019106890615-pat00032
는 다음의 수학식 11과 같이 정의된다.here,
Figure 112019106890615-pat00031
Is a membership score indicating the degree to which the data point x i belongs to the cluster c j , m is a fuzzifier that determines the amount of cluster fuzzy, n is the number of data points, and c is the number of clusters. m corresponds to the fuzzier cluster and m = 0 makes J FCM equal to the sum of squared error criteria. Mathematically
Figure 112019106890615-pat00032
Is defined as Equation 11 below.

[수학식 11][Equation 11]

Figure 112019106890615-pat00033
Figure 112019106890615-pat00033

전경 객체의 경계 영역에서만 FCM을 로컬로 구현한다. 본 발명에서는 이 경계 영역을 ROIFCM이라 한다. ROIFCM(X와 동등)은 수학적으로 다음의 수학식 12와 같이 정의된다.FCM is implemented locally only in the boundary area of the foreground object. In the present invention, this boundary region is called ROI FCM . The ROI FCM (equivalent to X) is mathematically defined as in Equation 12 below.

[수학식 12][Equation 12]

Figure 112019106890615-pat00034
Figure 112019106890615-pat00034

여기서 SF는 최종 전경 세그먼테이션, I는 입력 색상 이미지, SE1 및 SE2는 구조화 요소,

Figure 112019106890615-pat00035
은 팽창 연산,
Figure 112019106890615-pat00036
는 침식 연산이다. ROIFCM의 예가 도 7에 나타나 있다. ROIFCM을 nㅧn 크기의 여러 패치 p로 나눈다. 각각의 패치 p는 CIELAB 색 공간으로 변환되어 명도(L), 녹색-적색 성분(A) 및 청-황색 성분(B)으로 색을 표현한다. 특징으로 색상만 필요하기 때문에 L 채널을 버리고, A 및 B 색상 채널만 유지한다. 계산 시간을 단축하기 위해 0이 아닌 픽셀을 포함하는 패치에만 FCM을 적용한다. 패치 px의 각 i번째 픽셀은 다음의 수학식 13과 14의 기준에 따라 혼합 픽셀로 분류된다.Where S F is the final foreground segmentation, I is the input color image, SE 1 and SE 2 are structuring elements,
Figure 112019106890615-pat00035
Silver expansion operation,
Figure 112019106890615-pat00036
Is an erosion operation. An example of ROI FCM is shown in FIG. 7. Divide the ROI FCM into several patch p of size n ㅧ n. Each patch p is converted into a CIELAB color space to express colors with lightness (L), green-red component (A), and blue-yellow component (B). Since only the color is required as a feature, the L channel is discarded, and only the A and B color channels are maintained. To shorten the computation time, FCM is applied only to patches containing non-zero pixels. Each i-th pixel of the patch p x is classified as a mixed pixel according to the following equations (13) and (14).

[수학식 13][Equation 13]

Figure 112019106890615-pat00037
Figure 112019106890615-pat00037

[수학식 14][Equation 14]

Figure 112019106890615-pat00038
Figure 112019106890615-pat00038

여기서 px(i)는 패치 px의 i번째 픽셀, pSF(i)는 SF에서 px와 동일한 위치를 가진 패치 pSF의 i번째 픽셀의 픽셀 강도, wi는 px의 i번째 픽셀에 대한 모든 부분 멤버십 클러스터 스코어의 세트,

Figure 112019106890615-pat00039
는 wi의 최대값, wthreshold 값은 혼합 픽셀을 분류하는 데 사용되는 임계 값 멤버십 스코어이다. 마지막으로 모든 패치 p에 상기 퍼지 c-평균(FCM) 클러스터링을 적용한 후 패치가 단일 이미지로 병합되어 최종 최적의 트라이맵이 된다. 상기 퍼지 c-평균(FCM) 클러스터링은 이러한 파라미터에 민감하며 이러한 파라미터의 효과는 다음의 실험 결과에서 보다 구체적으로 설명하기로 한다.Where p x (i) is the i-th pixel of the patch p x , p SF (i) is the pixel intensity of the i-th pixel of the patch p SF having the same position as p x in S F , and w i is the i-th of p x A set of all partial membership cluster scores for pixels,
Figure 112019106890615-pat00039
Is the maximum value of w i , and the w threshold value is the threshold membership score used to classify the mixed pixels. Finally, after applying the fuzzy c-means (FCM) clustering to all the patches p, the patches are merged into a single image to become the final optimal trimap. The fuzzy c-means (FCM) clustering is sensitive to these parameters and the effect of these parameters will be described in more detail in the following experimental results.

다음에는, 이와 같이 구성된 본 발명에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법의 일 실시예를 도 8 내지 도 11을 참조하여 상세하게 설명한다. 이때 본 발명의 방법에 따른 각 단계는 사용 환경이나 당업자에 의해 순서가 변경될 수 있다.Next, an embodiment of a method for automatically generating a trimap of alpha matte through detection of an unknown region according to the present invention configured as described above will be described in detail with reference to FIGS. 8 to 11. At this time, each step according to the method of the present invention can be changed in order by the environment or those skilled in the art.

도 8은 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 방법의 동작과정을 상세하게 나타낸 순서도이며, 도 9 내지 도 11은 상기 도 8의 전경 큐를 추정하는 단계, 전경 세그먼테이션을 수행하는 단계 및 언노운 영역을 감지하는 단계의 각 동작과정을 상세하게 나타낸 순서도이다.8 is a flowchart illustrating in detail an operation process of a method for automatically generating a trimap of alpha mattes through detection of an unknown area according to an embodiment of the present invention, and FIGS. 9 to 11 are steps of estimating the foreground queue of FIG. 8. , It is a flow chart showing in detail the operation process of the step of performing foreground segmentation and the step of sensing the unknown area.

도 8에 도시된 바와 같이, 최적의 트라이맵을 자동으로 생성하기 위하여, 상기 트라이맵 자동 생성 장치(100)는 픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 전경 큐 추정 단계를 수행한다(S100).As shown in FIG. 8, in order to automatically generate an optimal trimap, the trimap automatic generation apparatus 100 estimates a foreground cue for a position of a foreground object in an input image using a pixel-level protrusion map Performs the foreground queue estimation step (S100).

상기 S100 단계의 전경 큐 추정 단계를 도 9를 참조하여 구체적으로 설명하면, 상기 트라이맵 자동 생성 장치(100)의 전경 큐 추정 모듈(110)은 이미지 매팅을 수행하기 위한 입력 이미지를 제공받는 이미지 입력 단계(S110)를 수행한다.When the foreground cue estimation step of the step S100 is described in detail with reference to FIG. 9, the foreground cue estimation module 110 of the trimap automatic generation device 100 inputs an image provided with an input image for performing image matting Step S110 is performed.

그리고 상기 전경 큐 추정 모듈(110)은 상기 S110 단계를 통해 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵(Smap)을 생성하는 돌출 맵 생성 단계를 수행한다(S120).In addition, the foreground queue estimation module 110 divides the input image provided through the step S110 into a predetermined region, and the region contrast, region background, and region attribute for each divided region. A step of generating a protrusion map for generating a protrusion map (S map ) based on the property is performed (S120).

상기 S120 단계를 통해 돌출 맵을 생성한 이후, 상기 전경 큐 추정 모듈(110)은 상기 생성한 돌출 맵을 양자화하여 양자화된 돌출 맵(Sqmap)을 생성하는 돌출 맵 양자화 단계를 수행하며(S130), 상기 생성한 양자화된 돌출 맵을 이진화하여 이진화된 돌출 맵(Sbmap)을 생성하는 돌출 맵 이진화 단계를 수행한다(S140).After generating the protrusion map through the step S120, the foreground queue estimation module 110 performs a protrusion map quantization step to quantize the generated protrusion map to generate a quantized protrusion map (S qmap ) (S130). In this example, the projected map binarization step of generating the binarized projected map (S bmap ) by binarizing the generated quantized projected map is performed (S140).

또한 상기 전경 큐 추정 모듈(110)은 상기 이진화된 돌출 맵을 침식(erode)하여 가장 큰 블랍(blob)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 단계(S200)에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐(Fcue)로 사용하도록 출력하는 전경 큐 출력 단계를 수행한다(S150).In addition, the foreground queue estimation module 110 erodes the binarized protrusion map to maintain only the largest blob, and the eroded binarized protrusion map is graph cut segmented in the foreground segmentation step (S200). A foreground cue output step of outputting it to be used as a foreground cue (F cue ) for performing S is performed (S150).

상기 S100 단계를 통해 전경 큐를 추정한 이후, 상기 트라이맵 자동 생성 장치(100)는 상기 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하여 상기 입력 이미지에서 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션하는 전경 세그먼테이션 단계를 수행한다(S200).After estimating the foreground cue through the step S100, the trimap automatic generation device 100 defines a foreground cue for the estimated position of the foreground object and a background cue created by defining a corner region of the input image as a background seed. And performing a foreground segmentation step of segmenting the foreground object and the background from the input image by performing graph cut segmentation (lazy snapping) based on the pre-calculated over-segmented input image (S200). .

상기 S200 단계의 전경 큐 추정 단계를 도 10을 참조하여 구체적으로 설명하면, 상기 트라이맵 자동 생성 장치(100)의 전경 세그먼테이션 모듈(120)은 상기 S100 단계에서 추정한 전경 객체의 위치에 대한 전경 큐를 입력받아 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 전경 큐 제공 단계를 수행한다.In detail, the foreground cue estimation step of step S200 will be described with reference to FIG. 10. The foreground segmentation module 120 of the trimap automatic generation device 100 may include a foreground queue for the position of the foreground object estimated in step S100. Takes the input and performs the foreground cue provision step provided as input for graph cut segmentation.

이와 동시에 상기 전경 세그먼테이션 모듈(120)은 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성한 다음, 상기 생성한 배경 큐를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 배경 큐 제공 단계와, 상기 입력 이미지를 복수 개의 수퍼 픽셀로 과분할한 다음, 상기 과분할한 입력 이미지를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 과분할 이미지 제공 단계를 수행한다(S210).At the same time, the foreground segmentation module 120 generates a background cue by defining a corner region of the input image as a background seed, and then provides a background cue providing the created background cue as an input for graph cut segmentation. After the input image is over-segmented into a plurality of super pixels, an over-segment image providing step of providing the over-segmented input image as an input for graph cut segmentation is performed (S210).

이때 상기 전경 세그먼테이션 모듈(120)은 상기 S210 단계에서 상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성한다.At this time, when the foreground segmentation module 120 generates the background cue by defining a corner region of the input image as a background seed in step S210, the foreground object is located in the center of the input image, and the corner of the input image is generated. Is created based on the assumption that it is likely to include a background queue.

또한 상기 전경 세그먼테이션 모듈(120)은 S210 단계를 통해 입력받은 상기 전경 큐, 배경 큐 및 과분할 입력 이미지를 참조하여, 상기 입력 이미지에서 전경 객체와 배경을 분할하는 그래프 컷 세그먼테이션 단계를 수행한다(S220).In addition, the foreground segmentation module 120 performs a graph cut segmentation step of dividing the foreground object and the background from the input image by referring to the foreground queue, the background queue, and the hyper-segmented input image received through step S210 (S220). ).

또한 상기 전경 세그먼테이션 모듈(120)은 상기 S220 단계를 통해 분할한 전경 객체를 세그먼테이션하고, 상기 전경 객체의 세그먼테이션 데이터(SF)를 상기 언노운 영역 감지 모듈(130)로 출력한다(S230).In addition, the foreground segmentation module 120 segments the foreground object divided through the step S220, and outputs the segmentation data S F of the foreground object to the unknown area detection module 130 (S230).

상기 S200 단계를 통해 전경 세그먼테이션을 수행한 이후, 상기 트라이맵 자동 생성 장치(100)는 상기 퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 S200 단계를 통해 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 언노운 영역 감지 단계를 수행한다(S300).After performing the foreground segmentation through the step S200, the trimap automatic generation device 100 uses the fuzzy c-means (FCM) clustering, and the foreground from the boundary area of the foreground object segmented through the step S200. An unknown area detection step of generating a trimap is performed by checking the mixed pixels including the color of the background (S300).

상기 S300 단계의 언노운 영역 감지 단계를 도 11을 참조하여 구체적으로 설명하면, 상기 트라이맵 자동 생성 장치(100)의 언노운 영역 감지 모듈(130)은 상기 세그먼테이션한 전경 객체(SF)의 경계 영역을 팽창하는 팽창 단계를 수행하고(S310), 상기 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정한 후, 상기 설정한 ROI를 nㅧn의 패치로 나누는 ROI 처리 단계를 수행하며(S320).When the unknowing area detection step of step S300 is described in detail with reference to FIG. 11, the unknown area detection module 130 of the trimap automatic generation device 100 displays the boundary area of the segmented foreground object S F. After performing the expanding expansion step (S310), after setting the boundary area of the expanded foreground object as an ROI (interest region), performing an ROI processing step of dividing the set ROI into n ㅧ n patches (S320). ).

또한 상기 언노운 영역 감지 모듈(130)은 상기 S320 단계를 통해 nㅧn의 패치로 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 생성하는 언노운 영역 생성 단계를 수행한다(S330). 예를 들어 상기 언노운 영역 감지 모듈(130)은 각 패치별로 퍼지 c-평균(FCM) 컬러 클러스터링을 수행한 결과, 각 패치별 픽셀에 대한 모든 부분 멤버십 클러스터 스코어(w)가 혼합 픽셀을 분류하는데 사용되는 임계값(wthreshold, 본 발명에서는 0.8로 설정함) 미만인지를 판단하고, 상기 판단한 결과 각 패치별 픽셀에 대한 모든 부분 멤버십 클러스터 스코어(w)가 임계값(wthreshold) 미만이면 언노운 영역으로 식별하는 것이다.In addition, the unknown area detection module 130 performs fuzzy c-average (FCM) clustering for each patch divided by n ㅧ n patches through the step S320, and the foreground and background of each patch is based on the result of the performed. An unknown area generation step of generating an unknown area by checking a mixed pixel including a color is performed (S330). For example, the unknown area detection module 130 performs fuzzy c-mean (FCM) color clustering for each patch, and all partial membership cluster scores (w) for each patch pixel are used to classify the mixed pixels. It is determined whether it is less than a threshold value (w threshold , which is set to 0.8 in the present invention), and as a result of the determination, if all the partial membership cluster scores w for each pixel of each patch are less than the threshold value w threshold , the area is unknown. To identify.

한편, 상기 언노운 영역 감지 모듈(130)은 상기 전경 객체의 경계 영역에서 추출한 ROI를 nㅧn 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서, 각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인한다.On the other hand, in the process of performing the fuzzy c-mean (FCM) clustering for each patch divided by dividing the ROI extracted from the boundary area of the foreground object into a patch of n ㅧ n size, and the unknown area detection module 130 The patch of is expressed as lightness, green-red component, and blue-yellow component, but discards the brightness and checks the mixed pixels by maintaining only the green-red component and blue-yellow component.

또한 상기 언노운 영역 감지 모듈(130)은 상기 S330 단계에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하는 이미지 병합 단계를 수행하고(S340), 상기 병합한 이미지를 토대로 트라이맵을 생성하는 트라이맵 생성 단계를 수행한다(S350).In addition, the unknown area detection module 130 performs an image merging step of merging the images of each patch processed in step S330 into a single image (S340), and generates a trimap based on the merged image. The generating step is performed (S350).

다음에는, 이와 같이 구성된 본 발명의 일 실시예에 따른 언노운 영역 감지를 통한 알파 매트의 트라이맵 자동 생성 장치의 실험결과를 도 12 내지 도 26을 참조하여 상세하게 설명한다.Next, the experimental results of the automatic generation device of the tri-map of the alpha matte through the detection of the unknown area according to an embodiment of the present invention configured as described above will be described in detail with reference to FIGS. 12 to 26.

본 발명의 트라이맵 자동 생성 장치(100)의 성능평가를 위해서, 알파 매트 평가 및 돌출 객체 데이터 세트에 대한 알고리즘을 테스트하였다. 알파 매트 데이터 세트는 27개의 이미지로 구성된다. 돌출 개체 데이터 세트의 경우 이 데이터 세트의 대부분의 이미지는 여러 개체로 구성되지만, 본 발명에서는 이미지가 단일 돌출 객체를 포함한다고 가정하기 때문에 단일 돌출 객체만 포함하는 이미지를 선택한다. 돌출 객체 데이터 세트에서 총 174개의 이미지를 선택하였다. SAD(Sum of Absolute Difference) 오차 체계를 사용하여 방법을 정량적으로 평가한다. SAD의 수학적 방정식은 다음의 수학식 15와 같다.For the performance evaluation of the trimap automatic generation device 100 of the present invention, the algorithm for the alpha matte evaluation and the extrusion object data set was tested. The alpha matte data set consists of 27 images. In the case of the extruded object data set, most of the images in this data set are composed of several objects, but the present invention selects an image containing only a single extruded object because it is assumed that the image contains a single extruded object. A total of 174 images were selected from the extruded object data set. The method is quantitatively evaluated using the Sum of Absolute Difference (SAD) error scheme. The mathematical equation of SAD is as shown in Equation 15 below.

[수학식 15][Equation 15]

Figure 112019106890615-pat00040
Figure 112019106890615-pat00040

여기서 I는 GT(Ground Truth) 이미지,

Figure 112019106890615-pat00041
은 계산된 이미지, x 및 y는 픽셀 좌표, W는 이미지의 너비, H는 이미지의 높이를 나타낸다.Where I is the GT (Ground Truth) image,
Figure 112019106890615-pat00041
Is the calculated image, x and y are pixel coordinates, W is the width of the image, and H is the height of the image.

도 12 및 도 13은 본 발명의 방식에 의해 자동으로 생성된 트라이맵과 기존의 수동 방식으로 생성된 트라이맵을 알파 매팅 평가 데이터 세트와 돌출 객체 데이터 세트에서 각각 비교한 도면으로서, (a)는 입력 이미지, (b)는 본 발명에서 생성된 최적의 트라이맵, (c)는 본 발명의 팽창(dilation)된 트라이맵, (d)는 수동으로 생성된 트라이맵이다. 상기 도 12 및 도 13에 나타낸 바와 같이 본 발명에 의해 생성된 트라이맵은 수동으로 생성된 트라이맵처럼 거의 정확하다는 것이 명백함을 확인할 수 있다.12 and 13 are views comparing a trimap automatically generated by the method of the present invention and a conventionally generated trimap in the alpha matting evaluation data set and the extruded object data set, respectively. The input image, (b) is the optimal trimap generated in the present invention, (c) is the expanded trimap of the present invention, and (d) is the manually generated trimap. As shown in FIGS. 12 and 13, it can be confirmed that the trimap generated by the present invention is almost as accurate as the manually generated trimap.

한편, 4개의 다른 트라이맵을 사용하여 알파 매트를 계산한 결과를 토대로 알파 매트의 아티팩트를 줄이는데 있어서 언노운 영역 감지의 효과에 대하여 설명하면 다음과 같다.Meanwhile, the effect of detecting the unknown area in reducing the artifacts of the alpha matte based on the result of calculating the alpha matte using four different trimaps is as follows.

첫 번째 트라이맵은 확장 기반의 트라이맵(도 14의 f)으로, 미지 영역이 확장 연산에 의해 생성되었다. 이 확장 기반 트라이맵은 언노운 영역 생성을 위해 확장을 사용하는 확장 기반의 이전 방법으로 생성된 것과 동일하다. 소스 코드를 사용할 수 없고 이러한 방법에 사용된 개인 데이터 세트가 없기 때문에 직접 구현할 수 없었지만, 비교를 위해 이러한 방법으로 세그먼트화된 전경이 본 발명과 동일하다고 가정한다. 언노운 영역을 생성하기 위해, 이러한 방법에서 언급된 바와 같이 전경 분할의 경계를 확장시킨다. 이 실험은 전경 분할의 중요성보다는 언노운 영역 감지의 중요성과 효과를 입증하는 데 중점을 두기 때문에 이 가정은 공정하다. 본 발명은 에지 기반 트리밍을 확장 기반 트라이맵에 적용하여 두 번째 트라이맵(도 14의 e)을 생성하고, 패치 기반 트리밍을 적용하여 세 번째 트라이맵(도 14의 d)을 생성한다. 네 번째 트라이맵은 본 발명에 적용된 언노운 영역 감지 방식을 사용한 최적의 트라이맵(도 14의 c)이다.The first trimap is an extension-based trimap (f in FIG. 14), and an unknown region is generated by an expansion operation. This extension-based trimap is identical to that created by the extension-based previous method that uses extensions to create an unknown region. It was not possible to implement it directly because the source code was not available and there was no personal data set used in this method, but for comparison it is assumed that the foreground segmented in this way is identical to the present invention. To create an unknown area, the boundary of the foreground segmentation is expanded as mentioned in this method. This assumption is fair because this experiment focuses on demonstrating the importance and effectiveness of detecting unknown areas rather than the importance of foreground segmentation. In the present invention, edge-based trimming is applied to an extension-based trimap to generate a second trimap (e of FIG. 14), and a third trimap (d of FIG. 14) is generated by applying patch-based trimming. The fourth trimap is an optimal trimap (c in FIG. 14) using an unknown area detection method applied to the present invention.

알파 매트를 계산하기 위해 도 14의 (a)에서는 KNN 매팅을 사용하였으며, 도 14의 (b)에서는 정보 흐름(information-flow) 매팅을 사용하였다. 기본적으로 정보 흐름 매팅은 알고리즘에서 트라이맵 트리밍을 사용한다. 그러나 언노운 영역 감지가 패치 기반 트리밍보다 아티팩트를 줄이는데 더 효과적이라는 것을 설명하기 위해 이 기본 옵션을 비활성화한다. 이 4개의 트라이맵으로 계산된 알파 매트를 양적으로 그리고 질적으로 비교하였다.To calculate the alpha matte, KNN mating was used in FIG. 14 (a), and information-flow mating was used in FIG. 14 (b). Basically, information flow mating uses trimap trimming in the algorithm. However, this default option is disabled to demonstrate that unknowing area detection is more effective in reducing artifacts than patch-based trimming. The alpha matte calculated with these four trimaps was compared quantitatively and qualitatively.

도 14는 본 발명의 방식에 따라 생성된 트라이맵과 기존 방식으로 생성된 트라이맵을 통해 생성한 알파 매트의 정성적인 비교를 설명하기 위한 도면으로서, a는 입력 이미지, b는 GT(ground truth) 알파 매트, c는 본 발명의 방식에 의해 생성된 최적의 트라이맵, d는 패치 기반 트리밍의 트라이맵, e는 에지 기반 트리밍의 트라이맵, f는 확장 기반 방식의 트라이맵이다.14 is a view for explaining a qualitative comparison of the alpha matte generated through the trimap generated according to the method of the present invention and the trimap generated in the conventional method, a is an input image, b is a ground truth (GT) Alpha matte, c is an optimal trimap generated by the method of the present invention, d is a trimap for patch-based trimming, e is a trimap for edge-based trimming, and f is an extension-based trimap.

상기 도 14는 본 발명의 최적의 트라이맵으로 계산된 알파 매트가 다른 트라이맵으로 생성된 알파 매트보다 더 적은 수의 아티팩트를 포함하고 성능이 우수하다는 것을 보여준다. 본 발명의 평가는 알파 매트 계산을 위한 최적의 트라이맵을 사용하면 기존의 방식에 의해 획득된 결과보다 아티팩트를 현저하게 감소시켜 결과를 향상시킬 수 있음을 분명히 보여주고 있다. 상기 도 14의 빨간색 및 녹색 윈도우는 알파 매트에서 아티팩트를 시각화하고 있다. 상기 도 14는 이전 방법에 의한 알파 매트가 0보다 큰 알파값을 배경 픽셀에 할당한다는 것을 보여준다. 이상적으로는 배경 픽셀은 알파 매트에서 0 알파값을 할당해야 한다. 알파 매트는 이러한 잘못된 알파 값 할당을 상당히 줄여 알파 매트를 향상시킨다.FIG. 14 shows that the alpha matte calculated with the optimal trimap of the present invention contains fewer artifacts and has better performance than the alpha matte generated with other trimaps. The evaluation of the present invention clearly shows that the use of an optimal trimap for alpha matte calculations can significantly improve artifacts by significantly reducing artifacts than results obtained by conventional methods. The red and green windows in FIG. 14 visualize artifacts in alpha matte. FIG. 14 shows that the alpha matte by the previous method assigns an alpha value greater than 0 to a background pixel. Ideally, the background pixel should be assigned an alpha value of 0 in the alpha matte. Alpha matte improves alpha matte by significantly reducing this false alpha value assignment.

도 15와 도 16은 KNN 매팅 및 정보 흐름 매팅에서 다양한 트라이맵으로 계산한 알파 매트의 SAD(sum of absolute differences, 절대 차이의 합) 값을 비교하기 위한 도면으로서, 정량적 비교를 위해, GT 알파 매트와 4개의 다른 트라이맵으로 계산된 알파 매트 사이의 SAD 오차를 계산하였다. 최적의 트라이맵을 사용하여 계산된 알파 매트는 KNN 매팅(도 15)에 대해 10,784의 가장 낮은 평균 SAD 값을 달성하고, 알파 매팅 평가 데이터 세트에서 정보 흐름 매팅(도 16)에 대해 10,730의 평균 SAD 값을 달성한다. 이 최저 평균 SAD 값은 최적의 트라이맵을 사용하여 생성된 알파 매트가 다른 알파 매트와 비교할 때 GT 알파 매트에 가장 가깝다는 것을 의미한다. 다른 트라이맵을 사용하여 계산된 알파 매트의 평균 SAD 값은 모두 11,410 보다 크다, 팽창 기반 트라이맵은 정보 흐름 매팅에서 SAD 점수가 13,082로 가장 높았다. 도 17은 KNN 매팅 및 정보 흐름 매팅에서 다양한 트라이맵으로 계산한 알파 매트의 평균 SAD 값을 비교하기 위한 도면으로서, 본 발명의 SAD 점수가 KNN 매팅과 정보 흐름 매팅 모두에서 돌출 객체 데이터 세트에 대해 가장 낮은지 검증한다.15 and 16 are diagrams for comparing SAD (sum of absolute differences) values of alpha matte calculated by various trimaps in KNN mating and information flow mating. For quantitative comparison, GT alpha mat And SAD error between alpha matte calculated with 4 different trimaps. The alpha matte calculated using the optimal trimap achieves the lowest average SAD value of 10,784 for KNN mating (FIG. 15), and an average SAD of 10,730 for information flow mating (FIG. 16) in the alpha matting evaluation data set. To achieve the value. This lowest average SAD value means that the alpha matte generated using the optimal trimap is closest to the GT alpha matte compared to other alpha mattes. The average SAD value of the alpha matte calculated using other trimaps is all greater than 11,410. The expansion-based trimap had the highest SAD score of 13,082 in information flow mating. 17 is a view for comparing the average SAD value of the alpha matte calculated with various trimaps in KNN mating and information flow mating, where the SAD score of the present invention is the best for the extruded object data set in both KNN mating and information flow mating. Verify that it is low.

언노운 영역 감지의 효과를 추가로 검증하기 위해 4개의 트라이맵을 도 18을 참조하여 정성적으로 비교한다. 도 18은 본 발명의 방식에 적용된 언노운 영역 감지의 효과를 정성적으로 검증하기 위한 도면으로서, (a)는 입력 이미지, (b)는 본 발명의 방식에 의해 생성된 최적의 트라이맵, (c)는 패치 기반 트리밍의 트라이맵, (d)는 엣지 기반 트리밍의 트라이맵, (e)는 확장 기반 방법의 트라이맵이다. 상기 도 18을 참조하면, 언노운 영역 감지를 갖는 트라이맵은 트라이맵 트리밍에서 더 우수한 것을 확인할 수 있다. 다른 언노운 영역 감지 방법이 실제로는 배경 픽셀이지만 더 많은 픽셀을 언노운인 것으로 할당한다는 것을 보여주는 상기 도 18의 빨간색 및 녹색 창을 주목해 보아야 한다. 본 발명에서 적용한 방법은 상기 도 18에서 볼 수 있는 올바른 레이블을 할당하는데 더 좋다. 에지 기반 트리밍은 언노운 영역을 너무 많이 줄어들게 하여, 상기 도 14에 도시된 바와 같이 알파 매트를 더 악화시킨다는 점에 유의해야 한다. 일반적으로 언노운 픽셀이 너무 많으면 알파 매트에서 아티팩트가 생성되고 언노운 픽셀이 적으면 알파 매트에서 미세한 세부 정보가 손실되어 더 세분화된다. 본 발명의 방법은 알파 매트에서 미세한 디테일을 유지하면서 아티팩트를 줄일 수 있는 최적의 트라이맵을 생성한다.To further verify the effect of detecting the unknown area, the four trimaps are compared qualitatively with reference to FIG. 18. 18 is a diagram for qualitatively verifying the effect of detecting an unknown area applied to the method of the present invention, (a) is an input image, (b) is an optimal trimap generated by the method of the present invention, (c ) Is a trimap of patch-based trimming, (d) is a trimap of edge-based trimming, and (e) is a trimap of extension-based methods. Referring to FIG. 18, it can be seen that the trimap having the unknown area detection is superior in the trimap trimming. It should be noted that the red and green windows of FIG. 18 above show that other unknown area detection methods are actually background pixels, but more pixels are allocated as unknown. The method applied in the present invention is better for assigning the correct label as seen in FIG. 18 above. It should be noted that edge-based trimming causes the unknown area to shrink too much, making the alpha matte worse as shown in FIG. 14 above. In general, if there are too many unknown pixels, artifacts are created in the alpha matte, and if there are few unknown pixels, finer details are lost in the alpha matte to further refine. The method of the present invention creates an optimal trimap that can reduce artifacts while maintaining fine detail in alpha matte.

한편, 트라이맵 생성을 위한 시간 소비, 언노운 영역 감지를 위한 시간 소비 및 다양한 트라이맵을 사용한 알파 매트 계산에 소요되는 시간을 평가한 결과를 설명하면 다음과 같다.Meanwhile, the results of evaluating the time spent for generating the trimap, the time spent for detecting the unknown area, and the time taken for calculating the alpha matte using various trimaps are as follows.

첫 번째, 트라이맵 생성을 위한 시간 소비에 대한 평가결과를 도 19를 참조하여 설명하면, 도 19는 알파 매팅 데이터 세트에서 최적의 트라이맵 생성을 위한 시간 소비를 설명하기 위한 도면으로서, 크기가 조정된 이미지(원본 크기의 70%)와 원본 크기 이미지의 시간 소비를 측정하였다. 이것은 트라이맵 계산 시간에 대한 이미지 크기의 영향을 확인하기 위해 수행되었다. 상기 도 19에서 확인할 수 있듯이, 이미지 크기가 427ㅧ548(크기 조정된 데이터의 평균 이미지 크기)인 경우 13.96초(평균 시간)가 걸리고, 이미지 크기가 609ㅧ783(원래 크기 데이터의 평균 이미지 크기)인 경우 35.7초가 걸린다. 돌출 객체 데이터 세트의 경우, 이미지 크기가 374ㅧ328(돌출 객체 데이터 세트의 평균 이미지 크기)인 경우 평균 약 5.49초가 걸린다. 이 시간은 수동으로 트라이맵을 그리는 것과 비교할 때 상당히 적다. 정확한 언노운 영역을 수작업에 의해 트라이맵을 그리는 것은 숙련된 사용자라도 몇 분이 걸릴 수 있다는 것을 기억해야 한다. 본 발명에서 제안된 알고리즘의 대부분의 시간은 DRFI를 사용한 돌출 맵(Saliency Map) 계산에 사용된다. 더 빠른 돌출 맵 계산은 훨씬 빠른 트라이맵 생성으로 이어진다.First, when an evaluation result of time consumption for generating a trimap is described with reference to FIG. 19, FIG. 19 is a diagram for explaining time consumption for generating an optimal trimap in an alpha matting data set, which is scaled. Time consumption of the original image (70% of the original size) and the original size image was measured. This was done to see the effect of image size on the trimap calculation time. As can be seen from FIG. 19, when the image size is 427 ㅧ 548 (average image size of resized data), it takes 13.96 seconds (average time), and the image size is 609 ㅧ 783 (average image size of original size data). In the case of 35.7 seconds. For the extruded object data set, it takes an average of about 5.49 seconds when the image size is 374 크기 328 (average image size of the extruded object data set). This time is considerably less compared to drawing a trimap manually. It should be remembered that manually drawing a trimap of the exact unknown area can take several minutes even for experienced users. Most of the time of the algorithm proposed in the present invention is used for calculating a salientity map using DRFI. Faster extrusion map calculations lead to much faster trimap generation.

두 번째, 언노운 영역 감지를 위한 시간 소비를 설명하면, 도 20과 도 21은 본 발명의 방식에 적용된 언노운 영역 감지와 기존 방식의 패치 기반 트리밍 및 에지 기반 트리밍을 위한 알파 매팅 데이터 세트 및 돌출 객체 데이터 세트에서의 시간 소비를 각각 설명하기 위한 도면이다.Second, to explain the time consumption for the detection of the unknown area, FIGS. 20 and 21 are alpha matting data sets and extrusion object data for patch-based trimming and edge-based trimming, which are applied to the method of the present invention. It is a figure for explaining each time consumption in a set.

상기 도 20에 나타낸 것처럼, 알파 매트 데이터 세트의 경우, 본 발명에서 제안한 언노운 영역 감지 알고리즘은 언노운 영역의 평균 프로세스에 대해 약 4.98초가 걸리고, 기존의 패치 기반 트리밍은 평균 14.44초가 걸리며, 에지 기반 트리밍은 평균 계산 시간이 4.42초로 가장 빠르다. 그러나, 빠른 계산은 알파 매트 품질의 저하를 초래한다. 상기 도 14에서 에지 기반 트리밍에 의해 계산된 알파 매트에는 많은 아티팩트가 포함되어 있음을 알 수 있다. 또한 상기 도 15 내지 도 17에 나타낸 것처럼 더 높은 SAD 오류 값을 얻는다. 본 발명은 에지 기반 트리밍만큼 빠르며 도 14와 도 도 19에서 볼 수 있는 아티팩트를 줄이는 데 훨씬 좋다. 또한 본 발명은 패치 기반 트리밍보다 상당히 빠르며, 훨씬 우수한 알파 매트를 생성한다.As shown in FIG. 20, in the case of the alpha matte data set, the unknown area detection algorithm proposed in the present invention takes about 4.98 seconds for the average process of the unknown area, the existing patch-based trimming takes an average of 14.44 seconds, and edge-based trimming The average calculation time is the fastest with 4.42 seconds. However, fast calculation results in a decrease in alpha matte quality. It can be seen from FIG. 14 that the alpha matte calculated by edge-based trimming includes many artifacts. Also, higher SAD error values are obtained as shown in FIGS. 15 to 17 above. The present invention is as fast as edge-based trimming and is much better at reducing the artifacts seen in FIGS. 14 and 19. In addition, the present invention is significantly faster than patch-based trimming and produces a much better alpha matte.

돌출 객체 데이터 세트(도 21)의 경우, 본 발명에서 제안한 언노운 영역 감지 알고리즘은 평균 약 2.06초를 사용하는 반면, 패치 기반 트리밍은 평균 5.50초를 소요한다. 에지 기반 트리밍은 평균 계산 시간이 1.17 초로 가장 빠르다. 앞에서 언급했듯이 에지 기반 트리밍이 약간 더 빠르더라도 알파 매트에 많은 아티팩트기 포함된다.In the case of the extruded object data set (FIG. 21), the unknown area detection algorithm proposed in the present invention uses an average of about 2.06 seconds, while patch-based trimming takes an average of 5.50 seconds. Edge-based trimming has the fastest average calculation time of 1.17 seconds. As mentioned earlier, even though edge-based trimming is slightly faster, the alpha matte contains a lot of artifacts.

세 번째, 다양한 트라이맵을 사용한 알파 매트 계산에 소요되는 시간 소비를 설명하면, 도 22와 도 23은 KNN 매팅 및 정보 흐름 매팅을 사용한 알파 매팅 데이터 세트에서의 알파 매트 계산을 위한 시간 소비를 각각 설명하기 위한 도면으로서, 본 발명의 최적의 트라이맵을 사용하면 두 개의 서로 다른 이미지 매팅 알고리즘을 사용할 때 알파 매팅 데이터 세트에서 알파 매트 계산 시간을 줄일 수 있음을 보여준다. KNN 매팅 알고리즘은 평균 6.07초(도 22)를 사용하지만 정보 흐름 매팅은 최적의 트라이맵을 사용하여 알파 매트를 계산하는 데 평균 11.99(도 23)가 필요하다. 본 발명의 최적의 트라이맵은 KNN 매팅에서 가장 빠르며 정보 흐름 매팅에서 두 번째로 빠르다. 엣지 기반 트리밍에 의한 트라이맵은 정보 흐름 매팅의 경우 가장 빠르다. 이는 정보 흐름 매팅은 언노운 픽셀의 수에 따라 계산 시간을 증가/감소시키는 언노운 영역 처리를 계산한다는 사실에 기인한다. 엣지 기반 트리밍은 언노운 영역을 트림(trim)하므로 언노운 픽셀 수를 크게 줄인다. 그러나 약간 더 빠른 속도와 극단적인 트라이맵 트리밍은 알파 매트 품질을 낮춘다(도 14 및 도 19참조). 팽창 기반 트라이맵으로 계산된 알파 매트는 트리밍된 트라이맵과 비교하여 더 많은 언노운 픽셀을 포함하므로 가장 오랜 시간이 걸린다. 트라이맵에서 언노운 픽셀 수가 많을수록 알파 매트를 계산하는 데 더 많은 시간이 걸린다. 돌출 객체 데이터 세트에 대한 결과는 도 24에 나타나 있다.Third, explaining the time consumption for alpha matte calculation using various trimaps, FIGS. 22 and 23 illustrate time consumption for alpha matte calculation in the alpha matting data set using KNN matting and information flow matting, respectively. As a drawing to show, using the optimal trimap of the present invention shows that the alpha matte calculation time can be reduced in the alpha matting data set when two different image matting algorithms are used. The KNN mating algorithm uses an average of 6.07 seconds (FIG. 22), but information flow mating requires an average of 11.99 (FIG. 23) to calculate the alpha matte using an optimal trimap. The optimal trimap of the present invention is the fastest in KNN mating and the second fastest in information flow mating. Trimap by edge-based trimming is the fastest for information flow mating. This is due to the fact that the information flow matting calculates the unknown area processing which increases / decreases the calculation time according to the number of unknown pixels. Edge based trimming trims the unknown area, greatly reducing the number of unknown pixels. However, slightly faster speeds and extreme trimap trimming lower the alpha matte quality (see Figures 14 and 19). The alpha matte calculated with the expansion-based trimap takes the longest time since it contains more unknown pixels compared to the trimmed trimap. The more unknown pixels in the trimap, the longer it takes to calculate the alpha matte. The results for the extruded object data set are shown in FIG. 24.

한편, 본 발명에서는 그래프 컷 세그먼테이션을 계산하기 전에, 이미지를 nsp 수의 수퍼 픽셀로 오버 세그먼트하였다. 전경 객체를 세그먼테이션하는데 필요한 계산 시간을 줄이기 위해 수퍼 픽셀 세그먼테이션이 계산되었다. 그러나 더 빠른 그래프 컷 계산과 전경 세그먼테이션 정확도 사이에는 트레이드오프(trade-off)가 존재한다. nsp 값이 낮으면 세그먼테이션 프로세스 속도가 빨라지지만, 이미지 색상의 추상화/ 일반화가 발생한다. 이러한 과잉 흡수(over-abstraction)는 특히 작은 구멍(hall)을 갖는 이미지의 부분에서 부정확한 세그먼테이션에 기여한다.On the other hand, in the present invention, before calculating the graph cut segmentation, the image was oversegmented with n sp number of super pixels. Super-pixel segmentation was calculated to reduce the computational time required to segment the foreground object. However, there is a trade-off between faster graph cut calculations and foreground segmentation accuracy. When the value of n sp is low, the segmentation process speeds up, but abstraction / generalization of image color occurs. This over-abstraction contributes to inaccurate segmentation, especially in parts of the image with small holes.

도 25는 수퍼 픽셀의 수가 전경 세그먼테이션에 미치는 영향을 설명하기 위한 도면으로서, 더 작은 nsp값이 어떻게 배경으로부터 부분들을 세그먼테이션할 수 있는지 주목할 필요가 있다. nsp값이 높으면 세그먼테이션이 향상되지만 계산 시간이 늘어난다. 본 발명의 실험평가에서, nsp=3000은 세그먼테이션 결과와 계산 시간 사이에 좋은 균형을 보여주었다.25 is a diagram for explaining the effect of the number of super pixels on foreground segmentation, and it is necessary to note how a smaller n sp value can segment portions from the background. Higher sp values improve segmentation, but increase computation time. In the experimental evaluation of the present invention, n sp = 3000 showed a good balance between the segmentation result and the calculation time.

또한, 본 발명에 적용된 퍼지 c-평균(FCM) 알고리즘에는 데이터 포인트를 클러스터하기 위해 2개의 매개 변수(c 및 m)가 필요하다. 이 클러스터링에 의해 생성된 언노운 영역은 파라미터에 민감하다. 그리고 언노운 픽셀 분류에 필요한 wthreshold 값 파라미터는 언노운 영역에 영향을 미친다. 도 26은 본 발명의 방식에 따라 생성된 트라이맵의 언노운 영역에 대한 클러스터 수(c), fuzzifier(m) 및 wthreshold의 영향을 설명하기 위한 도면으로서, 본 발명의 최적의 트라이맵의 언노운 영역에 대한 다양한 매개 변수의 영향을 분석하였으며, 다음과 같이 요약할 수 있다.In addition, the fuzzy c-means (FCM) algorithm applied to the present invention requires two parameters (c and m) to cluster data points. The unknown area created by this clustering is parameter sensitive. In addition, the w threshold value parameter required for the classification of the unknown pixels affects the unknown region. 26 is a view for explaining the effect of the number of clusters (c), fuzzifier (m) and w threshold on the unknown area of the trimap generated according to the method of the present invention, the unknown area of the optimal trimap of the present invention The effects of various parameters on were analyzed and can be summarized as follows.

첫 번째, 클러스터 수(c)와 관련하여, c값이 높을수록 더 많은 언노운 픽셀이 생성된다. c값이 증가하면 각 데이터 포인트에 c개의 부분 멤버십 점수가 할당되기 때문이다. 이로 인해 개별 멤버십 값이 너무 작아지므로 더 많은 픽셀이 언노운인 것으로 분류된다. c가 낮으면 언노운 픽셀 수가 줄어든다.First, with respect to the number of clusters c, the higher the value of c, the more unknown pixels are generated. This is because when the value of c increases, c partial membership scores are allocated to each data point. Because of this, individual membership values are too small, so more pixels are classified as unknown. When c is low, the number of unknown pixels is reduced.

두 번째, Fuzzifier(m)와 관련하여, m은 클러스터 간의 퍼지 양을 결정한다. m을 늘리면 퍼지가 증가하기 때문에 언노운 픽셀에 해당한다. 클러스터 간의 퍼지 증가로 인해 더 많은 fuzzier 클러스터가 생성된다. 이는 단순히 데이터 포인트가 각 클러스터에 대해 거의 동일한 멤버십 값을 갖는 것을 의미한다. 따라서 더 많은 픽셀이 언노운인 것으로 분류된다. m을 줄이면 하드 클러스터링이 발생한다.Second, with respect to Fuzzifier (m), m determines the amount of purge between clusters. As m increases, purge increases, which corresponds to an unknown pixel. More fuzzier clusters are created due to increased fuzzy between clusters. This simply means that the data points have almost the same membership value for each cluster. Therefore, more pixels are classified as unknown. If m is reduced, hard clustering occurs.

세 번째, wthreshold와 관련하여, 높은 wthreshold 값은 더 많은 픽셀이 언노운인 것으로 분류되는 반면, 낮은 wthreshold 값은 더 적은 픽셀이 언노운인 것으로 분류됨을 의미한다.Whereas in connection with the first three, w threshold, which is classified as a high w threshold values are more pixels Unknown, low w threshold value means that the classification as a less-pixel Unknown.

언노운 픽셀 수의 증가는 확장 기반 트라이맵과 동일한 수준의 효과를 가진다. 이것은 언노운 픽셀 수가 많을수록 해당 픽셀 중 일부가 전경 또는 배경 픽셀을 덮을 가능성이 높기 때문이다. 반대로 언노운 픽셀 수가 적으면 출력 알파 매트에 부정적인 영향을 미친다. 언노운 픽셀이 적으면 전경 객체의 경계상에서 세밀한 세부 사항(예 : 머리카락)이 무시되므로 하드 분할과 유사한 알파 매트가 생성된다. 최적의 트라이맵에서 조건과 결과의 영향을 줄이는 스위트 스팟(최고의 상황)을 찾아야 한다. 본 발명의 실험결과에서, c=3, m=5 및 wthreshold=0.8로 설정하였고, 이 값에서 최적의 결과가 산출되었었다.Increasing the number of unknown pixels has the same effect as the extension-based trimap. This is because the greater the number of unknown pixels, the more likely that some of the pixels will cover the foreground or background pixels. Conversely, a small number of unknown pixels negatively affects the output alpha matte. When there are fewer unknown pixels, fine details (such as hair) are ignored on the border of the foreground object, creating an alpha matte similar to hard partitioning. Find the sweet spot (best situation) that reduces the impact of conditions and results on the optimal trimap. In the experimental results of the present invention, c = 3, m = 5 and w threshold = 0.8 were set, and optimal results were calculated from these values.

이처럼, 본 발명은 이미지 매팅을 위한 트라이맵을 생성할 때, 이미지 돌출, 그래프 컷 세그먼테이션 및 FCM 클러스터링을 결합하여 최적의 트라이맵을 자동으로 생성하기 때문에, 알파 매트의 경계 영역에서 발생하는 아티팩트의 수를 줄이고 상기 알파 매트의 계산 시간을 단축하여 품질을 향상시킬 수 있다. 특히, 자동으로 생성한 최적의 트라이맵을 이용하여 이미지 매팅 작업을 수행할 수 있으므로, 영화 제작 관련 기술자가 시각 효과 작업을 용이하게 수행할 수 있다.As described above, since the present invention automatically generates an optimal trimap by combining image extrusion, graph cut segmentation, and FCM clustering when generating a trimap for image matting, the number of artifacts occurring in the boundary region of the alpha matte It is possible to improve the quality by reducing and shortening the calculation time of the alpha matte. In particular, an image matting operation can be performed using an optimal trimap that is automatically generated, so that a movie production technician can easily perform a visual effect operation.

또한 본 발명은 언노운 영역이 전경 또는 배경 픽셀이 아닌, 전경과 배경의 색상이 혼합된 픽셀만 포함하도록 함으로써, 전경 객체를 분할하기 위해 필요한 깊이 정보에 의존하지 않으면서 완전 자동으로 최적의 트라이맵을 생성할 수 있다.In addition, the present invention makes the optimal trimap fully automatic without relying on the depth information required to divide the foreground object, by allowing the unknown area to include only the pixels of the foreground and background colors, not the foreground or background pixels. Can be created.

이상에서와 같이 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.As described above, the present invention has been described with reference to the embodiment shown in the drawings, but this is only exemplary, and those skilled in the art to which the art pertains have various modifications and other equivalent embodiments You will understand that it is possible. Therefore, the technical protection scope of the present invention should be determined by the following claims.

1 : 영상 편집 시스템 100 : 트라이맵 자동 생성 장치
110 : 전경 큐 추정 모듈 111 : 이미지 입력부
112 : 돌출 맵 생성부 113 : 돌출 맵 양자화부
114 : 돌출 맵 이진화부 115 : 전경 큐 출력부
120 : 전경 세그먼테이션 모듈 121 : 전경 큐 제공부
122 : 배경 큐 제공부 123 : 과분할 이미지 제공부
124 : 그래프 컷 세그먼테이션부 125 : 전경 객체 세그먼테이션부
130 : 언노운 영역 감지 모듈 131 : 팽창부
132 : ROI 처리부 133 : 언노운 영역 생성부
134 : 이미지 병합부 135 : 트라이맵 생성부
200 : 이미지 매팅 장치
1: Video editing system 100: Trimap automatic generation device
110: foreground queue estimation module 111: image input unit
112: protrusion map generation unit 113: protrusion map quantization unit
114: extrusion map binarization unit 115: foreground queue output unit
120: foreground segmentation module 121: foreground queue providing unit
122: Background cue providing unit 123: Oversegment image providing unit
124: graph cut segmentation unit 125: foreground object segmentation unit
130: unknown area detection module 131: expansion unit
132: ROI processing unit 133: unknown area generation unit
134: image merger 135: trimap generator
200: image matting device

Claims (12)

트라이맵 자동 생성 장치에서, 픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 전경 큐 추정 단계;
상기 트라이맵 자동 생성 장치에서, 상기 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하여 상기 입력 이미지에서 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션하는 전경 세그먼테이션 단계; 및
상기 트라이맵 자동 생성 장치에서, 퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 언노운 영역 감지 단계;를 포함하며,
상기 전경 세그먼테이션 단계는,
상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성하는 것을 특징으로 하는 트라이맵 자동 생성 방법.
In the trimap automatic generation apparatus, a foreground cue estimation step of estimating a foreground cue for a position of a foreground object in an input image using a pixel-level protrusion map;
In the trimap automatic generation device, graph cut segmentation based on the foreground cue for the estimated position of the foreground object, the background cue generated by defining a corner region of the input image as a background seed, and a pre-computed oversegmented input image a foreground segmentation step of dividing a foreground object and a background from the input image by performing lazy snapping, and segmenting the divided foreground object; And
In the trimap automatic generation device, using fuzzy c-means (FCM) clustering, an unknown region detection step of generating a trimap by identifying mixed pixels including a foreground and a background color in a boundary region of the segmented foreground object ;
The foreground segmentation step,
Based on the assumption that when the background cue is created by defining a corner region of the input image as a background seed, the foreground object is located in the center of the input image, and a corner of the input image is likely to include a background cue. Automatic generation method of the trimap, characterized in that to generate.
청구항 1에 있어서,
상기 전경 큐 추정 단계는,
상기 트라이맵 자동 생성 장치에서, 이미지 매팅을 수행하기 위한 입력 이미지를 제공받는 이미지 입력 단계;
상기 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵을 생성하는 돌출 맵 생성 단계;
상기 생성한 돌출 맵을 양자화하여, 양자화된 돌출 맵을 생성하는 돌출 맵 양자화 단계;
상기 생성한 양자화된 돌출 맵을 이진화하여, 이진화된 돌출 맵을 생성하는 돌출 맵 이진화 단계; 및
상기 생성한 이진화된 돌출 맵을 침식(erode)하여, 가장 큰 블랍(blob)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 단계에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐로 사용하도록 출력하는 전경 큐 출력 단계;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 방법.
The method according to claim 1,
The foreground queue estimation step,
An image input step of receiving an input image for performing image matting in the trimap automatic generation device;
A protrusion map generation step of dividing the received input image into a predetermined area and generating a protrusion map based on the divided region contrast, region background, and region property;
A quantization of the projected map to generate a quantized projected map by quantizing the generated projected map;
A binarization map binarization step of binarizing the generated quantized projection map to generate a binarized projection map; And
Eroding the generated binarized extruded map, maintaining only the largest blob, and outputting the eroded binarized extruded map to be used as a foreground queue for performing graph cut segmentation in the foreground segmentation step Automated generation of a trimap, comprising: outputting a foreground queue.
청구항 1에 있어서,
상기 전경 세그먼테이션 단계는,
상기 트라이맵 자동 생성 장치에서, 상기 전경 큐 추정 단계에서 추정한 전경 객체의 위치에 대한 전경 큐를 입력받아 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 전경 큐 제공 단계;
상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성하고, 상기 생성한 배경 큐를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 배경 큐 제공 단계;
상기 입력 이미지를 복수 개의 수퍼 픽셀로 과분할하고, 상기 복수 개의 수퍼 픽셀로 과분할한 입력 이미지를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 과분할 이미지 제공 단계;
상기 전경 큐, 배경 큐 및 과분할 입력 이미지를 토대로 상기 입력 이미지에서 전경 객체와 배경을 분할하는 그래프 컷 세그먼테이션 단계; 및
상기 분할한 전경 객체를 세그먼테이션하는 전경 객체 세그먼테이션 단계;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 방법.
The method according to claim 1,
The foreground segmentation step,
In the apparatus for automatically generating a trimap, a foreground queue providing step of receiving a foreground queue for a position of a foreground object estimated in the foreground queue estimation step and providing it as an input for graph cut segmentation;
Defining a corner region of the input image as a background seed to generate a background queue, and providing a background queue to provide the generated background queue as an input for graph cut segmentation;
An over-segment image providing step of over-segmenting the input image into a plurality of super pixels and providing an input image over-segmented into the plurality of super pixels as an input for graph cut segmentation;
A graph cut segmentation step of dividing a foreground object and a background from the input image based on the foreground cue, a background cue, and an overdivided input image; And
And a segmentation of the foreground object for segmenting the segmented foreground object.
청구항 1에 있어서,
상기 언노운 영역 감지 단계는,
상기 트라이맵 자동 생성 장치에서, 상기 전경 세그먼테이션 단계에서 세그먼테이션한 전경 객체의 경계 영역을 팽창하는 팽창 단계;
상기 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정하고, 상기 설정한 ROI를 n x n의 패치로 나누는 ROI 처리 단계;
상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 생성하는 언노운 영역 생성 단계;
상기 언노운 영역 생성 단계에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하는 이미지 병합 단계; 및
상기 병합한 이미지를 토대로 트라이맵을 생성하는 트라이맵 생성 단계;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 방법.
The method according to claim 1,
The step of detecting the unknown area,
In the trimap automatic generation device, the expansion step of expanding the boundary area of the foreground object segmented in the foreground segmentation step;
An ROI processing step of setting a boundary region of the expanded foreground object as an ROI (interest region), and dividing the set ROI into patches of nxn;
A fuzzy c-average (FCM) clustering for each divided patch, and an unknown region generation step of generating an unknown region by identifying mixed pixels including a foreground and a background color for each patch based on the result of the execution;
An image merging step of merging the images for each patch processed in the step of generating the unknown area into one image; And
Trimap generation step of generating a trimap based on the merged image; Trimap automatic generation method comprising a.
삭제delete 청구항 4에 있어서,
상기 언노운 영역 감지 단계는,
상기 트라이맵 자동 생성 장치에서, 상기 전경 객체의 경계 영역에서 추출한 ROI를 n x n 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서,
각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인하도록 하는 것을 특징으로 하는 트라이맵 자동 생성 방법.
The method according to claim 4,
The step of detecting the unknown area,
In the trimap automatic generation apparatus, in the process of dividing the ROI extracted from the boundary region of the foreground object into nxn-sized patches and performing fuzzy c-mean (FCM) clustering for each divided patch,
Each patch is expressed as a lightness, green-red component, and blue-yellow component, but discarding the brightness and maintaining only the green-red component and blue-yellow component to check the mixed pixels, the trimap auto-generation method.
픽셀 레벨의 돌출 맵을 이용하여 입력 이미지에서 전경 객체의 위치에 대한 전경 큐를 추정하는 전경 큐 추정 모듈;
상기 추정한 전경 객체의 위치에 대한 전경 큐, 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성한 배경 큐 및 사전에 계산된 과분할 입력 이미지를 토대로 그래프 컷 세그먼테이션(lazy snapping)을 수행하여 상기 입력 이미지에서 전경 객체와 배경을 분할하고, 상기 분할한 전경 객체를 세그먼테이션하는 전경 세그먼테이션 모듈; 및
퍼지 c-평균(FCM) 클러스터링을 이용하여, 상기 세그먼테이션한 전경 객체의 경계 영역에서 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 트라이맵을 생성하는 언노운 영역 감지 모듈;을 포함하며,
상기 전경 세그먼테이션 모듈은,
상기 배경 큐를 상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 생성할 때, 상기 전경 객체가 상기 입력 이미지의 중앙에 위치하고, 상기 입력 이미지의 코너가 배경 큐를 포함할 가능성이 높다는 가정을 기반으로 하여 생성하는 것을 특징으로 하는 트라이맵 자동 생성 장치.
A foreground cue estimation module for estimating a foreground cue for a position of a foreground object in an input image using a pixel-level protrusion map;
Graph cut segmentation (lazy snapping) is performed based on the foreground cue for the estimated position of the foreground object, the background cue generated by defining the corner region of the input image as a background seed, and the pre-calculated oversegmented input image. A foreground segmentation module for dividing the foreground object and the background from the input image and segmenting the divided foreground object; And
Includes a fuzzy c-means (FCM) clustering, an unknown area detection module that generates a trimap by identifying mixed pixels including a color of a foreground and a background in a boundary area of the segmented foreground object.
The foreground segmentation module,
Based on the assumption that when the background cue is created by defining a corner region of the input image as a background seed, the foreground object is located in the center of the input image, and a corner of the input image is likely to include a background cue. Trimap automatic generation device, characterized in that to generate.
청구항 7에 있어서,
상기 전경 큐 추정 모듈은,
이미지 매팅을 수행하기 위한 입력 이미지를 제공받는 이미지 입력부;
상기 제공받은 입력 이미지를 소정의 영역으로 분할하고, 상기 분할한 영역별 영역 대비(region contrast), 영역 배경(region background) 및 영역 속성(region property)을 토대로 돌출 맵을 생성하는 돌출 맵 생성부;
상기 생성한 돌출 맵을 양자화하여, 양자화된 돌출 맵을 생성하는 돌출 맵 양자화부;
상기 생성한 양자화된 돌출 맵을 이진화하여, 이진화된 돌출 맵을 생성하는 돌출 맵 이진화부; 및
상기 생성한 이진화된 돌출 맵을 침식(erode)하여, 가장 큰 블랍(blob)만 유지하고, 상기 침식한 이진화된 돌출 맵을 상기 전경 세그먼테이션 모듈에서 그래프 컷 세그먼테이션을 수행하기 위한 전경 큐로 사용하도록 출력하는 전경 큐 출력부;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 장치.
The method according to claim 7,
The foreground queue estimation module,
An image input unit provided with an input image for performing image matting;
A protrusion map generator for dividing the received input image into a predetermined area, and generating a protrusion map based on the divided region contrast, region background, and region property;
A protrusion map quantization unit to quantize the generated protrusion map to generate a quantized protrusion map;
A projected map binarization unit that binarizes the generated quantized projected map to generate a binarized projected map; And
Eroding the generated binarized extrusion map, maintaining only the largest blob, and outputting the eroded binarized extrusion map to be used as a foreground queue for performing graph cut segmentation in the foreground segmentation module Automatic output device for generating a trimap, comprising: a foreground cue output unit.
청구항 7에 있어서,
상기 전경 세그먼테이션 모듈은,
상기 전경 큐 추정 모듈에서 추정한 전경 객체의 위치에 대한 전경 큐를 입력받아 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 전경 큐 제공부;
상기 입력 이미지의 코너 영역을 배경 시드로 정의하여 배경 큐를 생성하고, 상기 생성한 배경 큐를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 배경 큐 제공부;
상기 입력 이미지를 복수 개의 수퍼 픽셀로 과분할하고, 상기 복수 개의 수퍼 픽셀로 과분할한 입력 이미지를 그래프 컷 세그먼테이션을 위한 입력으로 제공하는 과분할 이미지 제공부;
상기 전경 큐, 배경 큐 및 과분할 입력 이미지를 토대로 상기 입력 이미지에서 전경 객체와 배경을 분할하는 그래프 컷 세그먼테이션부; 및
상기 분할한 전경 객체를 세그먼테이션하는 전경 객체 세그먼테이션부;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 장치.
The method according to claim 7,
The foreground segmentation module,
A foreground queue providing unit that receives a foreground queue for a position of a foreground object estimated by the foreground queue estimation module and provides it as an input for graph cut segmentation;
A background queue providing unit defining a corner area of the input image as a background seed to generate a background queue, and providing the generated background queue as an input for graph cut segmentation;
An over-segmentation image providing unit configured to over-segment the input image into a plurality of super pixels, and to provide an input image over-segmented into the plurality of super pixels as an input for graph cut segmentation;
A graph cut segmentation unit dividing a foreground object and a background from the input image based on the foreground cue, a background cue, and an oversegment input image; And
And a foreground object segmentation unit for segmenting the divided foreground object.
청구항 7에 있어서,
상기 언노운 영역 감지 모듈은,
상기 전경 세그먼테이션 모듈에서 세그먼테이션한 전경 객체의 경계 영역을 팽창하는 팽창부;
상기 팽창한 전경 객체의 경계 영역을 ROI(관심영역)로 설정하고, 상기 설정한 ROI를 n x n의 패치로 나누는 ROI 처리부;
상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하고, 상기 수행한 결과를 토대로 각 패치별로 전경과 배경의 색상을 포함한 혼합 픽셀을 확인하여 언노운 영역을 생성하는 언노운 영역 생성부;
상기 언노운 영역 생성부에서 처리한 각 패치별 이미지를 하나의 이미지로 병합하는 이미지 병합부; 및
상기 병합한 이미지를 토대로 트라이맵을 생성하는 트라이맵 생성부;를 포함하는 것을 특징으로 하는 트라이맵 자동 생성 장치.
The method according to claim 7,
The unknown area detection module,
An expansion unit that expands a boundary area of the foreground object segmented by the foreground segmentation module;
An ROI processing unit configured to set a boundary region of the expanded foreground object as an ROI (interest region), and divide the set ROI into patches of nxn;
A fuzzy c-average (FCM) clustering for each divided patch, and an unknown region generating unit for generating an unknown region by identifying mixed pixels including a foreground and a background color for each patch based on the result of the execution;
An image merging unit that merges the images of each patch processed by the unknown region generating unit into a single image; And
Trimap generating unit for generating a trimap based on the merged image; Trimap automatic generation device comprising a.
삭제delete 청구항 10에 있어서,
상기 언노운 영역 감지 모듈은,
상기 전경 객체의 경계 영역에서 추출한 ROI를 n x n 크기의 패치로 나누고, 상기 나눈 각 패치별로 퍼지 c-평균(FCM) 클러스터링을 수행하는 과정에서,
각각의 패치를 명도, 녹색-적색 성분 및 청색-황색 성분으로 표현하되, 명도를 버리고 녹색-적색 성분 및 청색-황색 성분만 유지하여 혼합 픽셀을 확인하도록 하는 것을 특징으로 하는 트라이맵 자동 생성 장치.
The method according to claim 10,
The unknown area detection module,
In the process of dividing the ROI extracted from the boundary region of the foreground object into nxn-sized patches and performing fuzzy c-means (FCM) clustering for each divided patch,
Each patch is expressed as a lightness, green-red component, and blue-yellow component, but discards the brightness and keeps only the green-red component and blue-yellow component to check the mixed pixels, thereby generating a trimap automatic generation device.
KR1020190130359A 2019-10-21 2019-10-21 Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof KR102114738B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190130359A KR102114738B1 (en) 2019-10-21 2019-10-21 Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190130359A KR102114738B1 (en) 2019-10-21 2019-10-21 Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof

Publications (1)

Publication Number Publication Date
KR102114738B1 true KR102114738B1 (en) 2020-05-25

Family

ID=70914399

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190130359A KR102114738B1 (en) 2019-10-21 2019-10-21 Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102114738B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689363A (en) * 2021-09-07 2021-11-23 北京顺势兄弟科技有限公司 Portrait image processing method and device, electronic equipment and storage medium
CN113781436A (en) * 2021-09-10 2021-12-10 丁艳 High-voltage switch state monitoring method based on camera and angle measurement
KR20230146716A (en) * 2022-04-13 2023-10-20 중앙대학교 산학협력단 Method and apparatus of image matting

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IConSIP(International Conference on Signal and Information Processing)2016,(2016.10.06.)* *
IEEE Trans. on Image Processiing, Vol. 21, No.3, pp.1272~1283 (2011.8.12.)* *
IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 39, Issue 8,(2016.09.07.)* *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689363A (en) * 2021-09-07 2021-11-23 北京顺势兄弟科技有限公司 Portrait image processing method and device, electronic equipment and storage medium
CN113689363B (en) * 2021-09-07 2024-03-29 北京顺势兄弟科技有限公司 Portrait image processing method and device, electronic equipment and storage medium
CN113781436A (en) * 2021-09-10 2021-12-10 丁艳 High-voltage switch state monitoring method based on camera and angle measurement
CN113781436B (en) * 2021-09-10 2024-05-17 丁艳 High-voltage switch state monitoring method based on camera and angle measurement
KR20230146716A (en) * 2022-04-13 2023-10-20 중앙대학교 산학협력단 Method and apparatus of image matting
KR102624296B1 (en) * 2022-04-13 2024-01-11 중앙대학교 산학협력단 Method and apparatus of image matting

Similar Documents

Publication Publication Date Title
US8498482B2 (en) Image segmentation
JP6588102B2 (en) System and method for image segmentation
KR102114738B1 (en) Method for generating trimap automatically in alpha matte through unknown region detection and apparatus thereof
US7536050B2 (en) Using graph cuts for editing photographs
CN102388391B (en) Video matting based on foreground-background constraint propagation
JP4732172B2 (en) Method and apparatus for segmenting objects in an image
CN108537239B (en) Method for detecting image saliency target
CN104408429A (en) Method and device for extracting representative frame of video
US12008734B2 (en) Generating image masks from digital images via color density estimation and deep learning models
EP4070240A1 (en) User-guided image segmentation methods and products
KR100903816B1 (en) System and human face detection system and method in an image using fuzzy color information and multi-neural network
CN110268442A (en) In the picture detect background objects on exotic computer implemented method, in the picture detect background objects on exotic equipment and computer program product
Henry et al. Automatic trimap generation and artifact reduction in alpha matte using unknown region detection
Chen et al. Improved grabcut segmentation via gmm optimisation
JP4369308B2 (en) Representative image selection device, representative image selection method, and representative image selection program
JP2003162718A (en) Image processing method and its program
Hanbury How do superpixels affect image segmentation?
Liu et al. Fast interactive image segmentation by discriminative clustering
Lezoray Supervised automatic histogram clustering and watershed segmentation. Application to microscopic medical color images
Wu et al. Interactive foreground/background segmentation based on graph cut
Lin et al. Foreground object detection in highly dynamic scenes using saliency
Basuki et al. Fuzzy C-Means Algorithm for Adaptive Threshold on Alpha Matting
Pankaj et al. Theoretical concepts and technical aspects on image segmentation
Touria et al. Interactive image segmentation based on graph cuts and automatic multilevel thresholding for brain images
Dhara et al. A fast interactive image segmentation to locate multiple similar-colored objects

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant