KR20100088282A - Method and apparatus of inpainting for video data - Google Patents
Method and apparatus of inpainting for video data Download PDFInfo
- Publication number
- KR20100088282A KR20100088282A KR1020090007401A KR20090007401A KR20100088282A KR 20100088282 A KR20100088282 A KR 20100088282A KR 1020090007401 A KR1020090007401 A KR 1020090007401A KR 20090007401 A KR20090007401 A KR 20090007401A KR 20100088282 A KR20100088282 A KR 20100088282A
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- inpainting
- band
- target
- feature points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 239000011159 matrix material Substances 0.000 claims description 38
- 230000008030 elimination Effects 0.000 claims description 12
- 238000003379 elimination reaction Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims 1
- 238000010422 painting Methods 0.000 abstract description 8
- 230000000694 effects Effects 0.000 description 8
- 238000003672 processing method Methods 0.000 description 6
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상 데이터 처리 기술에 관한 것으로, 더욱 상세하게는 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대해 동일하게 인페인팅하는 영상 데이터 인페인팅 방법 및 장치에 관한 것이다. The present invention relates to an image data processing technique, and more particularly, to an image data inpainting method and apparatus for inpainting the same inpainting target areas included in a plurality of consecutive image data.
최근 영화들 중에 특수 효과가 사용되지 않은 영화가 없을 정도로 특수효과는 영화에서 광범위하게 사용되고 있다. 많은 특수 효과 기술 중 인페인팅(inpainting)은 실사 영상에서 제거된 특정 영역을 주변 배경과 어울리게 채워 넣는 기술로 다양한 분야에서 널리 사용되고 있다. 예를 들면, 영화 촬영 후 영화 속 배경에 시대에 맞지 않은 물체나 사람이 있을 경우에 영화를 재촬영할 수도 있지만, 비용과 시간을 고려하여 인페인팅 기술을 사용하고 있다. In recent years, there are no movies without special effects, so special effects are widely used in movies. Among many special effects techniques, inpainting is widely used in various fields as a technique for filling a specific region removed from the live image to match the surrounding background. For example, after shooting a movie, if there is an object or person in the background that is out of date, the movie may be retaken, but inpainting technology is used in consideration of cost and time.
그런데 영화와 같이 다수의 연속되는 영상 데이터가 연이어 재생되는 경우에 상기 다수의 영상 데이터 각각에 대해 인페인팅을 이행하는 경우에는 상기 채워 넣어지는 이미지 또는 상기 인페인팅을 위한 이미지 처리 정도가 영상 데이터마다 상이해질 수 있었다. However, when a plurality of continuous image data such as a movie is reproduced in succession, when inpainting is performed on each of the plurality of image data, the degree of processing of the filled image or the image for inpainting differs for each image data. Could be done
이와 같이 연이어 재생되는 다수의 연속되는 영상 데이터 각각에 대해 동일 영역에 대한 이미지가 서로 상이해지는 것은, 상기 다수의 연속되는 영상 데이터를 연이어 재생하였을 때에 영상의 품위를 저하시키는 원인이 된다. The different images of the same area for each of a plurality of consecutive video data to be reproduced in succession are a cause of deterioration of the image quality when the plurality of consecutive video data are reproduced successively.
이에 종래에는 다수의 연속되는 영상 데이터 각각에 대한 인페인팅 대상영역에 대해 동일하게 인페인팅 처리하여, 상기 다수의 연속되는 영상 데이터 각각에 대해 인페인팅 대상영역이 일관성을 가질 수 있게 하는 기술의 개발이 절실하게 요망되었다. Therefore, in the related art, the inpainting processing is performed on the inpainting target areas for each of a plurality of consecutive image data in the same way, so that the inpainting target region can be consistent for each of the plurality of consecutive image data. It was desperately desired.
본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역을 동일하게 인페인팅하여, 다수의 연속되는 영상 데이터 각각의 인페인팅 대상영역이 일관성을 가질 수 있게 하는 영상 데이터 인페인팅 방법 및 장치를 제공하는 것을 그 목적으로 한다. The present invention provides an image data inpainting method and apparatus for inpainting target areas included in a plurality of consecutive image data in the same manner so that the inpainting target regions of each of the plurality of continuous image data can be consistent. Its purpose is to provide.
상기한 목적을 달성하기 위한 본 발명에 따르는 영상 데이터 인페인팅 방법은, 다수의 연속되는 영상 데이터를 입력받아 하나의 영상 데이터로 스티칭하는 제1단계; 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하는 제2단계; 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하는 제3단계; 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 제4단계;를 포함하는 것을 특징으로 한다. According to an exemplary embodiment of the present invention, an image data inpainting method includes: a first step of receiving a plurality of continuous image data and stitching the image data into one image data; Performing a band matching on the selected inpainting target area in the stitched image data; Removing a boundary of an edge of the inpainting target region with respect to the stitched image data in which the inpainting target region is band-matched; And dividing the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data.
그리고 상기한 본 발명에 따르는 영상 데이터 인페인팅 처리장치는, 다수의 연속되는 영상 데이터를 저장하는 메모리부; 상기 다수의 연속되는 영상 데이터를 하나의 영상 데이터로 스티칭하고, 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하고, 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하고, 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 프로세서;를 포함하는 것을 특징으로 한다. In addition, the image data inpainting processing apparatus according to the present invention includes a memory unit for storing a plurality of consecutive image data; Stitching the plurality of consecutive image data into one image data, performing band matching on an inpainting target region selected from the stitched image data, and applying the stitched image data to which the inpainting target region is band-matched. And a processor that removes a boundary of an edge of the inpainting target region and separates the stitched image data subjected to the boundary removal of the edge into a plurality of consecutive image data.
상기한 본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대해 동일하게 인페인팅함으로써, 다수의 연속되는 영상 데이터 각각의 인페인팅 결과가 일관성을 가질 수 있게 하여, 상기 인페인팅된 다수의 영상 데이터가 순차적으로 재생될 때에 고품위의 영상이 출력될 수 있게 하는 효과가 있다. According to the present invention, the inpainting target area included in the plurality of continuous image data is inpainted equally, so that the inpainting result of each of the plurality of consecutive image data can be made consistent. When the video data of the picture is reproduced in sequence, there is an effect that the high quality video can be output.
또한 본 발명은 다수의 연속되는 영상 데이터를 자동으로 스티칭하여 하나의 영상 데이터로 변환한 후에 인페인팅을 이행함으로써, 인페인팅 처리시간을 대폭적으로 절감할 수 있는 효과가 있다. In addition, the present invention has an effect of significantly reducing the inpainting processing time by automatically stitching a plurality of consecutive image data and converting the same image data into one image data.
또한 본 발명은 다수의 연속되는 영상 데이터에서 인페인팅 대상영역을 자동으로 설정함으로써, 사용자의 편이성을 극대화할 수 있는 효과가 있다. In addition, the present invention has an effect of maximizing the user's convenience by automatically setting the inpainting target area in a plurality of consecutive image data.
또한 본 발명은 자동으로 스티칭될 수 없는 영상 데이터에 대해서는 사용자에 의해 스티칭을 위한 특징점을 입력받을 수 있게 함으로써, 다양한 영상 데이터에 적용할 수 있는 효과가 있다. In addition, the present invention has an effect that can be applied to a variety of image data by allowing the user to receive a feature point for the stitching for the image data that can not be automatically stitched.
또한 본 발명은 인페인팅 대상영역을 분할하여 인페인팅을 이행함으로써, 인페인팅 결과를 향상시킬 수 있는 효과가 있다. In addition, the present invention has an effect of improving the inpainting result by dividing the inpainting target region to perform inpainting.
본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대한 인페인팅을 동일하게 처리하여 다수의 영상 데이터 각각에 대한 인페인팅 결과가 일관성을 가질 수 있게 한다. The present invention processes the inpainting for the inpainting target region included in the plurality of consecutive image data in the same manner so that the inpainting result for each of the plurality of image data can be consistent.
<인페인팅 처리장치의 구성><Configuration of Inpainting Processing Unit>
이러한 본 발명의 바람직한 실시예에 따른 인페인팅 처리장치의 간략 구성을 도 1을 참조하여 설명한다. A brief configuration of the inpainting processing apparatus according to a preferred embodiment of the present invention will be described with reference to FIG. 1.
상기 인페인팅 처리장치의 프로세서(100)와 메모리부(102), 사용자 인터페이스(104)로 구성된다. The inpainting processor includes a
상기 프로세서(100)는 다수의 연속되는 프레임을 제공받아 메모리부(102)에 저장하며, 상기 메모리부(102)에 저장된 다수의 연속된 영상 데이터에 대한 인페인팅을 이행한다.The
그리고 상기 메모리부(102)는 상기 프로세서(100)의 처리 프로그램을 포함하는 다양한 정보를 저장하며, 상기 본 발명의 바람직한 실시예에 따른 인페인팅을 이행하기 위한 저장영역을 제공한다. The
그리고 상기 사용자 인터페이스(104)는 사용자로부터 각종 정보를 입력받아 상기 프로세서(100)에 제공한다. The
<제1실시예에 따른 인페인팅 처리방법><Inpainting Processing Method According to First Embodiment>
본 발명의 바람직한 제1실시예에 따른 인페인팅 처리방법을 도 2의 흐름도를 참조하여 상세히 설명한다. An inpainting processing method according to a first preferred embodiment of the present invention will be described in detail with reference to the flowchart of FIG. 2.
상기 프로세서(100)는 인페인팅 대상영역을 사용자에 의해 입력받는 제1인페인팅 모드로의 동작이 요청되면(200단계), 연속된 영상 데이터들간의 특징점들을 검출한다(202단계).When the
상기 특징점들의 검출은 KLT(Kanade-Lucas-Tomasi Feature Tracker) 방법에 따른다. 이는 Birchfield, S., An implementation of the Kanade-Lucas-Tomasi feature tracker, http://www.ces.clemson.edu/ stb/klt.에 개시된 바 그 상세한 설명은 생략한다. The detection of the feature points is in accordance with the Kanade-Lucas-Tomasi Feature Tracker (KLT) method. This is disclosed in Birchfield, S., An implementation of the Kanade-Lucas-Tomasi feature tracker, http://www.ces.clemson.edu/stb/klt.
상기 KLT 방법에 따라 특징점들이 검출되면, 상기 프로세서(100)는 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출한다(204단계).When feature points are detected according to the KLT method, the
여기서, 두 개의 연속된 영상 데이터들을 토대로 상기 호모그래피 행렬에 대해 좀 더 상세히 설명한다. Here, the homography matrix will be described in more detail based on two consecutive image data.
상기 호모그래피 행렬은 두 영상 데이터 사이의 관계를 정의하는 것으로, 두 영상 데이터에서 대응되는 특징점들을 기준으로 산출한다. The homography matrix defines a relationship between two image data and is calculated based on corresponding feature points in the two image data.
도 3은 인접한 두 영상 데이터를 도시한 것으로, 제2영상 데이터(b)에는 제1영상 데이터(a)의 특징점들(X1,X2,X3,X4) 각각에 대응되는 특징점들(X1',X2',X3',X4')이 존재한다. 상기 제1특징점들(X1,X2,X3,X4)과 상기 제2특징점들(X1',X2',X3',X4')간의 관계는 수학식 1과 같이 표현될 수 있다. FIG. 3 illustrates two adjacent image data, and the second image data b includes feature points X1 ′, X2 corresponding to each of the feature points X1, X2, X3, and X4 of the first image data a. ', X3', X4 ') exists. The relationship between the first feature points (X1, X2, X3, X4) and the second feature points (X1 ', X2', X3 ', X4') may be expressed as in Equation (1).
상기 수학식 1에서 H는 호모그래피 행렬으로 2차원 영상의 경우에 상기 H는 3*3 행렬로 나타낼 수 있으며, 이는 수학식 2와 같이 H에 관한 식으로 전개될 수 있다. In Equation 1, H is a homography matrix, and in the case of a two-dimensional image, H may be represented by a 3 * 3 matrix, which may be developed in terms of H as in Equation 2.
상기 수학식 2에서 앞의 행렬을 A로 단순화시켰을 때에, 상기 A는 (2*n)×9의 행렬이고, n은 특징점의 갯수이다. 즉, 상기 수학식 2는 인접한 두 프레임에서 대응되는 특징점이 4개일 때의 행렬을 나타낸 것이고, 대응되는 특징점이 많아지면 A의 행이 많아진다. 그리고 상기 h는 A를 특이값 분해(SINGULAR VALUE DECOMPOSITION, SVD)하여 계산한 것이다. When the preceding matrix is simplified to A in Equation 2, A is a matrix of (2 * n) x 9, and n is the number of feature points. That is, Equation 2 shows a matrix when four corresponding feature points exist in two adjacent frames, and as the corresponding feature points increase, rows of A increase. And h is calculated by S singular value decomposition (SINGULAR VALUE DECOMPOSITION, SVD).
상기 A를 특이값 분해하면 UDVT로 분해할 수 있고, 이때 V 행렬의 마지막 열이 h값, 즉 본 발명에 따른 호모그래픽 행렬 H이다.The singular value decomposition of A can be decomposed into UDV T , where the last column of the V matrix is the h value, that is, the homographic matrix H according to the present invention.
상기한 호모그래피 행렬은 RANSAC 과정을 통해 획득될 수 있다. The homography matrix may be obtained through a RANSAC process.
상기 RANSAC 과정은 다음과 같은 순서에 따른다. The RANSAC process is performed in the following order.
1. 두 영상 데이터 사이의 임의의 특징점 네 개를 선택한다. 1. Select four arbitrary feature points between the two image data.
2. 네 개의 특징점 사이의 H를 계산한다.2. Calculate H between four feature points.
3. 모든 특징점에 대해 를 산출하며, 상기 P1은 제1영상 데이터의 특징점, P2는 제2영상 데이터의 특징점, K는 특징점이 수이다. 여기서, 상기 수학식 1에 따르면 P2=HP1이나, 상기 H 계산 상에 오차가 있을 수 있으므로, P2와 HP1은 동일한 값이 나오지 않는다. 상기 dk는 상기 P2와 HP1사이의 오차를 나타낸다. 3. For all feature points Where P 1 is the feature point of the first image data, P 2 is the feature point of the second image data, and K is the number of feature points. Here, according to Equation 1, P 2 = HP 1 or, since there may be an error in the H calculation, P 2 and HP 1 does not come the same value. D k represents the error between P 2 and HP 1 .
4. 상기 dk가 미리 정해둔 값 이하인 점의 개수를 NIi라 한다. 4. The number of points whose d k is equal to or less than a predetermined value is called NIi.
5. 상기 1~4 단계를 미리 정해진 횟수만큼 이행한다. 5. Perform steps 1 to 4 a predetermined number of times.
6. 상기 NIi가 최대일 때의 특징점들을 가지고 H를 다시 계산하여 최종 호모그래피 행렬 H를 획득한다. 6. Recalculate H with the feature points when the NI i is maximum to obtain the final homography matrix H.
상기한 RANSAC 과정은 반복을 통해 가장 좋은 H를 계산하기 위한 것으로, 프로세서(100)는 미리 정해진 횟수만큼 반복하여 임의의 특징점을 선택하여 H를 계산하고, 그 중 가장 좋은 H를 판단하기 위해 dk가 정해둔 값 이하인 특징점의 개수 NIi가 가장 클 때의 H가 가장 좋다고 판단하여 해당 H를 본 발명의 호모그래피 행렬로 결정한다. The RANSAC process is to calculate the best H through repetition, and the
상기한 호모그래피 행렬의 검출이 완료되면, 상기 프로세서(100)는 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나로 스티칭한다. 즉, 상기 프로세서(100)는 호모그래피 행렬을 이용하여 양선형 보간(BILINEAR INTERPOLATION)으로 스티칭 영상 데이터를 구한다. 이때 영상들이 겹치는 영역은 평균값으로 계산한다. When the detection of the homography matrix is completed, the
도 4는 본 발명에 따라 스티칭된 영상 데이터를 도시한 것으로, 도 3의 제1영상 데이터와 제2영상 데이터를 4개의 특징점을 기준으로 양선형 보간한 것이다. 4 illustrates image data stitched according to the present invention, wherein the first image data and the second image data of FIG. 3 are bilinearly interpolated based on four feature points.
이후 상기 프로세서(100)는 상기 하나로 스티칭된 영상 데이터에 대해 사용자가 사용자 인터페이스(104)를 통해 입력하는 인페인팅 대상영역에 대한 정보를 입력받는다(208단계). In
상기 인페인팅 대상영역에 대한 정보가 입력되면, 상기 프로세서(100)는 상기 하나로 스티칭된 영상 데이터에 대해 인페인팅 대상영역에 대한 밴드 매칭을 이 행한다(210단계). When the information on the inpainting target region is input, the
상기 밴드 매칭 과정을 좀더 상세히 설명한다. The band matching process will be described in more detail.
상기 프로세서(100)는 밴드 매칭을 위해 목표 영역을 둘러싸는 일정한 두께를 갖는 목표 밴드를 정의한다. The
도 5a는 인페인팅 대상영역을 나타내고, 도 5b는 입력 영상을 확대한 것으로, 흰색영역은 목표영역이고, 붉은색 선은 목표영역의 경계를 나타내고, 도 5c는 상기 경계를 기준으로 일정 두께를 가지는 목표밴드를 설정한 것으로 파랑색 영역이 목표 밴드이다. FIG. 5A illustrates an inpainting target region, FIG. 5B illustrates an enlarged input image, a white region represents a target region, a red line represents a boundary of the target region, and FIG. 5C has a predetermined thickness based on the boundary. The target band is set and the blue area is the target band.
상기 목표밴드는 영상내의 여러 후보 소스밴드들과의 비교를 위해 사용하며, 상기 소스밴드는 입력영상에서 목표영역을 제외한 나머지 부분을 목표밴드와 같은 모양과 두께로 나눈 것을 말한다. The target band is used for comparison with various candidate source bands in the image, and the source band refers to the remaining portion of the input image except for the target region in the same shape and thickness as the target band.
도 6a에서 녹색 부분들은 목표 밴드와 비교하기 위한 후보 소스 밴드의 일부를 표시한 것이다. In FIG. 6A, the green portions indicate a portion of the candidate source band for comparison with the target band.
상기 프로세서(100)는 목표 밴드와 후보 소스밴드들 사이의 그래디언트의 차의 합을 수학식 3에 따라 산출한다. The
상기 수학식 3에서 k는 후보 소스밴드들의 인덱스를 나타내고, Ck는 세 색상 채널의 차이의 합, Gk는 그래디언트의 차이를 나타낸다. 상기 t는 목표밴드, s는 소스밴드를 나타내고, N은 밴드의 총 화소수를 나타내고, c에서 R,G,B는 빨강, 녹색, 파랑의 색상채널이다. 는 각 색상 채널의 화소값이고, 는 각 색상 채널의 그래디언트이다.In Equation 3, k denotes an index of candidate source bands, Ck denotes a sum of differences of three color channels, and Gk denotes a difference of gradients. T denotes a target band, s denotes a source band, N denotes the total number of pixels of the band, and in c, R, G, and B are red, green, and blue color channels. Is the pixel value for each color channel, Is the gradient of each color channel.
목표밴드와 K번째 소스밴드 사이의 Dk는 Ck와 Gk의 합으로 다음 수학식 4와 같이 계산될 수 있다. Dk between the target band and the Kth source band may be calculated as Equation 4 as the sum of Ck and Gk.
상기 수학식 4에서 과 는 와 의 가중치를 나타내기 위한 상수이다. In Equation 4 and Is Wow Constant for indicating the weight of.
상기한 과정을 거쳐 Dk가 최소가 되는 소스밴드가 검출되면, 상기 프로세서(100)는 그 소스밴드의 내부 색상정보를 인페인팅 대상영역에 채워줌으로써, 밴드매칭을 완료한다. When the source band having the minimum Dk is detected through the above process, the
즉, 도 6b에서 녹색 부분이 Dk가 최소가 되는 최적 소스밴드를 표식한 것이며, 도 6c는 목표영역에 최적의 소스밴드의 내부 색상정보를 채워 넣은 것이며, 도 6d는 결과 영상 데이터를 도시한 것이다. That is, in FIG. 6B, the green portion indicates the optimal source band with the minimum Dk, FIG. 6C is filled with the internal color information of the optimal source band in the target area, and FIG. 6D shows the result image data. .
상기한 밴드 매칭이 완료되면, 상기 프로세서(100)는 상기 밴드 매칭된 인페 인팅 대상영역의 가장자리에 대한 경계 제거를 이행한다(212단계). When the band matching is completed, the
여기서, 상기 경계 제거과정을 좀 더 설명한다. Here, the boundary removal process will be described in more detail.
본 발명의 바람직한 실시예에 따라 밴드 매칭으로 인페인팅을 이행하면, 목표영역과 주변영역 사이에 경계가 나타난다. 도 7b는 밴드매칭 후 목표영역과 주변영역 사이에서 나타나는 경계를 예시한 것이다. 상기 경계를 제거하기 위해 프로세서(100)는 목표밴드와 최적밴드의 화소값의 비율을 계산하고, 그 비율을 이용하여 인페인팅 대상영역의 각 화소값을 재계산하여 갱신한다. When inpainting is performed by band matching according to a preferred embodiment of the present invention, a boundary appears between the target area and the peripheral area. 7B illustrates a boundary appearing between the target area and the peripheral area after band matching. In order to remove the boundary, the
상기 경계제거의 첫번째 단계는 수학식 5에 따라 목표밴드의 화소값과 최적의 소스밴드의 화소값의 비율 h(x,y)을 산출하는 것이다. The first step of the boundary elimination is to calculate the ratio h (x, y) between the pixel value of the target band and the pixel value of the optimal source band according to Equation 5.
상기 수학식 5에서 f(x,y)는 목표밴드, g(x,y)는 최적 소스밴드의 색상값이다. 상기 목표영역의 초기 h(x,y)는 1로 설정된다. In Equation 5, f (x, y) is a target band, and g (x, y) is a color value of an optimal source band. The initial h (x, y) of the target area is set to one.
두번째 단계는 상기 h(x,y)을 h(x,y)의 라플라시안(Laplacian)을 반복 적용하여 갱신한다.In the second step, h (x, y) is updated by repeatedly applying Laplacian of h (x, y).
상기 수학식 6에서 n은 반복횟수를 나타내며, 는 라플라시안을 나타내는 것이다. 여기서, 2차 미분을 라플라시안이라 한다. 이는 밴드영역의 값을 채워넣은 인페인팅 영역으로 전파하기 위한 기능을 합니다. In Equation 6, n represents a repetition number, Represents laplacian. Here, the second derivative is called Laplacian. This serves to propagate to the inpainting area filled with the value of the band area.
이후 상기 프로세서(100)는 인페인팅 대상영역의 최종 화소값을 반복을 통해 갱신된 값과 최적의 소스밴드 내부의 화소값을 곱하여 갱신하며, 이는 수학식 7에 따른다. Thereafter, the
상기한 과정을 거쳐 경계 제거가 완료되면, 상기 프로세서(100)는 호모그래피 역행렬에 따라 상기 스티칭된 영상 데이터들을 다수의 영상 데이터로 분리한다(214단계). When the boundary removal is completed through the above process, the
여기서, 본 발명의 바람직한 실시예에 따른 인페인팅 과정을 도 8을 참조하여 간략히 설명한다. Here, the inpainting process according to the preferred embodiment of the present invention will be briefly described with reference to FIG.
도 8(a)는 다수의 연속되는 영상 데이터들을 도시한 것이며, 상기 다수의 연속되는 영상 데이터를 스티칭한 결과를 도시한 것이 도 8(b)이다. FIG. 8 (a) shows a plurality of continuous image data, and FIG. 8 (b) shows a result of stitching the plurality of continuous image data.
도 8(c)에 도시한 바와 같이 상기 스티칭한 영상 데이터에서 백색으로 표식한 영역에 대해 인페인팅 대상영역으로 정하였을 때에, 인페인팅이 완료된 영상 데이터를 도시한 것이 도 8(d)이다. As shown in FIG. 8 (c), when the inpainting target region is defined for the region marked with white in the stitched image data, FIG. 8 (d) shows the inpainted image data.
상기 인페인팅이 완료된 영상 데이터를 다수의 영상데이터로 분리한 것을 도시한 것이 도 8(e)이다. FIG. 8E illustrates the separation of the inpainted image data into a plurality of image data.
이와 같이 본 발명은 다수의 연속되는 영상 데이터를 하나로 스티칭한 후에 다시 다수의 영상 데이터로 분리함으로써, 다수의 연속되는 영상 데이터 각각에 대한 인페인팅 결과가 일관성을 가질 수 있게 한다. As described above, the present invention stitches a plurality of continuous image data into one, and then divides the plurality of image data into a plurality of image data, thereby making the inpainting result for each of the plurality of continuous image data consistent.
<제2실시예>Second Embodiment
본 발명의 바람직한 제2실시예는 오래된 필름 등과 같이 노이즈가 많아서 화질이 좋지 않은 영사 데이터에 대해 특징점을 수동으로 선택하여 호모그래피 행렬을 계산하는 것으로, 도 9를 참조하여 설명한다. A second preferred embodiment of the present invention calculates a homography matrix by manually selecting a feature point for projection data having a lot of noise, such as an old film, and having poor image quality, which will be described with reference to FIG. 9.
상기 인페인팅 처리장치의 프로세서(100)는 사용자 인터페이스(102)를 통해 특징점을 직접 입력받아 인페인팅을 이행하는 제2인페인팅 모드로의 동작이 요청되면(300단계), 연속된 영상 데이터들에 대해 직접 특징점을 입력받아, 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출한다(302,304단계).When the
이후 상기 프로세서(100)는 상기 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나로 스티칭하고, 상기 스티칭된 영상 데이터에 대한 인페인팅 대상영역을 입력받는다(306,308단계).Thereafter, the
이후 상기 프로세서(100)는 스티칭된 영상 데이터에 대해 인페인팅 대상영역 에 대한 밴드매칭을 이행하고, 밴드매칭된 인페인팅 대상영역의 가장자리에 대한 경계를 제거한다(310,312단계). Thereafter, the
상기 밴드매칭 및 경계제거에 따른 인페인팅이 완료된 스티칭된 영상 데이터는 호모그래피 역행렬에 따라 스티칭된 영상 데이터들로 분리된다(314단계).The inpainted stitched image data according to the band matching and boundary elimination is separated into stitched image data according to the homography inverse (step 314).
<제3실시예>Third Embodiment
본 발명의 바람직한 제3실시예는 카메라를 고정시켜 촬영을 이행하였을 때에 움직이는 대상을 자동으로 트래킹하여 인페인팅하는 것으로 도 10을 참조하여 상세히 설명한다. A third preferred embodiment of the present invention will be described in detail with reference to FIG. 10 by automatically tracking and inpainting moving objects when the camera is fixed and the photographing is performed.
상기 인페인팅 처리장치의 프로세서(100)는 인페인팅 대상영역을 자동으로 트래킹하는 제3페인팅 모드로의 동작이 요청되면, 연속된 영상 데이터들에 대해 인페인팅 대상영역을 트래킹한다(400,402단계). 여기서, 상기 인페인팅 대상영역은 카메라가 고정되어 있는 상태에서 움직이는 물체나 사람을 인페이팅하고자 하는 경우에 배경을 기준으로 움직이는 영역을 트래킹하여 인페인팅 대상영역으로 설정된다.The
이후, 상기 프로세서(100)는 인페인팅 대상영역이 포함되지 않은 영상 데이터에서 상기 인페인팅 대상영역에 대한 영상 데이터를 추출하여 상기 인페인팅 대상영역이 포함된 영상 데이터의 인페인팅 대상영역에 채워넣거나, 상기 인페인팅 대상영역에 대한 밴드매칭 및 경계제거를 통해 인페인팅을 이행한다(404단계).Thereafter, the
도 11은 본 발명의 바람직한 제3실시예에 따른 인페인팅 결과를 도시한 것으로, (a)는 원본 이미지이고, (b)는 인페인팅 대상영역을 트래킹하여 추출한 것을 도시한 것이고, (c)는 인페인팅 대상영역이 포함되지 않은 영상 데이터에서 상기 인페인팅 대상영역에 대한 영상 데이터를 추출하여 인페인팅 대상영역이 포함된 영상 데이터의 인페인팅 대상영역에 채워넣은 것이고, (d)는 상기 인페인팅 대상영역에 대한 밴드매칭 및 경계제거를 통해 인페인팅을 이행한 것을 도시한 것이다. FIG. 11 illustrates an inpainting result according to a third exemplary embodiment of the present invention, (a) shows an original image, (b) shows tracking and extracting an inpainting target area, and (c) The image data of the inpainting target region is extracted from the image data not including the inpainting target region and filled into the inpainting target region of the image data including the inpainting target region, and (d) is the inpainting target. It illustrates the implementation of inpainting through band matching and boundary elimination for the region.
<제4실시예>Fourth Embodiment
본 발명의 바람직한 제4실시예에는 일정속도로 변화하는 영상 데이터에서 다른 속도로 변화하는 대상을 자동으로 트래킹하여 인페인팅하는 것으로 도 12를 참조하여 설명한다. A fourth preferred embodiment of the present invention will be described with reference to FIG. 12 by automatically tracking and inpainting an object changing at a different speed from image data changing at a constant speed.
상기 인페인팅 처리장치의 프로세서(100)는 일정 속도로 움직이는 배경에서 다른 속도로 움직이는 대상을 인페인팅하는 제4인페인팅 모드로의 동작이 요청되면, 일정 속도로 변화하는 영상 데이터에서 다른 속도로 변화하는 인페인팅 대상영역을 트래킹한다(500,502단계).When the
이후 상기 프로세서(100)는 연속된 영상 데이터들 간의 특징점을 검출하고, 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출하고, 상기 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나의 영상 데이터로 스티칭한다(504~508단계).Then, the
상기 하나의 영상 데이터로 스티칭된 영상 데이터들에 대해 인페인팅 대상영역에 대한 밴드매칭을 이행하고, 상기 밴드매칭된 인페인팅 대상영역의 가장자리에 대한 경계제거를 이행한다(512단계).In
이후 상기 프로세서(100)는 호모그래피 역행렬에 따라 스티칭된 영상 데이터 들을 분리한다(514단계).In
상기한 본 발명의 바람직한 실시예에서는 인페인팅 대상영역에 대해 밴드 매칭 및 경계 제거를 이행하는 것만을 예시하였으나, 인페인팅 결과를 향상시키기 위해 상기 인페인팅 대상영역을 다수로 분할하고, 상기 분할된 각각의 영역에 대해 밴드매칭과 경계제거를 이행할 수도 있다. In the above-described preferred embodiment of the present invention, only the band matching and boundary elimination are performed for the inpainting target region, but the inpainting target region is divided into a plurality of segments to improve the inpainting result. Band matching and boundary elimination can also be implemented for the region of.
도 1은 본 발명의 바람직한 실시예에 따른 인페인팅 처리장치의 구성도.1 is a block diagram of an inpainting processing apparatus according to a preferred embodiment of the present invention.
도 2는 본 발명의 바람직한 제1실시예에 따른 인페인팅 처리방법의 흐름도.2 is a flowchart of an inpainting processing method according to a first preferred embodiment of the present invention.
도 3 내지 도 8, 도 11은 영상 데이터를 예시한 도면. 3 to 8 and 11 illustrate image data.
도 9는 본 발명의 바람직한 제2실시예에 따른 인페인팅 처리방법의 흐름도. 9 is a flowchart of an inpainting processing method according to a second preferred embodiment of the present invention.
도 10은 본 발명의 바람직한 제3실시예에 따른 인페인팅 처리방법의 흐름도. 10 is a flowchart of an inpainting processing method according to a third preferred embodiment of the present invention.
도 12은 본 발명의 바람직한 제4실시예에 따른 인페인팅 처리방법의 흐름도. 12 is a flowchart of an inpainting processing method according to a fourth preferred embodiment of the present invention.
Claims (22)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090007401A KR101105675B1 (en) | 2009-01-30 | 2009-01-30 | Method and apparatus of inpainting for video data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090007401A KR101105675B1 (en) | 2009-01-30 | 2009-01-30 | Method and apparatus of inpainting for video data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100088282A true KR20100088282A (en) | 2010-08-09 |
KR101105675B1 KR101105675B1 (en) | 2012-01-18 |
Family
ID=42754519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090007401A KR101105675B1 (en) | 2009-01-30 | 2009-01-30 | Method and apparatus of inpainting for video data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101105675B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015111840A1 (en) * | 2014-01-24 | 2015-07-30 | 에스케이플래닛 주식회사 | Device and method for inserting advertisement by using frame clustering |
KR20150093295A (en) * | 2014-02-06 | 2015-08-18 | 에스케이플래닛 주식회사 | Method of servicing virtual indirect advertisement and apparatus for the same |
US9922404B2 (en) | 2014-01-24 | 2018-03-20 | Sk Planet Co., Ltd. | Inpainting device and method using segmentation of reference region |
KR20220163811A (en) * | 2021-06-03 | 2022-12-12 | 순천대학교 산학협력단 | Method for removing noise from time lapse video |
-
2009
- 2009-01-30 KR KR1020090007401A patent/KR101105675B1/en not_active IP Right Cessation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015111840A1 (en) * | 2014-01-24 | 2015-07-30 | 에스케이플래닛 주식회사 | Device and method for inserting advertisement by using frame clustering |
CN105284122A (en) * | 2014-01-24 | 2016-01-27 | Sk普兰尼特有限公司 | Device and method for inserting advertisement by using frame clustering |
US9922404B2 (en) | 2014-01-24 | 2018-03-20 | Sk Planet Co., Ltd. | Inpainting device and method using segmentation of reference region |
US10127643B2 (en) | 2014-01-24 | 2018-11-13 | Sk Planet Co., Ltd. | Inpainting device and method using segmentation of reference region |
CN105284122B (en) * | 2014-01-24 | 2018-12-04 | Sk 普兰尼特有限公司 | For clustering the device and method to be inserted into advertisement by using frame |
US10904638B2 (en) | 2014-01-24 | 2021-01-26 | Eleven Street Co., Ltd. | Device and method for inserting advertisement by using frame clustering |
KR20150093295A (en) * | 2014-02-06 | 2015-08-18 | 에스케이플래닛 주식회사 | Method of servicing virtual indirect advertisement and apparatus for the same |
KR20220163811A (en) * | 2021-06-03 | 2022-12-12 | 순천대학교 산학협력단 | Method for removing noise from time lapse video |
Also Published As
Publication number | Publication date |
---|---|
KR101105675B1 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9094648B2 (en) | Tone mapping for low-light video frame enhancement | |
US8189960B2 (en) | Image processing apparatus, image processing method, program and recording medium | |
US9489726B2 (en) | Method for processing a video sequence, corresponding device, computer program and non-transitory computer-readable-medium | |
US9202263B2 (en) | System and method for spatio video image enhancement | |
US9307212B2 (en) | Tone mapping for low-light video frame enhancement | |
KR101692227B1 (en) | A panorama image generation method using FAST algorithm | |
JP2009282979A (en) | Image processor and image processing method | |
EP3100449A1 (en) | Method for conversion of a saturated image into a non-saturated image | |
CN110418065B (en) | High dynamic range image motion compensation method and device and electronic equipment | |
KR20210011322A (en) | Video depth estimation based on temporal attention | |
CN114339030B (en) | Network live video image stabilizing method based on self-adaptive separable convolution | |
CN110557584A (en) | image processing method and device, and computer readable storage medium | |
US8736718B2 (en) | Noise elimination method of image sequence | |
JP2011041275A (en) | Image processing method, data processing method, computer readable medium, and data processing apparatus | |
KR101105675B1 (en) | Method and apparatus of inpainting for video data | |
WO2013161111A1 (en) | Image evaluation device, image selection device, image evaluation method, recording medium, and program | |
JP2015087851A (en) | Image processor and image processing program | |
JP2012238932A (en) | 3d automatic color correction device and color correction method and color correction program | |
KR101437898B1 (en) | Apparatus and method for generating a High Dynamic Range image using single image | |
US9619864B2 (en) | Image processing apparatus and method for increasing sharpness of images | |
TW201320727A (en) | Image processing device, image processing method, and recording medium | |
Popowicz et al. | Isoline based image colorization | |
JP4069468B2 (en) | Image forming device | |
JP7408315B2 (en) | Image processing device, image processing method, and program | |
JP2009027397A (en) | Apparatus, method and program for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141223 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151229 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161228 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180102 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |