[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20140124432A - A method of encoding and decoding depth information map and an apparatus using it - Google Patents

A method of encoding and decoding depth information map and an apparatus using it Download PDF

Info

Publication number
KR20140124432A
KR20140124432A KR1020130040867A KR20130040867A KR20140124432A KR 20140124432 A KR20140124432 A KR 20140124432A KR 1020130040867 A KR1020130040867 A KR 1020130040867A KR 20130040867 A KR20130040867 A KR 20130040867A KR 20140124432 A KR20140124432 A KR 20140124432A
Authority
KR
South Korea
Prior art keywords
depth information
image
block
depth
encoding
Prior art date
Application number
KR1020130040867A
Other languages
Korean (ko)
Inventor
김경용
박광훈
배동인
이윤진
허영수
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Priority to KR1020130040867A priority Critical patent/KR20140124432A/en
Publication of KR20140124432A publication Critical patent/KR20140124432A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명의 실시 예에 따른 영상 부호화 방법은 영상을 부호화하는 방법에 있어서, 상기 영상에 대한 깊이 정보에 기초하여 객체 경계가 존재하는 블록을 식별하는 단계; 및 상기 객체 경계가 존재하는 블록을 인트라 부호화 하는 단계를 포함하고, 상기 인트라 부호화 하는 단계는 상기 깊이 정보에 기초하여 객체들을 구분하고, 각 객체에 대응되는 영역에 대한 오차정보를 생성하는 단계; 및 상기 생성된 오차정보 중 일부를 임의 값을 기준으로 선택적으로 반전시키는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of encoding an image, the method comprising: identifying a block having an object boundary based on depth information of the image; And intra-coding a block in which the object boundary exists, wherein the intra-coding step comprises: separating objects based on the depth information and generating error information for a region corresponding to each object; And selectively inverting some of the generated error information based on an arbitrary value.

Description

깊이 정보 맵 부호화/복호화 방법 및 장치 {A method of encoding and decoding depth information map and an apparatus using it}[0001] The present invention relates to a depth information map encoding / decoding method and apparatus,

본 발명은 깊이 정보 맵을 효율적으로 부호화 및 복호화하는 방법에 관한 것이다.The present invention relates to a method for efficiently encoding and decoding a depth information map.

3차원 비디오는 3차원 입체 디스플레이 장치를 통해 사용자에게 실세계에서 보고 느끼는 것과 같은 입체감을 생생하게 제공한다. 이와 관련된 연구로써 ISO/IEC의 MPEG(Moving Picture Experts Group)과 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서 3차원 비디오 표준이 진행 중이다. 3차원 비디오 표준은 실제 영상과 그것의 깊이 정보 맵을 이용하여 스테레오스코픽 영상뿐만 아니라 오토 스테레오스코픽 영상의 재생 등을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함하고 있다.3D video provides users with a stereoscopic effect as if they are seeing and feeling in the real world through a 3D stereoscopic display device. As a result of this research, the Joint Collaborative Team on 3D Video Coding Extension Development (JCT-3V), a joint standardization group of ISO / IEC Moving Picture Experts Group (MPEG) and ITU-T VCEG (Video Coding Experts Group) Video standards are in progress. The 3D video standard includes standards for advanced data formats and related technologies that can support playback of autostereoscopic images as well as stereoscopic images using real images and their depth information maps.

본 발명에서는 객체 정보에 따라 깊이 정보 맵을 효율적으로 부호화 및 보고화 하는 방법과 장치를 제안한다.The present invention proposes a method and apparatus for efficiently encoding and reporting a depth information map according to object information.

상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 부호화 방법은 영상을 부호화하는 방법에 있어서, 상기 영상에 대한 깊이 정보에 기초하여 객체 경계가 존재하는 블록을 식별하는 단계; 및 상기 객체 경계가 존재하는 블록을 인트라 부호화 하는 단계를 포함하고, 상기 인트라 부호화 하는 단계는 상기 깊이 정보에 기초하여 객체들을 구분하고, 각 객체에 대응되는 영역에 대한 오차정보를 생성하는 단계; 및 상기 생성된 오차정보 중 일부를 임의 값을 기준으로 선택적으로 반전시키는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of encoding an image, the method comprising: identifying a block having an object boundary based on depth information of the image; And intra-coding a block in which the object boundary exists, wherein the intra-coding step comprises: separating objects based on the depth information and generating error information for a region corresponding to each object; And selectively inverting some of the generated error information based on an arbitrary value.

본 발명은 일반 영상의 부호화 효율을 향상 시킬 수 있다. 객체의 경계 부분에서의 발생할 수 있는 오차 성분의 급격한 변화를 감소시켜 부호화 효율을 향상시키는 효과가 있다.The present invention can improve the coding efficiency of a general image. There is an effect of improving the coding efficiency by reducing the rapid change of the error component that can occur in the boundary portion of the object.

또한, 깊이 정보 맵 부호화 시, 블록 내에 객체 경계가 존재할 때 인트라 부호화 효율을 증가시킬 수 있다.Also, in the depth information map coding, the intra coding efficiency can be increased when the object boundary exists in the block.

본 발명의 실시예에 따르면, 깊이 정보 맵에서 보존되어야 하는 요소인 객체 간 경계의 뚜렷함을 유지할 수 있다. 또한, 깊이 정보 맵을 사용하여 합성한 가상시점 영상의 화질에 작은 영향을 미치는 정보들을 선별적으로 처리함으로써 깊이 정보 맵의 손실 부호화 효율을 향상시키는 효과가 있다.According to the embodiment of the present invention, it is possible to maintain the sharpness of the boundary between objects, which are elements to be saved in the depth information map. In addition, there is an effect of improving the loss coding efficiency of the depth information map by selectively processing information having a small influence on the image quality of the virtual view image synthesized using the depth information map.

도 1은 3차원 비디오 시스템의 기본 구조와 데이터 형식에 대한 일 예를 나타내는 도면이다.
도 2는 실제 영상과 깊이 정보 맵 영상에 대한 일 예를 나타내는 도면이다.
도 3은 영상 부호화 장치의 구성에 대한 일 예를 나타내는 블록도이다.
도 4는 영상 복호화 장치의 구성에 대한 일 예를 나타내는 블록도이다.
도 5는 부호화를 위해 영상을 복수의 유닛들로 분할하는 방법에 대한 일 예를 나타낸 도면이다.
도 6은 CU를 복수의 PU들로 분할하는 방법에 대한 일 예를 나타내는 도면이다.
도 7은 CU 내에서의 TU의 분할 구조에 대한 일 예를 나타내는 도면이다.
도 8은 3차원 비디오 부호화/복호화 장치의 구성에 대한 일 예를 나타내는 블록도이다.
도 9는 3차원 비디오 코덱의 예측 구조에 대한 일 예를 나타내는 도면이다.
도 10은 플레인 세분화 방법에 대한 일 예를 설명하기 위해 도시한 도면이다.
도 11은 복수 객체가 존재하는 깊이 정보 블록에 대한 일 예를 나타내는 도면이다.
도 12는 수평 방향으로의 깊이 정보 값에 대한 일 예를 나타내는 도면이다.
도 13은 차분 영상에 대한 일 예를 나타내는 도면이다.
도 14는 객체 영역의 오차 정보를 반전시키는 방법에 대한 일실시예를 나타내는 도면이다.
도 15 및 도 16은 오차정보를 임의 값을 기준으로 반전시키는 방법에 대한 일실시예를 나타내는 도면이다.
도 17은 본 발명의 일실시예에 따른 오차 정보 반전 방법을 나타내는 흐름도이다.
1 is a diagram showing an example of a basic structure and a data format of a 3D video system.
2 is a view showing an example of an actual image and a depth information map image.
3 is a block diagram showing an example of the configuration of the image encoding apparatus.
4 is a block diagram showing an example of a configuration of an image decoding apparatus.
5 is a diagram showing an example of a method of dividing an image into a plurality of units for encoding.
6 is a diagram showing an example of a method of dividing a CU into a plurality of PUs.
FIG. 7 is a diagram showing an example of a divided structure of TUs in a CU. FIG.
8 is a block diagram illustrating an example of a configuration of a 3D video encoding / decoding apparatus.
9 is a diagram illustrating an example of a prediction structure of a 3D video codec.
FIG. 10 is a view for explaining an example of a plane segmentation method.
11 is a diagram illustrating an example of a depth information block in which a plurality of objects exist.
12 is a diagram showing an example of a depth information value in the horizontal direction.
13 is a diagram showing an example of a difference image.
14 is a diagram showing an embodiment of a method of inverting error information of an object region.
15 and 16 are views showing an embodiment of a method of inverting error information on the basis of an arbitrary value.
17 is a flowchart illustrating an error information inversion method according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, intended only for the purpose of enabling understanding of the concepts of the present invention, and are not intended to be limiting in any way to the specifically listed embodiments and conditions .

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물 뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1는 3차원 비디오 시스템의 기본 구조와 데이터 형식에 대한 일 예를 도시한 것이다.FIG. 1 shows an example of a basic structure and a data format of a 3D video system.

3차원 비디오 표준에서 고려하고 있는 기본적인 3차원 비디오 시스템은 도 1과 같고, 도 1에서 도시하듯 3차원 비디오 표준에서 사용 중인 깊이 정보 영상은 일반 영상과 함께 부호화되어 비트스트림으로 단말에 전송된다. 송신 측에서는 스테레오 카메라, 깊이 정보 카메라, 다시점 카메라, 2차원 영상을 3차원 영상으로 변환 등을 이용하여 N(N≥2) 시점의 영상 콘텐츠를 획득한다. 획득된 영상 콘텐츠에는 N 시점의 비디오 정보와 그것의 깊이 정보 맵(Depth-map) 정보 그리고 카메라 관련 부가정보 등이 포함될 수 있다. N 시점의 영상 콘텐츠는 다시점 비디오 부호화 방법을 사용하여 압축되며, 압축된 비트스트림은 네트워크를 통해 단말로 전송된다. 수신 측에서는 전송받은 비트스트림을 다시점 비디오 복호화 방법을 사용하여 복호화하여 N 시점의 영상을 복원한다. 복원된 N 시점의 영상은 깊이 정보 맵 기반 랜더링(DIBR; Depth-Image-Based Rendering) 과정에 의해 N 시점 이상의 가상시점 영상들을 생성한다. 생성된 N 시점 이상의 가상시점 영상들은 다양한 입체 디스플레이 장치에 맞게 재생되어 사용자에게 입체감이 있는 영상을 제공하게 된다.The basic three-dimensional video system considered in the three-dimensional video standard is as shown in FIG. 1. As shown in FIG. 1, the depth information image being used in the three-dimensional video standard is encoded together with a general image and transmitted to the terminal as a bit stream. On the transmitting side, the image content of N (N ≥ 2) viewpoints is acquired by using a stereo camera, a depth information camera, a multi-view camera, and a two-dimensional image into a three-dimensional image. The obtained image content may include video information of the N view point, its depth map information, camera-related additional information, and the like. The video content at time point N is compressed using the multi-view video encoding method, and the compressed bitstream is transmitted to the terminal through the network. The receiving side decodes the transmitted bit stream using the multi-view video decoding method, and restores the N view image. The reconstructed N-view image generates virtual view images at N or more viewpoints by a depth-image-based rendering (DIBR) process. The generated virtual viewpoint images are reproduced in accordance with various stereoscopic display devices to provide stereoscopic images to the user.

가상시점 영상을 생성하는데 사용되는 깊이 정보 맵은 실세계에서 카메라와 실제 사물(object) 간의 거리(실사 영상과 동일한 해상도로 각 화소에 해당하는 깊이 정보)를 일정한 비트수로 표현한 것이다. 깊이 정보 맵의 예로써, 도 2는 국제 표준화 기구인 MPEG의 3차원 비디오 부호화 표준에서 사용 중인 balloons 영상(도 2 (a))과 그것의 깊이 정보 맵(도 2 (b))을 보여주고 있다. 실제 도 2의 깊이 정보 맵은 화면에 보이는 깊이 정보를 화소당 8비트로 표현한 것이다.The depth information map used to generate the virtual viewpoint image is a representation of the distance between the camera and the actual object in the real world (depth information corresponding to each pixel at the same resolution as the real image) in a fixed number of bits. As an example of a depth information map, FIG. 2 shows a balloons image (FIG. 2 (a)) and its depth information map (FIG. 2 (b)) used in the MPEG standard of 3D video coding standard . The depth information map shown in FIG. 2 actually represents depth information on the screen in 8 bits per pixel.

실제 영상과 그것의 깊이 정보 맵을 부호화하는 방법의 일 예로, 현재까지 개발된 비디오 부호화 표준 중에서 최고의 부호화 효율을 가지는 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화를 진행 중인 HEVC(High Efficiency Video Coding)를 이용하여 부호화를 수행할 수 있다.As an example of a method of encoding an actual image and its depth information map, the Moving Picture Experts Group (MPEG) and the Video Coding Experts Group (VCEG) having the highest coding efficiency among the video coding standards developed so far jointly standardize Encoding can be performed using HEVC (High Efficiency Video Coding).

도 3은 영상 부호화 장치의 구성에 대한 일 예를 블록도로 도시한 것으로, H.264의 부호화 구조도를 나타낸 것이다.3 is a block diagram of an example of the configuration of the image encoding apparatus, and shows a coding structure of H.264.

도 3을 참조하면, H.264 부호화 구조도에서 데이터를 처리하는 단위는 가로 세로 16x16화소 크기의 매크로블록(Macroblock)이며, 영상을 입력 받아 인트라(Intra) 모드 또는 인터(Inter) 모드로 부호화를 수행하고 비트스트림을 출력한다. Referring to FIG. 3, the unit for processing data in the H.264 coding scheme is a macroblock having a size of 16 x 16 pixels, and is encoded in an Intra mode or an Inter mode by receiving an image. And outputs the bit stream.

인트라 모드일 경우, 스위치가 인트라로 전환이 되며, 인터 모드일 경우에는 스위치가 인터로 전환이 된다. 부호화 과정의 주요한 흐름은 먼저 입력된 블록 영상에 대한 예측 블록을 생성한 후, 입력된 블록과 예측 블록의 차분을 구해 그 차분을 부호화하는 것이다. In the intra mode, the switch is switched to the intra mode, and in the inter mode, the switch is switched to the inter mode. The main flow of the encoding process is to generate a prediction block for the inputted block image, and then to obtain the difference between the input block and the prediction block and to code the difference.

먼저 예측 블록의 생성은 인트라 모드와 인터 모드에 따라 수행이 된다. 먼저 인트라 모드일 경우에는 인트라 예측 과정에서 현재 블록의 이미 부호화된 주변 화소값을 이용하여 공간적 예측으로 예측 블록을 생성하며, 인터 모드일 경우에는 움직임 예측 과정에서 참조 영상 버퍼에 저장되어 있는 참조 영상에서 현재 입력된 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터(Motion Vector)를 구한 후, 구한 움직임 벡터를 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성한다. First, the generation of the prediction block is performed according to the intra mode and the inter mode. In case of the intra mode, a prediction block is generated by spatial prediction using the already encoded neighboring pixel values of the current block in the intra prediction process. In the inter mode, in the motion prediction process, A motion vector is obtained by searching an area where the best match with the current input block is obtained, and motion compensation is performed using the obtained motion vector to generate a prediction block.

상기 설명한 것과 같이 현재 입력된 블록과 예측 블록의 차분을 구하여 잔여 블록(Residual Block)을 생성한 후, 이에 대한 부호화을 수행한다. 블록을 부호화하는 방법은 크게 인트라 모드와 인터 모드로 나누어진다. 예측 블록의 크기에 따라 인트라 모드일 경우에는 16x16, 8x8, 4x4 인트라 모드로 나누어지며, 인터 모드일 경우에는 16x16, 16x8, 8x16, 8x8 인터 모드로 나누어지고 8x8 인터 모드일 경우에는 다시 8x8, 8x4, 4x8, 4x4 서브 인터 모드로 나누어진다. As described above, the difference between the currently input block and the prediction block is calculated to generate a residual block, and then the residual block is encoded. A method of encoding a block is roughly divided into an intra mode and an inter mode. 8x8, 8x8, and 8x8 inter modes for the inter mode, and 8x8, 8x8, and 8x8 inter modes for the 8x8 inter mode. 4x8, and 4x4 sub inter modes.

잔여 블록에 대한 부호화는 변환, 양자화, 엔트로피(Entropy) 부호화의 순서로 수행이 된다. 먼저 16x16 인트라 모드로 부호화되는 블록은 차분 블록에 변환을 수행하여 변환계수를 출력하고, 출력된 변환계수 중에서 DC 계수만을 모아서 다시 하다마드 변환을 수행하여 하다마드 변환된 DC 계수를 출력한다. The encoding for the residual block is performed in the order of conversion, quantization, and entropy encoding. First, a block encoded in the 16x16 intra mode performs conversion to the difference block to output a transform coefficient, and only the DC coefficient is collected from the output transform coefficients to perform Hadamard transform to output Hadamard transformed DC coefficient.

16x16 인트라 모드를 제외한 다른 부호화 모드로 부호화되는 블록에서 변환 과정은 입력된 잔여 블록을 입력 받아 변환(Transform)을 수행하여 변환계수(Transform Coefficient)를 출력한다. In a block encoded in a coding mode other than the 16x16 intra mode, the transform process receives the input residual block, transforms the block, and outputs a transform coefficient.

그리고 양자화 과정에서는 입력된 변환계수를 양자화 파라미터에 따라 양자화를 수행한 양자화된 계수(Quantized Coefficient)를 출력한다. 그리고 엔트로피 부호화 과정에서는 입력된 양자화된 계수를 확률 분포에 따른 엔트로피 부호화를 수행하여 비트스트림으로 출력된다. H.264는 프레임간(Inter-frame) 예측 부호화를 수행하기 때문에 현재 부호화된 영상을 이후에 입력된 영상의 참조 영상으로 사용하기 위해 복호화하여 저장할 필요가 있다. In the quantization process, the input transform coefficient is quantized according to a quantization parameter, and outputs a quantized coefficient. In the entropy encoding process, the input quantized coefficients are output as a bitstream by performing entropy encoding according to a probability distribution. Since H.264 performs inter-frame predictive coding, it is necessary to decode and store the currently encoded image in order to use it as a reference image of a subsequent input image.

따라서 양자화된 계수를 역양자화과정과 역변환을 수행하여 예측 영상과 가산기를 통해 재구성된 블록을 생성한 다음 디블록킹 필터를 통해 부호화 과정에서 발생한 블록킹 현상(Blocking Artifact)을 제거한 후, 참조 영상 버퍼에 저장한다.Therefore, the quantized coefficients are dequantized and the inverse transform is performed to generate reconstructed blocks through the predictive image and the adder. Then, the blocking artifacts generated in the encoding process are removed through the deblocking filter, and the reconstructed blocks are stored in the reference image buffer do.

도 4는 영상 복호화 장치의 구성에 대한 일 예를 블록도로 도시한 것으로, H.264의 복호화 구조도를 나타낸 것이다.FIG. 4 is a block diagram of an example of a configuration of a video decoding apparatus, and shows a decoding structure of H.264.

도 4를 참조하면, H.264 복호화 구조도에서 데이터를 처리하는 단위는 가로 세로 16x16화소 크기의 매크로블록(Macroblock)이며, 비트스트림을 입력 받아 인트라(Intra) 모드 또는 인터(Inter) 모드로 복호화가 수행되어 재구성된 영상을 출력한다. Referring to FIG. 4, the unit for processing data in the H.264 decoding structure is a macroblock having a size of 16 x 16 pixels, and the decoding is performed in an Intra mode or an Inter mode by receiving a bitstream. And outputs the reconstructed image.

인트라 모드일 경우, 스위치가 인트라로 전환이 되며, 인터 모드일 경우에는 스위치가 인터로 전환이 된다. 복호화 과정의 주요한 흐름은 먼저 예측 블록을 생성한 후, 입력 받은 비트스트림을 복호화한 결과 블록과 예측 블록을 더하여 재구성된 블록을 생성하는 것이다. In the intra mode, the switch is switched to the intra mode, and in the inter mode, the switch is switched to the inter mode. The main flow of the decoding process is to generate a reconstructed block by adding a block and a prediction block as a result of decoding a bitstream after generating a prediction block.

먼저 예측 블록의 생성은 인트라 모드와 인터 모드에 따라 수행이 된다. 먼저 인트라 모드일 경우에는 인트라 예측 과정에서 현재 블록의 이미 부호화된 주변 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성하며, First, the generation of the prediction block is performed according to the intra mode and the inter mode. First, in the intra mode, a spatial prediction is performed using the already encoded neighboring pixel values of the current block in the intra prediction process to generate a prediction block,

인터 모드일 경우에는 움직임 벡터를 이용하여 참조 영상 버퍼에 저장되어 있는 참조 영상에서 영역을 찾아 움직임 보상을 수행함으로써 예측 블록을 생성한다. In the inter mode, a motion vector is used to search for a region in a reference image stored in a reference image buffer, and motion compensation is performed to generate a prediction block.

엔트로피 복호화 과정에서는 입력된 비트스트림을 확률 분포에 따른 엔트로피 복호화를 수행하여 양자화된 계수(Quantized Coefficient)를 출력한다. 양자화된 계수를 역양자화 과정과 역 변환을 수행하여 예측 영상과 가산기를 통해 재구성된 블록을 생성한 다음 디블록킹 필터를 통해 블록킹 현상(Blocking Artifact)를 제거한 후, 참조 영상 버퍼에 저장한다.In the entropy decoding process, the input bitstream is entropy-decoded according to a probability distribution to output a quantized coefficient. The quantized coefficients are dequantized and inverse transformed to generate a reconstructed block through a predictive image and an adder. Blocking artifacts are removed through a deblocking filter, and the reconstructed blocks are stored in a reference image buffer.

실제 영상과 그것의 깊이 정보 맵을 부호화하는 또 다른 방법의 일 예로 현재 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화를 진행 중인 HEVC(High Efficiency Video Coding)를 사용할 수 있다. 이는 HD, UHD 영상뿐만 아니라 3D 방송 및 이동통신망에서도 현재보다 낮은 주파수 대역폭으로 고화질의 영상을 제공할 수 있다.As an example of another method of encoding a real image and its depth information map, HEVC (High Efficiency Video Coding), which is currently being jointly standardized by MPEG (Moving Picture Experts Group) and VCEG (Video Coding Experts Group) have. In addition to HD and UHD images, 3D video and mobile communication networks can provide high-quality images with lower bandwidths.

HEVC에서는 부호화 단위 및 구조, 화면 간(Inter) 예측, 화면 내(Intra) 예측, 보간(Interpolation), 필터링(filtering), 변환(Transform) 방법 등 다양한 새로운 알고리즘들을 포함하고 있다.HEVC includes various new algorithms such as coding unit and structure, inter prediction, intra prediction, interpolation, filtering, and transform.

도 5는 부호화를 위해 영상을 복수의 유닛들로 분할하는 방법에 대한 일 예를 나타낸 것이다.5 shows an example of a method of dividing an image into a plurality of units for encoding.

HEVC에서는 영상을 효율적으로 부호화하기 위해서 CU로 부호화를 수행한다. 도 5는 영상을 부호화할 때 LCU(Largest Coding Unit) 내에서 CU를 분할하는 방법을 나타낸 그림이다. 여기서 LCU는 CTU(Coding Tree Unit)를 의미할 수 있다.In HEVC, CU is encoded to efficiently encode the image. 5 is a diagram illustrating a method of dividing a CU in an LCU (Largest Coding Unit) when an image is encoded. Here, the LCU may mean a CTU (Coding Tree Unit).

도 5를 참조하면, HEVC에서는 영상을 LCU 단위로 순차적으로 분할한 후, LCU 단위로 분할구조를 결정한다. 분할구조는 LCU 내에서 영상을 효율적으로 부호화하기 위한 CU의 분포를 의미하는데, 이 분포는 CU를 크기가 가로 세로 절반씩 감소한 4개의 CU로 분할할지를 결정함으로써 결정할 수 있다.Referring to FIG. 5, an HEVC sequentially divides an image into LCU units, and then determines a divided structure in LCU units. The partition structure means the distribution of the CUs for efficiently encoding the image in the LCU, which can be determined by determining whether the CU is divided into four CUs whose size is reduced by half the length and half.

분할된 CU는 같은 방식으로 가로 세로 절반씩 감소한 4개의 CU로 재귀적으로 분할할 수 있다. 이 때, CU의 분할은 미리 정의된 깊이까지 분할을 수행할 수 있는데, 깊이 정보는 CU의 크기를 나타내는 정보로써 모든 CU에 저장되어 있다. 기본이 되는 LCU의 깊이는 0이고, SCU(Smallest Coding Unit)의 깊이는 미리 정의된 최대 깊이이다.A partitioned CU can be recursively partitioned into four CUs, which are reduced in half by half in the same manner. At this time, the division of the CU can be performed to a predetermined depth. The depth information is information indicating the size of the CU and is stored in all the CUs. The depth of the underlying LCU is zero, and the depth of the Smallest Coding Unit (SCU) is a predefined maximum depth.

LCU로부터 가로 세로 절반으로 분할을 수행할 때마다 CU의 깊이가 1씩 증가한다. 각각의 깊이 별로, 분할을 수행하지 않는 CU의 경우에는 2Nx2N의 크기로, 분할을 수행할 경우에는 NxN 크기의 CU 4개로 분할된다. N의 크기는 깊이가 1씩 증가할 때마다 절반으로 감소한다.The depth of the CU is incremented by one for each horizontal and vertical division from the LCU. For each depth, CUs that are not partitioned are sized to 2Nx2N, and when partitioning is performed, they are divided into 4 CUs of NxN size. The size of N decreases by half every time the depth increases by one.

도 5를 참조하면, 최소 깊이가 0인 LCU의 크기가 64x64 화소이고, 최대 깊이가 3인 SCU의 크기가 8x8 화소인 예이다. 64x64 화소 CU(LCU)는 깊이 0으로 32x32 화소 CU는 깊이 1 로 16x16 화소 CU는 깊이 2 로 8x8 CU(SCU)는 깊이 3 으로 표현된다. 또한 특정 CU를 분할할지에 대한 정보는 CU마다 1비트 정보인 분할 정보를 통해 표현한다. 이 분할 정보는 SCU를 제외한 모든 CU에 포함되어 있으며, CU를 분할하지 않을 경우에는 분할 정보에 0 을 저장하고, 분할할 경우에는 1 을 저장한다.Referring to FIG. 5, an LCU having a minimum depth of 0 is 64x64 pixels, and an SCU having a maximum depth of 3 is 8x8 pixels. A 64x64 pixel CU (LCU) has a depth of 0, a 32x32 pixel CU has a depth of 1, a 16x16 pixel CU has a depth of 2, and an 8x8 CU (SCU) has a depth of 3. Also, information on whether to divide a specific CU is represented by division information, which is 1-bit information for each CU. This partition information is included in all CUs except SCU. If CU is not partitioned, 0 is stored in partition information, and 1 is stored in case of partition.

도 6은 CU를 복수의 PU들로 분할하는 방법에 대한 일 예를 도시한 것이다.FIG. 6 shows an example of a method of dividing a CU into a plurality of PUs.

PU(Prediction Unit)는 예측의 단위로서, 도 6과 같이 하나의 CU는 여러 개의 PU들로 분할되어 예측이 수행될 수 있다.PU (Prediction Unit) is a unit of prediction. As shown in FIG. 6, one CU can be divided into several PUs and prediction can be performed.

TU(Transform Unit)는 CU 내에서 공간변환과 양자화 과정에서 사용되는 기본 단위이다. TU는 정사각형 형태 혹은 직사각형 형태를 가질 수 있다. 각 CU는 하나 혹은 그 이상의 TU 블록을 가질 수 있으며, 이는 쿼드트리(quad-tree)의 구조를 가진다.TU (Transform Unit) is the basic unit used in the space transformation and quantization process in the CU. The TU may have a square shape or a rectangular shape. Each CU can have one or more TU blocks, which have a quad-tree structure.

도 7은 CU 내에서의 TU의 분할 구조에 대한 일 예를 도시한 것이다.FIG. 7 shows an example of a split structure of TUs in a CU.

실제 영상과 그것의 깊이 정보 맵을 부호화할 때, 서로 독립적으로 부호화/복호화할 수 있다. 또한 실제 영상과 깊이 정보 맵을 부호화할 때, 서로 의존적으로 부호화/복호화 할 수 있다.When the actual image and its depth information map are encoded, they can be independently encoded / decoded. Also, when encoding the actual image and the depth information map, they can be encoded / decoded in a mutually dependent manner.

도 8은 3차원 비디오 부호화/복호화 장치의 구성에 대한 일 예를 블록도로 도시한 것이다.FIG. 8 is a block diagram illustrating an example of a configuration of a 3D video encoding / decoding apparatus.

일 실시 예로, 이미 부호화된/복호화된 깊이 정보 맵을 이용하여 실제 영상을 부호화/복호화할 수 있으며, 반대로 이미 부호화된/복호화된 실제 영상을 이용하여 깊이 정보 맵을 부호화/복호화할 수 있다. In one embodiment, an actual image can be encoded / decoded using an already-encoded / decoded depth information map, and conversely, a depth information map can be encoded / decoded using an already encoded / decoded real image.

실제 영상과 그것의 깊이 정보 맵은 카메라 하나뿐만아니라 여러 개의 카메라에서 획득한 영상일 수 있다.The actual image and its depth information map can be images obtained from multiple cameras as well as one camera.

도 9는 3차원 비디오 코덱의 예측 구조에 대한 일 예를 도시한 것이다.FIG. 9 shows an example of a prediction structure of a 3D video codec.

일 실시 예로, 카메라 3대에서 획득한 실제 영상과 그것의 깊이 정보 맵을 부호화하기 위한 부호화 예측 구조를 도 9에 나타내었다. 도 9에서 3개의 실제 영상을 시점에 따라 T0, T1, T2로 나타내었고, 실제 영상과 동일한 위치의 3개의 깊이 정보 맵을 시점에 따라 D0, D1, D2로 나타내었다.In one embodiment, an encoding prediction structure for encoding an actual image obtained in three cameras and a depth information map thereof is shown in Fig. In FIG. 9, three actual images are shown as T0, T1, and T2 according to the viewpoint, and three depth information maps at the same position as the actual image are shown as D0, D1, and D2 according to the viewpoints.

각 픽쳐는 I(Intra Picture), P(Predicted Picture), B(Bi-predicted Picture)로 부호화될 수 있다. 도 9에서 화살표는 예측 방향을 나타낸다. 즉, 실제 영상과 그것의 깊이 정보 맵은 서로 의존적으로 부호화/복호화 된다.Each picture can be encoded into I (Intra Picture), P (Predicted Picture), and B (Bi-predicted Picture). In Fig. 9, arrows indicate prediction directions. That is, the actual image and its depth information map are encoded / decoded depending on each other.

실제 영상에서 현재 블록의 움직임 정보(움직임 벡터만을 의미할 수 있으며, 혹은 움직임벡터와 참조영상 번호와 단방향 예측인지 양방향 예측인지 그리고 시점간 예측인지 시간적 예측인지 또 다른 예측인지를 의미할 수도 있다.)를 유추하기 위한 방법은 크게 시간적 예측과 시점간 예측으로 나뉜다. 시간적 예측은 동일한 시점 내에서 시간적 상관성을 이용한 예측 방법이고, 시점간 예측은 인접한 시점에서 시점간 상관성을 이용한 예측 방법이다. 이러한 시간적 예측과 시점간 예측은 한 픽쳐에서 서로 혼용되어 사용될 수 있다. It may mean motion information of current block (only motion vector of the current block in the real image, or motion vector, reference picture number, unidirectional prediction, bi-directional prediction, inter-view prediction, temporal prediction or other prediction). The method for inferring is divided into temporal prediction and inter-view prediction. Temporal prediction is a prediction method using temporal correlation within the same time, and inter-view prediction is a prediction method using inter-view correlation at an adjacent time. Such temporal prediction and inter-view prediction can be used in combination with each other in one picture.

3차원 비디오의 깊이 정보 맵을 부호화할 때 객체 간 경계가 존재하는 블록은 경계 부분에서 화소의 변화 정도가 크기 때문에 인트라 부호화를 수행할 때 많은 비트 량이 필요하다. 또한 객체 경계를 보존하지 않을 경우, 깊이 정보 맵을 이용한 가상시점 영상의 화질이 감소되는 단점이 있다.When coding a depth information map of 3D video, a block having an inter-object boundary requires a large amount of bits to perform intra coding because the degree of pixel change is large at the boundary portion. Also, if the object boundary is not preserved, the image quality of the virtual view image using the depth information map is reduced.

따라서, 이러한 객체 경계 부분을 최대한 보존하기 위한 방법으로 플레인 세분화(Plane segmentation)를 이용한 깊이 정보 맵의 화면 내 부호화 방법(PSIP; Plane Segmentation Intra Prediction)이 있다.Therefore, there is Plane Segmentation Intra Prediction (PSIP) of depth information map using plane segmentation as a method for maximizing the preservation of the object boundary.

도 10은 플레인 세분화 방법에 대한 일 예를 설명하기 위해 도시한 것이다.FIG. 10 is a view for explaining an example of the plane segmentation method.

도 10을 참조하면, 현재 깊이 정보 맵 블록을 부호화할 때, 현재 블록의 주변 픽셀들을 이용하여 특정 임계 값(Threshold)을 설정한 후, 그 임계 값을 통해 현재 블록을 두 개의 영역으로 분리한다.Referring to FIG. 10, when coding a current depth information map block, a specific threshold value is set using surrounding pixels of the current block, and the current block is divided into two regions through the threshold value.

이때 분리된 두 개의 영역을 나타내주기 위한 비트맵은 패턴 코드(도 10 (나))로 부호화되며, 이는 비트스트림에 포함되어 복호화기로 전송된다. 도 10 (나)의 패턴 코드는 현재 블록이 두 개의 영역으로 나누어진 경우에 대해서만 고려되어 설계되었다.At this time, the bit map for indicating the two separated regions is encoded into a pattern code (FIG. 10 (B)), which is included in the bit stream and transmitted to the decoder. The pattern code of FIG. 10 (B) is designed considering only the case where the current block is divided into two regions.

플레인 세분화를 이용한 깊이 정보 맵의 화면 내 부호화 방법(PSIP; Plane Segmentation Intra Prediction)은 객체 경계를 최대한 보존하여 부호화함으로써, 비트 량 감소 및 가상시점 영상의 화질을 증가시키는 장점이 존재한다.Plane Segmentation Intra Prediction (PSIP) of the depth information map using the plane segmentation has the advantage of reducing the bit amount and increasing the image quality of the virtual view image by encoding the object boundary as much as possible.

반면, 이 방법은 구분하기 어려운 두 개의 영역(예를 들어, 객체와 배경)을 간단한 방법(하나의 기준 값만을 이용하여 두 영역을 구분하는 방법)으로 구분하기 때문에 두 영역의 경계(예를 들어, 객체 경계) 부분에 급격한 오차 성분이 생길 가능성이 있다.On the other hand, since this method distinguishes two difficult regions (for example, objects and background) by a simple method (a method of dividing two regions using only one reference value), the boundaries of two regions , Object boundary), there is a possibility that an abrupt error component occurs.

이러한 급격한 오차 성분은 고주파 성분을 많이 포함하고 있으며, 이를 DCT 기반의 주파수 변환 부호화 방법으로 부호화할 경우, 부호화 효율에 악영향을 미칠 수 있다.These abrupt error components include a large number of high frequency components, and encoding using the DCT-based frequency transformation coding method may adversely affect the coding efficiency.

도 11은 복수 객체가 존재하는 깊이 정보 블록에 대한 일 예를 도시한 것이며, 도 12의 왼쪽 그림은 도 11의 깊이 정보 블록에서 수평 방향으로의 깊이 정보 값에 대한 일 예를 도시한 것이다.FIG. 11 shows an example of a depth information block in which a plurality of objects exist, and FIG. 12 shows an example of a depth information value in the horizontal direction in the depth information block of FIG.

도 12의 왼쪽 그림에서 객체1(예를 들어, 객체)은 카메라와 가까운 객체이므로 원본 값이 높으며, 객체2(예를 들어, 배경)는 카메라와 먼 객체이므로 원본 값이 작다.12, the original value is high because the object 1 (for example, an object) is close to the camera, and the original value is small because the object 2 (for example, a background)

또한, 도 12의 오른쪽 그림은 도 11의 깊이 정보 맵 블록을 하나의 기준 값을 이용하여 두 영역을 분리하고 분리된 영역을 이용하여 구성한 예측 블록에서 수평 방향으로의 깊이 정보 값을 도시한 일 예이다.The right picture of FIG. 12 shows an example of a depth information map in the horizontal direction in a prediction block constructed by separating the two regions using one reference value and using the separated region in FIG. 11 to be.

도 13은 도 12의 왼쪽 그림(원본 깊이 정보 블록)에서 도 12의 오른쪽 그림(예측 블록)을 차분한 영상이다.FIG. 13 is an image obtained by subtracting the right picture (prediction block) of FIG. 12 from the left picture (original depth information block) of FIG.

도 13에 도시된 바와 같이, 객체 경계 부분에서 큰 폭으로 변화하는 현상이 심하게 나타난다. 이러한 큰 폭의 변화는 고주파 성분으로 부호화 효율에 악영향을 미칠 가능성이 높다.As shown in Fig. 13, a phenomenon that a large width changes at an object boundary part appears to be severe. Such a large change is likely to adversely affect the coding efficiency due to high frequency components.

따라서, 본 발명의 일실시예는 상기한 바와 같은 오차 성분에 대한 큰 폭의 변화로 인해 생기는 고주파 성분에 대하여 부호화 효율을 높이는 방안을 제시한다.Therefore, an embodiment of the present invention proposes a method of improving the coding efficiency with respect to the high-frequency component caused by a large change in the error component as described above.

가상시점 영상을 잘 생성하기 위해서는 깊이 정보 맵의 화질이 중요하며, 그 중에서도 깊이 정보 맵의 객체 경계 부분이 가장 중요하다. 따라서, 플레인 세분화 방법을 이용하여 깊이 정보 맵을 부호화할 경우에 생기는 객체 경계 부분에서의 고주파 성분을 얼마나 효과적으로 부호화하느냐에 따라 가상시점 영상의 화질이 달라진다. In order to generate the virtual viewpoint image well, the image quality of the depth information map is important, and the object boundary portion of the depth information map is most important. Accordingly, the image quality of the virtual viewpoint image varies depending on how effectively the high frequency component in the object boundary portion generated when the depth information map is encoded using the plane segmentation method is encoded effectively.

다시 말하면, 깊이 정보 맵은 객체 경계를 뚜렷하게 구분할 수 있어야 하므로 객체 간 경계 부분에서 큰 폭의 변화가 있더라도 그 오차를 정확하게 부호화 해야 한다. 따라서 경계부분의 큰 폭의 오차를 손실을 최소화 하며 효율적으로 부호화 하기 위한 방법이 필요하다.In other words, since the depth information map should be able to clearly distinguish object boundaries, even if there is a large change in the boundary between objects, the error must be correctly encoded. Therefore, there is a need for a method for effectively coding the large error of the boundary portion with minimizing the loss.

그러한 방법으로 객체 경계가 존재하는 블록을 인트라 부호화 시, 각 객체에 따라 선택적으로 오차정보를 임의 값을 기준으로 반전시키는 방법을 제안한다. In this way, we propose a method to invert the error information based on arbitrary values according to each object when intra - coding a block with object boundaries.

또한, 깊이 정보 맵에서 객체 내부 및 배경 부분은 가상시점 영상을 생성하는데 큰 영향을 미치지 않는다. 따라서, 이 부분은 부호화되는 비트 량을 줄이면서 가상시점 화질을 최대한 유지하는 조건 하에서 부호화를 수행할 수 있다.In addition, the interior and background portions of the object in the depth information map do not greatly affect the generation of the virtual view image. Therefore, this portion can perform encoding under a condition that maximizes the virtual point-in-view quality while reducing the amount of bits to be encoded.

즉, 이 부분의 오차 정보에서 고주파는 위의 조건 하에서 제거되거나 양자화 계수를 조정하여 저 비트 율로 부호화될 수 있다. 또한, 이 부분의 오차 정보는 위의 조건 하에서 부호화되지 않을 수 있으며, 부호화 여부에 대한 정보는 비트스트림에 포함될 수 있다. 즉, 객체들을 구분하여 임의 객체영역을 선택적으로 처리하여 부호화 할 수 있다.That is, in the error information of this part, the high frequency can be removed under the above condition or can be encoded at a low bit rate by adjusting the quantization coefficient. Also, the error information of this part may not be encoded under the above conditions, and information on whether or not the encoding can be included in the bitstream. That is, it is possible to selectively encode arbitrary object regions by separating objects.

이러한 방안으로, 객체 경계가 존재하는 블록을 인트라 부호화 시, 각 객체에 따라 선택적으로 오차정보를 필터링 하는 방법, 그리고 객체 경계가 존재하는 블록을 인트라 부호화 시, 각 객체에 따라 선택적으로 오차정보를 전송하는 방법을 제안한다.In this method, a method of selectively filtering error information according to each object when intracoding a block having an object boundary, and a method of selectively transmitting error information according to each object when intra- .

플레인 세분화 방법을 사용 시, 객체 경계에 대한 정보가 비트스트림을 통해 전송되므로, 복호기에서 블록 내부의 객체들을 구분할 수 있다.When using the plane segmentation method, since information on the object boundary is transmitted through the bitstream, the decoder can distinguish objects in the block.

여기서 블록이란, 매크로 블록을 의미할 수 있으며, 혹은 서브 매크로 블록을 의미할 수 있으며, 혹은 매크로 블록 내에 각각의 파티션을 의미할 수 있다. 또한 블록이란, CU, PU, TU와 같이 부호화, 예측, 변환 등에 사용되는 임의 크기의 단위영역을 의미할 수 있다.Here, a block may mean a macroblock, a sub-macroblock, or each partition in a macroblock. Also, a block may mean an arbitrary-sized unit area used for coding, prediction, conversion, etc., such as CU, PU, and TU.

객체 경계에 따른 오차정보 반전 Error information inversion according to object boundary

본 발명의 일실시예에 따르면, 객체 경계가 존재하는 블록을 인트라 부호화 시, 각 객체에 따라 선택적으로 오차정보를 임의 값을 기준으로 반전시킬 수 있다. 객체 경계 부분에서의 고주파 성분을 효과적으로 부호화하기 위해서, 객체 경계를 기준으로 반전시키는 방법을 제안한다.According to an embodiment of the present invention, when a block having an object boundary is intra-coded, it is possible to selectively invert error information based on an arbitrary value according to each object. In order to effectively encode the high frequency components at the object boundary, we propose a method to invert the object boundary.

도 14는 객체 영역의 오차 정보를 반전시키는 방법에 대한 일실시예를 도시한 것이다. FIG. 14 shows an embodiment of a method for inverting error information of an object region.

도 14의 왼쪽 그림과 같은 오차 값을 그대로 부호화 할 경우, 고주파 성분으로 인해 부호화 효율이 감소한다.When the error value as shown on the left-hand side of FIG. 14 is encoded as it is, the coding efficiency is reduced due to the high-frequency component.

따라서, 도 14의 왼쪽 그림과 같은 오차 값을 그대로 부호화 하지 않고, 부호화 전에 임의 객체 영역 내의 오차성분을 도 14의 오른쪽 그림과 같이 특정 값을 기준으로 반전시킨다.Therefore, the error value in the arbitrary object area is inverted based on the specific value as shown in the right picture of FIG. 14 before encoding, without encoding the error value as shown in the left figure of FIG.

그 결과, 객체 경계 부분에서 오차 값의 급격한 변화가 완화되어서 부호화 효율이 증가한다.As a result, the abrupt change of the error value at the boundary of the object is alleviated and the coding efficiency is increased.

도 15 및 도 16은 오차정보를 임의 값을 기준으로 반전시키는 방법에 대한 일실시예를 도시한 것이다.FIGS. 15 and 16 show an embodiment of a method for inverting error information based on an arbitrary value.

원본블록(도 15의 (A))과 예측블록(도 15의 (B))과의 오차를 구하면 도 15의 (C)와 같이 오차블록이 만들어 진다. 예측 블록이 원본 블록과 정확히 일치하지 않는 한 객체 간 경계선을 기준으로 큰 오차가 발생하게 된다.When an error between the original block (FIG. 15A) and the prediction block (FIG. 15B) is obtained, an error block is created as shown in FIG. 15C. As long as the prediction block does not exactly match the original block, a large error will occur based on the boundary line between objects.

이 경우, 본 발명의 일실시예에 따라 오차 값을 특정 값을 기준으로 반전 시, 도 16에 도시된 바와 같은 객체 경계에 인접하는 깊이 값의 평균값을 기준 값으로 사용할 수 있다.In this case, according to an embodiment of the present invention, when the error value is inverted based on a specific value, an average value of depth values adjacent to the object boundary as shown in FIG. 16 can be used as a reference value.

복호기에서는 현재 블록의 깊이 값을 알 수 없으므로, 첫 행은 기존 방법을 사용하고, 두 번째 행부터 기준 값을 구할 때 한 행 위의 수직방향 경계선 좌우 두 개의 깊이 값의 평균을 사용한다.Since the depth value of the current block can not be known in the decoder, the first row uses the existing method and the second row uses the average of the depth values of the left and right vertical boundaries on one row when obtaining the reference value.

도 17은 본 발명의 일실시예에 따른 오차 정보 반전 방법을 흐름도로 도시한 것이다.17 is a flowchart illustrating an error information inversion method according to an embodiment of the present invention.

도 17을 참조하면, 가로 N, 세로 M인 NxM 블록에서 배경 객체의 오차정보를 임의 기준 값으로 반전시키는 방법은, 아래의 과정 순으로 처리한다. 깊이 값이 낮은 배경영역을 반전시키는 이유는 객체영역에 비해 평탄하므로 오차 값 반전 시 행 또는 열 간 변화가 작기 때문이다.Referring to FIG. 17, the method of inverting the error information of the background object into an arbitrary reference value in the NxM block of N by N and M by M is performed in the following order. The reason for reversing the background area having a low depth value is that it is flat compared to the object area, and the change between the row or column is small when the error value is inverted.

(1) 플레인 세분화가 행 단위로 처리 되었다면 y=1..M-1에 대해서 과정 (2)~(8)을 반복하고, 열 단위로 처리 되었다면 x=1..N-1에 대해서 과정 (9)~(15)를 반복한다.(1) If the plane subdivision has been processed row by row, repeat steps (2) to (8) for y = 1..M-1 and if x = 1..N-1 9) to (15) are repeated.

(2) 원본 오차블록의 현재 오차 값 행을 r0[x, y], x=0..N-1로 정의한다.(2) Define the current error value row of the original error block as r0 [x, y], x = 0..N-1.

(3) 재구성 된 오차블록의 현재 오차 값 행을 r[x, y], x=0..N-1로 정의한다.(3) Define the current error value row of the reconstructed error block as r [x, y], x = 0..N-1.

(4) 현재 오차 값 행의 한 행 위의 오차 값 행 r0[x, y-1]에서의 객체 경계부를 중심으로 좌우 위치를 각각 Ls, Rs로 정의한다.(4) The left and right positions around the object boundary in the error value row r0 [x, y-1] on one row of the current error value row are defined as Ls and Rs, respectively.

(5) 예측블록의 좌상단 깊이 값 p[0, 0]과 우상단 깊이 값 p[N-1, 0]을 비교하여, p[0, 0]이 낮으면 좌영역을 배경으로 판단하고 p[N-1, 0]이 낮으면 우영역을 배경으로 판단한다.(5) Compares the upper-left depth p [0, 0] and the upper-right depth p [N-1, 0] of the prediction block and determines the left area as background if p [ -1, 0] is low, the right area is determined as the background.

(6) 배경영역을 r[g, y], (g=0..Ls 또는 g=Rs..N-1)로 정의한다.(6) Define the background area as r [g, y], (g = 0..Ls or g = Rs..N-1).

(7) b = r[Ls, y-1] + r[Rs, y-1](7) b = r [Ls, y-1] + r [Rs,

(8) r[g, y] = b ?? r0[g, y](8) r [g, y] = b ?? r0 [g, y]

(9) 원본 오차블록의 현재 오차 값 열을 r0[x, y], y=0..M-1로 정의한다.(9) Define the current error value column of the original error block as r0 [x, y], y = 0..M-1.

(10) 재구성 된 오차블록의 현재 오차 값 열을 r[x, y], y=0..M-1로 정의한다.(10) Define the current error value column of the reconstructed error block as r [x, y], y = 0..M-1.

(11) 현재 오차 값 열의 한 열 위의 오차 값 열 r0[x-1, y]에서의 객체 경계부를 중심으로 상하 위치를 각각 Ts, Bs로 정의한다.(11) The upper and lower positions around the object boundary in the error value column r0 [x-1, y] on one column of the current error value column are defined as Ts and Bs, respectively.

(12) 예측블록의 좌상단 깊이 값 p[0, 0]과 좌하단 깊이 값 p[0, M-1]을 비교하여, p[0, 0]이 낮으면 상단영역을 배경으로 판단하고 p[0, M-1]이 낮으면 하단영역을 배경으로 판단한다.(12) Compares the upper-left depth value p [0, 0] and the lower-left depth value p [0, M-1] of the prediction block, 0, M-1] is low, it is determined that the lower region is the background.

(13) 배경영역을 r[x, g], (g=0..Ts 또는 g=Bs..M-1)로 정의한다.(13) Define the background area as r [x, g], (g = 0..Ts or g = Bs..M-1).

(14) b = r[x-1, Ts] + r[x-1, Bs](14) b = r [x-1, Ts] + r [x-1, Bs]

(15) r[x, g] = b ?? r0[x, g](15) r [x, g] = b ?? r0 [x, g]

복호기에서는 위 과정을 그대로 수행하면 역 반전 되어 원래의 오차 값을 복원할 수 있다.In the decoder, if the above process is performed as it is, the original error value can be recovered by reversing the direction.

상술한 방법들은 모두 블록 크기 혹은 CU 깊이 등에 따라 적용 범위를 달리할 수 있다. 이렇게 적용 범위를 결정하는 변수(즉, 크기 혹은 깊이 정보)는 부호화기 및 복호화기가 미리 정해진 값을 사용하도록 설정할 수도 있고, 프로파일 또는 레벨에 따라 정해진 값을 사용하도록 할 수 도 있고, 부호화기가 변수 값을 비트스트림에 기재하면 복호화기는 비트스트림으로부터 이 값을 구하여 사용할 수도 있다. CU 깊이에 따라 적용 범위를 달리하는 할 때는 아래 표에 예시한 바와 같이, 방식A) 주어진 깊이 이상의 깊이에만 적용하는 방식, 방식B) 주어진 깊이 이하에만 적용하는 방식, 방식C) 주어진 깊이에만 적용하는 방식이 있을 수 있다. All of the above methods can be applied differently depending on the block size or the CU depth. The variable (i.e., size or depth information) for determining the coverage can be set to use a predetermined value by the encoder or decoder, use a predetermined value according to the profile or level, If the bit stream is described, the decoder may use this value from the bit stream. If the application range is different according to the CU depth, as shown in the table below, the method A) applies only to a depth above a given depth, B) the method applied only to a given depth or less, C) There can be a way.

주어진 CU 깊이가 2인 경우, 본 발명의 방법들을 적용하는 범위 결정 방식의 예. (O: 해당 깊이에 적용, X: 해당 깊이에 적용하지 않음.)An example of a range determination method that applies the methods of the present invention when a given CU depth is two. (O: applied to the depth, X: not applied to the depth.)

적용범위를 나타내는 CU 깊이CU depth indicating coverage 방법AMethod A 방법BMethod B 방법CMethod C 00 XX OO XX 1One XX OO XX 22 OO OO OO 33 OO XX XX 44 OO XX XX

모든 깊이에 대하여 본 발명의 방법들을 적용하지 않는 경우는 임의의 지시자(flag)를 사용하여 나타낼 수도 있고, CU 깊이의 최대값보다 하나 더 큰 값을 적용범위를 나타내는 CU 깊이 값으로 시그널링 함으로써 표현할 수도 있다. When the methods of the present invention are not applied to all the depths, they may be indicated by using an optional flag, or a value one greater than the maximum value of the CU depth may be expressed by signaling with a CU depth value indicating the application range have.

또한 상술한 방법은 휘도 블록의 크기에 따라 색차 블록에 다르게 적용할 수 있으며, 또한, 휘도 신호영상 및 색차 영상에 다르게 적용할 수 있다.In addition, the above-described method can be applied to color difference blocks differently depending on the size of a luminance block, and can be applied to a luminance signal image and a chrominance image differently.

휘도블록크기Luminance block size 색차블록크기Color difference block size 휘도 적용Apply brightness 색차 적용Color difference application 방법들Methods 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) 2(2x2)2 (2x2) O or XO or X O or XO or X 가 1, 2, ..1, 2, ... 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 나 1, 2, ..I, 1, 2, ... 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 다 1, 2, ..Every 1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 라 1, 2, ..La 1, 2, .. 32(32x32)32 (32x32) O or XO or X O or XO or X 마 1, 2, ..Ma 1, 2, .. 8(8x8, 8x4, 2x8 등)8 (8x8, 8x4, 2x8, etc.) 2(2x2)2 (2x2) O or XO or X O or XO or X 바 1, 2, ..Bars 1, 2, .. 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 사 1, 2, ..Four, two, ... 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 아 1, 2, ..Oh, 1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 자 1, 2, ..1, 2, ... 32(32x32)32 (32x32) O or XO or X O or XO or X 카 1, 2, ..Car 1, 2, .. 16(16x16, 8x16, 4x16 등)16 (16x16, 8x16, 4x16, etc.) 2(2x2)2 (2x2) O or XO or X O or XO or X 타 1, 2, ..1, 2, .. 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 파 1, 2, ..Wave 1, 2, .. 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 하 1, 2, ..1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 개 1, 2, ..Dogs 1, 2, ... 32(32x32)32 (32x32) O or XO or X O or XO or X 내 1, 2, ..My 1, 2, ..

표 2는 방법들의 조합의 일예를 나타낸다.Table 2 shows an example of a combination of methods.

표 2의 변형된 방법들 중에서 방법 "사 1"을 살펴보면, 휘도블록의 크기가 8(8x8, 8x4, 2x8 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 명세서의 방법을 휘도 신호 및 색차 신호에 적용할 수 있다.Among the modified methods of Table 2, when the method of "Issue 1 " is the case where the size of the luminance block is 8 (8x8, 8x4, 2x8, etc.) and the size of the color difference block is 4 (4x4, 4x2, 2x4) The method of the present invention can be applied to a luminance signal and a color difference signal.

위의 변형된 방법들 중에서 방법 "파 2"을 살펴보면, 휘도블록의 크기가 16(16x16, 8x16, 4x16 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 명세서의 방법을 휘도 신호에 적용하고 색차 신호에는 적용하지 않을 수 있다.Among the above modified methods, the method "wave 2" is a case where the size of a luminance block is 16 (16 × 16, 8 × 16, 4 × 16, etc.) and the size of a color difference block is 4 (4 × 4, 4 × 2, 2 × 4) The method of the specification may be applied to the luminance signal and not to the color difference signal.

또 다른 변형된 방법들로 휘도 신호에만 명세서의 방법이 적용되고 색차 신호에는 적용되지 않을 수 있다. 반대로 색차 신호에만 명세서의 방법이 적용되고 휘도 신호에는 적용되지 않을 수 있다.In another modified method, the method of the specification is applied only to the luminance signal and may not be applied to the color difference signal. Conversely, the method of the specification is applied only to the color difference signal, and may not be applied to the luminance signal.

상기에서는 본 발명의 실시예에 따른 방법 및 장치를, 부호화 방법 및 부호화 장치를 중심으로 하여 설명하였으나, 본 발명은 복호화 방법 및 장치에도 적용 가능하다. 이 경우, 본 발명의 실시예에 따른 방법을 역순으로 수행함으로써, 본 발명의 일실시예에 따른 복호화 방법이 수행될 수 있다.Although the method and apparatus according to the embodiment of the present invention have been described with reference to the encoding method and the encoding apparatus, the present invention is also applicable to the decoding method and apparatus. In this case, the decoding method according to the embodiment of the present invention can be performed by performing the method according to the embodiment of the present invention in the reverse order.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- , A floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet).

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (10)

영상을 부호화하는 방법에 있어서,
상기 영상에 대한 깊이 정보에 기초하여 객체 경계가 존재하는 블록을 식별하는 단계; 및
상기 객체 경계가 존재하는 블록을 인트라 부호화 하는 단계를 포함하고,
상기 인트라 부호화 하는 단계는
상기 깊이 정보에 기초하여 객체들을 구분하고, 각 객체에 대응되는 영역에 대한 오차정보를 생성하는 단계; 및
상기 생성된 오차정보 중 일부를 임의 값을 기준으로 선택적으로 반전시키는 단계를 포함하는 깊이 정보를 이용한 영상의 인트라 부호화 방법.
A method of encoding an image,
Identifying a block in which an object boundary exists based on depth information of the image; And
And intra-coding a block in which the object boundary exists,
The step of performing the intra-
Dividing objects based on the depth information, and generating error information for an area corresponding to each object; And
And selectively inverting a part of the generated error information based on an arbitrary value.
제1항에 있어서,
상기 반전시키는 단계는
상기 구분된 객체간 경계를 기준으로 반전시키는 단계를 포함하는 깊이 정보를 이용한 영상의 인트라 부호화 방법.
The method according to claim 1,
The step of inverting
And inverting the boundary between the divided objects based on the depth information.
제1항에 있어서,
상기 반전시키는 단계는
상기 구분된 객체 경계에 인접하는 깊이 값의 평균값을 기준으로 반전시키는 단계를 포함하는 깊이 정보를 이용한 영상의 인트라 부호화 방법.
The method according to claim 1,
The step of inverting
And inverting the depth value based on an average value of depth values adjacent to the divided object boundary.
제1항에 있어서,
상기 반전시키는 단계는 수직방향 객체 경계를 중심으로 좌우 두 개 화소의 깊이 값의 평균을 기준으로 반전시키는 단계를 포함하는 깊이 정보를 이용한 영상의 인트라 부호화 방법.
The method according to claim 1,
Wherein the step of inverting includes inverting the depth information of the left and right pixels based on an average of depth values of the left and right pixels around the vertical object boundary.
제1항에 있어서,
상기 깊이 정보의 적용 범위는 상기 영상 내 블록 크기에 따라 적응적으로 결정되는
깊이 정보를 이용한 영상의 인트라 부호화 방법.
The method according to claim 1,
The application range of the depth information is adaptively determined according to a block size in the image
A method of intra-coding an image using depth information.
영상 부호화 장치에 있어서,
상기 영상에 대한 깊이 정보에 기초하여 객체 경계가 존재하는 블록을 식별하는 식별부; 및
상기 객체 경계가 존재하는 블록을 인트라 부호화 하는 부호화부를 포함하고,
상기 부호화부는 상기 깊이 정보에 기초하여 객체들을 구분하고, 각 객체에 대응되는 영역에 대한 오차정보를 생성하고, 상기 생성된 오차정보 중 일부를 임의 값을 기준으로 선택적으로 반전하는 깊이 정보를 이용한 영상의 인트라 부호화 장치.
A video encoding apparatus comprising:
An identification unit for identifying a block in which an object boundary exists based on depth information of the image; And
And an encoding unit for intra-encoding a block in which the object boundary exists,
The encoding unit classifies objects based on the depth information, generates error information for a region corresponding to each object, and generates an image using depth information that selectively inverts a part of the generated error information based on an arbitrary value Lt; / RTI >
제6항에 있어서,
상기 부호화부는 상기 구분된 객체간 경계를 기준으로 상기 반전을 수행하는 깊이 정보를 이용한 영상의 인트라 부호화 방법.
The method according to claim 6,
Wherein the encoding unit uses the depth information to perform the inversion based on the boundary between the divided objects.
제6항에 있어서,
상기 부호화부는 상기 구분된 객체 경계에 인접하는 깊이 값의 평균값을 기준으로 상기 반전을 수행하는 깊이 정보를 이용한 영상의 인트라 부호화 장치.
The method according to claim 6,
Wherein the encoding unit uses the depth information to perform the inversion based on an average value of depth values adjacent to the divided object boundary.
제6항에 있어서,
상기 부호화부는 수직방향 객체 경계를 중심으로 좌우 두 개 화소의 깊이 값의 평균을 기준으로 상기 반전을 수행하는깊이 정보를 이용한 영상의 인트라 부호화 장치.
The method according to claim 6,
Wherein the encoding unit uses the depth information to perform the inversion based on an average of depth values of two left and right pixels around a vertical object boundary.
제6항에 있어서,
상기 깊이 정보의 적용 범위는 상기 영상 내 블록 크기에 따라 적응적으로 결정되는 깊이 정보를 이용한 영상의 인트라 부호화 장치.
The method according to claim 6,
Wherein the depth information is applied to the intra-image using the depth information determined adaptively according to an intra-image block size.
KR1020130040867A 2013-04-15 2013-04-15 A method of encoding and decoding depth information map and an apparatus using it KR20140124432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130040867A KR20140124432A (en) 2013-04-15 2013-04-15 A method of encoding and decoding depth information map and an apparatus using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130040867A KR20140124432A (en) 2013-04-15 2013-04-15 A method of encoding and decoding depth information map and an apparatus using it

Publications (1)

Publication Number Publication Date
KR20140124432A true KR20140124432A (en) 2014-10-27

Family

ID=51994642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130040867A KR20140124432A (en) 2013-04-15 2013-04-15 A method of encoding and decoding depth information map and an apparatus using it

Country Status (1)

Country Link
KR (1) KR20140124432A (en)

Similar Documents

Publication Publication Date Title
KR102155362B1 (en) Method and apparatus for image encoding/decoding using prediction of filter information
CN109716765B (en) Improved interpolation filters for intra prediction in video coding
CN111886861B (en) Image decoding method and apparatus according to block division structure in image coding system
KR101773693B1 (en) Disparity vector derivation in 3d video coding for skip and direct modes
WO2019131651A1 (en) Systems and methods for partitioning video blocks at a boundary of a picture for video coding
EP2590411A2 (en) Apparatus and method for encoding/decoding images for intra-prediction coding
KR20210019108A (en) Transform-based image coding method and apparatus therefor
JP6446488B2 (en) Video data decoding method and video data decoding apparatus
US20150146779A1 (en) In-loop filtering method and apparatus using same
WO2012154847A1 (en) Filtering blockiness artifacts for video coding
KR20200078646A (en) Inter prediction mode based image processing method and apparatus therefor
KR20200132978A (en) Image processing method and apparatus therefor
KR20200130453A (en) Inter prediction mode based image processing method and apparatus therefor
KR20200140896A (en) Inter prediction mode based image processing method and apparatus therefor
CN113196783A (en) De-blocking filter adaptive encoder, decoder and corresponding methods
KR20210008105A (en) Video encoding/decoding method and apparatus
KR20200132979A (en) Image processing method and apparatus therefor
KR102105323B1 (en) A method for adaptive illuminance compensation based on object and an apparatus using it
JP2022537160A (en) Transform-based video coding method and apparatus
KR20140124434A (en) A method of encoding and decoding depth information map and an apparatus using it
CN119383360A (en) Image compilation method and device based on transformation
CN114342393A (en) Image compiling method based on transformation and equipment thereof
CN118678090A (en) CCLM prediction-based image decoding method and device
CN114762340B (en) Method and apparatus for converting compiled image
KR20220027986A (en) Image encoding/decoding method using filtering, apparatus and method of transmitting a bitstream

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130415

N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20130515

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid