[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014058207A1 - 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치 - Google Patents

다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치 Download PDF

Info

Publication number
WO2014058207A1
WO2014058207A1 PCT/KR2013/008982 KR2013008982W WO2014058207A1 WO 2014058207 A1 WO2014058207 A1 WO 2014058207A1 KR 2013008982 W KR2013008982 W KR 2013008982W WO 2014058207 A1 WO2014058207 A1 WO 2014058207A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction information
texture block
weight prediction
view texture
weight
Prior art date
Application number
PCT/KR2013/008982
Other languages
English (en)
French (fr)
Inventor
성재원
예세훈
구문모
허진
김태섭
정지욱
손은용
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US14/434,282 priority Critical patent/US9894384B2/en
Priority to KR1020157012093A priority patent/KR20150090057A/ko
Publication of WO2014058207A1 publication Critical patent/WO2014058207A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a method and apparatus for coding a multiview video signal.
  • Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium.
  • the object of compression encoding includes objects such as voice, video, text, and the like.
  • a technique of performing compression encoding on an image is called video image compression.
  • a general feature of a multiview video image is that it has spatial redundancy, temporal redundancy and inter-view redundancy.
  • An object of the present invention is to improve the coding efficiency of a video signal.
  • the present invention is characterized by deriving the weight prediction information of the current view texture block based on the weight prediction information of the neighbor view texture block.
  • weight prediction information of a neighboring view texture block is determined based on an average value of pixels of a picture including a current view texture block and a difference average value of pixels, an average value of pixels of a picture including a neighbor view texture block, and a difference average value of pixels.
  • the weight prediction information of the current view texture block is derived.
  • the present invention can improve coding efficiency by reducing the amount of data to be transmitted by deriving the weight prediction information used for weight compensation of the current view texture block based on the weight prediction information of the neighbor view texture block.
  • the accuracy of the video data prediction may be improved by modifying the weight prediction information of the neighbor view in consideration of the characteristics of the picture including the current view texture block.
  • the processing step may be simplified to reduce the signal processing complexity of the encoder / decoder.
  • FIG. 1 is a schematic block diagram of a video decoder according to an embodiment to which the present invention is applied.
  • FIG. 2 is a schematic block diagram of a video encoder according to an embodiment to which the present invention is applied.
  • FIG. 5 is a diagram for describing a weight prediction method in a video image having one viewpoint.
  • 6 and 7 are diagrams for describing a weight prediction method in a multiview video image.
  • FIG. 8 is a flowchart illustrating a method for deriving weight prediction information in an embodiment to which the present invention is applied.
  • FIG. 9 is a flowchart illustrating a method for generating weight prediction information in an embodiment to which the present invention is applied.
  • the decoding method of a video signal may include obtaining weighted prediction information of a neighboring view texture block corresponding to a current view texture block, and using the weighted prediction information of the neighboring view texture block. Deriving weight prediction information of a texture block and performing weight compensation on the current view texture block by using the derived weight prediction information.
  • the apparatus for decoding a video signal obtains weight prediction information of a neighbor view texture block corresponding to a current view texture block, and uses the current weight prediction information of the neighbor view texture block.
  • a weight prediction information derivation unit for deriving weight prediction information of the viewpoint texture block and a weight compensation unit for performing weight compensation on the current viewpoint texture block by using the derived weight prediction information are examples of weight prediction information.
  • the encoding method of a video signal may include generating weight prediction information of a current view texture block, generating weight prediction information of a neighbor view texture block, and the neighbor view texture block and the If the reference block of the current view texture block has the same POC, activating a weight prediction information flag of the current view texture block.
  • Techniques for compression encoding or decoding multi-view video signal data take into account spatial redundancy, temporal redundancy, and redundancy existing between viewpoints.
  • a multiview texture image photographed from two or more viewpoints may be coded to implement a 3D image.
  • the term coding in this specification may include both the concepts of encoding and decoding, and may be flexibly interpreted according to the technical spirit and technical scope of the present invention.
  • the current block and the current picture mean a block and a picture to be processed (or coded), and the current view means a view to be processed.
  • the neighbor view may be a view other than the current view, which is a reference view used for inter-view prediction of a multiview video image, and may mean a base view or an independent view.
  • the texture block of the neighboring viewpoint may be specified using the inter-view displacement vector.
  • a video decoder includes a NAL parser 110, an entropy decoder 120, an inverse quantization / inverse transform unit 130, an intra predictor 140, an in-loop filter unit 150, and a decoded picture.
  • the buffer unit 160 and the inter prediction unit 170 may be included.
  • the NAL parser 110 may receive a bitstream including multi-view texture data.
  • the entropy decoding unit 120 may extract quantized transform coefficients, coding information for prediction of a texture picture, and the like through entropy decoding.
  • the intra predictor 140 may perform intra prediction using the reconstructed texture data in the current view texture picture.
  • the coding information used for intra prediction may include intra prediction mode and partition information of intra prediction.
  • the in-loop filter unit 150 may apply an in-loop filter to each coded block to reduce block distortion.
  • the filter can smooth the edges of the block to improve the quality of the decoded picture.
  • Filtered texture pictures may be output or stored in the decoded picture buffer unit 160 for use as a reference picture.
  • the decoded picture buffer unit 160 stores or opens a previously coded texture picture in order to perform inter prediction.
  • frame_num and POC Picture Order Count, a value indicating an output order of pictures
  • the inter prediction unit 170 may perform motion compensation on the current block by using the reference picture and the motion information stored in the decoded picture buffer unit 160.
  • the motion information may be understood as a broad concept including a motion vector and reference index information.
  • the inter prediction unit 170 may perform temporal inter prediction to perform motion compensation.
  • Temporal inter prediction may refer to inter prediction using motion information of a reference picture and a current view texture block located at the same time point and a different time zone than the current view texture block.
  • inter-view inter prediction may be further performed as well as temporal inter prediction.
  • Inter-view inter prediction may refer to inter prediction using motion information of a reference picture located at a different viewpoint than the current view texture block and the current view texture block.
  • Weight prediction is a coding technique for predicting how much darker and brighter a reference picture is located at the same time and different time zones as the current view texture block during inter prediction.
  • the reference picture is adaptively weighted to predict a signal. Can be.
  • the inter prediction unit 170 may further perform weighted prediction when performing temporal inter prediction / motion compensation to perform weight compensation to compensate for the luminance change of the reference picture and the current texture block. Detailed description thereof will be described with reference to FIG. 3.
  • FIG. 2 is a schematic block diagram of a video encoder according to an embodiment to which the present invention is applied.
  • the video encoder includes a transformer / quantizer 210, an inverse quantizer / inverse transformer 220, a filter 230, an intra predictor 240, an inter predictor 250, and a decoded picture.
  • the buffer unit 260 and the entropy coding unit 270 may be included.
  • the converter converts texture data of an input video signal to obtain transform coefficients.
  • a discrete cosine transform (DCT) or a wavelet transform (DCT) may be used as the transform method, and the quantization unit quantizes the transform coefficient values output from the transform unit.
  • the inverse quantization / inverse transform unit 220 may apply a quantization parameter to the quantized transform coefficients to obtain transform coefficients, and inversely transform the transform coefficients to restore texture data.
  • the decoded texture data may include residual data according to the prediction process.
  • the intra predictor 240 may perform intra prediction using the reconstructed texture data in the current view texture picture.
  • the coding information used for intra prediction may include intra prediction mode and partition information of intra prediction.
  • the inter predictor 250 may perform motion compensation on the current block by using the reference picture and the motion information stored in the decoded picture buffer 160.
  • the inter predictor 250 may include a motion compensator 251 and a negative sound estimator 252.
  • the motion estimation unit 252 may perform temporal inter prediction or inter-view inter prediction using the reference picture and motion information.
  • the motion compensator 251 may perform inter-screen motion compensation using the motion vector value predicted by the motion estimator 252.
  • the weight predicting unit 300 may include a derivation determining unit 310, a weight prediction information deriving unit 320, and a weight compensating unit 330.
  • the induction determining unit 310 may determine whether to derive the weight prediction information of the current texture block based on the weight prediction information of the neighboring texture block based on the weight prediction information flag of the current texture block.
  • the weight prediction information refers to weight information for predicting the luminance change of the reference picture and the current texture block and compensating the current texture block.
  • the weight prediction information may include a weighting factor and an additive offset.
  • the weight prediction information flag refers to a flag indicating whether the weight prediction information of the current view texture block is derived from the weight prediction information of the neighboring view texture block or directly obtained from the bit stream. For example, when the weight prediction information flag is activated (for example, when the flag value is '1'), the determination determiner 310 may use the weight prediction information of the neighboring viewpoint texture block to estimate the weight prediction information of the current viewpoint texture block. Can be determined to induce. On the contrary, when the weight prediction information flag is deactivated (for example, when the flag value is '0'), the induction determination unit 310 may determine that the weight prediction information of the current view texture block is directly obtained from the bitstream. have.
  • the weight prediction information derivation unit 320 may derive the weight prediction information of the current view texture block by using the weight prediction information of the neighboring view texture block.
  • the weight prediction information derivation unit 320 may obtain weight prediction information of the neighboring viewpoint texture block and derive the weight prediction information of the current viewpoint texture block by using the obtained weight prediction information.
  • a method of deriving weight prediction information a) a method of deriving weight prediction information of a neighbor view texture block as it is and deriving it into weight prediction information of a current view texture block; There is a method of deriving weight prediction information of a block.
  • the method inherits the weight prediction information of the neighboring viewpoint texture block as it is and uses it as the weight prediction information of the current viewpoint texture block.
  • the temporal contrast changes between the viewpoints due to the same or similar characteristics.
  • x means weight prediction information of the neighboring viewpoint texture block
  • y means weight prediction information of the derived current viewpoint texture block.
  • the coefficients of the derivation function such as a and b may be extracted from the bitstream through a sequence parameter set, a slice header, and the like, or may be information calculated in the decoder. The derivation of a and b is shown in Equation 2 below.
  • the weight compensation unit 330 performs weight compensation using the weight prediction information of the current view texture block derived from the weight prediction information deriving unit 320 or the weight prediction information obtained from the bitstream. As described above, the brightness of the current view texture block may be compensated by adaptively weighting the reference picture based on the weight prediction information.
  • the weight predictor 400 may include a weight prediction information generator 410 and a weight prediction information flag generator 420.
  • the weight prediction information generator 410 may generate weight prediction information of the texture block at each view.
  • the weight prediction information flag generator 420 may activate or deactivate the weight prediction information flag of the current view texture block to be coded.
  • the weight prediction information flag generator 420 activates the weight prediction information flag when the reference picture of the current texture block and the neighboring view texture block have the same picture of counter (POC) (for example, '1'). Can be set to ').
  • POC picture of counter
  • the weight prediction information flag generator 420 may code the activated or deactivated weight prediction information flag in the slice header.
  • a weighted prediction table (WP table) is applied to a reference picture at a time point T0 that has been decoded and reconstructed to compensate for brightness of a current picture being processed at time point T1. can do.
  • 6 and 7 are diagrams for describing a weight prediction method in a multiview video image.
  • FIG. 8 is a flowchart illustrating a method for deriving weight prediction information in an embodiment to which the present invention is applied.
  • the decoder when the weight prediction information flag is set to 1 (S810, Yes), the decoder according to an embodiment of the present invention may obtain weight prediction information of the neighboring viewpoint texture block (S820). In operation S830, the weight prediction information of the current view texture block may be derived using the weight prediction information of the neighboring view texture block. In contrast, when the weight prediction information flag is set to 0 (S810, NO), the weight prediction information of the current view texture block may be obtained (S850).
  • the decoder may perform weight compensation on the current texture block using the weight prediction information of the current block (S860).
  • FIG. 9 is a flowchart illustrating a method for generating weight prediction information in an embodiment to which the present invention is applied.
  • the encoder may generate weight prediction information of each viewpoint in the multiview video signal (S910). Then, the difference value between the weight prediction information of the neighboring viewpoint texture block and the weight prediction information of the current viewpoint texture block is calculated to set the weight prediction information flag of the current viewpoint texture block to 1 when the threshold value is less than or equal to (S920). It may be (S930). On the contrary, if it is not less than the threshold value (S920, NO), the weight prediction information flag of the current view texture block may be set to 0 (S940).
  • the encoder may set the weight prediction information flag to 1 only when the weight prediction information of the neighboring view texture block and the weight prediction information of the current view texture block are the same.
  • the decoding / encoding device to which the present invention is applied may be provided in a multimedia broadcasting transmission / reception device such as DMB (Digital Multimedia Broadcasting), and may be used to decode video signals and data signals.
  • the multimedia broadcasting transmission / reception apparatus may include a mobile communication terminal.
  • the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer. It can be stored in the recording medium.
  • the computer readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of a carrier wave (eg, transmission over the Internet). It also includes.
  • the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.
  • the present invention can be used to code a video signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에 따른 비디오 신호 디코딩 방법은 현재 시점 텍스쳐 블록에 대응하는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하고, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하여, 유도된 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록에 대해 가중치 보상을 수행한다.

Description

다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치
본 발명은 다시점 비디오 신호의 코딩 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 다시점 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성 및 시점간 중복성을 지니고 있는 점에 특징이 있다.
본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.
본 발명은 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 기초로 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 한다.
본 발명은 가중치 예측 정보 플래그를 기초로 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 현재 시점 텍스쳐 블록의 가중치 예측 정보 유도에 이용할 지 판단하는 것을 특징으로 한다.
본 발명은 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀들의 평균값 및 픽셀들의 차분평균값과 이웃 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀들의 평균값 및 픽셀들의 차분평균값을 기초로 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 변형하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 한다.
본 발명은 현재 시점 텍스쳐 블록의 가중치 보상에 사용되는 가중치 예측 정보를 별도로 전송하지 않고 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 기초하여 유도함으로써 전송해야하는 데이터양을 줄여 코딩 효율을 향상시킬 수 있다.
그리고, 가중치 예측 정보 유도시 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 특성을 고려하여 이웃 시점의 가중치 예측 정보를 변형함으로써 비디오 데이터 예측의 정확성을 높일 수 있다.
또한, 다시점의 블럭 중 일부 시점의 블럭에 대해서만 가중치 예측 정보를 획득함으로써 처리 단계가 간소화되어 인코더/디코더의 신호 처리 복잡도를 감소시킬 수 있다.
도 1은 본 발명이 적용되는 일 실시예로서, 비디오 디코더의 개략적인 블록도를 도시한 것이다.
도 2는 본 발명이 적용되는 일 실시예로서, 비디오 인코더의 개략적인 블록도를 도시한 것이다.
도 3은 본 발명이 적용되는 일 실시예로서, 가중치 예측부의 개략적인 구성을 도시한 것이다.
도 4는 본 발명이 적용되는 일 실시예로서, 가중치 예측부의 개략적인 구성을 도시한 것이다.
도 5는 하나의 시점을 갖는 비디오 영상에서의 가중치 예측 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 다시점 비디오 영상에서의 가중치 예측 방법을 설명하기 위한 도면이다.
도 8은 본 발명이 적용되는 일 실시예로, 가중치 예측 정보를 유도하기 위한 방법을 도시한 흐름도이다.
도 9는 본 발명이 적용되는 일 실시예로, 가중치 예측 정보를 생성하기 위한 방법을 도시한 흐름도이다.
본 발명의 일 실시 예에 따른 비디오 신호의 디코딩 방법은, 현재 시점 텍스쳐 블록에 대응하는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하는 단계, 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 단계 및 상기 유도된 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록에 대해 가중치 보상을 수행하는 단계를 포함한다.
한편, 본 발명의 일 실시 예에 따른 비디오 신호의 디코딩 장치는, 현재 시점 텍스쳐 블록에 대응하는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하고, 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 가중치 예측 정보 유도부 및 상기 유도된 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록에 대해 가중치 보상을 수행하는 가중치 보상부를 포함한다.
한편, 본 발명의 일 실시 예에 따른 비디오 신호의 인코딩 방법은, 현재 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 단계, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 단계 및 상기 이웃 시점 텍스쳐 블록과 상기 현재 시점 텍스쳐 블록의 참조 블록이 동일한 POC를 갖는 경우, 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 하는 단계를 포함한다.
한편, 본 발명의 일 실시 예에 따른 비디오 신호의 인코딩 장치는, 현재 시점 텍스쳐 블록의 가중치 예측 정보를 생성하고, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 가중치 예측 정보 생성부 및 상기 이웃 시점 텍스쳐 블록과 상기 현재 시점 텍스쳐 블록의 참조 블록이 동일한 POC를 갖는 경우, 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 하는 가중치 예측 정보 플래그 생성부를 포함한다.
다시점 비디오 신호 데이터를 압축 부호화 또는 복호화하는 기술은 공간적 중복성, 시간적 중복성 및 시점 간 존재하는 중복성을 고려하고 있다. 또한, 다시점 영상의 경우, 3차원 영상을 구현하기 위해 2개 이상의 시점에서 촬영된 다시점 텍스쳐 영상을 코딩할 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.
한편, 본 명세서에서 현재 블록, 현재 픽쳐는 처리(또는 코딩)하고하자 하는 블록, 픽쳐를 의미하고, 현재 시점은 처리하고자 하는 시점(View)을 의미한다. 그리고, 이웃 시점이란 현재 시점 아닌 다른 시점으로, 다시점 비디오 영상의 시점간 예측에 이용되는 참조 시점일 수 있으며, 베이스 뷰(base view) 또는 독립 시점(independent view) 을 의미할 수 있다.
한편, 이웃 시점의 텍스쳐 블록은 시점간 변위 벡터를 이용하여 특정될 수 있다. 여기서, 시점간 변위 벡터는 현재 시점 텍스쳐 블록의 이웃 블록의 시점간 변위벡터를 이용하는 방법과 현재 시점 텍스쳐 블록의 뎁스 값을 이용하여 유도하는 방법이 있을 수 있다.
도 1은 본 발명이 적용되는 일 실시예로서, 비디오 디코더의 개략적인 블록도를 도시한 것이다.
도 1을 참조하면, 비디오 디코더는 NAL 파싱부(110), 엔트로피 디코딩부(120), 역양자화/역변환부(130), 인트라 예측부(140), 인-루프 필터부(150), 복호 픽쳐 버퍼부(160), 인터 예측부(170)를 포함할 수 있다. NAL 파싱부(110)는 다시점 텍스쳐 데이터를 포함한 비트스트림을 수신할 수 있다.
NAL 파싱부(110)는 입력된 비트스트림을 복호화하기 위해 NAL 단위로 파싱을 수행할 수 있다. 입력된 비트스트림이 다시점 관련 데이터(예를 들어, 3-Dimensional Video)인 경우, 입력된 비트스트림은 카메라 파라미터를 더 포함할 수 있다. 카메라 파라미터에는 고유의 카메라 파라미터 (intrinsic camera parameter) 및 비고유의 카메라 파라미터 (extrinsic camera parameter)가 있을 수 있고, 고유의 카메라 파라미터는 초점 거리(focal length), 가로세로비(aspect ratio), 주점(principal point) 등을 포함할 수 있고, 비고유의 카메라 파라미터는 세계 좌표계에서의 카메라의 위치정보 등을 포함할 수 있다.
엔트로피 디코딩부(120)는 엔트로피 디코딩을 통하여 양자화된 변환 계수, 텍스쳐 픽쳐의 예측을 위한 코딩 정보 등을 추출할 수 있다.
역양자화/역변환부(130)에서는 양자화된 변환 계수에 양자화 파라미터를 적용하여 변환 계수를 획득하고, 변환 계수를 역변환하여 텍스쳐 데이터를 복호화할 수 있다. 여기서, 복호화된 텍스쳐 데이터는 예측 처리에 따른 레지듀얼 데이터를 포함할 수 있다.
인트라 예측부(140)는 현재 시점 텍스쳐 픽쳐 내의 복원된 텍스쳐 데이터를 이용하여 화면 내 예측을 수행할 수 있다. 여기서, 화면 내 예측을 위해 이용되는 코딩 정보는 인트라 예측 모드, 인트라 예측의 파티션 정보를 포함할 수 있다.
인-루프 필터부(150)는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 블록에 인-루프 필터를 적용할 수 있다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 픽쳐의 화질을 향상시킬 수 있다. 필터링을 거친 텍스쳐 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(160)에 저장될 수 있다.
복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(160)에서는 화면 간 예측을 수행하기 위해서 이전에 코딩된 텍스쳐 픽쳐를 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(160)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count, 픽쳐의 출력 순서를 나타내는 값)를 이용할 수 있다.
인터 예측부(170)는 복호 픽쳐 버퍼부(160)에 저장된 참조 픽쳐와 모션 정보를 이용하여 현재 블록의 모션 보상을 수행할 수 있다. 본 명세서에서 모션 정보라 함은 모션 벡터, 레퍼런스 인덱스 정보를 포함하는 광의의 개념으로 이해될 수 있다. 또한, 인터 예측부(170)는 모션 보상을 수행하기 위해 시간적 인터 예측을 수행할 수 있다. 시간적 인터 예측이라 함은 현재 시점 텍스쳐 블록과 동일 시점 및 다른 시간대에 위치한 참조 픽쳐 및 현재 시점 텍스쳐 블록의 모션 정보를 이용한 인터 예측을 의미할 수 있다. 또한, 복수 개의 카메라에 의해 촬영된 다시점 영상의 경우, 시간적 인터 예측뿐만 아니라 시점 간 인터 예측을 더 수행할 수도 있다. 시점 간 인터 예측이라 함은 현재 시점 텍스쳐 블록과 다른 시점에 위치한 참조 픽쳐와 현재 시점 텍스쳐 블록의 모션 정보를 이용한 인터 예측을 의미할 수 있다.
한편, 인터 예측부(170)는 가중치 예측부를 더 포함하여 가중치 보상을 수행하기 위해 가중치 예측(Weighted Prediction)을 수행할 수 있다.
가중치 예측이라 함은 인터 예측시 현재 시점 텍스쳐 블록과 동일 시점 및 다른 시간대에 위치한 참조 픽쳐에 비해 얼마나 어두워지고 밝아지는지를 예측하는 코딩 기술이다. 즉, 페이드인(어두운 영상이 조금씩 밝아지는 현상), 페이드 아웃(밝은 영상이 조금씩 어두워지는 현상)과 같이 밝기가 시간적으로 변화하는 영상을 부호화할때 참조 픽쳐에 적응적으로 가중치를 주어 신호를 예측할 수 있다.
인터 예측부(170)는 시간적 인터예측 / 모션 보상을 수행할 때 가중치 예측을 더 수행하여 참조 픽쳐와 현재 텍스쳐 블록의 휘도 변화를 보상하는 가중치 보상을 수행할 수 있다. 이에 대한 자세한 설명은 도 3을 참고하여 설명하도록 한다.
도 2는 본 발명이 적용되는 일 실시예로서, 비디오 인코더의 개략적인 블록도를 도시한 것이다.
도 2를 참조하면, 비디오 인코더는 변환부/양자화부(210), 역양자화부/역변환부(220), 필터링부(230), 인트라 예측부(240), 인터 예측부(250), 복호 픽쳐 버퍼부(260), 엔트로피 코딩부(270)를 포함할 수 있다.
변환부/양자화부(210)에서, 변환부는 입력 받은 비디오 신호에 대한 텍스쳐 데이터를 변환하여 변환 계수을 획득한다. 이러한 변환 방법으로는, 이산 코사인 변환(DCT : Discrete Cosine Transform 또는 웨이블릿 변환(Wavelet Transform) 등이 사용될 수 있다. 그리고, 양자화부에서는 변환부에서 출력된 변환 계수 값을 양자화한다.
역양자화/역변환부(220)에서는 양자화된 변환 계수에 양자화 파라미터를 적용하여 변환 계수를 획득하고, 변환 계수를 역변환하여 텍스쳐 데이터를 복원할 수 있다. 여기서, 복호화된 텍스쳐 데이터는 예측 처리에 따른 레지듀얼 데이터를 포함할 수 있다.
필터링부(230)는 복원된 텍스쳐 데이터를 의 품질 개선을 위한 필터링 연산을 수행한다. 필터링을 거친 텍스쳐 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(260)에 저장될 수 있다.
인트라 예측부(240)는 현재 시점 텍스쳐 픽쳐 내의 복원된 텍스쳐 데이터를 이용하여 화면 내 예측을 수행할 수 있다. 여기서, 화면 내 예측을 위해 이용되는 코딩 정보는 인트라 예측 모드, 인트라 예측의 파티션 정보를 포함할 수 있다.
인터 예측부(250)는 복호 픽쳐 버퍼부(160)에 저장된 참조 픽쳐와 모션 정보를 이용하여 현재 블록의 모션 보상을 수행할 수 있다. 구체적으로, 인터 예측부(250)는 움직임 보상부(251) 및 음직임 추정부(252)를 포함하여 구성될 수 있다. 움직임 추정부(252)에서는 참조 픽쳐와 모션 정보를 이용하여 시간적 인터 예측 또는 시점간 인터 예측을 수행할 수 있다. 움직임 보상부(251)는 움직임 추정부(252)에서 예측된 모션 벡터값을 이용하여 화면간 모션 보상을 수행할 수 있다.
한편, 인터 예측부(250)는 가중치 예측부를 더 포함하여 시간적 인터 예측을 수행할 때 가중치 예측을 더 수행할 수 있다. 가중치 예측을 통하여 생성된 각 시점의 가중치 예측 정보는 디코더에 전송될 수 있다. 이에 대한, 구체적인 설명은 도 4를 참고하여 설명하도록 한다.
이하에서는, 다시점 비디오 신호 처리에서 가중치 예측에 관하여 구체적으로 살펴보기로 한다.
도 3은 도 1의 디코더에 포함될 수 있는 가중치 예측부의 개략적인 구성을 도시한 도면이다. 가중치 예측부(300)는 도 1의 인터 예측부(170)에 포함될 수 있으나, 별도의 구성으로 설계될 수도 있다.
도 3을 참고하면, 가중치 예측부(300)는 유도 판단부(310), 가중치 예측 정보 유도부(320) 및 가중치 보상부(330)로 구성될 수 있다.
유도 판단부(310)은 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 기초로 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보을 유도할 지에 대해 판단할 수 있다.
여기서, 가중치 예측 정보란 참조 픽쳐와 현재 텍스쳐 블록의 휘도 변화를 예측하여 현재 텍스쳐 블록에 보상하기 위한 가중치 정보을 의미한다. 구체적으로, 가중치 예측 정보는 가중치 계수(weighting factor) 및 가산 오프셋(addative offset)를 포함할 수 있다.
그리고, 가중치 예측 정보 플래그란 현재 시점 텍스쳐 블록의 가중치 예측 정보을 이웃 시점 텍스쳐 블록의 가중치 예측 정보로 부터 유도할지 또는 비트 스트림에서 직접 획득할지를 지시하는 플래그를 의미한다. 일 예로, 가중치 예측 정보 플래그가 활성화 되어 있는 경우(일 예로 플래그 값이 '1'인 경우), 유도 판단부(310)는 이웃 시점 텍스쳐 블록의 가중치 예측 정보을 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도한다고 판단할 수 있다. 반대로, 가중치 예측 정보 플래그가 비활성화 되어 있는 경우(일예로 플래그 값이 '0'인 경우), 유도 판단부(310)는 비트스트림으로 부터 현재 시점 텍스쳐 블록의 가중치 예측 정보를 직접 획득한다고 판단할 수 있다.
그리고, 가중치 예측 정보에는 복수의 파라메터가 존재하므로, 가중치 예측 정보 플래그는 복수의 파라메터 각각의 유도여부를 표시할 수 있다. 가중치 예측 정보 플래그는 슬라이스 헤더에 포함될 수 있다.
한편, 유도 판단부(310)는 이웃 시점 텍스쳐 블록의 참조 픽쳐과 현재 시점 텍스쳐 블록의 참조 픽쳐의 POC(Picture Of Counter)가 동일한 경우에도 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것으로 판단 할 수도 있다.
가중치 예측 정보 유도부(320)는 유도 판단부(310)에서 가중치 예측 정보를 유도한다고 판단된 경우, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도할 수 있다. 구체적으로, 가중치 예측 정보 유도부(320)는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하고, 획득된 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보을 유도할 수 있다.
가중치 예측 정보의 유도 방법으로 a) 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 그대로 상속하여 현재 시점 텍스쳐 블록의 가중치 예측 정보로 유도하는 방법과 b) 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 변형하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 방법이 있다.
a) 방법은 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 그대로 상속하여, 현재 시점 텍스쳐 블록의 가중치 예측 정보로 이용한다. 다시점 비디오 영상의 경우 각 시점간에 시간적 명암의 변화가 동일 하거나 유사한 특성에 기인한다.
b) 방법은 현재 시점의 특성을 고려하여 가중치 예측 정보를 유도하는 방법이다. 구체적으로, 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값과 이웃 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값을 기초로 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 변형하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 방법이다. 여기서, 픽셀의 차분평균값이란 픽쳐의 각 픽셀 값에 앞서 계산된 픽셀의 평균값을 뺀 차분값들의 평균을 의미한다.
구체적인 유도 방법은 수학식 1 내지 를 토대로 살펴보기로 한다.
수학식 1
Figure PCTKR2013008982-appb-M000001
여기서 x 는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 의미하고, y는 유도된 현재 시점 텍스쳐 블록의 가중치 예측 정보를 의미한다. a, b와 같은 유도 함수의 계수는 시퀀스 파라미터 세트, 슬라이스 헤더 등을 통하여 비트스트림으로부터 추출될 수 있으며, 디코더 내에서 계산되는 정보 일 수도 있다. a, b의 유도식은 아래 수학식 2와 같다.
수학식 2
Figure PCTKR2013008982-appb-M000002
여기서, H는 픽쳐의 높이, W는 픽쳐의 폭, I는 픽쳐의 픽셀값을 의미한다. 수학식 2에서 DC는 픽쳐의 픽셀들의 평균값, AC는 픽쳐의 픽셀들의 차분평균값에 대응되는 값으로, 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값(DCcurr)과 픽셀의 차분평균값(ACcurr), 이웃 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값(DCref) 및 픽셀의 차분평균값(ACref)을 기초로 현재 시점 텍스쳐 블록의 가중치 예측 정보가 유도됨을 확인할 수 있다.
가중치 보상부(330)는 가중치 예측 정보 유도부(320)에서 유도된 현재 시점 텍스쳐 블록의 가중치 예측 정보 또는 비트스트림에서 획득된 가중치 예측 정보를 이용하여 가중치 보상을 수행한다. 앞서 설명한 바와 같이, 가중치 예측 정보에 기초하여 참조 픽처에 적응적으로 가중치를 주어 현재 시점 텍스쳐 블록의 밝기를 보상할 수 있다.
도 4는 도 2의 인코더에 포함될 수 있는 가중치 예측부의 개략적인 구성을 도시한 도면이다. 가중치 예측부(400)는 도 2의 인터 예측부(250)에 포함되어 구성될 수 있으나, 별도의 구성으로 설계될수 있다.
도 4를 참고하면, 가중치 예측부(400)는 가중치 예측 정보 생성부(410) 및 가중치 예측 정보 플래그 생성부(420)로 구성될 수 있다.
가중치 예측 정보 생성부(410)는 각 시점의 텍스쳐 블록의 가중치 예측 정보를 생성할 수 있다.
가중치 예측 정보 플래그 생성부(420)는 코딩하려는 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 또는 비활성화할 수 있다. 가중치 예측 정보 플래그의 활성화는 가중치 예측 정보 플래그 생성부(420)는 현재 텍스쳐 블록과 이웃 시점 텍스쳐 블록의 참조 픽쳐가 동일한 POC(Picture Of Counter)을 갖는 경우 가중치 예측 정보 플래그를 활성화(일 예로 '1'로 설정)할 수 있다.
또는, 가중치 예측 정보 플래그 생성부(420)는 이웃 시점 텍스쳐 블록 및 현재 시점 텍스쳐 블록의 가중치 예측 정보의 차이가 임계값이내인 경우 가중치 예측 정보 플래그를 활성화 할 수도 있다.
한편, 가중치 예측 정보 플래그 생성부(420)는 활성화 또는 비활성화된 가중치 예측 정보 플래그를 슬라이스 헤더에 포함하여 코딩할 수 있다.
이상에서는 본 발명의 일 실시예에 따른 가중치 예측부에 대해 설명하였다. 이하에서는 이해의 편의를 위하여 도 5 내지 도 7를 참고하여 가중치 예측에 대해 설명하도록 한다.
도 5는 하나의 시점을 갖는 비디오 영상에서의 가중치 예측 방법을 설명하기 위한 도면이다.
도 5를 참고하면, 이미 디코딩되어 복원된 T0 시점의 참조 픽쳐(Reference Picture)에 가중치 예측 정보(WP table, Weighted Prediction table)을 적용하여 T1 시점의 현재 처리중인 픽쳐(Current Picture)의 밝기를 보상할 수 있다.
도 6 및 도 7은 다시점 비디오 영상에서의 가중치 예측 방법을 설명하기 위한 도면이다.
도 6과 같이 다시점 비디오 영상을 코딩할 경우 이미 복원된 영상들은 현재 코딩중인 영상(V1, T1)과 같은 시점의 영상(V1, T0)과 다른 시점의 영상(V0, T1)으로 구성될 수 있다. 다시점 비디오 영상의 경우 각 시점간에 시간적 명암의 변화가 동일 하거나 유사한 특성을 가지고 있다. 이와 같은 특성을 이용하여 도 7과 같이 이웃 시점(V0)의 가중치 예측 정보(WP table, Weighted Prediction table)을 현재 시점(V1)의 가중치 예측 정보(WP table Inheritance)로 이용할 수 있다. 앞서 설명한 바와 같이, 이웃 시점의 가중치 예측 정보를 그대로 이용하거나 이를 변형하여 이용할 수 있다.
한편, 도 5 내지 도 7에서는 하나의 참조 픽쳐를 사용하여 가중치 예측 방법에 대해 설명하였으나, 예측 모드에 따라 복수의 참조 픽쳐를 사용할 수도 있다.
도 8은 본 발명이 적용되는 일 실시예로, 가중치 예측 정보를 유도하기 위한 방법을 도시한 흐름도이다.
도 8을 참조하면, 본 발명의 일 실시 예에 따른 디코더는 가중치 예측 정보 플래그가 1로 설정되어 있는 경우(S810, 예), 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득할 수 있다(S820). 그리고, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도할 수 있다(S830). 반대로, 가중치 예측 정보 플래그가 0으로 설정되어 있는 경우(S810, 아니오), 현재 시점 텍스쳐 블록의 가중치 예측 정보를 획득할 수 있다(S850).
그리고, 디코더는 현재 블록의 가중치 예측 정보를 이용하여 현재 텍스쳐 블록에 대한 가중치 보상을 수행할 수 있다(S860).
가중치 예측 정보를 유도하는 방법, 가중치 예측 정보 및 가중치 예측 정보 플래그에 대하여 도 3에서 구체적으로 설명하였는 바 중복설명은 생략하도록 한다.
도 9는 본 발명이 적용되는 일 실시예로, 가중치 예측 정보를 생성하기 위한 방법을 도시한 흐름도이다.
인코더는 다시점 비디오 신호에서 각 시점의 가중치 예측 정보를 생성할 수 있다(S910). 그리고, 이웃 시점 텍스쳐 블록의 가중치 예측 정보와 현재 시점 텍스쳐 블록의 가중치 예측 정보의 차이값을 계산하여, 임계값이하 인 경우(S920, 예), 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 1로 설정할 수 있다(S930). 반대로, 임계값이하가 아닌 경우(S920, 아니오), 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 0으로 설정할 수 있다(S940).
한편, 인코더는 이웃 시점 텍스쳐 블록의 가중치 예측 정보와 현재 시점 텍스쳐 블록의 가중치 예측 정보가 동일한 경우에만 가중치 예측 정보 플래그를 1로 설정할 수도 있다.
한편, 가중치 예측 플래그를 설정하는 방법은 도 4에서 구체적으로 설명하였는 바 중복설명은 생략하도록 한다.
이상에서 설명한 바와 같이, 본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 디코딩하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.
또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.
본 발명은 비디오 신호를 코딩하는데 이용될 수 있다.

Claims (14)

  1. 현재 시점 텍스쳐 블록에 대응하는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하는 단계;
    상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 단계; 및
    상기 유도된 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록에 대해 가중치 보상을 수행하는 단계;를 포함하는 다시점 비디오 신호의 디코딩 방법.
  2. 제1항에 있어서,
    현재 시점 텍스쳐 블록의 가중치 보상에 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하는지 여부를 지시하는 가중치 예측 정보 플래그를 획득하는 단계;를 더 포함하고,
    상기 가중치 예측 정보를 유도하는 단계는,
    상기 가중치 예측 정보 플래그가 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하는 것을 지시하는 경우에만 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 방법.
  3. 제1항에 있어서,
    상기 가중치 예측 정보를 유도하는 단계는,
    상기 이웃 시점 텍스쳐 블록의 참조 픽쳐과 상기 현재 시점 텍스쳐 블록의 참조 픽쳐의 POC(Picture Of Count)가 동일한 경우에만 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 방법.
  4. 제1항에 있어서,
    상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 단계는,
    상기 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값과 상기 이웃 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값을 기초로 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 변형하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 방법.
  5. 제1항에 있어서,
    상기 가중치 예측 정보는,
    인터 예측을 위한 참조 픽쳐과 상기 현재 시점 텍스쳐 블록의 명암 차이를 보상하기 위한 가중치 정보인 것을 특징으로 하는 다시점 비디오 신호의 디코딩 방법.
  6. 현재 시점 텍스쳐 블록에 대응하는 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 획득하고, 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 가중치 예측 정보 유도부; 및
    상기 유도된 가중치 예측 정보를 이용하여 상기 현재 시점 텍스쳐 블록에 대해 가중치 보상을 수행하는 가중치 보상부;를 포함하는 다시점 비디오 신호의 디코딩 장치.
  7. 제6항에 있어서,
    현재 시점 텍스쳐 블록의 가중치 보상에 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하는지 여부를 지시하는 가중치 예측 정보 플래그를 획득하여, 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용여부를 판단하는 유도 판단부;를 더 포함하고,
    상기 가중치 예측 정보 유도부는, 상기 가중치 예측 정보 플래그가 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 이용하는 것을 지시하는 경우에만 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 장치.
  8. 제6항에 있어서,
    상기 가중치 예측 정보 유도부는,
    상기 이웃 시점 텍스쳐 블록의 참조 픽쳐와 상기 현재 시점 텍스쳐 블록의 참조 픽쳐의 POC(Picture Of Count)가 동일한 경우에만 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 장치.
  9. 제6항에 있어서,
    상기 가중치 예측 정보 유도부는,
    상기 현재 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값과 상기 이웃 시점 텍스쳐 블록을 포함하는 픽쳐의 픽셀의 평균값 및 픽셀의 차분평균값을 기초로 상기 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 변형하여 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보를 유도하는 것을 특징으로 하는 다시점 비디오 신호의 디코딩 장치.
  10. 제6항에 있어서,
    상기 가중치 예측 정보는,
    인터 예측을 위한 참조 블록과 상기 현재 시점 텍스쳐 블록의 명암 차이를 보상하기 위한 가중치 정보인 것을 특징으로 하는 다시점 비디오 신호의 디코딩 장치.
  11. 현재 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 단계;
    이웃 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 단계; 및
    상기 이웃 시점 텍스쳐 블록과 상기 현재 시점 텍스쳐 블록의 참조 픽쳐가 동일한 POC를 갖는 경우, 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 하는 단계;를 포함하는 다시점 비디오 신호의 인코딩 방법.
  12. 제11항에 있어서,
    상기 가중치 예측 정보 플래그를 활성화 하는 단계는,
    상기 이웃 시점 텍스쳐 블록 및 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보의 차이가 임계값이내인 경우에만 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 하는 것을 특징으로 하는 다시점 비디오 신호의 인코딩 방법.
  13. 현재 시점 텍스쳐 블록의 가중치 예측 정보를 생성하고, 이웃 시점 텍스쳐 블록의 가중치 예측 정보를 생성하는 가중치 예측 정보 생성부; 및
    상기 이웃 시점 텍스쳐 블록과 상기 현재 시점 텍스쳐 블록의 참조 픽쳐가 동일한 POC를 갖는 경우, 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보 플래그를 활성화 하는 가중치 예측 정보 플래그 생성부;를 포함하는 다시점 비디오의 인코딩 장치.
  14. 제13항에 있어서,
    상기 가중치 예측 정보 플래그 생성부는,
    상기 이웃 시점 텍스쳐 블록 및 상기 현재 시점 텍스쳐 블록의 가중치 예측 정보의 차이가 임계값이내인 경우에만 상기 가중치 예측 정보 플래그를 활성화 하는 것을 특징으로 하는 다시점 비디오 신호의 인코딩 장치.
PCT/KR2013/008982 2012-10-08 2013-10-08 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치 WO2014058207A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/434,282 US9894384B2 (en) 2012-10-08 2013-10-08 Multiview video signal encoding method and decoding method, and device therefor
KR1020157012093A KR20150090057A (ko) 2012-10-08 2013-10-08 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261710783P 2012-10-08 2012-10-08
US61/710,783 2012-10-08

Publications (1)

Publication Number Publication Date
WO2014058207A1 true WO2014058207A1 (ko) 2014-04-17

Family

ID=50477616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/008982 WO2014058207A1 (ko) 2012-10-08 2013-10-08 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치

Country Status (3)

Country Link
US (1) US9894384B2 (ko)
KR (1) KR20150090057A (ko)
WO (1) WO2014058207A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188782A3 (ko) * 2016-04-29 2018-08-02 세종대학교 산학협력단 영상 신호 부호화/복호화 방법 및 장치
CN110490235A (zh) * 2019-07-23 2019-11-22 武汉大学 一种面向2d图像的车辆对象视点预测与三维模型恢复方法及装置
US10939125B2 (en) 2016-04-29 2021-03-02 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3804331A4 (en) 2018-06-15 2021-08-11 Huawei Technologies Co., Ltd. INTRA PREDICTION PROCESS AND APPARATUS
CN115988202B (zh) * 2018-06-29 2023-11-03 华为技术有限公司 一种用于帧内预测的设备和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070000022A (ko) * 2005-06-24 2007-01-02 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20070116527A (ko) * 2006-06-05 2007-12-10 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20100000011A (ko) * 2008-06-24 2010-01-06 에스케이 텔레콤주식회사 인트라 예측 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR20110082428A (ko) * 2010-01-11 2011-07-19 삼성테크윈 주식회사 불량화소 보정 장치 및 방법
WO2011149291A2 (ko) * 2010-05-26 2011-12-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968204B1 (ko) * 2007-01-11 2010-07-06 전자부품연구원 다시점 비디오 코덱에서의 영상 예측 방법 및 이를 위한프로그램을 기록한 컴퓨터로 판독 가능한 기록매체
JP4266233B2 (ja) * 2007-03-28 2009-05-20 株式会社東芝 テクスチャ処理装置
EP2752001A4 (en) * 2011-08-30 2015-04-15 Nokia Corp APPARATUS, METHOD AND COMPUTER PROGRAM FOR VIDEO ENCODING AND DECODING
EP2898689B1 (en) * 2012-09-21 2020-05-06 Nokia Technologies Oy Method and apparatus for video coding
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070000022A (ko) * 2005-06-24 2007-01-02 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20070116527A (ko) * 2006-06-05 2007-12-10 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20100000011A (ko) * 2008-06-24 2010-01-06 에스케이 텔레콤주식회사 인트라 예측 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR20110082428A (ko) * 2010-01-11 2011-07-19 삼성테크윈 주식회사 불량화소 보정 장치 및 방법
WO2011149291A2 (ko) * 2010-05-26 2011-12-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188782A3 (ko) * 2016-04-29 2018-08-02 세종대학교 산학협력단 영상 신호 부호화/복호화 방법 및 장치
US10939125B2 (en) 2016-04-29 2021-03-02 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
US11363280B2 (en) 2016-04-29 2022-06-14 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
US11750823B2 (en) 2016-04-29 2023-09-05 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
US11856208B1 (en) 2016-04-29 2023-12-26 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
US11876983B2 (en) 2016-04-29 2024-01-16 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signals using weight prediction parameter sets based on size of current block
US11909990B2 (en) 2016-04-29 2024-02-20 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signals using weight prediction parameter sets based on neighboring regions
US12028532B2 (en) 2016-04-29 2024-07-02 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signals using weight prediction parameters
US12126818B2 (en) 2016-04-29 2024-10-22 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
US12137232B2 (en) 2016-04-29 2024-11-05 Industry Academy Cooperation Foundation Of Sejong University Method and apparatus for encoding/decoding image signal
CN110490235A (zh) * 2019-07-23 2019-11-22 武汉大学 一种面向2d图像的车辆对象视点预测与三维模型恢复方法及装置
CN110490235B (zh) * 2019-07-23 2021-10-22 武汉大学 一种面向2d图像的车辆对象视点预测与三维模型恢复方法及装置

Also Published As

Publication number Publication date
US9894384B2 (en) 2018-02-13
KR20150090057A (ko) 2015-08-05
US20150271523A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
WO2014010935A1 (ko) 비디오 신호 처리 방법 및 장치
JP6178017B2 (ja) ステレオビデオのための深度認識向上
WO2010068020A2 (ko) 다시점 영상 부호화, 복호화 방법 및 그 장치
WO2015142054A1 (ko) 다시점 비디오 신호 처리 방법 및 장치
WO2011139121A2 (ko) 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
WO2010087589A2 (ko) 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
WO2014107083A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013133648A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014058207A1 (ko) 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치
WO2013176485A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013133627A1 (ko) 비디오 신호 처리 방법
WO2013191436A1 (ko) 비디오 신호 처리 방법 및 장치
US11647181B2 (en) Prediction weighted table-based image/video coding method and apparatus
WO2012081877A2 (ko) 다시점 비디오 부호화/복호화 장치 및 방법
WO2014010918A1 (ko) 비디오 신호 처리 방법 및 장치
WO2010090462A2 (en) Apparatus and method for encoding and decoding multi-view image
WO2014107029A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015009098A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014073877A1 (ko) 다시점 비디오 신호의 처리 방법 및 이에 대한 장치
WO2016003209A1 (ko) 다시점 비디오 신호 처리 방법 및 장치
WO2014054896A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014109547A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015009091A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014054897A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013157839A1 (ko) 인간의 시각 특성을 이용한 오프셋 값 결정 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13846159

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14434282

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20157012093

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 13846159

Country of ref document: EP

Kind code of ref document: A1